exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Depuis une quarantaine d'années, les républicains se sont fait fort de réduire le poids de l'Etat fédéral. Or l'actuelle lutte contre le terrorisme, menée par une équipe républicaine qui, pourtant, adhère totalement aux critiques contre le Big Government, remettrait en cause l'engagement conservateur en faveur de la décentralisation. Les différentes mesures annoncées depuis septembre 2001 vont toutes dans le même sens, un considérable renforcement de la présence de l'Etat fédéral. Comme toutes les guerres menées par les Etats-Unis, celle entamée contre le terrorisme risquerait, elle aussi, de renforcer la centralisation. Quels sont les aspects de ce retour de l'Etat central ? Comment s'opère la recentralisation, et avec quelles conséquences dans l'équilibre fédéral ? Finalement, quelles sont les conclusions à tirer de cette évolution ? En particulier, comment s'articule la lutte contre le terrorisme avec 'engagement conservateur en faveur des Etats fédérés ?
+Selon nous, la lutte contre le terrorisme ne serait pas similaire aux évolutions entraînées par les autres conflits. Elle débouche en fait sur un activisme tous-azimut, qui concerne aussi bien l'Etat fédéral que les Etats fédérés et les autorités locales (villes, comtés). Plutôt que de parler de centralisation, il faudrait évoquer un renforcement des fonctions légitimes de chacun des niveaux du gouvernement : la défense et la protections des citoyens pour le niveau fédéral ; les autorités locales, elles, gèrent les moyens de réponse immédiats aux agressions terroristes (police, pompier, santé). L'essentiel des problèmes suscités par la protection du territoire contre le terrorisme réside dans la coordination entre les différents organes. L'administration actuelle s'engage résolument dans cette voie, et entame une réorganisation massive des administrations nationales.
+Dans le mois qui a suivi l'attentat du 11 septembre, l'administration a procédé à un certain nombre d'initiatives spectaculaires à plus d'un titre, notamment par l'intrusion massive des autorités fédérales dans différents domaines où, jusqu'alors, l'interventionnisme fédéral n'était pas de mise. A commencer par la sécurité aérienne, au vu, bien sûr, du déroulement des attentats : les attaques contre des objectifs civils semblaient alors être l 'objectif de prédilection des groupes islamistes. C'est pourquoi, sous la responsabilité du Secrétaire aux Transports, Norman Y. Mineta, un nouveau texte a été adopté par le Congrès dès le 19 novembre, le Aviation and Transportation Security Act (ATSA, Public Law 107 - 71). Ainsi est instituée la Transportation Security Administration (TSA), qui prend en charge la sécurité de l'aviation civile, auparavant de la responsabilité de la Federal Aviation Administration (FAA). A partir de février 2002, la nouvelle instance a " fédéralisé " les points de contrôle des 429 aéroports commerciaux des Etats-Unis, processus, qui, en fin de compte, devrait encore prendre quelques mois. Dorénavant, les compagnies privées de sécurité - jusqu'ici sous-traitantes des compagnies aériennes - ne sont donc plus responsables du contrôle des passagers ; près de 28000 fonctionnaires fédéraux doivent maintenant prendre le relais, et leur recrutement devrait se faire avec des critères plus exigeants que ceux requis jusqu'alors. Pendant ce temps, les craintes d'attentats contre d'autres types de cibles civiles se multipliaient. Ainsi, un certain nombre d'élus démocrates (dont le Sénateur de New York Hillary R. Clinton) ont appelé en novembre à une prise en charge fédérale de la sécurité des 103 centrales nucléaires du pays par la Nuclear Regulatory Commission. Mais l'initiative est, pour le moment, restée lettre morte au Congrès : en l'état actuel de la situation, la protection des sites nucléaires est toujours assurée par les quelques 57000 réservistes et membres de la Garde Nationale qui ont été mobilisés suite aux attentats. Initialement chargés aussi de la sécurité dans les aéroports, ils en ont été rapidement relevés lors de la création de la TSA ; ils assurent maintenant exclusivement la défense des centrales nucléaires, et l'administration Bush semble s'en satisfaire.
+Ces actions immédiates ont été renforcées par d'autres mesures, budgétaires, qui vont directement à l'encontre du libéralisme économique prôné par les républicains. Ainsi, le Président a immédiatement décidé des aides d'urgence : 40 milliards de dollars répartis entre l 'Etat de New York et le FBI, les agences de renseignement et l'armée ; à ce montant s'ajoute 15 milliards de dollars pour aider les compagnies aériennes. Autant dire que le non-interventionnisme économique de l'Etat fédéral a été immédiatement relegué au second rang devant l'urgence de la situation. La restriction budgétaire a tout de suite cédé la place à la nécessité de lutter contre le terrorisme.
+Après quatre années d'excédents fédéraux, le budget de 2003 - qui débute en octobre 2002 - renoue avec les déficits. Sous l'effet conjugué du ralentissement économique et de la lutte contre le terrorisme (les démocrates rajouteraient aussi les baisses d'impôts parmi les facteurs explicatifs), le budget devrait afficher un déficit de l'ordre de 43 milliards de dollars. Les principaux postes budgétaires sont dorénavant la sécurité du territoire (homeland security) et la défense. Dans le premier cas, le budget passe de 15 milliards de dollars à 38 milliards, une part non-négligeable (un peu moins de trois milliards) étant consacrée à la lutte contre le bioterrorisme. A un niveau institutionnel, et plus seulement fonctionnel, l'administration Bush a décidé de renforcer considérablement les polices locales, pompiers, et services d'urgence, qui, tous, constituent la première ligne de défense vis-à-vis des attaques terroristes. Environ 3,5 milliards de dollars - soit une multiplication par dix des financements antérieurs - sont ainsi destinés aux autorités locales, municipales et étatiques, c'est-à-dire aux échelons politiques responsables de ces différents corps. En ce qui concerne la défense, le Secrétaire, Donald Rumsfeld, se trouve maintenant à la tête du second poste dans le budget fédéral. Le Président a obtenu une rallonge budgétaire de 48 milliards de dollars, soit une enveloppe qui dépasse le montant du budget militaire annuel de n'importe quel autre pays dans le monde. L'effort ainsi consenti est comparable à celui engagé par Truman lors de la Guerre de Corée. Comme il y a cinquante ans, les Etats-Unis sont véritablement entrés dans un budget de guerre : celui-ci devrait atteindre 396 milliards de dollars en 2003, et, si les prévisions se concrétisent, se chiffrer à 470 milliards en 2007.
+A priori, l'administration Bush a adopté des dispositions budgétaires qui la placent en décalage par rapport aux discours républicains en faveur de la modestie budgétaire et de la nécessaire rigueur dans les dépenses. Dans ce domaine, l'Etat fédéral a bénéficié d'une nouvelle marge de manoeuvre, inespérée au vu de l'orientation politique de l'équipe dirigeante. C'est d'autant plus vrai que ces mesures ne sont pas précisément des décisions sur lesquelles l'administration se serait engagée à revenir. Au contraire, la Présidence a, dans un second temps de sa lutte contre le terrorisme, élaboré un cadre plus général qui cherche à pérenniser les décisions prises à l'automne. L'accroissement des pouvoirs de l'Etat fédéral ne tient pas de l'accident de parcours. Il s'agit au contraire d'une priorité des pouvoirs publics.
+Le rapide panorama des mesures d'urgence que nous venons d'établir a pris place dans un cadre légal établi à l'automne 2001, puis complété par une réorganisation institutionnelle des structures de l'Etat fédéral au printemps 2002. Ainsi, d'un point de vue législatif cette fois, l'administration Bush a fait présenter une loi de lutte contre le terrorisme. Massivement adoptée par le Congrès et signée par le Président le 26 octobre, le texte (USA Patriot Act, ou Uniting and Strengthening America by Providing Appropriate Tools Required to Intercept and Obstruct Terrorism, PL 197 - 56) renforce considérablement la loi précédente, celle adoptée sous l'équipe Clinton après l'attentat d'Oklahoma City. A l'époque, un grand nombre de républicains avaient réussi à bloquer les principales extensions prévues du pouvoir fédéral, mettant en avant les incohérences des agences " gouvernementales ". Le FBI, chargé de la surveillance du territoire, était en effet mis en accusation pour sa mauvaise gestion des confrontations avec une secte texane et différents mouvements " antigouvernementaux ". Dans ces conditions, la loi de mars 1996 avait été vidée de toute extension des possibilités de surveillance de l'Etat fédéral.
+Rien de tel avec la loi du 26 octobre dernier. Celle-ci repose au contraire sur une extension considérable des possibilités de surveillance, notamment électroniques, et des écoutes téléphoniques. Elle donne une définition du terrorisme intérieur qui est extrêmement large. Ainsi, toute personne se déclarant comme représentant - sans forcément être membre - d'une organisation terroriste, est considérée comme terroriste. Toute aide, et, a fortiori, tout soutien financier, sont des activités terroristes s'ils ont contribué à faciliter une quelconque attaque. Les membres de la famille d'un terroriste peuvent eux-mêmes être considérés comme tels si le Garde des Sceaux le pense. Concrètement, la liste des activités dites terroristes regroupe : toute tentative, menace ou réalisation d'un détournement ou d'un sabotage de n'importe quel moyen de transport ; toute attaque contre une personne protégée par le droit international (ambassadeur, titulaire de fonctions politiques etc.) ; enfin, toute utilisation d'une arme en vu de porter atteinte à la tranquillité publique ou de détruire la propriété d'autrui, ce qui s'ajoute aux autres crimes (incendie volontaire, explosion, meurtre, tentative de meurtre, etc) déjà inscrits dans le droit pénal fédéral. L'extension de la définition est telle que, pour certains observateurs, n'importe quelle dispute dans un bar pourrait maintenant tomber sous le coup d'une accusation de terrorisme ! Seules les mesures les plus controversées - l'extension de la détention provisoire - ont une durée de validité de quatre ans.
+Bien loin de vouloir revenir sur ces mesures adoptées dans l'urgence, l'administration républicaine, dans le cadre de sa nouvelle orientation budgétaire, tente de mettre en oeuvre une réorganisation des pouvoirs de l'administration fédérale. Un grand nombre de commentateurs y voient même une des tentatives les plus ambitieuses depuis la Seconde Guerre Mondiale.
+Le 8 octobre 2001, le Président a nommé, par ordonnance, Tom Ridge, jusque là Gouverneur républicain de Pennsylvanie, responsable de la sécurité intérieure. Il était initialement chargé de coordonner depuis la Maison Blanche les activités de défense civile de près de 50 organismes fédéraux dont la CIA et le FBI (même si le premier restait rattaché au Pentagone, et le second au Ministère de la Justice). Les observateurs étaient d'abord sceptiques sur ses chances de s'imposer dans le labyrinthe administratif que constitue la machinerie fédérale. Et ce d'autant plus qu'il disposait d'une équipe de 16 personnes et d'un budget symbolique !
+Mais en juin 2002, le Président a décidé de la création d'un Ministère de la Sécurité du Territoire (Department of Homeland Security), initiative approuvée à plus de 70% par 'opinion publique, et relayée au Congrès par le Représentant Marc Thornberry (républicain, l Texas), et les Sénateurs Joe Lieberman (démocrate, Connecticut) et Arlen Specter (républicain, Pennsylvanie). Ce tout nouveau ministère, dont Tom Ridge est le responsable, va regrouper 22 agences et services dépendant actuellement de 8 ministères différents (ainsi des gardes-côtes, des douanes, et, peut-être, des services de l'immigration). Contrairement à la précédente structure instituée en octobre 2001, celle-ci ne regroupe ni le FBI ni la CIA. Le nouveau ministère serait pourtant le 3ème ministère en nombre de fonctionnaires (selon les formules, entre 170.000 et 200.000 personnes), et, regroupant une vaste palette de compétences, serait doté d'un budget d'environ 38 milliards de dollars.
+Il complète le plan de réorganisation du FBI annoncé un mois auparavant. Secouée par les scandales et placée sous pression constante par ses autorités de tutelle et les pouvoirs politiques, l'agence est dans une position de plus en plus délicate. D'où la nécessité pour son récent directeur - Robert Mueller a pris ses fonctions une semaine avant les attentats du 11 septembre ! - de reprendre la situation en main. Son plan annonce l'affectation de 600 agents, ordinairement chargés de la lutte contre la criminalité classique, à la lutte anti-terroriste (ce qui représente une multiplication par quatre des effectifs anti-terroristes actuels). D'ici septembre 2002, le Bureau devrait au total engager 900 nouveaux agents (qui rejoignent les 7000 existants). Un nouveau bureau de renseignement devra centraliser toutes les informations sur la lutte contre le terrorisme. Il sera dirigé par un membre de la CIA ; et c'est là d'ailleurs une des grandes nouveautés introduites par ce plan, l'association plus étroite de la CIA dans le fonctionnement des activités anti-terroristes du FBI. En effet, 25 membres de la CIA sont d'ores et déjà délégués au FBI, et d'autres doivent encore être répartis dans les bureaux les plus importants. Enfin, concernant ses missions, le Bureau a des pouvoirs plus étendus (désormais, il peut par exemple espionner des espaces traditionnels de liberté d'expression, comme les lieux de culte, les bibliothèques et internet). Ainsi, l'extension de la mission anti-terroriste serait en train de faire profondément évoluer le FBI : il quitterait même son rôle de police pour devenir une agence de renseignement intérieure, tout comme la CIA à l'étranger.
+Ces deux initiatives institutionnelles, comme toutes celles évoquées jusqu'à présent, renforcent encore le poids de l'Etat fédéral. L'évaluation que nous venons de faire des modalités de la lutte contre le terrorisme ne laisse donc que peu de place au doute. Bush Jr. risque de rejoindre son père comme un des présidents républicains qui a le plus contribué à la centralisation du pays au cours des dernières années. Que ce soit pour le budget ou la justice, le poids du pouvoir central se renforce, et ce avec le soutien de l'écrasante majorité de l 'opinion publique : les sondages font état d'un niveau de confiance élevé dans l'Etat fédéral, de l'ordre de ce qu'il était au début des années soixante. Pendant l'administration Clinton, 20% des sondés déclaraient faire confiance à l'Etat fédéral ; immédiatement après les attentats, le taux a bondi à 66 %. S'il a un peu baissé depuis, il reste néanmoins très élevé, ce qui facilite grandement les mesures centralisatrices de l'équipe Bush.
+Ces différents éléments plaident tous pour la même conclusion : le renforcement de l 'autorité fédérale. Historiquement, pour faire face à des crises - économiques ou militaires -l 'Etat fédéral a toujours été le principal moteur de l'action. Il a étendu, non seulement sa taille - telle que mesurée par exemple en nombre de fonctionnaires - mais aussi son champ de compétences. Les évolutions du New Deal ou de la Seconde Guerre Mondiale furent, de ce point de vue, exemplaires. Il semblerait en aller de même actuellement.
+Or le puissant mouvement de centralisation auquel nous assistons depuis le 11 septembre ne contribue que très modestement à une extension des compétences dévolues à l 'Etat fédéral. Les mesures de soutien économique annoncées à l'automne prennent principalement la forme d'exemptions fiscales et non pas de transfert monétaire. De même, les autorités " gouvernementales " ont, jusqu'à présent, refusé d'attribuer aux centrales nucléaires la même protection fédérale que celle dont bénéficient dorénavant les aéroports. D'autres exemples sont disponibles. Ainsi, malgré des sondages indiquant une ouverture de l 'opinion publique sur ce point, les pouvoirs publics fédéraux se refusent toujours à établir une carte d'identité nationale. Seul le cas de la sécurité aérienne est clairement une extension - à la fois en termes de compétence et de fonctionnaires - du pouvoir fédéral.
+Comment rendre compte de cette relative modestie ? Pour nous, la guerre contre le terrorisme a une spécificité en politique interne. Contrairement à une guerre " traditionnelle ", entre Etats souverains, elle contribue tout autant au renforcement des autorités fédérées que des autorités fédérales. Pendant la Seconde Guerre Mondiale, la gestion du conflit a été du ressort de l'Etat fédéral, au détriment des Etats fédérés. Rien de tel dans le cas présent. Le jeu des relations entre niveaux de gouvernement est à somme positive : autrement dit, la lutte contre le terrorisme renforce - un peu - l'Etat fédéral, certes, mais aussi les Etats fédérés. Au moment de l'envoi des lettres porteuses du bacille du charbon, une douzaine d'Etats fédérés ont créé leur propre structure de défense civile, alors que Tommy Thompson, Secrétaire d'Etat à la Santé, ne semblait pas vraiment en position de mener une campagne d'envergure pour prévenir la panique naissante.
+Les experts s'entendent pour souligner que l'actuelle lutte anti-terroriste renforce l'Etat fédéral avant tout dans ses fonctions légitimes, à savoir protéger les citoyens, et assurer leur défense. En fait, plutôt qu'un renforcement unilatéral de l'Etat fédéral, on assisterait aussi à une participation accrue des Etats, des collectivités locales, voire du secteur privé (dans la mesure où les usagers devront certainement payer pour des améliorations de leur sécurité quotidienne. Dans un territoire aussi vaste que celui des Etats-Unis, le nombre de cibles potentielles est difficilement gérable par une seule autorité. Dans ces conditions, la sécurité du territoire est forcément une activité décentralisée ; les fonctions sont dispersées entre les niveaux de gouvernement et ne peuvent pas être rassemblées sous une seule autorité : selon l 'Office of Management and Budget, près de 70 agences - nationales ou locales - ont un poste budgétaire consacré à la lutte contre le terrorisme, et ceci ne tient pas compte des services des Départements d'Etat et de la Défense, ni des services secrets. De ce fait, une grande partie du succès de la lutte anti-terroriste est due aux autorités locales.
+L'Etat fédéral, lui, se concentre dans des domaines qui ont toujours été les siens : l 'amélioration des services de sécurité, la protection des frontières et la lutte contre toute puissance extérieure qui soutiendrait d'une façon ou d'une autre les organisations terroristes. La récente réorganisation annoncée du FBI va dans ce sens. Dorénavant, le Bureau ne devrait plus se pencher autant sur les attaques à main armée dans n'importe quelle banque du pays, mais concentrer ses énergies sur une lutte nationale contre le terrorisme. Les autorités locales sont donc placées en première ligne, et ressentent d'ailleurs le coût des nouvelles attentes à leur endroit. En effet, une des conséquences des attentats du 11 septembre a été une forte réduction des services offerts par les Etats, les villes et les comtés, à tel point que certains Etats envisageraient maintenant de supprimer toute aide aux villes, renforçant par là-même le coût de la sécurité pour les gouvernements non-étatiques. Le transfert des ressources fédérées vers le poste de la protection anti-terroriste a donc été massif. Un article du Los Angeles Time soulignait ainsi que " Les autorités locales n'avaient pas eu une responsabilité de cette envergure en matière de défense depuis l'époque des Indiens et de la Frontière ". Ainsi, lorsque l'Etat fédéral a tenté, à l'automne, d'arrêter près de 5000 personnes pour les interroger, les polices locales ont été les premières concernées. Dès les attentats, ce sont bien les forces de sécurité locales, police et pompiers, qui ont été immédiatement chargées des opérations. La suite des événements a encore renforcé le poids des responsabilités sur les premiers secours (first responders), principalement du ressort des autorités locales.
+Les autorités fédérales, outre leurs compétences propres, doivent en fait coordonner les différents acteurs subétatiques à l'oeuvre. C'est là le rôle essentiel du tout nouveau Secrétariat à la Protection du Territoire. Le thème est loin d'être neuf : le trafic de drogue ou le crime international avaient déjà suscité ce genre de débat. Les échanges d'agents entre la CIA et le FBI ont été pratiqués depuis des années. Mais la lutte contre le terrorisme devrait entraîner une coordination à un niveau supérieur, par exemple celui des Secrétariats d'Etat. En ce sens, la création du nouveau ministère en juin dernier est une étape essentielle. Elle est complétée par la création, en avril 2002, d'un Commandement militaire spécifique et national (Northern Command) par Donald Rumsfeld. Ce nouvel outil est chargé des réactions d'urgence en cas d'attaque terroriste, et peut mobiliser à la fois les moyens terrestres, navals, et aériens des forces armées nationales. Il peut aussi, bien entendu, assister les autorités locales le cas échéant.
+Ces deux nouvelles structures ne sont pas assimilables à une tentative de centralisation imposée aux autorités subnationales. Au contraire, elles reposent toutes deux sur une pleine et entière reconnaissance des compétences des Etats et des gouvernements locaux. Les rapports entre les nouvelles institutions nationales et les autres niveaux de gouvernement se déroulent donc sous le signe de la collaboration intergouvernementale.
+Sur la scène politique américaine, la guerre contre le terrorisme ne remet pas fondamentalement en cause les équilibres fédéraux. L'activisme des pouvoirs publics - et aussi du privé - est certain, mais ne s'effectue pas au détriment des autorités étatiques et locales. Les problèmes potentiels résident en fait dans le fonctionnement de cette collaboration : le débat en cours autour de la formation du Département de la Sécurité du Territoire en est la meilleure illustration. Un certain nombre d'experts soulignent que ce futur ministère est chargé de trop de fonctions et devrait en fait se concentrer sur des objectifs plus précis. L'inclusion de la Federal Emergency Management Agency (FEMA), par exemple, dans les compétences de ce nouveau Secrétariat obligerait ce dernier à intervenir dans des situations bien éloignées du terrorisme, comme les feux de forêts ou les inondations.
+Néanmoins, au-delà de ces dispositions techniques, l'évolution en cours reste tout simplement dans le droit fil d'un fédéralisme dit " politique ", fait de collaboration entre les niveaux de gouvernement, et que la Cour Suprême avait reconnu comme le fonctionnement régulier des institutions dans l'arrêt Garcia (1985). Si les mesures actuelles de l'équipe Bush sont certainement en porte-à-faux par rapport à la jurisprudence plus récente de la Cour, elles sont par contre en plein accord avec la pratique politique des républicains au pouvoir. L'équipe Bush Jr, comme les précédentes, n'hésite pas à utiliser les potentialités de l'administration fédérale lorsque cela est rendu nécessaire par les circonstances. Ni Reagan, ni Bush Sr, ni Gingrich n'ont fait exception à cette règle. Bush Jr renoue, sans hésiter, avec cette pratique.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Après sa cuisante défaite dans la guerre du Golfe de 1990 - 1991 et dix années d'embargo qui ont profondément isolé le pays, Saddam Hussein n'en a pas moins continué d'adapter et de perfectionner un dispositif militaire et de sécurité qui ne repose plus que marginalement sur des capacités classiques. Les frappes diverses et autres incursions étrangères lui ont appris à escamoter ses cibles les plus vitales, à savoir la personne physique des hauts responsables, les missiles sol-air de la Défense aérienne et d'éventuelles armes de destruction massive, ainsi que quantité d'autres cibles plus ordinaires. Elles lui ont également montré les limites et les failles des méthodes de surveillance occidentale. Le leader baasiste compte enfin sur la grande dispersion de son personnel militaire et la complexité de l'organisation sécuritaire qu'il a édifiée pour le protéger, maintenir la population irakienne dans l'inertie, et peut-être mener des opérations de guérilla contre les forces, américaines ou autres, qui se risqueraient à l'intérieur du pays.
+L'Irak, disaient les spécialistes à la fin des années 1980, était l'un des pays les plus méconnus au monde. Avec l'embargo, les années 1990 ont encore aggravé cette situation, en isolant ce pays autrefois fréquentable. En dépit d'un contexte de guerre annoncée, l'adversaire irakien de Washington reste insaisissable, si ce n'est par des analyses se focalisant sur les " capacités militaires " de Saddam Hussein. Or les guerres, pour reprendre l'expression d'un expert, ne tiennent jamais à des " facteurs tangibles ", c'est-à-dire chiffrables (nombre d'hommes, de chars ou de missiles dans chaque camp). Le régime actuel a survécu plus de 30 ans à d'innombrables dangers qui ont contribué à forger un dispositif de sécurité sophistiqué, dont le rôle durant le conflit pourrait être déterminant. Ce dispositif, initialement simple, s'est enrichi dans l'épreuve, pragmatiquement. Il est le résultat d'une sorte d'apprentissage, fait d'erreurs, de corrections, de perfectionnements. Par sa plasticité, il offre à Saddam, au-delà des seules capacités militaires, un ensemble de ressources qui pourraient se révéler utiles en temps de guerre.
+Le régime actuel a pris le pouvoir à l'occasion d'un coup d'Etat militaire, orchestré par le parti Baas, qui demeure le parti unique en Irak à ce jour. Pour asseoir son autorité, il a procédé au remaniement de l'appareil de sécurité et au développement d'institutions propres. Il a hérité d'un dispositif de coercition classique, comprenant une armée de taille modérée (née en 1921 et incluant une force aérienne, la plus ancienne du monde arabe), un service de renseignement militaire dit Istikhbarat (chargé, depuis le début des années 1930, à la fois d'informer l'armée et de garantir sa loyauté) et une police politique connue sous le nom de Amn, ou Sûreté (remontant aux années 1920). A ces vénérables ancêtres datant de la Monarchie s'ajoutait une innovation ultérieure majeure, la Garde républicaine, formée en 1963 à partir d'éléments de l'armée régulière. Consacré à la protection de la Présidence et agissant sous son autorité directe, ce corps d'élite est l'aïeul des fameuses Gardes républicaines de Saddam Hussein.
+De ces quatre structures, l'armée est celle qui a connu les transformations les plus spectaculaires. Rassemblant 50 000 hommes en 1968, elle en aurait compté près de dix fois plus en 1980. Cet élargissement s'est accompagné de la pénétration de l'institution militaire par le Parti. L'admission à l'Académie militaire a été restreinte aux seuls membres du Baas. La peine de mort est venue sanctionner toute activité politique alternative dans l'armée. Comme il était théoriquement possible à l'ancienne génération de demeurer apolitique, les soldats ont été encouragés à désobéir aux ordres d'officiers non baasistes au cas où ils les jugeraient " suspects ".
+Le recrutement militaire, répondant à des critères idéologiques nouveaux, maintenait cependant d'anciens principes de ségrégation communautaire. Les Anglais, sous la Monarchie, avaient rapidement institué une politique discriminatoire d'admission à l'école militaire, favorisant les Arabes sunnites au détriment des Kurdes et des Arabes chiites. En outre, le déclin économique amorcé à cette époque par la bourgade de Tikrit, patrie de Saddam, avait engendré de nombreuses vocations militaires. Préexistait donc au coup d'Etat de 1968 une sorte de corps sur lequel les nouveaux dirigeants politiques, eux-mêmes sunnites et originaires de Tikrit, pouvaient compter. Le régime n'a fait qu'accentuer ces tendances sectaires au sein de l'armée. Lorsque Saddam Hussein a revêtu les fonctions de président de la République, en 1979, des Tikriti occupaient presque tous les postes prééminents de commandement.
+Parallèlement à ces réformes, le régime a inauguré des instruments inédits en matière de sécurité. Deux d'entre eux méritent mention. Il s'agit de l'Armée populaire et d'un autre service de renseignement, non militaire cette fois, dit Moukhabarat. Issus du Parti et formant d'emblée des organes relativement sûrs, ils venaient concurrencer l'armée régulière et la Sûreté, deux institutions dont la fidélité n'était pas acquise a priori.
+Mise sur pied au début des années 1970, l'Armée populaire est l'avatar d'une milice aussi éphémère que redoutable, responsable des quelques mois de terreur post-révolutionnaire qui ont suivi la première et brève accession des baasistes au pouvoir en 1963. Les Moukhabarat, établis en tant que tels vers 1973, sont issus d'un organe de sécurité interne élaboré par le Parti, contraint d'agir, entre 1963 et 1968, dans la clandestinité. Saddam Hussein, réputé être l'architecte de cet organe implacable, rassemblant un noyau dur de militants des plus engagés, y a certainement été à bonne école.
+En 1973, une spectaculaire tentative d'assassinat lui fournit le prétexte nécessaire à une véritable refonte : préparée par le directeur général de la Sûreté, Nadhem Gezar, elle ne visait pas moins que le président de la République, Ahmed Hassan al-Bakr, et l'homme fort du moment, Saddam Hussein. Seul le ministre de la Défense y a perdu la vie ; le régime, lui, gagnait une excellente occasion d'asseoir son pouvoir. Outre diverses mesures renforçant l'autorité du président et des hautes instances du régime, l'affaire Gezar a justifié le remaniement et l'expansion soudaine des services de sécurité. Elle a favorisé l'établissement des Moukhabarat comme organe concurrent de la Sûreté. Quant à l'armée populaire, encadrée par le Parti mais placée par précaution sous le contrôle opérationnel des Moukhabarat, elle a amorcé une forte progression de façon à accompagner la croissance de l'armée. Mobilisant 50 000 hommes en 1977, elle en rassemblait 250 000 en 1980.
+Pour verrouiller son emprise sur ce dispositif en pleine croissance, Saddam Hussein a eu recours à deux formes de centralisation de l'autorité. L'une consistait à nommer des proches à des postes-clefs, tout en veillant à se prémunir de leurs ambitions personnelles. Taha Yassin Ramadhan, camarade de lutte d'une loyauté sans faille, commandant de l'armée populaire à partir de 1974, était ainsi flanqué d'un second rapportant directement à Saddam. Dans un même esprit, celui-ci nommait son demi-frère, Barzan Ibrahim al-Hassan, adjoint au directeur général des Moukhabarat dès leur conception. L'autre forme de centralisation, plus institutionnelle, consistait à court-circuiter les hiérarchies traditionnelles dans certains secteurs sensibles. Ainsi, les escadrons d'attaque de la Force aérienne sont passés dès 1978 sous la coupe de Saddam Hussein. Plus tard, la Sûreté et les Istikhbarat, soustraits aux ministères de l'Intérieur et de la Défense, respectivement, ont de même été soumis à la tutelle d'une présidence concentrant toujours plus d'autorité.
+Tout ce processus sera renforcé par le développement de l'image de l'ennemi intérieur, relais des " impérialistes " et autres " sionistes ", avant que l'identification des minorités irakiennes " complices " soit bientôt doublée de celle d'un ennemi extérieur autrement important : l'Iran.
+Ayant pris officiellement les commandes du pays, sûr de ses forces, persuadé de pouvoir vaincre l'Iran en quelques opérations décisives, Saddam Hussein a jeté l'Irak dans un conflit inutile et épuisant. L'armistice du 8 août 1988 a arrêté les comptes, selon les estimations les plus pessimistes, à 500 000 morts dans chaque camp. Pourtant, huit ans de combats acharnés ont à peine altéré le tracé des frontières. A l'intérieur du pays, en revanche, la situation a considérablement changé : à bien des égards, l'Irak s'est ruiné par son énorme effort de guerre. Mais les forces armées et l'appareil de sécurité se sont épanouis, leur renforcement dans les années 1970 cédant la place à une formidable explosion.
+L'armée, bénéficiant d'un programme d'armement massif, a connu à cette époque une nouvelle inflation, comptant près d'un million d'hommes à la fin de la décennie. Ce chiffre évocateur a aidé à faire de l'Irak, après l'invasion du Koweït, cet ennemi terrible requérant une coalition de 33 pays, dont les plus puissants au monde. En fait, la croissance numérique de l'armée, autant que son surarmement, servait à compenser de graves déficiences. Elle souffrait d'abord d'un style rigide de commandement. Politique et hyper centralisé, celui-ci laissait peu d'initiative aux professionnels de la guerre. Une planification excessive des opérations aboutissait à un manque fatal de réactivité. Les plans d'attaque, fixant parfois des objectifs chimériques, étaient élaborés sous la supervision personnelle du commandant en chef des Forces armées, c'est-à-dire de Saddam. Les unités sur le front ne pouvaient ni annuler un assaut, ni frapper des cibles impromptues sans en référer aux quartiers généraux.
+Le succès du concept d'armée idéologique est un second handicap à relever. L'armée, placée sous la surveillance des Istikhbarat, était aussi traversée d'un maillage de structures du Parti doublant la hiérarchie militaire et veillant au respect d'une stricte orthodoxie politique. Le " bureau militaire " du Baas et les Istikhbarat examinaient séparément les candidatures aux postes d'officiers. Peu attentif aux aptitudes militaires, ils scrutaient les activités civiles des gradés. Les commandants sélectionnés, craignant constamment les accusations de déloyauté, se pliaient ensuite à des ordres absurdes pour manifester leur totale soumission. Ces considérations politiques ont d'abord promu une norme de médiocrité militaire au sein de l'armée.
+Il subsistait naturellement des commandants valeureux. Les besoins en personnel avaient d'ailleurs eu le mérite d'ouvrir plus équitablement le recrutement des gradés à la population chiite, qui ne fournissait pas seulement, comme on l'a parfois prétendu, la " chair à canon ". Nombre d'officiers chiites compétents ont pris la tête de corps d'armée et les héros acclamés parmi eux n'étaient pas l'exception. La guerre, qu'il fallait bien gagner, obligeait le régime à ne pas trop s'aliéner une hiérarchie frustrée de ses prérogatives et allant jusqu'à donner quelques signes de mutinerie. Confronté à de cuisantes défaites et à la stratégie iranienne de " marée humaine ", Saddam a dû s'en remettre, finalement, aux conseils de quelques commandants de confiance.
+Ce changement ne signifiait pas la consécration publique du talent militaire, au contraire. A ce moment, Saddam Hussein a justement modifié sa stratégie médiatique, reléguant dans l'ombre les officiers les plus illustres pour se protéger de leur popularité. Une série d'accidents suspects, causant notamment la mort d'Adnan Kheirallah Tulfah, cousin et beau-frère du président, cumulant les postes de commandant en chef adjoint des forces armées, de ministre de la Défense et de vice-Premier ministre, a incité les héros ayant survécu au conflit à opter d'eux-mêmes pour la plus grande modestie et la plus parfaite discrétion.
+Conformément à sa vocation de contrepouvoir, l'Armée populaire s'est étendue proportionnellement aux forces régulières. Selon son commandant Taha Yassin Ramadhan, elle dépassait en 1984 les 500 000 conscrits et venait d'être dotée d'armes lourdes. Son rôle sur le front la plaçait surtout en soutien à l'armée. Palliant le vide créé par la concentration des forces à l'est, elle assurait aussi des campagnes d'arrestation de déserteurs et diverses fonctions de logistique et de contrôle dans l'arrière-pays.
+Dans le courant de la guerre, deux autres formations sont venues peser dans ce jeu de contrepoids. La Garde républicaine, initialement prétorienne, s'est muée en une vaste force offensive, s'ajoutant aux armées régulière et populaire. Et l'expansion de la force aérienne a conduit au déploiement d'un Corps aérien de l'armée, pourvu essentiellement d'hélicoptères et indépendant du reste de l'aviation. Redoutant ses propres avions, le régime a également réduit, par un entraînement minimal, les capacités opérationnelles des pilotes d'attaque. Autre signe de défiance, la Garde républicaine et l'Armée populaire ont été équipées d'un arsenal de D.C.A. considéré supérieur à celui de la Défense aérienne, qui relevait de l'armée.
+Malgré une organisation et une doctrine comparables, d'inspiration soviétique, la Garde se distinguait de l'armée par sa capacité à mener des opérations plus complexes et impliquant des blindés. Recevant l'équipement le plus moderne grâce à un système d'approvisionnement spécifique et prioritaire, elle devait son efficacité à un personnel de qualité, motivé par le prestige de ses fonctions et par les avantages qui y étaient attachés, en terme de soldes, primes, permissions, rations, achats subventionnés, etc. S'ébauchait ainsi un système de préséances que le régime a systématisé par la suite. La Garde inaugurait en outre une forme nouvelle de recrutement, faisant appel aux contingents de quelques grandes tribus arabes et sunnites, alliées du régime. Ainsi, le régime désavouait ouvertement le concept d'armée idéologique, fondement même de l'armée.
+Les effectifs de la Garde républicaine ont été particulièrement renforcés au cours des deux dernières années du conflit. Elle dépassait les 100 000 hommes lors de l'armistice et atteignit sa taille maximale de 150 000 hommes à la fin de la décennie. Multipliant les succès face à un ennemi affaibli, elle a joué un rôle concluant dans la " victoire " finale de l'Irak contre l'Iran. Performante et loyale, rompue à l'usage des gaz de combats employés en coordination avec le Corps aérien pour endiguer les " marées humaines " iraniennes, la Garde républicaine s'annonçait enfin comme une arme de choix en politique intérieure.
+Deux formations apparues dans la première moitié des années 1980 restent aujourd'hui encore aussi obscures que décisives. Il s'agit de la Sécurité spéciale, organe infiltrant et chapeautant l'ensemble de l'appareil militaire et de sécurité, et de la Garde républicaine spéciale, force distincte de la Garde républicaine, bien qu'elle lui ait succédé dans ses fonctions de protection du Palais. Selon les avis, elle serait issue d'unités de la Garde stationnées à Bagdad pendant la guerre ou d'un premier bras armé de la Sécurité spéciale. Quoi qu'il en soit, elle apparaît comme une structure bien délimitée par une tâche unique : isoler physiquement les centres névralgiques du régime de leur environnement menaçant. Cet objectif simple implique en fait une extrême polyvalence, pour garder les édifices vitaux du pouvoir, tenir front à une sédition de blindés ou couvrir les déplacements furtifs de Saddam Hussein. La Garde républicaine spéciale a en outre reçu très tôt ses propres armes de D.C.A., ce qui illustre à quel point la notion de redondance est un précepte structurant du dispositif de sécurité irakien.
+Les origines de la Sécurité spéciale, service le plus secret et le plus sensible du régime, sont encore plus incertaines. Sa structure précise et l'étendue exacte de ses affectations ne sont pas accessibles à un observateur extérieur au monde du renseignement. Il serait d'ailleurs surprenant que même les agents de ce service aient une vision complète et détaillée de son organisation. Néanmoins, on peut tenter de la décrire grossièrement en deux points.
+D'une part, la Sécurité spéciale s'est imposée comme l'instrument de contrôle d'un appareil militaire et de sécurité en pleine effervescence. La guerre contre l'Iran et le développement économique du pays, impliquant une importante présence étrangère en Irak, a commandé une forte expansion des Istikhbarat et des Moukhabarat, s'ajoutant à celle de l'armée, de l'Armée populaire et de la Garde républicaine. Les effectifs de la Sûreté ont également progressé durant les années 1980, bien qu'ils aient été purgés par Ali Hassan al-Majid, cousin de Saddam, et que son importance relative au sein de l'appareil de sécurité ait eu tendance à diminuer. Chargée de déceler toute dissidence, la Sécurité spéciale s'est appuyée dans chacune de ces institutions sur des éléments recrutés discrètement, cooptés pour un loyalisme absolu et préalablement éprouvé.
+D'autre part, elle s'est affirmée comme une sorte de pouvoir exécutif propre aux intérêts supérieurs du régime. Les ordres émis ou transmis par ses agents sont indiscutables. Son intervention signifie toujours que l'affaire est d'importance en haut lieu. Ainsi, la Garde républicaine, relevant officiellement du Commandement en chef des forces armées, lui a été fonctionnellement subrdonnée. Mais c'est surtout dans le domaine dit de l'" industrialisation militaire " que son rôle d'exécutif occulte s'est révélé. Hussein Kamel Hassan al-Majid, neveu et gendre de Saddam Hussein, cerveau de l'industrialisation militaire et architecte supposé de la Sécurité spéciale, a mis celle-ci au service du programme ambitieux d'armement et d'approvisionnement militaire, secteur exigeant, sensible et formateur s'il en est. La Sécurité spéciale a notamment joué un rôle-clef dans la mise en place d'un réseau de fournisseurs via des sociétés-écrans, dans le détournement d'infrastructures civiles à des fins militaires, dans la coordination des acteurs divers du secteur et dans la protection de l'information, grâce à un cloisonnement accru de l'appareil de sécurité et à la mise en oeuvre des techniques de dissimulation indispensables à ce programme.
+Bref, les années 1980, ponctuées par une guerre ogresse, par des besoins insatiables en armement et par une terrible opération de répression (dite Anfal) au Kurdistan, ont été les années d'une activité intense du point de vue de l'appareil de sécurité. Les horreurs de l'opération Anfal, orchestrée par Ali Hassan al-Majid, ont laissé comme symbole le gazage de Halabja. Du point de vue de l'appareil de sécurité, elles ont démontré l'efficacité de petites unités paramilitaires, composées d'éléments tribaux, de militants baasistes et d'agents de l'appareil de sécurité, milices dont l'usage s'est aujourd'hui systématisé.
+La stratégie adoptée pour envahir le Koweït, en août 1990, signalait le déclin de l'armée. La maîtrise des airs, assurée par la Force aérienne, a permis le largage, par des hélicoptères du Corps aérien, de commandos de la Garde républicaine aux points stratégiques de l'émirat. L'armée n'a servi, plus tard, que de force d'occupation. Pour la petite histoire, c'est par la radio que le ministre de la Défense et le chef d'état-major de l'armée auraient pris connaissance de l'invasion. L'humiliation de l'institution militaire entérinait la perte progressive, durant les années 1980, de ses fonctions de répression interne et de socialisation de la population dans une perspective de construction nationale, etc. Face à la coalition des Alliés, l'armée a d'ailleurs cédé à une débandade quasi généralisée. La Garde républicaine, au contraire, s'est montrée digne des espoirs que le régime avait placés en elle.
+La défaite patente de l'Irak montrait à l'évidence la faillite d'une stratégie dépassée. Statique et essentiellement défensive, inspirée des tactiques soviétiques et de la guerre contre l'Iran, minée par des considérations sécuritaires et d'incroyables erreurs de jugement, cette stratégie ignorait surtout qu'aucune guerre classique ne pouvait être gagnée contre les Etats-Unis. L'armée irakienne n'avait jamais réussi à maîtriser des opérations coordonnées complexes. La supériorité technique acquise face aux Iraniens, précisément pour compenser de telles défaillances, devenait dérisoire comparée à l'avance de l'OTAN.
+Saddam Hussein a vite compris qu'il existait des réponses imaginatives et non technologiques à opposer aux armements de l'ennemi. Confronté à la suprématie aérienne américaine, le régime a ordonné aux servants de la Défense aérienne d'évacuer leurs positions de tir en moins de trois minutes, initiant la technique des tirs furtifs. Il a disséminé de nombreux blindés dans les villes, notamment à Bagdad, où sont restées intactes jusqu'à la fin de la guerre des unités entières de la Garde républicaine. Les avions rescapés des premières nuits de bombardement ont également été dispersés, garés dans des zones urbaines, intégrés à des sites archéologiques, abrités sur des routes détournées ou encore dissimulés dans des hangars déjà détruits. Le Corps aérien, rivé au sol et escamoté d'emblée, n'a ainsi perdu en tout que six hélicoptères.
+De même, les employés de l'appareil de sécurité ont déserté leurs locaux officiels. Certains dormaient dans leurs voitures ou s'invitaient dans des familles qui ne pouvaient guère leur refuser l'hospitalité. D'autres disposaient déjà de locaux banalisés. Dès les années 1970, la Sûreté avait installé des antennes locales dans les quartiers, rachetant des pavillons d'habitation à des prix imposés. Cette politique s'est étendue après les bombardements massifs de 1991. Il est notoire que Saddam Hussein lui-même, pendant les frappes, a eu recours à une mobilité constante plutôt qu'aux fortifications, quitte à passer lui aussi la nuit " chez l'habitant ", entouré de gardes du corps. Les Etats-Unis, sait-on aujourd'hui, souhaitaient pourtant le localiser pour le tuer d'un missile bien placé.
+Ces exemples d'esquive convergent vers une doctrine nouvelle et tacite de préservation. Trois facteurs majeurs ont contribué à la survie du régime. Tout d'abord, la préservation de Bagdad comme sanctuaire, malgré de nombreux sacrifices, a fait paraître Saddam Hussein comme difficilement " délogeable ", à moins d'une invasion hasardeuse de la capitale. Ensuite, la préservation au sein des forces armées des forces dites " frappantes " (quwat dhareba) a autorisé de surprenantes contre-attaques face à un adversaire enorgueilli par la faible résistance de l'armée. Plus fidèles et plus motivées que les unités régulières, ces unités d'élite spécialisées dans les opérations ponctuelles s'étaient justement éclipsées durant la première phase du conflit, s'abritant dans le tissu urbain de Bagdad. Enfin, la préservation de l'appareil de sécurité, dans ses dimensions préemptive et répressive, assurait au régime, affaibli, de rester maître de sa population.
+Avec les encouragements de Georges Bush, des révoltes ont éclaté lors du retrait allié dans presque tout le pays, d'abord dans le sud chiite, puis au Kurdistan. Les soulèvements ont touché jusqu'à certains secteurs de la capitale. Ce qu'on a appelé une " Intifada " ressemblait beaucoup, à vrai dire, à des émeutes désordonnées. Pillages et carnages y étaient la norme en l'absence de direction politique. Le pouvoir en place a étouffé sans mal ce feu de paille attisé puis délaissé par Washington. Les villes, les campagnes et surtout les mémoires portent aujourd'hui encore les marques d'une répression dont la Garde républicaine et, dans une moindre mesure, le Corps aérien ont été les instruments de prédilection. Les Irakiens, dont beaucoup avaient d'abord cru au régime, voire adulé Saddam Hussein, n'en étaient certes pas à leurs premiers désenchantements. Néanmoins, la guerre et l'Intifada ont signé un divorce plus formel entre le pouvoir et la population. Cette fois, chacun avait irrémédiablement failli à l'autre. L'embargo a facilité cette rupture en devenant le responsable désigné de la souffrance du peuple et du retard du pays. Dispensé de prodiguer un quelconque bien-être social, conscient de l'inanité de toute relance idéologique, le régime s'est dès lors consacré à la seule défense de ses intérêts vitaux.
+Les transformations de son dispositif militaire après la guerre résument bien la révision de ses ambitions. Saddam a pris acte de l'ampleur de la débâcle et des limitations imposées par la tutelle internationale à la fabrication et à l'importation d'armements nouveaux. L'armée régulière aurait été réduite à 350 000 hommes environ. Au-delà des chiffres, elle souffre surtout de la démoralisation des soldats, de la défiance du régime et d'une grave pénurie de pièces de rechanges pour un armement extrêmement diversifié. Lui a été retiré le commandement de la Défense aérienne, formation qui s'est distinguée par sa vaillance et son utilité durant le conflit. Contrepartie douteuse, un département des Istikhbarat, la Sécurité militaire, en a été détaché en 1992 pour former un troisième organe de surveillance imposé à l'armée. Sécurité militaire et Défense aérienne sont passés sous le contrôle direct de la Présidence, conformément à une logique de centralisation toujours renforcée.
+La Force aérienne et l'Armée populaire ont également pâti des restructurations d'après-guerre. Après une prestation lamentable face aux Alliés, l'aviation s'est vu couper les ailes par la mise en place d'immenses zones d'exclusion aérienne, limitant ses capacités d'intervention et d'entraînement. L'Armée populaire, réformée en tant que telle, s'est réincarnée sous diverses formes dégénérées, dont l'Armée de libération de Jérusalem (jeish tahrir al-quds) n'est que la dernière en date. Né en 1998, ce monstre de 7 millions de soi-disant " volontaires ", burlesques et démotivés, sert des fonctions de propagande et de domination qui n'ont rien de militaire.
+En revanche, le régime a patronné trois formations importantes. Bien qu'il ait réduit de moitié les effectifs de la Garde républicaine, passée de 150 000 à 70 000 hommes, il a veillé à en reconstituer les précieuses unités mécanisées et blindées. Pour ce faire il a eu recours, outre quelques importations illégales, à la cannibalisation des matériels rescapés du pilonnage, souvent au détriment de l'armée. Le régime s'est aussi détourné de son aviation au profit d'un Corps aérien plus opérationnel. Il en a consolidé les escadrons habitués à opérer en coordination étroite avec la Garde républicaine. L'importation de pièces de rechange s'est d'ailleurs révélée plus facile pour les hélicoptères, qui bénéficient d'un double statut civil et militaire. Enfin, les incursions quasi quotidiennes des avions anglo-saxons dans les zones d'exclusion aérienne et les " frappes " régulières de missiles de croisière ont stimulé l'intérêt porté par Saddam Hussein à la Défense aérienne, rénovée et amadouée par des privilèges semblables à ceux dont bénéficie la Garde républicaine. On ne saurait souligner assez que c'est là la principale disposition militaire classique prise par l'Irak contre un adversaire étranger.
+En somme, le régime a remodelé et réorienté ses forces armées pour aller vers un système plus sûr et plus compact, au caractère répressif et défensif. Dans cette configuration, il ne représente plus guère, en dépit des accusations des Etats-Unis, une menace pour ses voisins. Saddam Hussein perçoit plutôt l'armée, la Garde républicaine et le Corps aérien comme une menace à son encontre, bien qu'ils garantissent son hégémonie grâce au monopole de l'artillerie lourde et des blindés. Depuis 1988, la Garde républicaine est cantonnée à la périphérie de la capitale, où elle délimite à son tour un périmètre d'accès interdit à l'armée régulière. Dans tout le pays, un réseau de checkpoints détecte le moindre mouvement de troupes. A chacun de ces checkpoints, au moins dix plantons relevant de hiérarchies différentes incarnent la méfiance ambiante. Reste à dire que chaque unité comprend un agent de renseignement officiel, disposant de plus d'autorité que son commandant effectif, et d'autres rapporteurs plus officieux, pour mesurer à quel point les considérations sécuritaires priment sur toutes les autres formes d'efficience, notamment militaire.
+Quant à l'armement non conventionnel du régime, qu'il existe ou non, il ne peut avoir d'utilité sans l'appui de forces conventionnelles, sauf en cas d'agression. Il paraît de toute façon exagéré par les Etats les plus va-t-en-guerre. La réactivation des programmes des années 1980 exigerait l'importation illégale mais facilement décelable de toutes sortes d'équipements, étant donnée l'ampleur du démantèlement des infrastructures réalisé par l'ancienne commission en désarmement des Nations unies (UNSCOM). Elle offrirait donc, en toute logique, des pièces à conviction abondantes.
+En temps normal, la survie de Saddam Hussein découle d'une savante mainmise sur le pays. En politique intérieure, ses principales sources de contrariété ont trouvé des solutions durables au cours des années 1990. Le régime a malmené la communauté chiite et décapité sa hiérarchie religieuse. Il a mené à bien l'assèchement des marais, au sud, ancien sanctuaire de déserteurs et d'opposants. L'autonomie octroyée aux trois " gouvernorats " du Nord a réglé le problème que posait l'asile inexpugnable des montagnes du Kurdistan. Dernier refuge naturel, de luxuriantes palmeraies ont été détruites sur des surfaces considérables. Quant au tissu urbain, il reste quadrillé par un maillage d'informateurs renseignant efficacement Moukhabarat et Sûreté. Pour parfaire son contrôle du territoire, le régime a élargi son dispositif sécuritaire en y intégrant les tribus, jugées responsables de leurs membres et des régions qu'elles occupent.
+Lorsque des troubles localisés surgissent, le régime applique un principe de responsabilité collective et intervient brutalement. Une technique usuelle consiste à encercler, voire bombarder, le village ou le quartier concerné avant d'y mener des rafles. La Sécurité Spéciale, les Moukhabarat, la Sûreté et le Parti disposent tous de leurs bras armés paramilitaires, qui opèrent souvent en collaboration avec la Garde républicaine et les troupes régulières. L'usage simultané de plusieurs de ces formations illustre une fois encore la notion de redondance. Pour compliquer ce jeu de contrepoids, le fils aîné de Saddam Hussein, Oudei, y a ajouté en 1995 sa propre milice, probablement pour contrer l'emprise de son frère cadet Qousei sur l'appareil de sécurité. Formés de jeunes déshérités, triés sur le volet, endoctrinés et soumis à un entraînement sévère, ces " Fedayin de Saddam " n'apportent pourtant rien de nouveau à un appareil amplement suffisant pour maîtriser une population essentiellement inerte.
+Au plan interne, les menaces les plus sérieuses viendraient donc de l'appareil de sécurité lui-même... s'il n'avait été soigneusement verrouillé. A vrai dire, il est impossible de rendre compte de la pléthore de précautions prises en réponse aux tentatives d'assassinat, aux coups d'Etat manqués, aux complots ourdis jusqu'au sein de la Garde spéciale, aux trahisons de proches tels que Hussein Kamel, ainsi qu'aux moyens dispensés à l'étranger pour subvertir le système. Se mêlent recouvrements de compétences, concurrence entre services, contrôles croisés, dédoublement des mécanismes de commandement, redistribution permanente du personnel, fabrication de " conspirations-hameçons ", etc. Cette complexité ne doit pas, d'ailleurs, faire illusion. L'appareil de sécurité n'est pas une machinerie parfaite, rationalisée. La Sûreté et les Moukhabarat, par exemple, sont minés par une corruption notoire, non seulement tolérée mais intégrée et instrumentalisée par le régime. C'est là le point important : cette architecture est perpétuellement en mouvement. Or le mouvement est une ressource de ce régime qui est tout sauf conservateur.
+La plasticité du régime est un facteur ignoré dans toutes les anticipations de la guerre. Constatant que les " options militaires " de l'Irak sont limitées, les analystes n'envisagent comme alternative à ces options classiques que le scénario catastrophe des " armes de destruction massive ". Ils n'entrevoient rien, semble-t-il, entre une débandade assurée des forces armées irakiennes et une sorte d'apocalypse, renvoyant à l'imaginaire du dictateur fou. En Irak, pourtant, on craint moins la possibilité d'un suicide dévastateur que celle d'un usage stratégique et retors de gaz de combat, qui serait éventuellement attribué à l'armée des Etats-Unis pour galvaniser l'opposition populaire contre " l'agresseur ".
+Saddam Hussein, pragmatique, s'est assurément aguerri face aux menaces extérieures. Les " frappes " et autres ingérences étrangères l'ont préparé à cette confrontation ultime. Elles lui ont appris à escamoter ses cibles les plus vitales, à savoir la personne physique des hauts responsables, les missiles sol-air de la Défense aérienne et d'éventuelles armes de destruction massive. Les inspecteurs eux-mêmes lui ont montré les limites et les failles des méthodes de surveillance occidentale. Il oblige ainsi ses ennemis à se rabattre sur des cibles offertes, coquilles vides des édifices officiels ou centres de commandements de la Défense aérienne, centres dont l'importance au sein du système de défense n'est plus nécessairement cruciale. Le régime escamote parfois jusqu'aux cibles les plus ordinaires. Lors des bombardements de 1998, des écoles, ainsi que des installations industrielles et des hangars alimentaires, ont accueilli des dépôts de munitions. Ces écoles abritent actuellement les membres du Parti chargés de maintenir l'ordre dans chaque quartier. Ceux-ci ont quitté leurs locaux officiels, imitant l'ensemble de l'appareil de sécurité.
+Le régime compte sur la dispersion de son personnel pour maintenir la population dans l'inertie, peut-être même pour mener des opérations de guérilla contre des forces américaines obligées de s'engager dans le pays profond. Toutes les formations paramilitaires citées plus haut sont rompues aux combats de rue. Extrêmement mobiles, elles opèrent au besoin en civil et bénéficient d'une connaissance intime du terrain. Resterons-elles loyales ? On peut supposer que l'immense majorité des Irakiens ne combattra volontiers ni pour défendre le pouvoir, ni pour le défier. Tous redoutent la capacité de survie fabuleuse de Saddam Hussein, conjuguée à sa capacité - non moins fantastique - de répression. Ils pourraient obéir longtemps, mais sans zèle, aux consignes du régime, en attendant la certitude de sa chute. Il suffirait alors que la guerre traîne, qu'elle engendre des pénuries et de nombreuses victimes, pour que Saddam galvanise ses troupes les plus fidèles, maintiennent les plus déloyales dans l'irrésolution et gagne ainsi du temps. Ceci n'est qu'un des scénarios possibles, évidemment, aux côtés d'une guerre éclair, propre et sans surprise.
+Ce qui est sûr, c'est que les dispositions prises par le régime trahissent une sorte de désaffection pour la guerre classique. Saddam Hussein ne se soucie guère, semble-t-il, d'opposer une armée crédible contre les Etats-Unis. Alors, où est donc l'adversaire irakien ? Dans l'imprévu, justement.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Les Etats-Unis sont, de très loin, le plus important pays consommateur et importateur de pétrole dans le monde. Leur production est par ailleurs non négligeable, même si elle baisse maintenant de manière inexorable. Dans un contexte d?approfondissement de la « dépendance » des Etats-Unis, les interventions du gouvernement se sont progressivement déplacées de la régulation du marché intérieur à la construction et à la sécurisation du marché pétrolier mondial.
+La naissance et le développement de l'industrie pétrolière américaine ne furent pas une " affaire d'Etat " ; pour l'essentiel, cette histoire est une histoire d'entrepreneurs. En cela, les Etats-Unis se distinguent de tous les autres pays, industrialisés ou non. Nous verrons plus loin qu'il ne fallut pas attendre très longtemps les premières interventions publiques dans le secteur, interventions multiformes et de grande ampleur. Mais on ne trouve aux Etats-Unis aucun des attributs quasi-universels de l'industrie pétrolière, tellement répandus qu'ils apparaissent parfois comme naturels : ni entreprise publique ; ni monopole sur l'exploration, la production, le transport ou la distribution ; ni subordination de l'industrie à des objectifs " supérieurs ", de politique industrielle ou de politique étrangère. Les Etats-Unis font même exception à la règle de la propriété publique sur les ressources - exception plus discrète peut-être que les précédentes, mais qui porte plus loin.
+Les ressources naturelles contenues dans le sous-sol sont en général propriété publique. Investir en vue de l'exploitation minière ou pétrolière requiert, partout dans le monde ou presque, l'obtention d'un droit auprès de la puissance publique, par exemple sous la forme d'une licence. Tel n'est pas le cas aux Etats-Unis, où la propriété de la surface emporte la propriété du sous-sol, y compris les ressources qu'il recèle. Pour forer sur une parcelle donnée, il faut et il suffit d'obtenir un droit de son propriétaire légitime. Le contrat par lequel ce droit est transféré s'appelle un lease ; c'est un contrat de droit privé.
+On ne saurait exagérer l'importance de cette singularité juridique ; osons affirmer qu'elle représente un des principaux déterminants de l'histoire pétrolière des Etats-Unis. La propriété sur la terre étant très peu concentrée, même à l'échelle d'une province pétrolière, le marché des droits d'exploration est nécessairement concurrentiel. Cette absence de contrôle sur le marché de l'exploration induit à son tour la concurrence sur le marché du pétrole lui-même. L'économie industrielle a redécouvert, ces trois dernières décennies et sous l'influence de Ronald Coase, le déterminisme juridique dans l'organisation économique. Dans le cas de l'industrie pétrolière américaine, la règle de droit semble induire mécaniquement la concurrence. Et s'il fallait chercher un fil rouge courant tout au long de l'histoire pétrolière des Etats-Unis, on le trouverait dans l'affrontement permanent entre la dynamique concurrentielle et les forces contraires, puissances " organisatrices " publiques ou privées.
+De très nombreux entrepreneurs, souvent des aventuriers risquant leur fortune personnelle, tentèrent leur chance dans l'exploration pétrolière à partir des années 1860. Acquérant des droits sur de minuscules parcelles ou sur des milliers d'hectares, ils furent les acteurs de l'ère héroïque de l'histoire pétrolière américaine. Mais l'amont pétrolier (exploration et production) est une activité extrêmement risquée et pour beaucoup de ces pionniers l'expérience tourna court. La plupart ne découvrirent rien mais ceux qui eurent la chance d'accéder au stade de la production affrontèrent la dure réalité d'un marché libre de matière première. Le développement intensif des premières découvertes précipita rapidement une chute du prix du pétrole, qui passa de $37 à $7 entre 1870 et 18904. S'ensuivit une vague de faillites et un mouvement de consolidation de l'industrie (sélection et concentration).
+Dans cet univers de concurrence " sauvage ", la première manifestation des forces organisatrices (ou plus exactement : planificatrices) ne vint pas de l'extérieur - de la puissance publique - mais de l'industrie elle-même. Un jeune homme de 25 ans, John D. Rockefeller, après avoir brièvement tenté sa chance dans l'amont, délaissa ce jeu " où s'épuisent les pauvres gens " pour se concentrer sur le raffinage, à la tête de la Standard Oil. Très tôt Rockefeller comprit l'intérêt de l'intégration horizontale, c'est-à-dire l'absorption ou les alliances avec les concurrents, et verticale, d'abord dans le transport (en amont et en aval des raffineries), plus tard dans la production. Son ascension fut fulgurante. En 1873, la Standard Oil détenait déjà entre 30 et 40% des capacités de raffinage du pays, et jusqu'à 90% en 1878. Au tournant du siècle, la S.O. exportait 50% de sa production ; les Etats-Unis étaient, de très loin, le premier exportateur de pétrole au monde, et l'huile était au second rang des produits d'exportations américains, après le coton.
+L'accession de la Standard Oil a une situation de quasi-monopole sur l'aval pétrolier - et, par là, au statut de " régulateur " de l'industrie dans son ensemble - devait donner lieu au premier grand procès antitrust de l'histoire économique des Etats-Unis. En cela, l'aventure de Rockefeller revêt une importance qui dépasse la sphère pétrolière. La principale loi antitrust américaine, le Sherman Act de 1890, fut largement rédigée en référence au cas S.O. En 1909, au terme de plusieurs années d'une procédure initiée par le département de la Justice, une cour fédérale établissait l'existence de pratiques anti-concurrentielles dans les activités de la S.O. - en particulier ses " accords " préférentiels avec les transporteurs ferroviaires - et décidait de dissoudre le trust en 35 entités indépendantes, sur la base du Sherman Act (décision confirmée par la Cour Suprême en 1911). Plusieurs des grandes compagnies pétrolières américaines sont issues de ce démembrement. Cet événement marque un tournant dans l'histoire pétrolière du pays et symbolise l'entrée dans l'ère des interventions publiques.
+A partir des années 1920 et jusqu'au début des années 1980, le marché pétrolier américain a vécu sous un régime de très forte intervention publique. On distinguera les mesures dites de proration, le contrôle des importations, et le contrôle des prix.
+La mise en place de la politique de proration, entre le début des années 1920 et le milieu des années 1930, correspond à un immense effort de la puissance publique - d'abord au niveau des Etats, puis du gouvernement fédéral - pour soustraire la coordination des producteurs de pétrole au processus concurrentiel et la soumettre à un très haut degré de planification centrale. La proration est née d'une volonté de limiter le " gaspillage " et la " surproduction " que le régime concurrentiel était sensé entraîner. Concrètement, les grands Etats producteurs (Oklahoma, Texas, Louisiane - à l'exception notable de la Californie, qui ne fut jamais " prorationniste ") décidèrent de limiter leur production pétrolière en attribuant des quotas à chaque champs, puis à chaque puits en activité, afin de maintenir un prix largement supérieur au prix concurrentiel. Ces efforts locaux étaient coordonnés au sein d'une instance inter-étatique, l'interstate compact. Plus tard, dans le cadre du New Deal, la puissance fédérale pris en charge la coordination et une partie de la mise en oeuvre du régime de proration.
+La crise des années 1930, survenant juste après les découvertes géantes de Seminole et de l'East Texas, précipita une chute des prix qui renforça la perception du caractère destructeur de la libre concurrence. En fait, le principal problème était de nature juridique - le droit, encore. La règle dite de " capture ", qu'imposèrent les tribunaux de common law à la fin du XIXe siècle, autorisait un producteur à forer dans un réservoir déjà exploité par un autre producteur opérant depuis un terrain voisin. Cette règle introduisait des incitations économiques perverses et générait, effectivement, une importante surproduction en même temps que nombre de puits inutiles. Mais la proration ne réglait pas ce problème, au contraire : parce que les puits les moins productifs étaient exemptés de quotas, le système généra un énorme gaspillage de ressources. Le régime de proration, qui survécut jusqu'au début des années 1970, servait essentiellement les intérêts des milliers de petits producteurs les moins performants, et des hommes politiques qui contrôlaient un système profondément corrompu. L'industrie pétrolière, qui est certainement un des symboles du capitalisme américain, fut pendant plus d'un demi-siècle soumise à un régime - certes incomplet - de planification centralisée.
+Le contrôle des importations représentait un complément naturel et indispensable du régime de proration. La trop forte pénétration du pétrole vénézuelien et moyen-oriental eût réduit à néant les efforts des Etats " prorationnistes " pour défendre un prix supérieur au prix de concurrence. Plus généralement, la concurrence du pétrole importé représente une menace permanente pour l'industrie pétrolière américaine, et ce dès l'entre-deux-guerres. En conséquence, la tentation protectionniste traverse toute l'histoire pétrolière américaine. Les mesures les plus célèbres, parmi de nombreuses autres, sont les voluntary oil import quotas de 1949 et les mandatory oil import quotas de 1959.
+Au début des années 1970, les objectifs de l'intervention publique sur le marché pétrolier changèrent brutalement. Du soutien des prix intérieurs par la réglementation de l'offre et des importations, on passa à la lutte contre les effets de la hausse des prix. On pourrait dire : de la protection des producteurs à la protection des raffineurs et des consommateurs. Un système complexe de contrôle des prix et de réglementation de la commercialisation fut mis en place, par strates successives, avec des effets pervers très importants. On citera en particulier les entraves à l'allocation marchande du brut et des produits pétroliers, qui jouèrent un rôle décisif dans les pénuries consécutives à l'embargo pétrolier arabe de 1974 et à la révolution iranienne de 1979 - les fameuses gasoline lines qui traumatisèrent l'Amérique ; mais aussi, plus structurellement, les " subventions aux importations " introduites par le système des entitlements, par lequel les raffineurs s'approvisionnant en pétrole " domestique " subventionnaient ceux qui recouraient aux importations. A la fin des années 1970, l'administration Carter souhaitait libéraliser le marché pétrolier mais se heurtait à de fortes résistances au Congrès. Une loi votée en 1978 prévoyait un decontrol progressif étalé sur 10 ans ; l'administration Reagan le réalisa en un mois.
+Le premier mandat de Ronald Reagan à la Maison Blanche, et même les premiers mois de ce mandat, apparaissent rétrospectivement comme une période charnière dans l'histoire pétrolière américaine, où furent prises des orientations rompant avec le passé et engageant l'avenir. La politique conduite par l'administration Reagan était inspirée par l'idée que l'efficacité et la sécurité énergétiques ne s'obtiennent pas contre les forces du marché, mais en s'appuyant sur elles.
+Le président Reagan prononça son discours inaugural le 20 janvier 1981 ; le 28 janvier, il signait l'Executive Order n° 12287 (le premier de son mandat) qui libéralisait complètement le marché du pétrole et prenait effet le jour même. Le Congrès, beaucoup plus interventionniste que l'administration, ne désarma pas et en mars 1982 le Sénat vota le Standby Petroleum Allocation Act, qui octroyait au Président le pouvoir d'instaurer, en cas de crise, un contrôle des prix et des mesures d'allocation administrative du pétrole et des produits. R. Reagan opposa son veto à cette loi le 20 mars 1982, arguant du fait que, face à une rupture d'approvisionnement, c'est au contraire le libre fonctionnement du marché qui est le plus à même de réduire le coût supporté par l'économie américaine.
+La déréglementation du marché pétrolier américain correspond aussi à une réintégration complète dans le marché mondial. A partir de 1982, le prix intérieur est à nouveau strictement aligné sur le prix mondial. Au cours des deux mandats de R. Reagan la faible taxe sur les importations n'a pas été supprimée, mais l'administration résista, à plusieurs reprises et notamment après le " contre-choc " pétrolier de 1985 - 1986, à de fortes pressions du Congrès pour l'augmenter de manière significative.
+Le decontrol américain eut également un effet non anticipé sur les structures du marché pétrolier international : il accéléra la substitution de transactions de court terme aux contrats de long terme et la généralisation de la référence au prix " spot ". Pleinement exposés aux aléas du marché mondial (jusque-là atténués par le contrôle des prix et les mécanismes de redistribution physique), les raffineurs américains modifièrent leurs pratiques commerciales ; les activités de trading ont explosé aux Etats-Unis au début des années quatre-vingt, et le NYMEX a lancé son marché de contrats à terme sur le pétrole brut en 1983.
+Les gouvernements successifs, républicains et démocrates, ne sont pas revenus sur la réforme fondamentale initiée par l'administration Reagan. Dans les années 1990, la politique pétrolière de l'administration Clinton (largement " encadrée ", il est vrai, par un Congrès républicain) fut une politique libérale non seulement " passive " - absence de remise en cause de la déréglementation -mais active. Parmi les mesures d'inspiration libérale prises au cours de cette période, on peut citer la levée de l'interdiction d'exporter le brut d'Alaska, l'accélération du leasing dans l'offshore fédéral, les exemptions de royalty sur l'offshore profond (Deep Offshore Royalty Relief Act), ou encore la privatisation partielle des Naval Petroleum Reserves.
+L'option libérale prise sous Reagan, et qui structure depuis la politique pétrolière américaine, ne se limite pas à la déréglementation du marché intérieur ; elle a d'importantes implications internationales. Le primat économique dans la formulation de la politique énergétique - plus précisément, l'idée que l'approvisionnement énergétique doit reposer sur le fonctionnement de marchés libres et concurrentiels - a, en matière pétrolière, un corollaire : l'acceptation du recours massif aux importations. Recourir au marché, c'est recourir au marché mondial. Le taux de couverture de la demande par les importations dépend, sur longue période, de l'évolution relative des coûts de développement aux Etats-Unis et dans le reste du monde. L'option fondamentale d'une politique énergétique libérale impliquait donc nécessairement, pour les Etats-Unis, un approfondissement de la " dépendance " pétrolière. De fait, le moment Reagan correspond à l'entrée des Etats-Unis dans une ère de dépendance acceptée et assumée.
+C'est en 1949 que les Etats-Unis sont devenus importateurs net, c'est-à-dire que leurs importations ont dépassé leurs exportations. Entre 1949 et 1970, la part de la demande couverte par le pétrole importé est passée de 10% à 23%. Entre 1978 et 1985, les importations ont fortement baissé, tant en valeur absolue (-3,8 Mb/j) que relative (-16 points de part de marché). Deux facteurs expliquent ce phénomène : le développement du champ géant de Prudhoe Bay en Alaska, et la chute de la demande pétrolière liée au second " choc pétrolier " de 1979 et à la récession économique. A partir de 1985, la part du pétrole importé dans la couverture de la demande n'a cessé d'augmenter, jusqu'à aujourd'hui.
+Les provinces pétrolières américaines historiques sont en phase de déclin certainement irréversible, partiellement compensé par des provinces où les compagnies parviennent encore à renouveler les réserves (en particulier le Golfe du Mexique). Au total, la production des Etats-Unis baisse au rythme de 2 % par an en moyenne ? un peu moins depuis 1990. Les importations ont progressé de plus de 5 % par an en moyenne sur 15 ans, pour atteindre leur maximum historique en 2000. Elles s?élevaient alors à 11 Mb/j, soit 54 % de la consommation totale. En 2020, ces chiffres pourraient passer à 19 Mb/j et 66 %
+Dépendance croissante, donc. Mais dépendance acceptée et assumée, disions-nous. L'option libérale prise au début des années 1980 n'équivaut pas à une politique de laisser-faire ; elle s'accompagne de politiques publiques ambitieuses relevant de la sécurisation et de la construction du marché pétrolier mondial.
+La sécurisation du marché regroupe des mesures aussi différentes que la mise en place de la Strategic Petroleum Reserve (SPR) d'une part, la création d'un dispositif militaire d'intervention rapide au Moyen-Orient d'autre part. La SPR fut créée dans le cadre de l'Energy Production and Conservation Act à la fin de 1975 mais resta " virtuelle " pendant cinq ans, en raison de dysfonctionnements administratifs et surtout d'un manque de volonté politique. L'administration Reagan fit du remplissage de la SPR une priorité de sa politique pétrolière. A la fin du premier mandat de R. Reagan le volume stocké était de 450 millions de barils (Mb), et 560 Mb fin 1988 - niveau auquel on est encore aujourd'hui. 80% du pétrole stocké dans la SPR l'a été sous Reagan, dont plus de 60% entre 1981 et 1984. La réserve pétrolière stratégique, entièrement détenue et opérée par le gouvernement fédéral, a une capacité de " relâchement " de 4 Mb/j - soit la moitié de la production saoudienne moyenne en 2002 - pendant 130 jours. Ou encore, la SPR peut suppléer intégralement un producteur comme le Koweït pendant près de neuf mois.
+La " sanctuarisation " militaire du Moyen-Orient n'est certes pas réductible à une politique énergétique. Toutefois, cette dimension était certainement présente. La logique, du point de vue pétrolier, est la même que pour la SPR, même si l'instrument est très différent. Accepter que l'approvisionnement américain repose sur un marché mondialisé dominé par les transactions de court terme, supposait la mise en place d'une sécurisation en amont, ou " par le haut ", dont le coût s'apparente à la souscription d'une assurance. Libéralisation et sécurisation ne s'opposent pas, mais constituent deux faces d'une même politique. Tout comme la libéralisation, les mesures de sécurisation du marché initiées sous R. Reagan ont été assumées par tous les gouvernements depuis lors, et demeurent un élément essentiel de la politique pétrolière américaine.
+L'effort de construction du marché consiste à améliorer l'accessibilité des ressources pétrolières mondiales aux capitaux privés d'exploration et production. Il s'agit, pour les Etats-Unis, d'une préoccupation très ancienne, qui prit notamment la forme, dans l'entre-deux-guerres, de la politique de l'Open Door (porte ouverte) au Moyen-Orient. A partir des années 1980, cette politique fut relancée et renouvelée dans ses objectifs comme dans ses moyens. L'objectif était de favoriser la diversification durable de l'offre pétrolière mondiale, donc d'affaiblir le pouvoir de marché de l'OPEP. L'administration Reagan lança, dès 1981, une politique juridique internationale très ambitieuse, destinée à réformer le droit applicable aux investissements pétroliers. Cette politique fut relayée par la Banque Mondiale, dans les années 1980, auprès des pays en développement. Dans les années 1990, les Etats-Unis investirent d'importantes ressources dans les négociations sur les instruments multilatéraux sur les investissements (ALENA chap. 11, Traité sur la Charte de l'Energie, AMI), et dans la signature de traités bilatéraux sur les investissements avec les pays riverains de la mer Caspienne.
+En dépit d'un discours politique récurent sur la nécessité de contenir, voir de réduire, la dépendance pétrolière du pays - discours qui jouit d'une très forte légitimité depuis les attentats du 11 septembre 2001 - l'option libérale prise il y a plus de vingt ans n'est pas remise en question, au contraire. Dans ces conditions, l'approfondissement de la dépendance pétrolière des Etats-Unis au cours des décennies à venir est une quasi-certitude. Après la " crise " de 2000 - 2002 comme après celle de 1990 - 1991, le grand débat de politique énergétique initié par l'administration accouche essentiellement de non-mesures.
+On pourrait invoquer les lourdeurs du processus législatif américain, qui permet aux groupes de pression d'entraver toute action réformatrice. On préférera souligner qu'il n'existe pas, aujourd'hui, d'alternative raisonnable aux importations pétrolières massives. Les études économiques montrent que le coût d'une réduction significative de la " dépendance ", tant par la stimulation de l'offre intérieure que par la maîtrise de la demande, seraient largement supérieurs aux bénéfices attendus en matière de sécurité énergétique. En d'autres termes, il n'existe qu'un potentiel très limité de réduction profitable du recours aux importations pétrolières. Les Etats-Unis devraient donc continuer, dans l'avenir prévisible et en attendant une révolution technologique dans les transports, d'investir massivement dans la sécurisation et la construction du marché pétrolier mondial.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Selon toute vraisemblance, la date du 11 septembre 2001 est entrée dans l'histoire universelle. Elle est et restera considérée comme dividing, selon le mot américain, c'est-à-dire que l'on distingue et distinguera un "avant" et un "après". Ce n'est pas que le monde ait brusquement changé avec la réussite des attaques contre le World Trade Center - celle qui a le plus frappé - et contre le Pentagone. Ce qui a changé, c'est la manière d'interpréter le passé et de raisonner sur l'avenir.
+On ne peut pas prétendre que pareil événement n'avait pas été "prévu". En vérité, la possibilité et même la probabilité d'un "hyperterrorisme" font l'objet de débats d'experts et même d'oeuvres romanesques (Tom Clancy) depuis des années. Pareillement, le jour où des armes de destruction massive - nucléaires, chimiques ou bactériologiques - seraient effectivement utilisées par une unité active étatique ou non étatique, on ne pourrait pas dire que cela n'avait pas été " prévu ". Toute la difficulté tient dans ce que les sociétés humaines ne prennent les catastrophes au sérieux que lorsqu'elles se produisent, et, lorsque c'est le cas, elles ont tendance à les oublier : on peut donner entre autres l'exemple du respect des règles de sécurité dans les zones sismiques. S'il en est ainsi, c'est que, pour prévenir ou limiter les conséquences d'une catastrophe possible, il faut des mesures qui se heurtent aux intérêts tangibles de toutes sortes d'autres unités actives, lesquelles s'emploient à les empêcher ou à les atténuer. La prévention est un art de même nature et aussi complexe que la réforme.
+De ce point de vue, l'autopsie du 11 septembre est aisée. Ce qui est en cause, c'est d'abord une conception des libertés. Aux États-Unis, il était possible de se présenter dans une école de pilotage sans avoir à justifier de son identité, et de payer les cours en espèces, en précisant que l'on n'avait pas besoin d'apprendre à décoller ou à atterrir, tout cela sans susciter de réactions particulières. En Grande-Bretagne, des groupes islamistes peuvent avoir pignon sur rue, et les conditions d'extradition sont tellement restrictives que les criminels se sentent protégés, au point que certains vont jusqu'à se demander s'il n'existe pas une sorte d'accord implicite du type : immunité du territoire britannique contre immunité des réseaux qui y sont implantés. La question du financement du terrorisme se rattache à celle des droits civils. Pour mettre en place et développer un réseau comme Al-Qaida, il faut beaucoup d'organisation et beaucoup de ressources. La lutte contre le terrorisme passe donc par une surveillance étroite des flux financiers, de leur origine et de leur destination, laquelle se heurte à une conception du secret bancaire que l'on a tendance à rattacher à la question des libertés. Le même genre de remarques peut s'appliquer à la sécurité du transport aérien en général. L'abaissement de la sécurité dans les aéroports comme pour le trafic lui-même est la conséquence d'une conception étroite de la compétitivité, où l'on oublie que l'économie est au service de l'homme et non l'inverse. On pourrait poursuivre l'exercice.
+L'incapacité des services américains, la CIA (Central Intelligence Agency) et le FBI (Federal Bureau of Investigation) principalement, à anticiper et à déjouer les attentats du 11 septembre, qui les ont, en fait, pris au dépourvu, s'analyse en dernier ressort par l'inadaptation d'agences engluées dans des routines et par les très classiques conflits bureaucratiques. Dans le même ordre d'idées, comme le phénomène de la mondialisation concerne les unités actives de toute nature, y compris les organisations criminelles, la lutte contre le crime organisé - et en particulier le terrorisme - suppose des formes de coopération originales entre les États, notamment au niveau de leurs services secrets, de leurs polices et de leurs institutions judiciaires. Il s'agit de domaines où les traditions coopératives sont limitées et où, là encore, l'adaptation se heurte aux habitudes et aux intérêts corporatistes ou bureaucratiques.
+Les observations précédentes n'ont aucune prétention à l'exhaustivité. Elles visent seulement à expliquer ce qui, sur le coup, a pu paraître incompréhensible ou aberrant : comment un pays aussi puissant que les États-Unis, qui consacre des ressources aussi immenses à sa sécurité, a-t-il pu se laisser de la sorte agresser par surprise? Après un choc tellement considérable, on peut penser que chacun des pays potentiellement menacés a entrepris de surmonter les obstacles qui s'opposent à une prévention efficace. Mais, aux États-Unis comme ailleurs, les résistances sont énormes. Pour certains Américains et non des moindres (George Soros), la "guerre contre le terrorisme" risque de saper les fondements mêmes de l'unité du pays. Les résistances sont également considérables sur le plan international, quand il s'agit de coordonner les activités de plusieurs États, car à l'affrontement des intérêts les plus tangibles se superposent les malentendus politiques au sens large, malentendus qui - on le rappellera dans la suite de ce texte - n'ont pas tardé à apparaître entre Washington et ses alliés, anciens ou nouveaux, après une brève union sacrée. Ainsi, dès le mois de décembre 2001, le Parlement européen s'opposait-il à une coopération judiciaire renforcée avec les États-Unis.
+Dans les heures qui ont suivi les attaques, le président George W.Bush a d'abord donné l'impression de s'en prendre à l'Islam en adoptant la rhétorique du "choc des civilisations" et en parlant d'une "guerre du Bien contre le Mal". Très rapidement, il a pris conscience du piège et adopté la formule de la " guerre contre le terrorisme ". Expression ambiguë toutefois, car il n'existe aucune définition universellement acceptée du terrorisme, et, dans bien des cas, la frontière entre terrorisme et résistance est difficile, sinon impossible à tracer. Ephraïm Halévy, le chef du Mossad, le service de renseignement israélien, avait peu de chances de faire l'unanimité en déclarant : "La distinction entre bon et mauvais terrorisme n'a plus lieu d'être. Chacun doit choisir son camp : pour ou contre la terreur." De fait, Israël, l'Inde, la Russie ou encore la Chine se sont engouffrés dans le boulevard ouvert par le président des États-Unis en assimilant les Palestiniens, les Pakistanais, les Tchétchènes et les Ouïgours aux criminels du 11 septembre. Au début de l'année 2002, le président du Conseil espagnol, José Maria Aznar, déclarait ne faire "aucune différence" entre ces criminels et l'ETA (Euskadi Ta Askartasuna, "Patrie basque et liberté").
+En pratique, Washington a immédiatement accusé Al-Qaida et son chef Oussama Ben Laden. En identifiant aussi promptement l'agresseur, la Maison-Blanche a produit un immense soulagement, car rien n'était plus angoissant pour les opinions publiques américaine et même européennes que cette impression d'un ennemi mortel innommable et invisible. Avec Al-Qaida, on désignait aussi un État, l'Afghanistan. On savait en effet que le milliardaire saoudien, lui aussi à sa manière un apôtre de la guerre du Bien contre le Mal, tirait les ficelles du sinistre régime de ce mollah Omar dont les outrances, au fil des mois, avaient de plus en plus attiré l'attention du monde. C'est donc contre l'Afghanistan que les États-Unis sont entrés en guerre dès le 7octobre, en se donnant pour objectif de renverser l'ordre taliban, de détruire les bases d'Al-Qaida et de saisir leurs chefs.
+Contrairement à ce qui a été si souvent écrit ou dit, cette guerre a été des plus classiques, c'est-à-dire d'État à État. Ses objectifs ont été partiellement mais rapidement atteints. Les Talibans ont perdu le pouvoir et les infrastructures d'Al-Qaida ont été anéanties. Ces résultats furent salutaires pour le moral des Américains, mais aussi pour l'image des États-Unis dans le monde. Le nouveau gouvernement mis en place par les vainqueurs, dirigé par le Pachtoune royaliste Hamid Karzaï, n'a cependant guère les moyens d'instaurer son autorité sur l'ensemble du territoire afghan, malgré la Loya Jirga réunie au mois de juin. Le pays reste largement soumis à la rivalité des seigneurs de la guerre. L'influence talibane n'a pas disparu, et les réseaux de Ben Laden ont été d'autant moins démantelés qu'ils disposent d'appuis conséquents au Pakistan occidental. Quant à Ben Laden et au mollah Omar, ils courent toujours. De nombreux indices suggèrent qu'une partie de ces réseaux, bien implantés dans les pays occidentaux, conservent leur capacité de nuire. Les intérêts occidentaux, dans la mesure où ils constituent les cibles de Ben Laden et de ses émules, sont toujours menacés, même si des agressions en série, d'ampleur comparable à celles du 11 septembre, paraissent peu probables.
+Pour venir à bout d'Al-Qaida, toute la panoplie des mesures antiterroristes doit être mise en oeuvre, et nous avons vu plus haut que les principaux obstacles se situent au sein même des unités politiques menacées. Cela dit, il est vraisemblable qu'en affaiblissant les bases territoriales des organisations terroristes, on en a réduit considérablement les capacités, et donc le potentiel. A priori, de telles bases ne peuvent être localisées que dans les États qualifiés par les Américains de rogue states, expression que l'on peut traduire par "États voyous", ou de failed states, c'est-à-dire les "États manqués" ou "incomplets". Dans son discours sur l'état de l'Union, au début de 2002, George W.Bush a désigné les principaux rogue states, en les réunissant dans un "axe du mal". L'Afghanistan étant maintenant neutralisé, il s'agit principalement de l'Iran, de l'Irak et de la Corée du Nord; mais le concept est assez large pour inclure, le cas échéant, des pays tels que la Syrie ou la Libye. Par extension, le chef de l'exécutif américain situe les mouvements islamistes dans cet axe du mal. Quant aux failed states - c'est-à-dire les États où le gouvernement n'exerce pas ou mal son autorité sur l'ensemble de son territoire-, il y en a hélas beaucoup à des degrés divers, tels la Somalie, le Yémen, les Philippines, mais aussi la Colombie ou le Tadjikistan. Au cours des derniers mois, l'Amérique s'est efforcée d'élaborer des stratégies susceptibles de réduire les risques provenant de ces divers États : stratégie d'intervention dans les failed states (envoi de forces spéciales aux Philippines et au Yémen par exemple, et il semble que la CIA pousse également ses pions en Algérie) ; stratégie de prévention à l'encontre des rogue states.
+Une doctrine d'action préventive pourrait se heurter à de très sérieuses objections. En s'arrogeant le droit d'intervenir préemptivement et unilatéralement, c'est-à-dire sans l'accord de la "communauté internationale" incarnée par le Conseil de sécurité des Nations unies, les États-Unis prendraient des risques, même vis-à-vis de leurs alliés les plus proches comme la Grande-Bretagne. Le cas de l'Irak est au centre des préoccupations, car, depuis son élection, George W.Bush paraît déterminé à renverser Saddam Hussein. Il ne s'agit pas seulement d'aller jusqu'au bout du processus engagé par son père en 1991, à la suite de l'invasion du Koweït. En installant à Bagdad un régime qui leur serait favorable, les Américains renforceraient la sécurité d'Israël et accroîtraient considérablement leur marge de manoeuvre, tant vis-à-vis de l'Iran que de l'Arabie Saoudite, cette dernière étant particulièrement suspecte à leurs yeux depuis le 11 septembre. Encore faudrait-il pouvoir monter des opérations militaires permettant d'aboutir rapidement et sans provoquer l'éclatement du pays, et mettre en place un gouvernement efficace. Les alliés des États-Unis - ou du moins leurs gouvernements -ne manifestent aucune sympathie pour Saddam. Mais, d'une part, ils ne se montrent pas convaincus, à tort ou à raison, par les arguments de Washington sur une éventuelle complicité de Bagdad avec Al-Qaida ou sur l'imminence de l'acquisition de l'arme nucléaire par l'Irak; et, d'autre part, ils redoutent les effets sur les opinions publiques des pays arabo-musulmans d'une opé-ration mal justifiée, et leurs conséquences. Cela dit, ils ne feront pas obstacle à la volonté des Américains, si leur détermination à agir militairement est suffisamment forte, quitte à adapter leur attitude en fonction des résultats. En ce qui concerne l'Iran, les Européens rejettent depuis longtemps la politique de double endiguement consistant à traiter ce pays comme l'Irak. Ils estiment que le régime des ayatollahs est de toute façon miné de l'intérieur comme l'était l'URSS de Brejnev. Quant à la Corée du Nord, les États-Unis eux-mêmes ont décidé de renouer le dialogue avec elle.
+D'une manière générale, les partenaires de l'Amérique considèrent que, même dans un système international hétérogène, aucun État ou groupe d'États n'a le droit d'attaquer un autre au seul motif qu'il pourrait s'en prendre à ses intérêts vitaux. Aux pires moments de la guerre froide, les États-Unis n'ont jamais envisagé une attaque préventive contre l'URSS, même lorsque le rapport des forces le leur aurait permis. On comprend donc pourquoi ceux-là mêmes, à l'extérieur des États-Unis, qui furent le plus sincèrement indignés par les attaques du 11 septembre ont par la suite exprimé, certes de façon généralement feutrée, des réserves vis-à-vis de certains aspects de la politique de Washington. Des réserves que le secrétaire d'État Colin Powell donne parfois l'impression de partager, comme lorsqu'il déclarait, au mois de juin : " Any use of preemptive force must be decisive." Encore faut-il s'entendre sur le sens du mot decisive.
+À ce stade, il convient d'aborder la difficile question des causes du terrorisme. Le lecteur se rapportera au chapitre rédigé par Michel Wieviorka pour un traitement général du sujet - et à celui de Gilles Kepel pour l'analyse des liens entre terrorisme et islamisme. On se bornera ici à quelques remarques. Pour qu'une activité terroriste soit durable, il faut deux conditions. La première est l'existence d'unités actives - telles qu'Al-Qaida, le Jihad islamique ou l'ETA à l'époque contemporaine, l'Irgoun ou le groupe Stern au siècle dernier - et donc de groupes organisés partageant une même culture ou une même idéologie combative. La seconde est l'existence d'un réservoir humain permettant à ces groupes de se renouveler et de s'élargir. De ce point de vue, il en est des organisations terroristes comme des mouvements de libération dans les situations coloniales. Si les organisations terroristes qui ont sévi en Europe occidentale dans les années 1970 et au début des années 1980 n'ont pas survécu, ce n'est pas seulement grâce à l'efficacité des gouvernements, mais aussi et peut-être principalement parce que la force d'entraînement de l'idéologie anticapitaliste qui cimentait ces groupes était insuffisante pour assurer leur survie. Si, à l'inverse, les organisations terroristes irlandaises, basques ou corses résistent durablement aux contre-mesures, c'est qu'elles trouvent dans les peuples dont elles sont issues les ressources humaines nécessaires.
+Ce qui distingue Al-Qaida des formes plus ordinaires du terrorisme, c'est la conjugaison de l'ampleur des moyens hautement coordonnés mis en oeuvre, et de l'inhabituelle obscurité de l'idéologie dont ce réseau se réclame pour fonder ses actions. Chacun peut comprendre, ce qui ne veut pas dire approuver, que des groupes veuillent se battre par tous les moyens pour l'"indépendance" de l'Irlande du Nord, du pays basque ou de la Corse. On notera, incidemment, qu'à l'instar de la plupart des unités actives, les buts réels mais non avoués des organisations terroristes tendent à se déplacer et, en l'occurrence, à s'étendre à des activités criminelles ou "mafieuses" de toute nature, ce qui complique singulièrement les choses.
+Mais que veulent Ben Laden et ses partisans? La haine des États-Unis et, plus généralement, de la culture occidentale est-elle un fondement idéologique suffisant pour assurer la survie d'une organisation comme Al-Qaida? Faut-il penser que son gourou est l'expression d'un nouveau type de nihilisme? Olivier Roy rejette le terme et lui préfère celui de néo-fondamentalisme. "(...) Tous ces néo-fondamentalistes, loin d'incarner la résistance d'une authenticité musulmane face à l'occidentalisation, sont à la fois des produits et des agents de la déculturation dans un monde globalisé. (...) Ben Laden n'est pas une réaction de l'islam traditionnel, mais un avatar aberrant de la globalisation, tant dans les instruments de son efficacité (technicité, compétence, organisation) que dans la déconnexion de son action par rapport aux sociétés réelles. Dans les cibles visées et dans l'anti-américanisme virulent, il reprend une tradition très occidentale du terrorisme symbolique, propre à la bande à Baader ou à Action directe, mais repensé à l'échelle des jeux vidéos et des films catastrophes d'Hollywood. " Ou bien faut-il supposer, avec Alexandre Adler, que Ben Laden est un stratège génial comme le fut Adolf Hitler, ou dans un autre genre Mao Zedong, qu'il a conçu un projet grandiose pour édifier une sorte de califat ou de théocratie capable de s'opposer à l'empire du Mal, c'est-à-dire, dans son imaginaire, à l'"empire américain"?
+Selon cette perspective, le but des attentats du 11 septembre aurait été de déstabiliser l'Amérique, de la pousser à la faute et de provoquer des soulèvements en chaîne dans les terres islamiques, avec pour buts ultimes l'Égypte et l'Arabie Saoudite. Si l'on préfère la comparaison avec les Bolcheviks, pareille vision ne serait pas sans analogie avec les projets de révolution mondiale au début du XXe siècle. Contrairement à Lénine, à Mao ou à Hitler, Ben Laden n'a apparemment développé ses idées ni par écrit ni par oral, de sorte que ses adversaires en sont réduits à spéculer. Quoi qu'il en soit, on aurait tort d'écarter des hypothèses sous le prétexte qu'elles seraient apparemment folles. Certes, la révolution mondiale ne s'est pas produite comme l'avait rêvée les Bolcheviks, mais sans eux et sans leur délire la révolution d'Octobre n'eût pas eu lieu et l'histoire du siècle dernier eût été différente. Et s'il est vrai qu'Hitler a échoué, on peut penser qu'en prenant Mein Kampf à la lettre, le grand drame de la Seconde Guerre mondiale eût été épargné. En d'autres termes, le risque d'une déstabilisation à grande échelle du monde arabo-islamique doit être pris au sérieux. Pour y faire face, il est nécessaire de dépasser le cadre conceptuel, beaucoup trop étriqué, de la "guerre contre le terrorisme". C'est pourquoi on n'échappe pas au débat sur les "causes du terrorisme". Encore faut-il en poser correctement les termes.
+Bien souvent, en effet, le problème est formulé de façon partiale ou partielle. Par exemple, à l'argument selon lequel la pauvreté ou les inégalités seraient à la racine du terrorisme, on peut opposer que Ben Laden est milliardaire et que les exécutants d'Al-Qaida étaient des personnes sophistiquées et non de vulgaires endoctrinés des madrasas. À ceux qui établissent un lien direct entre la politique pro-israélienne des États-Unis et les attentats du 11 septembre, il est également facile de rétorquer que Ben Laden ne s'est jamais référé que marginalement au conflit israélo-palestinien. Le centre de gravité de sa propre mappemonde est situé plus à l'est. Certaines formulations ont l'inconvénient d'apparaître comme des critiques plus ou moins déguisées des États-Unis, accusés à la limite d'être eux-mêmes responsables du drame dont ils ont été les principales victimes.
+Ce que l'on peut et doit dire, en revanche, c'est que les cerveaux d'Al-Qaida ont l'art d'exploiter les misères du monde arabo-musulman pour y puiser des ressources humaines et y faire retentir leur idéologie. Que des révolutionnaires soient souvent issus de milieux privilégiés est une constante de l'Histoire. Rien de surprenant non plus à ce que les actions politiques des États-Unis, unique superpuissance depuis la chute de l'URSS, soient jugées dans le reste du monde à travers les lunettes de chacun. Que la politique américaine au Proche-Orient soit perçue comme excessivement pro-israélienne dans le monde arabo-islamique, ou que le soutien de Washington à certains régimes dits modérés - mais en tout cas non démocratiques - de la région (Arabie Saoudite, Égypte) y soit considéré comme cynique, ce sont là des faits politiques incontestables dont il convient d'apprécier justement la portée. Lorsque le prince Abdallah ou le président Moubarak, mais aussi la plupart des Européens, font grief à Washington de ses oscillations face à la guerre israélo-palestinienne, qui n'a cessé de s'étendre dramatiquement depuis l'été 2001, et désapprouvent - quoique de façon feutrée - l'exigence formulée par le président Bush, le 24 juin, du remplacement de Yasser Arafat, ils expriment des attitudes non pas morales, mais politiques. On y reviendra plus loin. Les leaders arabes dits modérés, dont la légitimité interne n'est pas supérieure à celle du vieux combattant palestinien, redoutent d'être pris entre le marteau américain et l'enclume de leurs populations. Les gouvernements européens, qui ont du monde arabo-musulman une longue expérience, savent que le risque d'une déstabilisation est réel. S'agissant de l'Autorité palestinienne, les uns et les autres partagent sans doute ce jugement d'Edward Saïd : "Il faut édifier les fondements de la réforme à partir de forces vives de la société, celles qui, jour après jour, ont résisté à l'invasion et à l'occupation (...)6."
+La politique internationale forme un tout, et ce, dans la durée. Après le retrait de l'URSS d'Afghanistan en 1989, les États-Unis se sont aussitôt détournés de ce pays, mais aussi du Pakistan, devenu sans intérêt à leurs yeux. Ils n'ont pas vu le danger du régime des Talibans et des connexions avec Islamabad. En pratique, ils ont même encouragé ces développements. Les moudjahidines avaient été leurs alliés pendant l'occupation soviétique et un Ben Laden se trouvait alors du "bon côté ". Ni les Américains, ni, semble-t-il, les Européens ne semblent avoir prêté attention à la complexité de la situation tribale et à la portée des camps où furent formés, entre autres, ces fameux " Afghans " qui devaient contribuer à mettre l'Algérie à feu et à sang. Dans les années 1990, des responsables américains ont même caressé un moment l'idée de favoriser l'avènement d'un régime islamiste à Alger.
+Rappeler ces faits n'est pas insinuer que les Américains sont responsables de leur propre malheur et de celui des autres. Il s'agit seulement de montrer que certaines décisions qui n'ont pas immédiatement des conséquences globales peuvent en avoir par la suite. Lorsque les dirigeants arabes dits modérés et les Européens invitent les États-Unis à la prudence, ce n'est pas par pusillanimité, mais par prévoyance. En politique comme dans les affaires privées, la prudence est une vertu cardinale. Si l'on peut effectivement faire un reproche à la politique américaine, c'est de ne pas suffisamment prendre en compte l'expérience et le point de vue des autres. Nul n'a le monopole d'"avoir raison". Mais l'Amérique est aujourd'hui menacée par l'hubris. Je reviendrai plus loin sur cette question, à propos de l'"unilatéralisme".
+Dans l'immédiat, les attentats du 11 septembre ont provoqué un rééquilibrage du système international. Le trait principal, à mon sens, en est le renforcement des États. Cela peut surprendre à une époque où l'on s'inquiète surtout de la dissolution des notions de territoire ou de souveraineté. Le paradoxe n'est qu'apparent, car il s'agit justement d'empêcher que le monde ne s'enfonce dans le chaos d'une mondialisation des tribalismes.
+Le renforcement des États est manifeste dans ce que l'on peut appeler le retour de la Russie, un phénomène amorcé en fait, comme bien d'autres, avant le 11 septembre. Sur le plan intérieur, Vladimir Poutine est parvenu à redresser l'autorité du gouvernement central en reprenant largement en mains les "sujets" de la Fédération, en limitant l'emprise des "oligarques", et en prenant ses distances vis-à-vis de la " famille " (c'est-à-dire du clan Eltsine), quitte à prêter le flanc à la critique du point de vue des pratiques démocratiques occidentales contemporaines. Il faut insister sur le dernier mot, car, encore à l'époque du général de Gaulle, en France, le ministre de l'Information surveillait la télévision de très près. Dès le mois d'août 2001, au moment du voyage de Condoleezza Rice à Moscou, on pouvait déceler les termes d'une nouvelle donne américano-russe, la Russie se résignant à un élargissement de l'Organisation du traité de l'Atlantique Nord (OTAN) s'étendant aux pays Baltes ainsi qu'à l'abrogation du traité ABM (Anti-Ballistic Missiles Treaty) de 1972, avec, en contrepartie, une main plus libre en Tchétchénie et la perspective d'une adhésion à l'Organisation mondiale du commerce (OMC).
+Le 11 septembre, le président Poutine a instantanément saisi les potentialités de la situation, et, au grand dam des conservateurs néo-communistes, il a fait clairement le choix d'une sorte de "Sainte-Alliance" avec les États-Unis. Ce choix avait des fondements objectifs. Depuis longtemps, déjà, Moscou s'efforçait de convaincre les Occidentaux de l'existence d'une menace terroriste à grande échelle d'origine islamiste et inscrivait le problème tchétchène dans cette perspective, alors qu'Américains et Européens privilégiaient les droits de l'homme comme unique grille de lecture. On comprend aussi pourquoi les Russes ont pu finalement trouver un intérêt au principe d'une défense antimissile essentiellement dirigée contre les "nouvelles menaces" liées au phénomène terroriste. C'est pour la même raison que, dans les mois suivants, le Kremlin n'a pas cherché à s'opposer au déploiement de forces américaines au Caucase et en Asie centrale - ce qui, naguère encore, était à peine concevable. L'équipe de Poutine est parvenue à la conclusion que, dans la situation économique difficile que traverse durablement le pays, ces déploiements pouvaient utilement contribuer à soulager l'effort de défense. Évidemment, il y a des limites à ce qui est acceptable, et Moscou ne verrait pas d'un bon ?il un excès d'activisme américain dans les anciennes républiques soviétiques concernées. Mais le Kremlin compte à la fois sur le jugement des dirigeants de ces pays et sur la vigilance de leurs autres voisins, principalement la Chine et l'Iran. L'avenir décidera de la pertinence de ces calculs.
+En ce qui concerne l'OTAN, les dirigeants de la Russie croient désormais ou affectent de croire que, puisque la menace d'un conflit traditionnel a disparu sur le théâtre européen, cette organisation a d'autant plus perdu de sa pertinence qu'elle n'est guère adaptée au phénomène du terrorisme. Sincèrement ou non, ils jugent que le nouvel élargissement, particulièrement aux pays baltes, sera pour l'OTAN davantage une source de problèmes que de solutions. Ils notent, comme les Européens eux-mêmes, que l'Alliance atlantique ne joue plus qu'un rôle marginal dans la nouvelle approche géostratégique américaine, si ce n'est qu'elle demeure, sur le plan politique, le principal forum de sécurité transatlantique. À cet égard, ils attachent une grande importance à la revalorisation des relations entre l'OTAN et la Russie. Celle-ci s'est manifestée, en mai 2002, par l'entrée en vigueur d'un nouveau Conseil OTAN-Russie, en même temps qu'un accord sur la réduction des deux tiers des arsenaux nucléaires des deux anciennes superpuissances. Désormais, la Russie dispose, non pas d'un droit de veto, mais d'une voix significative au sein de l'organisation.
+On doit certes toujours se souvenir de ce mot de Bismarck : "La Russie n'est jamais ni aussi forte ni aussi faible qu'il n'y paraît." Il n'empêche que, dans le contexte actuel, tous ces résultats de la diplomatie du Kremlin sont assez remarquables. Mieux encore : grâce au choix de Poutine le 11 septembre, Bush, né aux relations internationales après la guerre froide, et qui dit considérer son partenaire moscovite comme "un homme moderne", a définitivement enterré la hache de guerre. La guerre froide est vraiment "terminée". Anticipant sur l'avenir, Américains et Européens ont décidé de reconnaître à la Russie le statut d'économie de marché, lui ouvrant ainsi effectivement la perspective d'une prochaine adhésion à l'OMC. Pour couronner le tout, lors de la réunion de Kananaskis (Canada), à la fin du mois de juin, la Russie s'est vu offrir - en même temps que des engagements financiers importants pour renforcer la sécurité de ses armements nucléaires - un fauteuil à part entière au G8, qui, désormais, mérite pleinement son sigle. Enfin, aussi bien les Américains que les Européens envisagent dorénavant le partenariat énergétique avec la Russie de manière plus constructive, avec moins d'arrière-pensées. Dans leur évaluation des risques, les premiers ne sont désormais pas loin de considérer que la Russie est plus sûre que le Moyen-Orient. Le développement de l'industrie du pétrole et du gaz est au centre de la stratégie de reconstruction économique de Moscou. Dans ces conditions, c'est toute la géopolitique du Moyen-Orient, mais aussi celle du Caucase et de l'Asie centrale - laquelle est au centre des préoccupations de l'Administration américaine, et d'abord du vice-président Dick Cheney, dont on connaît le rôle auprès de George W.Bush - qui vont se trouver modifiées.
+Quoique de façon moins spectaculaire que la Russie, la République populaire de Chine (RPC) n'a pas, elle non plus, hésité à se joindre à la Sainte-Alliance. L'annonce en a été faite à l'occasion d'une réunion au sommet du Forum de coopération économique Asie-Pacifique (APEC), à Shanghai, quelques semaines après les attentats. Là encore, le rapprochement avec les États-Unis était en fait entamé avant le 11 septembre, après des relations difficiles pendant les premiers mois de la présidence de George W. Bush, celui-ci n'ayant pas encore décidé s'il devait considérer l'empire du Milieu comme un partenaire ou comme le futur rival ou adversaire à la place de la défunte URSS. Certes, la Russie a des raisons plus solides que la Chine de vouloir s'ancrer à l'Occident. Plus de 85% de sa population vit à l'ouest de l'Oural, et la petite vingtaine de millions d'habitants répartie dans les extrémités de l'est se trouve bien isolée face à l'Asie surpeuplée. De plus, bien que la culture russe soit profondément singulière, elle se rattache évidemment davantage à l'Europe qu'à l'Asie.
+Mais la Chine avait deux raisons principales d'affirmer sa solidarité avec les États-Unis au lendemain du 11 septembre. D'une part, elle doit faire face à ses propres problèmes de minorité, essentiellement au Xinjiang et au Tibet. Un peu comme la Russie au Caucase, elle espère désormais davantage de compréhension du côté occidental. D'autre part, et là encore comme la Russie, quoique dans des conditions tout à fait différentes, la Chine entend se consacrer durablement à son développement économique et à la solution des immenses problèmes sociaux qui en résultent, et préparer ainsi la "quatrième modernisation", celle de la démocratie. Pour cela, il faut minimiser les occasions de conflits extérieurs. Une bonne entente avec les États-Unis est donc cruciale.
+En pratique, Pékin a joué un rôle déterminant auprès d'Islamabad, après le 11 septembre. Les deux pays, qui forment une alliance de revers par rapport à l'Inde, sont en effet très proches et leur lien a survécu aux vicissitudes de l'histoire du second XXe siècle. En faisant pression sur le général Moucharraf pour que celui-ci lâche les Talibans (dont les systèmes de commandement dépendaient des Pakistanais) et accepte de coopérer avec les États-Unis, la RPC a apporté sa contribution à la victoire de George W.Bush contre le régime du mollah Omar. Avant même le 11 septembre, le spectre d'une alliance sino-russe aux dépens des Occidentaux avait par ailleurs été écarté. Certes, les deux pays avaient signé, en juillet 2001, un traité d'amitié et de coopération pour 20ans. Pareil traité se justifie en soi, étant donné les priorités des uns et des autres. Sitôt signé, Vladimir Poutine avait pris soin de déclarer qu'il n'y aurait pas d'alliance anti-américaine avec la Chine. La question pouvait se poser à l'époque. Depuis le 11 septembre, elle est devenue complètement caduque.
+Les relations entre les grands pays du Nord étant ainsi affermies, la question-clef du Pakistan se présente sous de meilleurs auspices. Question-clef, car, depuis la partition de 1947, et même après l'indépendance du Bangladesh, en 1971, on s'interroge sur la viabilité d'une unité politique particulièrement fragile, en raison de ses nombreuses et importantes fractures internes. Sur le plan idéologique, les Occidentaux n'ont jamais manifesté de sympathie pour un pays qu'ils comprennent mal et dont les gouvernements démocratiques - ou d'apparence démocratique - sont régulièrement balayés par des coups d'État, le dernier en date étant celui qui a porté le général Moucharraf au pouvoir en octobre 1999. À tort ou à raison, beaucoup d'observateurs pensent que l'unité du Pakistan ne tient qu'à l'existence de la tension avec l'Inde à propos du Cachemire, laquelle servirait à justifier l'ampleur et le rôle des forces armées, en particulier le niveau élevé du budget de défense.
+Comme en Inde, l'accès à l'arme nucléaire a été une préoccupation constante des militaires pakistanais, et, dans les années 1970, alors que l'Inde s'activait avec succès dans cette direction, on agitait déjà le spectre de la "bombe islamique". La crainte de cette "bombe islamique" a d'ailleurs joué un rôle décisif dans la politique de non-prolifération de l'Administration Carter, à laquelle la France, auparavant laxiste dans ce domaine, s'est ralliée sous l'autorité du président Giscard d'Estaing. Malgré tous les efforts pour les en empêcher, Indiens et Pakistanais sont parvenus à leurs fins. La victoire des nationalistes hindous en 1998 a mis en quelque sorte le feu aux poudres. En procédant à des essais nucléaires, l'Inde a brisé le tabou, et le Pakistan lui a aussitôt emboîté le pas.
+Concrètement, la question se posait au lendemain du 11 septembre de savoir si le général Moucharraf contrôlait effectivement son pays. Jusqu'à quel point, se demandait-on comme naguère à propos de l'Algérie, l'armée était-elle noyautée par les forces islamistes, en particulier par Al-Qaida ? Dans quelle mesure le gouvernement pouvait-il contrôler l'ISI (Inter Service Intelligence), c'est-à-dire la puissante organisation de services secrets à laquelle on impute aussi bien l'"invention" des Talibans que l'entretien de la guerre au Cachemire? Peut-être Ben Laden a-t-il spéculé sur la fragilité du Pakistan : en attirant les Américains dans le piège pachtoune, le pays n'allait-il pas se casser? Al-Qaida n'allait-elle pas mettre la main sur l'ISI et sur la bombe? Si tel a bien été le calcul, il a été déjoué, en tout cas jusqu'à ce jour, et ce, au moins pour trois raisons. Sans doute l'armée est-elle moins "noyautée" et l'ISI moins autonome qu'on ne le pense. De plus, toutes les pressions internationales qui se sont exercées sur le général Moucharraf ont pointé dans la même direction. Enfin, celui-ci a réagi en homme d'État, avec sang-froid et courage. Dans un discours de janvier 2002, il n'a pas hésité à se prononcer clairement pour un État de droit.
+Cela dit, la question fondamentale de la fragilité du Pakistan demeure. Moucharraf a lâché les Talibans. Il est cependant probable que les réseaux d'Al-Qaida sont encore actifs sur le territoire pakistanais. Peut-être Ben Laden et le mollah Omar y vivent-ils cachés. Mais tout indique que ce lâchage n'est pas une duperie. Il semble également que le général-président coopère avec les États-Unis pour que la "bombe islamique" ne tombe pas entre les mains des islamistes. Mais le général peut-il se permettre de céder aussi sur le Cachemire sans risque de saper le pouvoir qu'il est jusqu'ici parvenu à maintenir?
+Comme l'affaire israélo-palestinienne, la question du Cachemire est de celles qui paraissent simples quand on les considère de loin et sans passion, et deviennent inextricables lorsque l'on s'en rapproche, a fortiori lorsque l'on y est engagé émotionnellement. Du point de vue de Sirius, le dossier pakistanais est plutôt convaincant, puisque, après la partition, le rattachement du Cachemire à l'Inde n'a tenu qu'à la décision d'un maharadja sans doute manipulé, alors que la raison démographique ou géographique aurait conduit à l'autre branche de l'alternative. Depuis 1947, le désaccord sur le Cachemire est la manifestation vivante du drame d'une séparation jamais complètement acceptée du côté indien. La victoire du BJP (Parti du peuple indien) et du nationaliste Atal Bihari Vajpayee, en mars 1998, a ravivé des braises jamais éteintes, d'autant plus que le nouveau Premier ministre a fait procéder, comme on l'a rappelé, à des essais nucléaires. L'ISI est-il à l'origine des attentats contre le Parlement de New Delhi, en décembre 2001, et au Cachemire? Et s'il en est ainsi, comme on peut l'imaginer, jusqu'à quel point le général Moucharraf lui-même a-t-il été obligé de participer aux décisions?
+En tout cas, la tension n'a cessé de monter au fil des mois. Au printemps, Washington avait toutes les raisons de craindre que le Pakistan ne dégarnisse sa frontière avec l'Afghanistan, pour redéployer les forces en direction de l'Himalaya. Pour les États-Unis, il est clair que la question du Cachemire est devenue cruciale puisqu'un dérapage pourrait y avoir des conséquences catastrophiques pour la lutte contre Al-Qaida. Imagine-ton, dans le contexte actuel, le retentissement d'un échange nucléaire entre les deux frères séparés? C'est pourquoi le président Bush a dépêché dans la région son ministre de la Défense, Donald Rumsfeld (en juin). Mais Washington ne saurait se contenter d'ordonner à Islamabad d'empêcher les attentats au Cachemire. Qu'on le veuille ou non, il y a terrorisme et terrorisme, et une bonne stratégie antiterroriste n'est possible que sur la base d'une juste analyse des causes de tels actes.
+En fait, dans la vaste révision d'ensemble de leur politique étrangère, les États-Unis sont désormais obligés de trouver une voie pour, à la fois, renforcer les liens avec l'Inde (d'autant que de graves problèmes risquent de surgir au Népal où sévit un mouvement révolutionnaire "maoïste") et avec le Pakistan, dont le maintien de l'unité revêt désormais un caractère vital. En particulier, la superpuissance ne peut éviter de s'interposer dans le conflit du Cachemire, pas plus qu'elle ne peut laisser Israéliens et Palestiniens face à face. Du temps de la guerre froide, le jeu régional était dominé par le croisement de deux alliances implicites, celle entre l'Union soviétique et l'Inde, et celle entre les États-Unis et le Pakistan, que venait compliquer le facteur chinois. Dorénavant, la recherche d'un modus vivendi, sinon d'une réconciliation, entre les frères séparés est devenu une priorité. Là comme ailleurs, on peut prévoir que le réalisme va, au moins pour un temps, l'emporter sur l'idéologie : mieux vaut, dans l'immédiat, un Pakistan effectivement gouverné par un régime autoritaire, mais un État solide participant activement à la Sainte-Alliance, qu'un Pakistan théoriquement démocratique mais corrompu, impuissant et, en définitive, friable.
+Face à ces événements, l'Europe n'apparaît pas grandie. Certes, l'immense majorité des Européens a fortement ressenti l'émotion si bien traduite dans un article rédigé à chaud par le directeur du journal Le Monde, Jean-Marie Colombani, et commençant par cette phrase : "Dans ce moment tragique où les mots paraissent si pauvres pour dire le choc que l'on ressent, la première chose qui vient à l'esprit est celle-ci : nous sommes tous Américains!" Mais, en politique, les émotions ne dominent pas durablement la scène. George W.Bush a rapidement signifié que les États-Unis entendaient régler seuls leur querelle, et que, dans la guerre contre Al-Qaida, ils n'attendaient des Européens que des concours ponctuels, lesquels ne leur ont pas été marchandés. Certes, sur l'insistance de Lord Robertson, le 12 septembre, l'OTAN a décidé d'activer le fameux article du traité de l'Atlantique Nord, mais il ne pouvait s'agir que d'un symbole dont l'impact fut à peu près nul. À long terme cependant, la coopération des États européens est indispensable, comme l'est celle des États-Unis, pour toutes les questions déjà évoquées ici, telles que le renseignement, la lutte contre le blanchiment de l'argent, etc. Dans l'immédiat et dans l'ordre des opérations militaires, les Européens et l'Union européenne, en tant que telle, furent marginalisés. On peut penser que tel aurait aussi été le cas si, au lieu de s'en prendre au sol américain, Al-Qaida avait frappé des cibles sur le Vieux Continent. Et l'on peut craindre que tel serait le cas si pareille tragédie devait se produire. Il en est ainsi parce que notre Union ne s'est pas encore dotée d'une véritable défense commune, ni au niveau des procédures de décision, ni au niveau des moyens. Ce n'est pas la seule raison.
+On ne saurait concevoir une politique de défense réellement commune sans, parallèlement, une politique étrangère commune. Il y a une trentaine d'années, on discutait gravement de la notion d'Union économique et monétaire (UEM) et de la question de savoir si l'union économique devait précéder l'union monétaire - ou inversement. Dans la réalité, on a fait les deux dans un même élan stratégique. Incidemment, il convient de saluer l'extraordinaire succès du passage concret à l'euro, au début de l'année 2002, c'est-à-dire la mise en circulation des billets et des pièces de la nouvelle monnaie. S'agissant de la politique étrangère et de sécurité commune (PESC), il en ira nécessairement de même. Certes, des petits pas significatifs ont été accomplis dans la bonne direction, particulièrement depuis la rencontre franco-britannique de Saint-Malo, en 1998, en ce qui concerne la défense; et, dans le domaine de la politique étrangère, on ne doit pas sous-estimer les avancées. Par exemple, en août 2001, Javier Solana, le Haut représentant pour la PESC, a largement contribué à forger un arrangement compliqué mais viable en Macédoine, qui a abouti au désarmement de la guérilla albanaise. L'Union européenne s'apprête également à assumer les responsabilités de l'OTAN au Kosovo. Elle a agi de façon cohérente vis-à-vis de l'ex-Yougoslavie, dont le dernier avatar est une nouvelle fédération entre la Serbie et le Monténégro. Peut-être cependant l'Union devrait-elle se montrer plus active dans cette région, car les ressentiments demeurent chez les Serbes, dont beaucoup suivent avec sympathie la pugnacité de Milosevic au Tribunal pénal international pour l'ex-Yougoslavie de La Haye.
+Dans l'état actuel des choses, l'Union européenne en tant que telle reste incapable d'affirmer et de défendre ses intérêts les plus fondamentaux, pour ne pas dire vitaux. On prendra deux exemples : la Russie et le Proche ou Moyen-Orient. Il est géopolitiquement évident que, dans le contexte post-soviétique, l'idée même d'Union européenne implique la formulation d'un concept russo-euro-péen. Les Russes y aspirent, car, dans cette phase très perturbée de leur histoire, ils ressentent avec lucidité notre communauté de destin. Il existe désormais un Conseil OTAN-Russie et un G8, mais pas encore de structure où l'Union européenne en tant que telle et la Russie puissent débattre et discuter de leurs intérêts communs, par exemple à propos de Kaliningrad. Dès lors que la Lituanie entre dans l'Union, la question du transit entre cette ville -dont on ne saurait remettre en cause l'appartenance à la Fédération de Russie sans bousculer tout l'édifice mis en place en 1990, au moment de la réunification allemande - et le reste du pays devient en effet une affaire européenne, et non plus lituanienne.
+Quant au Proche et au Moyen-Orient, c'est, également dans une perspective à long terme, une région d'intérêt vital pour l'Europe, à cause de la géographie. Qu'il s'agisse du conflit israélo-palestinien, de l'Irak ou de l'Iran, ceux des pays européens auxquels l'histoire a conféré un poids pour ces sujets raisonnent à peu près de la même façon. Ils préconisent une approche plus équilibrée entre Israéliens et Palestiniens, une politique de containment vis-à-vis de l'Irak, mais sans intervention militaire massive aussi longtemps qu'une situation de légitime défense n'aura pas été établie, et une politique de détente bien contrôlée à l'égard de l'Iran. Dans les trois cas, les principaux pays européens divergent beaucoup moins entre eux qu'entre chacun d'eux et les États-Unis. Mais, étant divisés pour des raisons secondaires, ils en sont réduits à un rôle supplétif - ce qui ne veut pas dire nul - par rapport aux États-Unis et à des gestes dérisoires, comme de financer les infrastructures de l'Autorité palestinienne avant d'assister, impuissants, à leur destruction, puis sans doute d'être conviés à les financer de nouveau.
+La nécessité de s'adapter à un monde nouveau interdit de renvoyer la question de la politique extérieure commune aux calendes grecques. Certes, pour qu'une unité politique puisse élaborer et mettre en oeuvre une politique extérieure commune, il faut que cette unité en soit effectivement une. Or les arguments contraires ne manquent pas, et l'existence de bureaucraties anciennes souvent pénétrées de leurs traditions, au demeurant fort respectables, n'arrange pas les choses. Pourtant, lorsque l'on regarde concrètement, et non plus abstraitement, les grands enjeux planétaires, comment ne pas conclure à la possibilité sinon à la nécessité d'une Union qui en soit une?
+J'ai développé ailleurs un parallèle entre la construction européenne au sens du processus en cours depuis maintenant 45ans, et la construction nationale telle qu'en parlait Ernest Renan. Les deux aventures sont différentes mais se ressemblent. Il s'agit de traduire dans les faits, et donc d'abord dans des institutions, un "vouloir vivre ensemble" fondé sur une intelligence du passé et sur un projet commun. Il est tentant, à propos de l'Europe, de transposer ce cri de Massimo D'Azeglio, l'un des chefs modérés du Risorgimento, lors de la première session du Parlement du royaume d'Italie nouvellement unifié : " Nous avons fait l'Italie, maintenant nous devons faire les Italiens." À présent, la priorité est de faire l'Europe, avant de faire les Européens, encore que la combinaison de la libre circulation et de l'euro y contribue puissamment. Le défi est principalement d'ordre institutionnel. En décembre 2001, le Conseil européen de Laeken a décidé de créer une Convention sur l'avenir de l'Union européenne, afin de préparer la réforme des institutions, et de porter à sa tête l'ancien président Valéry Giscard d'Estaing. La tâche est immense et mérite le qualificatif d'historique. L'élargissement de l'Union est inscrit dans les faits, et son hétérogénéité augmente. Ainsi, au cours des derniers mois, a-t-on assisté à la victoire des socialistes (ex-communistes) en Pologne, et à une remise en cause des disciplines économiques et financières. Une Union de plus en plus large, hétérogène et bancale sur le plan institutionnel, serait vouée à l'éclatement. Comment aboutir au contraire à une Union effectivement large, mais cohérente et bien gouvernée? Tel est le défi que la Convention doit surmonter. En attendant l'aboutissement de ses travaux, l'Europe continuera d'être marginalisée dans les grandes affaires du monde.
+Ben Laden a-t-il spéculé sur un affaiblissement du moral de l'Amérique après le 11 septembre? Si tel fut le cas, il s'est évidemment trompé. La mobilisation patriotique a été extraordinaire et durable. La nation s'est massivement rangée derrière George W.Bush, qui s'est ainsi trouvé une mission à la hauteur de l'Histoire. Sa popularité, qui commençait à fléchir au milieu de 2001, est brusquement remontée pour atteindre des sommets sans précédents depuis Franklin D.Roosevelt. Pendant des mois, la "guerre contre le terrorisme" aura été le principal sinon l'unique objet de ses préoccupations et aura servi de sésame pour tenter de restaurer une autorité présidentielle sévèrement affaiblie depuis le Watergate, au début des années 1970. C'est seulement à l'approche des mid-term elections de novembre 2002 que la petite politique tend à reprendre le dessus, au moins de manière apparente car elle n'a jamais vraiment disparu. Le peuple américain a donc remarquablement réagi, mais, au moins sur un plan, avec une certaine naïveté collective. D'où vient, demande en effet l'homme de la rue depuis le 11 septembre, " qu'on ne nous aime pas et même qu'on nous haïsse à ce point"? L'un des traits de la culture américaine auquel participent aussi bien les citoyens fraîchement naturalisés, et qui constitue une force autant qu'une faiblesse, est en effet cette modalité d'ethnocentrisme selon laquelle on affirme de bonne foi l'universalité et donc la supériorité absolue de sa culture.
+L'immense majorité des Américains, dont George W.Bush est à cet égard un représentant exemplaire, ne doutent pas que le " modèle américain " soit l'horizon indépassable pour tout habitant de notre planète. Et lorsque des voix contraires parviennent à se faire entendre, on les ignore ou on les attribue à des forces obscurantistes. Tel est souvent le cas dans les conférences internationales où les pays du Tiers-Monde disposent d'un siège à part entière, comme à la conférence mondiale contre le racisme et les discriminations, réunie à Durban quelques jours seulement avant les attentats. On y assista à une véritable levée de boucliers contre la prétention des Occidentaux à imposer leurs valeurs et contre leur hypocrisie, puisqu'ils utilisent souvent, en pratique, deux poids et deux mesures. Certes, à Durban, les États-Unis ont fait une concession à l'air du temps en acceptant de s'"excuser" pour l'esclavage. Ils n'en ont pas moins, avec Israël, claqué la porte le 3 septembre, lorsque l'accusation de racisme a été retournée contre eux. Évidemment, la bonne conscience américaine suscite de l'animosité et même de la haine, lorsque, dans l'exercice de la politique extérieure, elle se conjugue à la force au sens le plus large du terme. Tout ceci n'explique pas directement Ben Laden, et le justifie encore moins, pas plus que des considérations purement sociologiques suffiraient à expliquer Hitler. Mais il y a toujours des diables d'homme parmi les hommes. Ben Laden en est un, et il a su exploiter un anti-occidentalisme, et particulièrement un anti-américanisme, dont les racines s'étaient sourdement étendues depuis la chute de l'URSS, cependant que les vainqueurs de la guerre froide projetaient leurs rêves sonores sur la fin de l'histoire.
+La politique étrangère des États-Unis reflète nécessairement l'universalisme ethnocentrique inhérent à ce pays. Dans ce domaine comme dans d'autres, la forme et le fond sont intimement liés, mais l'un ne détermine pas entièrement l'autre. De ce point de vue, le style très direct et même abrupt du président George W.Bush convient incontestablement mieux à l'intérieur qu'à l'extérieur de son pays. On dirait que le 43e président s'ingénie à heurter les Barbares. Les Barbares, ce sont les autres, de même que les Arabes distinguent la "terre de l'islam" (Dar al Islam) et la "terre de la guerre" (Dar al Harb). Parmi les manifestations les plus récentes de cette forme de violence, on notera le conflit sur l'acier, mais surtout le rejet catégorique et sans nuance de la Cour pénale internationale et, début juillet, le coup de force américain au Conseil de sécurité des Nations unies (chantage sur la prorogation du mandat de la Mission des Nations unies en Bosnie-Herzégovine (MINUBH)) pour modifier le statut de la Cour à leur convenance. Isolée, Washington a dû renoncer à certaines de ses exigences et accepter un compromis. Mais ni le droit international, ni le Conseil de sécurité n'en sont sortis totalement indemnes. À force de répétition, ce type de comportement ne contribue pas à atténuer les effets de ce qui est ressenti par le reste du monde comme de l'arrogance. Or, la première puissance mondiale est simplement convaincue de son bon droit, sa Constitution et son Bill of Rights l'emportant, pour elle, sur les lois internationales.
+Sur le fond, la politique extérieure américaine manifeste structurellement une méfiance profonde vis-à-vis des institutions internationales et, plus généralement, du "multilatéralisme". Les Français sont bien placés pour le comprendre, car le temps n'est pas si loin où le général de Gaulle qualifiait l'ONU de "machin". La France s'est progressivement accoutumée à cette nouvelle forme de diplomatie, d'une part parce qu'elle participe de l'essence du processus européen, et d'autre part en raison de la diminution du poids relatif de notre pays dans le monde. De nos jours, les Américains ont parfois tendance à voir dans l'ONU une machine de guerre à leur encontre. Ils tolèrent mal le partage de la décision au sein de l'OTAN, comme on l'a constaté en 1999, à l'occasion des opérations contre la Serbie de Milosevic, où le général Clark n'a cessé de se plaindre de ne pas avoir les coudées suffisamment franches. Les événements du 11 septembre ont certes conduit les États-Unis, par mesure de précaution, à régler leurs arriérés de paiement à l'ONU. Ils ont également favorisé, comme on l'a vu, l'aboutissement d'un accord avec la Russie sur le désarmement nucléaire. Mais, en ce qui concerne les Nations unies, une mesure tactique n'est pas un changement de stratégie. Quant à la nouvelle relation avec la Russie, elle ne traduit d'aucune manière un retour à la philosophie de l'" arms control ", élaborée et mise en oeuvre pendant la période soviétique.
+Ce que l'on appelle " unilatéralisme ", c'est d'abord le rejet du multilatéralisme institutionnalisé, qu'il convient de distinguer du "multilatéralisme à la carte", nouvelle dénomination mise à la mode par Richard Haass, le directeur du Policy Planning Staff du département d'État. Il s'agit là d'une dénomination équivoque, car elle ne vise que les coalitions de circonstance. Le rejet n'est pas total : les États-Unis ont appris à s'accommoder de l'OMC. Mais il l'est pour ce qui concerne les grandes affaires politiques. Sur ce point, l'immense État américain n'a pas de meilleur allié que le petit État israélien, lequel, typiquement, a signé le traité créant la Cour pénale internationale en décembre 2000, mais n'est pas près de le ratifier, la CPI étant d'avance soupçonnée d'impartialité, malgré toutes les précautions prises.
+Cela dit, la question du multilatéralisme, dans l'état actuel des relations internationales, ne se pose pas en termes de tout ou rien. Les grands États (grands par la superficie et la population comme la Chine, l'Inde ou même la Russie), dont la situation le leur permet, s'efforcent autant que possible d'en rester à la diplomatie bilatérale traditionnelle. Quand on parle de l'unilatéralisme américain, c'est aussi, plus spécifiquement, à la nature de leurs relations avec leurs alliés que l'on pense. À l'époque de la guerre froide, dans le cadre de l'Alliance atlantique, on débattait ad nauseam de l'équilibre ou plutôt du déséquilibre du processus décisionnel au sein de l'organisation, et du contenu de la notion de "consultation" entre le grand frère et les autres. À présent, l'OTAN n'a plus la même centralité dans les relations transatlantiques, et les questions naguère jugées périphériques occupent le devant de la scène. L'asymétrie n'en est que plus frappante.
+Tel est le cas face au conflit israélo-palestinien. Après une phase initiale d'indifférence, due notamment à l'échec de la politique de Bill Clinton, le nouveau président avait compris, dès avant le 11 septembre, la nécessité de s'impliquer dans le dossier. Au lendemain des attentats, il a d'abord semblé vouloir rééquilibrer la politique américaine en se prononçant explicitement, dès le 2octobre, puis le 10 novembre à l'Assemblée générale des Nations unies - ce qu'aucun de ses prédécesseurs n'avait osé faire - en faveur d'un État palestinien. En mars 2002, la résolution 1397 du Conseil de sécurité de l'ONU, introduite par les États-Unis, a affirmé une "vision de la région où deux États, Israël et la Palestine, vivent côte à côte dans des frontières sûres et reconnues".
+En pratique, cependant, George W.Bush a laissé les mains libres à Ariel Sharon, allant même, après l'intervention pour le moins musclée de Tsahal à Jénine, jusqu'à qualifier le chef du gouvernement israélien d'"homme de paix", ce qui a dû surprendre l'intéressé lui-même. À cette époque, le président avait demandé au Premier ministre de retirer "sans délai" les troupes engagées dans les villes sous autorité palestinienne, mais les délais ont été bien longs et le retrait réversible. Le 19avril, les États-Unis ont introduit la résolution 1405 du Conseil de sécurité, décidant de l'envoi d'une commission d'" établissement des faits " à Jénine ; puis ils ont changé d'avis et mis Kofi Annan dans une situation fort embarrassante. Washington a ensuite proposé l'ouverture d'une conférence internationale sur le Moyen-Orient, mais la Maison-Blanche s'est aussitôt employée à en minimiser la portée. Le 24juin, le président ne l'a pas même mentionnée. Dans son discours ce jour-là, il a subordonné tout progrès vers la création d'un État palestinien au remplacement de Yasser Arafat, ajoutant ce nom illustre à la liste des leaders arabo-musulmans dont les États-Unis veulent la tête.
+En fait, George W.Bush a oscillé au rythme des nombreuses visites d'Ariel Sharon. Tous les observateurs voient dans cette attitude l'effet de ce qu'outre-Atlantique on appelle les lobbies : lobby juif mais aussi lobby des chrétiens conservateurs. Ce sont ces mêmes lobbies qui ont fait campagne sur le thème de la pusillanimité, voire de l'antisémitisme, des Européens en général, et des Français en particulier, au point de provoquer l'étonnement du Conseil représentatif des institutions juives de France (CRIF) et une vigoureuse réaction du président Jacques Chirac. Bush, quant à lui, songe aux élections de novembre 2002. Il veut que les républicains récupèrent une partie d'un électorat traditionnellement acquis aux démocrates. Ce que l'on appelle unilatéralisme, c'est aussi la surdétermination de certains aspects cruciaux de la politique étrangère par la politique intérieure.
+Du côté européen, on peut résumer l'attitude vis-à-vis du conflit israélo-palestinien de la façon suivante : Arafat ne s'est pas montré à la hauteur de l'Histoire depuis Camp David II, et la corruption de l'Autorité palestinienne n'est pas douteuse ; mais la responsabilité de Sharon - qui s'est toujours opposé aux plans de paix, que ce soit le traité avec l'Égypte ou le processus d'Oslo, et qui s'est engouffré dans la brèche du 11 septembre en présentant la guerre contre les Palestiniens comme une modalité de la grande guerre contre le terrorisme - est non moins écrasante. Pour parvenir à la paix, la communauté internationale doit mettre en oeuvre les moyens de pression considérables - positifs et négatifs - dont elle dispose vis-à-vis des deux parties, lesquelles dépendent en effet massivement de l'extérieur pour leur survie. Pour atteindre un objectif final - sur lequel ils sont aujourd'hui largement d'accord -, une action mieux coordonnée entre Américains et Européens est nécessaire, les uns et les autres ayant vocation à être les garants ultimes du maintien de la paix une fois rétablie, laquelle pourrait être en particulier assurée par une force d'interposition présente sur le terrain.
+Sur un plan évidemment moins dramatique, la surdétermination de la politique étrangère par la politique intérieure s'est également manifestée, au cours des derniers mois, sur le plan commercial. En décidant brutalement de protéger par des barrières tarifaires le secteur sidérurgique, en perdition parce qu'il n'a pas su entreprendre les restructurations nécessaires, et d'augmenter massivement les subventions aux agriculteurs, le président Bush est allé à l'encontre de la politique de libre-échange dont il avait fait un axe majeur de son projet initial, quitte à susciter l'ire de plusieurs de ses partenaires étrangers, et même celle d'une partie de la droite républicaine bien représentée par le Wall Street Journal. Mais il n'en a cure. Dans les deux cas, les décisions ont été prises exclusivement en fonction de considérations électorales, à charge pour le talentueux représentant pour le Commerce, Robert Zoellick, de défendre imperturbablement l'indéfendable en bâtissant un discours dont il ne croit probablement pas un mot. Les États-Unis se sont cependant engagés dans un nouveau cycle de négociations commerciales multilatérales à Doha, et, en décembre 2001, le président a obtenu, par une voix de majorité à la Chambre des représentants, un vote favorable pour la Trade Promotion Authority (TPA), auparavant appelée Fast Track, laquelle doit donner à l'exécutif des moyens de négocier des compromis.
+Pour conclure ces remarques complémentaires sur la politique extérieure américaine depuis le 11 septembre, on ajoutera quelques mots sur l'Amérique latine. Au début de sa présidence, George W.Bush, qui est texan, avait fait une priorité de la constitution d'une zone de libre-échange couvrant l'ensemble du continent. Peut-être aurait-il activement poursuivi ce but si les circonstances n'avaient durablement détourné son attention.
+Dans la pratique, la politique latino-américaine de la nouvelle Administration, conduite par Otto Reich, une personnalité très controversée qui n'a toujours pas été confirmée par le Sénat, suscite des interrogations. D'un côté, il semble bien que les États-Unis n'aient pas été étrangers à la tentative de coup d'État contre le président vénézuélien Hugo Chavez, dont le populisme a tout pour leur déplaire. Cette tentative a échoué. De l'autre, Washington a complètement laissé tomber l'Argentine, dont une fraction importante de la population s'enfonce dans la misère. On dirait que, pour Washington, aujourd'hui, contrairement à un pays dont les difficultés économiques sont également sévères comme la Turquie, la valeur géopolitique de la carte argentine est nulle. Si Buenos Aires veut de l'aide, il faut d'abord réformer. Et si aucun des gouvernements qui s'y succèdent n'y parvient, advienne que pourra. Sur quelle configuration le chaos argentin peut-il déboucher? Quel type d'événements serait de nature à forcer Washington à réagir? Autant de questions sur lesquelles on ne peut, actuellement, que spéculer. Dans l'immédiat, ni aux États-Unis, ni au Brésil, on ne semble craindre la propagation d'une crise considérée comme très spécifique. La défiance des marchés financiers à l'égard du Brésil tient davantage à l'incertitude qui entoure la succession du président Fernando Henrique Cardoso.
+En introduction du précédent RAMSES, j'avais retenu pour commencer le thème du ralentissement économique. Un an plus tard, alors qu'elle a subi deux chocs supplémentaires, l'économie mondiale résiste. Le premier choc, celui du 11 septembre, a été remarquablement absorbé, malgré son effet direct sur d'importants secteurs d'activités, comme les transports aériens ou les assurances, et son effet indirect sur la consommation des ménages aux États-Unis. Un mois à peine après les attentats, la bourse de New York a pu rouvrir avec succès, malgré la désorganisation de Wall Street. Le second choc fut l'affaire Enron et celles qui s'ensuivirent. Cette fois, c'est la confiance dans la bonne gouvernance du système capitaliste qui s'est trouvée gravement ébranlée.
+En fait, en moins de deux ans, trois mythes particulièrement porteurs se sont évaporés : les cycles économiques avaient disparu, l'Amérique était invulnérable, et la concurrence avait atteint un tel degré de perfection que le marché attribuait sa vraie valeur à chaque entreprise. L'attitude péremptoire des thuriféraires de la mondialisation qui déclinaient ces mythes sans exprimer la moindre réserve a d'ailleurs contribué à susciter des réactions parfois excessives mais souvent salutaires. En tout cas, il a fallu se résoudre à reconnaître que l'on n'en avait pas fini avec les cycles, et qu'à l'aube d'une nouvelle révolution industrielle, de grandes entreprises peuvent commettre de grandes erreurs. La puissante Amérique a été ensanglantée dans deux de ses symboles, et elle sait maintenant qu'elle vit à l'ombre d'une épée de Damoclès. Enfin, l'opprobre est brusquement jeté sur le capitalisme, que l'on disait transparent grâce aux analystes financiers, aux agences de notation et naturellement aux sociétés d'audit.
+Il n'est pas surprenant, dans ces conditions, que les bourses se soient trouvées malmenées, avec des mouvements de grande ampleur. L'une des raisons pour lesquelles l'économie réelle n'a pas, jusqu'à présent, davantage souffert du faisceau des circonstances défavorables est l'efficacité de la coopération entre les banques centrales, déterminante dans les périodes critiques. Cela dit, si la crise boursière devait s'aggraver, on voit mal comment l'économie réelle ne finirait pas par en être affectée. Le moindre indice favorable ou défavorable sur la croissance de l'activité aux États-Unis suscite une réaction excessive des marchés, extrêmement nerveux. L'incertitude est lourde à court terme.
+À moyen et long terme, les raisons d'optimisme ne manquent pas. La révolution des technologies de l'information n'a pas été abolie par les faux pas de certaines entreprises, et, d'une manière générale, comme l'a si bien démontré Schumpeter dans son ouvrage célèbre Capitalisme, socialisme et démocratie, le capitalisme survit en s'adaptant et en se transformant sans cesse. Quant aux États-Unis, ils ont déjà prouvé qu'aucun Al-Qaida n'était près de les mettre à genoux. Cela dit, la prévision est l'art le plus frustrant. La mondialisation nous réserve sûrement bien d'autres " surprises ". Dans un essai aussi concis que brillant où elle soutient que le monde est déjà devenu chaotique, Thérèse Delpech manifeste un pessimisme excessif à mes yeux, mais elle trouve le mot juste en disant que le "phénomène de surprise stratégique pourrait à lui seul caractériser la période qui s'ouvre ". La plus étonnante des surprises stratégiques, dans la première année du siècle, sera venue d'une grotte quelque part en Afghanistan.
+exploitable et diffusable pour la communauté scientifique
ne peut être utilisé à des fins commerciales
ANNODIS
projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
objectif : création d'un corpus de français écrit annoté discursivement
encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
http://www.tei-c.org/release/doc/tei-p5-doc
A paraître dans la série des Policy Papers du CFE (ifri)
+Après une décennie de grande discrétion, les questions énergétiques sont remontées sur le haut de l'agenda politique américain à l'occasion de la « crise » de 2000 - 2001. Le rapport Cheney (mai 2001) manifeste ce retour des préoccupations liées à l'énergie. La réduction de la « dépendance » énergétique des Etats-Unis y est affirmée comme un objectif prioritaire. Les évènements du 11 septembre n'ont fait que renforcer la légitimité de l'appel à réduire la dépendance pétrolière du pays. L'essentiel des mesures préconisées par le rapport Cheney en matière pétrolière visent à stimuler l'offre intérieure. Cette étude entend montrer que les marges de manoeuvre de l'administration sont très faibles. On étudie d'abord l'évolution de la demande pétrolière américaine sur longue période, soulignant la forte baisse de l'intensité énergétique du PIB et la concentration de la demande sur les usages spécifiques (notamment le transport), après 1973. On souligne le caractère improbable d'une politique forte de maîtrise de la demande de carburants. On étudie ensuite le long processus de pénétration du pétrole importé sur le marché américain, à partir de la fin des années 1940. On conclut que l'éviction de la production intérieure par les importations est déterminée par des facteurs économiques très puissants (en particulier la différence de coût marginal de développement avec d'autres régions du monde). On s'intéresse enfin à la structure géographique des importations américaines, en particulier à la part du Moyen-Orient et au degré de régionalisation de l'approvisionnement.
+Les principales conclusions de cette étude sont (1) que le gouvernement américain n'est pas en mesure d'enrayer l'augmentation des importations pétrolières, ni en valeur absolue ni en valeur relative, et (2) qu'il n'est pas en mesure de contrôler le taux de « dépendance » à l'égard du Moyen-Orient.
+Le lien entre « dépendance pétrolière » et sécurité énergétique doit être relativisé. Le marché étant intégré mondialement, une « crise pétrolière » prend la forme d'une hausse de prix ressentie mondialement, et non d'une pénurie physique. Pour la même raison, les effets d'une baisse de la consommation ou d'une augmentation de la production intérieure sont dilués dans le marché pétrolier mondial. La variable clé n'est pas la « dépendance » pétrolière mais la concentration de l'offre mondiale et l'intensité pétrolière de l'économie américaine.
+Des années 1920 aux années 1970, la politique pétrolière des Etats-Unis a été marquée par un système de contrôle et de limitation de la production intérieure et des importations. Cette politique, parfois justifiée (abusivement) par des considérations de sécurité, était destinée à soutenir un prix supérieur au prix de concurrence, bénéficiant essentiellement à l'industrie pétrolière « indépendante » et à quelques Etats producteurs (dont le Texas et l'Oklahoma), mais aussi, indirectement, aux « majors » opérant à l'international. Cette politique augmentait dans des proportions très importantes le coût de l'approvisionnement pétrolier américain, et engendrait un important gaspillage économique. A partir du premier choc pétrolier, l'interventionnisme pétrolier fut destiné à limiter la hausse des prix plutôt qu'à prévenir leur baisse. Les politiques de protection des consommateurs et des raffineurs, qui culminèrent sous l'administration Carter, eurent des effets pervers de grande ampleur, stimulant les importations et générant des pénuries.
+Depuis 1981, la politique pétrolière des Etats-Unis fait preuve d'une assez grande cohérence autour de trois axes : libéralisation, sécurisation, et construction du marché. Elle consiste à créer, par des politiques intérieures et extérieures, les conditions d'un recours massif et sûr au marché pétrolier mondial. Cette politique assure que l'approvisionnement du marché national se fait au meilleur coût, avec un corollaire : le taux de couverture de la demande par les importations est déterminé par les seules forces du marché.
+En dépit d'une rhétorique politique récurrente (et bi-partisane), la réduction ou même la maîtrise de la « dépendance » n'est pas un élément structurant de la politique pétrolière américaine, au contraire. C'est donc bien la rationalité économique qui donne sa cohérence à cette politique, même si elle intègre des éléments de sécurisation et de construction du marché nécessitant une forte implication du gouvernement fédéral.
+En mai 2001, un groupe de hauts responsables du gouvernement fédéral, présidé par le Vice-Président Richard Cheney, rendait public un rapport consacré à la politique énergétique des États-Unis. Ce document, que nous désignerons comme le " rapport Cheney ", présente un état des lieux de la situation énergétique du pays, dominé par une tonalité pessimiste voire alarmiste, suivi d'un certain nombre de propositions ou d'orientations pour l'action publique, susceptibles de remédier aux problèmes identifiés.
+Ce rapport peut être vu comme une manifestation éminente du retour des affaires énergétiques sur le devant de la scène politique outre-Atlantique, plus précisément des préoccupations de sécurité énergétique, après une décennie dominée par les débats environnementaux. La chute des prix du pétrole en 1998, puis leur hausse brutale et leur maintien à un niveau élevé en 1999, 2000 et sur la première moitié de 2001, ont constitué le facteur déclenchant de ce regain d'intérêt. En 2000, l'envolée des prix du gaz naturel sur le marché américain, puis les ruptures d'approvisionnement électrique en Californie, ont fait du discours sur la " crise énergétique " un aspect incontournable du débat politique américain.
+A la différence des épisodes précédents (1973 - 74, 1979 - 80, 1990 - 91), la situation pétrolière ne constitue pas aujourd'hui l'unique motif d'inquiétude et de mobilisation. Elle en est toutefois une composante importante. La forte hausse des prix des carburants fut très largement interprétée comme le signe d'une crise structurelle, analysée en des termes identiques à ceux entendus dix ans plus tôt lors de la crise du Golfe : l'Amérique est trop " dépendante " de fournisseurs extérieurs, trop exposée à un marché mondial " instable ", ce qui induit une menace permanente sur sa " sécurité énergétique ", menace dont la crise récente ne serait que la dernière manifestation, en annonçant d'autres.
+Ce discours alarmiste s'est, depuis plusieurs mois, considérablement atténué, les prix des carburants et du gaz naturel étant revenus à leurs niveaux d'avant la " crise ". Toutefois, les attentats du 11 septembre, l'action militaire en Afghanistan, l'approfondissement de la crise israelo-palestinienne et la volonté affichée d'une action militaire contre l'Irak, ont contribué à alimenter le débat sur la " dépendance " pétrolière et la gestion des approvisionnements, notamment au Congrès.
+Cette étude prend prétexte de la " crise énergétique " de 2000 - 2001, du rapport Cheney et du débat sur la " dépendance pétrolière ", pour présenter une réflexion critique sur la situation pétrolière des Etats-Unis, sa perception dans les milieux politiques américains, et les politiques publiques mises en oeuvre au cours des dernières décennies.
+La première section est consacrée à l'étude de l'approvisionnement pétrolier des Etats-Unis : évolution de la demande, de la production intérieure et des importations, de la structure géographique des approvisionnements extérieurs. L'approche choisie se veut didactique. On fait largement appel à des séries statistiques couvrant un demi siècle (1949 - 2000), que l'on croise avec des analyses économiques afin de faire clairement ressortir les tendances lourdes de l'approvisionnement pétrolier des États-Unis, les grandes inflexions et leurs déterminants. On évoque, lorsque c'est utile, l'évolution de la situation pétrolière américaine d'ici 2020, telle qu'elle ressort de certains exercices de prospective modélisée. L'objectif général est de fournir des éléments d'analyse permettant d'apprécier les marges de manoeuvre des politiques publiques en matière pétrolière. La principale conclusion de cette première section est qu'elles sont beaucoup très limitées.
+Dans la seconde section, on étudie le lien entre la structure de l'approvisionnement pétrolier (part des importations dans la couverture de la demande, répartition géographique des approvisionnements extérieurs) et la sécurité énergétique des États-Unis. On est amené à relativiser ce lien. Dans l'étude de la politique pétrolière américaine sur longue période, on est amené à mettre l'accent sur les orientations prises par l'administration Reagan au début des années 1980. Depuis ce " tournant ", les États-Unis ont une politique pétrolière assez cohérente, centrée sur la libéralisation du marché intérieur, la sécurisation et la construction du marché mondial. L'objectif de cette politique n'est pas de réduire la " dépendance ", mais au contraire de créer les conditions d'un recours massif et inévitablement croissant aux approvisionnements extérieurs.
+Au cours de l'année 2000, les États-Unis ont consommé un peu plus de 7 milliards de barils de pétrole, soit 19,5 millions de barils par jour (Mb/j), un volume identique à celui de 1999. Il s'agit du plus haut niveau de demande pétrolière de toute l'histoire américaine, le précédent " pic " (19 Mb/j) ayant été atteint successivement en 1978 et 1998 (Figure 1, p. 43). Ce volume représente plus de deux fois la production saoudienne pour cette même année (9,1 Mb/j), et le quart de la consommation mondiale (74 Mb/j).
+La demande de pétrole a plus que triplé depuis le début des années cinquante (Figure 2, p. 15). Mais cette progression s'est faite en deux périodes bien distinctes, que sépare la " crise pétrolière " des années soixante-dix. Le rythme de croissance de la consommation est nettement plus faible au cours de la seconde période. Entre 1949 et 1973, la croissance annuelle moyenne est proche de 5% ; entre 1985 et 2000, le taux de croissance annuel moyen est de 1.5% (Figure 1, p. 15). Ce taux de croissance de la demande de pétrole correspond à celui des autres pays de l'OCDE.
+Pourtant, la croissance économique américaine a été très soutenue entre 1985 et 2000, le PIB progressant à un rythme moyen (3.3%) proche du taux observé sur 1949 - 2000 (3.6%). Si la demande pétrolière a progressé à un rythme nettement inférieur à la tendance historique, c'est que l'intensité pétrolière du PIB américain a très fortement chuté à partir de la fin des années soixante-dix. Le " contenu en pétrole " d'un dollar de PIB réel, qui avait augmenté de 10% entre 1949 et 1976, a diminué de près de 55% entre 1977 et 2000 (Figure 3, p. 16).
+En dollars de 1996, un baril de pétrole générait 13 $ de PIB en 2000 contre 6,5 $ en 1973. La baisse de l'intensité énergétique et pétrolière du PIB américain ne paraît pas devoir s'essouffler ; il semble même qu'elle s'accélère depuis la fin des années 1990.
+La part de la consommation d'énergie primaire couverte par le pétrole est pratiquement identique en 1949 et 2000, soit un peu moins de 40% (Figure 4, p. 17). Cependant cette part avait augmenté de 10 points entre 1949 et 1977, puis a chuté de près de 8 points entre 1977 et 1985 ; elle est pratiquement stable depuis 1990. La structure de l'approvisionnement des États-Unis en énergie primaire connaît une remarquable stabilité depuis la fin des années quatre-vingt : le pétrole couvre 40% des besoins, le gaz et le charbon se partagent à parts égales environ 45% de la demande, le nucléaire et les renouvelables (y compris l'hydroélectrique) couvrant chacun la moitié des 15% restant. Cela signifie que la demande pour chacune de ces sources d'énergie croît à peu près au même rythme que la demande totale d'énergie primaire.
+Si la part du pétrole dans l'approvisionnement énergétique est relativement stable sur les 50 dernières années, la structure de la consommation pétrolière s'est déformée au cours du temps, en particulier à partir de la fin des années soixante-dix. Le secteur des transports est devenu le principal moteur de la croissance de la demande de pétrole (Figure 5, p. 18). Il est responsable de 73% de l'augmentation de la consommation entre 1949 et 2000, et de 85% de cette augmentation entre 1985 et 2000. La part du transport dans la consommation pétrolière augmente, passant de 54% en 1978 à 67 % en 2000 (Tableau 1, p. 9).
+Par contraste, la part du secteur industriel est stable sur l'ensemble de la période, à environ 25%. L'industrie est responsable d'une part décroissante de l'augmentation de la demande : 26% sur 1949 - 2000, 15% sur 1980 - 2000. Les autres secteurs (résidentiel, commercial, et production d'électricité) ont tendance à devenir marginaux : ils représentaient 22% de la demande en 1949, 21% en 1978 et 8% en 2000 ; leur consommation est stable en valeur absolue depuis 1983, après avoir baissé entre 1978 et 1982.
+La part de marché des produits pétroliers dans le secteur des transports semble, dans l'état actuel des technologies, strictement insensible aux prix relatifs des énergies. En d'autres termes, il s'agit d'un usage captif, où le pétrole n'est pas substituable. Comme le montre la Figure 6 (p. 19) la part de marché du pétrole dans ce secteur tend vers 100%. Dans les autres secteurs au contraire, les produits pétroliers ont été largement évincés : leur part dans les secteurs résidentiel et commercial baisse dès les années soixante ; le fuel disparaît pratiquement de la production d'électricité au cours des années quatre-vingt et quatre-vingt-dix. Dans l'industrie, le pétrole a perdu 7 points de part de marché depuis 1979 (cette part étant revenue en 2000 à son niveau de 1949).
+A l'avenir, la demande pétrolière américaine continuera d'être principalement tirée par le secteur des transports et, dans une mesure moindre, certains usages industriels dont la pétrochimie. Dans les autres secteurs, en particulier la production d'électricité, le pétrole est devenu une source d'énergie marginale. Deux conséquences importantes en découlent :
+Il existe au moins deux leviers que pourraient actionner les pouvoirs publics fédéraux pour peser sur la demande énergétique liée au transport. Le premier est d'augmenter les taxes sur les carburants, qui se situent à un niveau six fois inférieur à la moyenne des autres pays de l'OCDE. Cette mesure aurait un effet direct sur la demande, via la modification des comportements - effet d'autant plus important que l'on part d'une situation où les prix sont bas, donc où les agents ne sont pas incités à rationaliser l'usage de leurs véhicules. Elle aurait également un effet indirect, l'augmentation des prix des carburants introduisant une forte incitation pour les constructeurs à proposer des véhicules plus sobres, donc à réduire la demande pour un niveau et des modalités donnés d'utilisation des véhicules.
+Le second type de mesures envisageable consiste à durcir les normes de consommation pour les véhicules neufs, qui n'ont pas été modifiées depuis 1990 pour les véhicules de tourisme (passenger cars), et 1996 pour les light trucks. L'efficacité énergétique moyenne du parc automobile américain s'était améliorée entre 1979 et 1991, mais stagne depuis cette date (Figure 7, p. 20). L'efficacité des véhicules neufs, tous types confondus, est aujourd'hui au même niveau qu'en 1982. Les Américains utilisent de plus en plus, pour leurs déplacements quotidiens, des light trucks et autres Sport Utility Vehicles, dont la consommation moyenne est nettement supérieure aux véhicules légers traditionnels, et qui sont soumis à des normes moins sévères. Cette modification structurelle du parc automobile a largement compensé le renforcement ponctuel des normes de consommation des véhicules légers. Notons que l'effet d'un durcissement des normes est conditionné par le rythme de renouvellement du parc, et que ce dernier serait d'autant plus rapide que l'action sur les normes s'accompagnerait d'une action sur les prix des carburants, dont la hausse augmente l'incitation économique à se séparer des véhicules les moins efficaces.
+Les autres mesures possibles concernent le soutien au développement et à la commercialisation de technologies alternatives au moteur à explosion et/ou aux carburants pétroliers.
+Le rapport Cheney n'envisage pas la possibilité d'augmenter les taxes sur les carburants. Cette question est extrêmement sensible aux Etats-Unis. Il semble qu'aucun responsable politique ne soit en mesure de proposer leur relèvement, encore moins de lui faire franchir l'obstacle du Congrès. L'administration Clinton en fit l'expérience au début des années 90, qui vit un important projet de taxe sur toutes les consommations d'énergie (BTU tax) laminé par le Congrès, pour n'aboutir qu'à une modeste augmentation de la fiscalité sur les carburants. Le rapport évoque (chapitre 4) la " révision " des normes de consommation imposées aux constructeurs automobiles (Corporate Average Fuel Economy Standards, ou CAFEs) et l'objectif de les fixer de manière " responsable ", en sorte d'augmenter l'efficacité énergétique des véhicules " sans affecter négativement l'industrie automobile ". Un récent rapport de l'Académie des sciences a proposé une amélioration du système en vigueur consistant à attribuer aux constructeurs qui vont au-delà de la norme des " bons d'économie ", qu'ils peuvent soit stocker, soit revendre aux constructeurs qui sont en retard par rapport à la norme - chaque constructeur étant tenu soit de respecter la norme, soit d'être en possession de bons d'économie pour un montant équivalent à la différence entre sa performance effective et la norme. Ce système fonctionne sur le même principe que le marché de droits à consommer du carburant ; il s'agit en fait d'un " marché de droits à ne pas respecter les normes de consommation ".
+Pour favoriser la pénétration des nouvelles technologies, le rapport Cheney envisage un crédit d'impôt pour l'acquisition de véhicules économes (hybrides, piles à combustibles). Le soutien au programme de piles à combustible pour les bus est réaffirmé. On évoque par ailleurs une gestion du trafic urbain à base d'instruments de marché (type péage, ou permis de circulation négociables), qui tendent à faire supporter à l'automobiliste le vrai coût de sa présence sur la route.
+Il est évidemment très difficile, vu le niveau de généralité du rapport Cheney, d'évaluer l'impact potentiel des mesures destinées à infléchir la consommation de pétrole dans les transports. De manière générale, toute augmentation significative du coût d'utilisation de l'automobile semble être politiquement impossible aux États-Unis. L'Administration Clinton avait dû abandonner ses projets en la matière, tant la taxe sur la consommation énergétique que le durcissement des normes de consommation. Le recours aux services rendus par l'automobile semble revêtir en Amérique une dimension éminemment culturelle. La compréhension des contraintes spécifiques de la politique énergétique américaine serait certainement améliorée par des travaux de nature sociologique sur la place de la voiture (et avec elle du pétrole) dans l'American way of life. Au plan économique, il est vrai que le relèvement des prix des carburants porterait directement atteinte à la valeur des actifs détenus par les agents, notamment les véhicules (les choix d'investissements ont été faits sur la base d'anticipations de prix bas). Il s'agit d'un problème très classique en économie de la réglementation (on parle de coûts " échoués ") ; dans ce cas, il est rendu particulièrement délicat politiquement du fait du montant des actifs en jeu, et de l'importance du groupe social concerné (les propriétaires de véhicules automobiles). Au printemps 2002, le secrétaire à l'Energie, Spencer Abraham, a levé les incertitudes du rapport Cheney quant aux normes de consommation des véhicules, en annonçant officiellement à Detroit (capitale de l'industrie automobile américaine) qu'elles ne seraient pas relevées.
+L'automobile semble être la pierre de touche de la politique pétrolière américaine. Pour le reste, ce pays n'a pas échappé à la rationalisation des usages du pétrole et à l'éviction massive de cette forme d'énergie, que l'on retrouve dans tous les pays de l'OCDE.
+En 1949, les importations pétrolières des États-Unis dépassaient pour la première fois leurs exportations. Depuis cette date, la part du pétrole importé dans la couverture des besoins des agents américains a augmenté de manière continue, à l'exception de la période 1978 - 85 (Figure 10, p. 31). Pour expliquer cette croissance, absolue et relative, des importations pétrolières, on évoque couramment " l'épuisement " des réserves américaines. Cette analyse demande à être précisée. La disponibilité relative de la production intérieure et du pétrole importé est d'abord une question de coûts et de prix. La progression continue de la part des importations dans la couverture de la demande reflète la dégradation de la compétitivité marginale de la production intérieure, laquelle s'explique par la différence grandissante entre les coûts de développement aux États-Unis et à l'étranger.
+L'amorce du déclin de la production intérieure en 1970 ne modifie pas fondamentalement les données du problème. Certes, de très nombreux champs dans les 48 États " continentaux " sont entrés en phase de déclin irrémédiable, en ce sens qu'il n'existe probablement aucun niveau de prix auquel les réserves pourraient être renouvelées. Mais il existe toujours un niveau de prix auquel la demande baisserait plus vite que la production intérieure, donc les importations plus vite que la demande. L'interdépendance entre les coûts de production, le prix du pétrole, le niveau de l'offre domestique et des importations n'est pas rompue par l'entrée de nombreux champs américains dans une phase de déclin " absolu ".
+La compétition entre production intérieure et pétrole importé est naturellement influencée par les éventuelles barrières protectionnistes. Le protectionnisme pétrolier est une tentation permanente aux États-Unis, et fut longtemps une réalité. La mesure la plus radicale consista à mettre en place des quotas d'importation (mandatory oil import quotas), entre 1959 et 1973 ; ces quotas faisaient suite aux (soi-disant) voluntary oil import quotas (1949 - 1958), qui avaient eux-mêmes succédé aux tentatives infructueuses d'administration des importations par les États fédérés (en particulier le Texas) dans les années trente. Depuis 1982, le marché pétrolier américain est totalement intégré au marché mondial. Le prix sur le marché intérieur est le prix mondial du pétrole brut ; la concurrence entre production intérieure et pétroles importés est exempte de toute distorsion.
+Entre 1949 et 1970, la production pétrolière américaine (brut et " condensats ") est multipliée par deux ; dans le même temps, la part de la demande couverte par le pétrole importé passe de 10% à 23%. La croissance de la production intérieure atteste que le coût de renouvellement du " stock ", c'est-àdire des réserves, était compatible avec le prix en vigueur à l'époque. Toutefois, sur l'ensemble de cette période, la dépense nécessaire à l'ajout d'un baril de réserves au Moyen-Orient représente une petite fraction de celle requise aux États-Unis, et cette fraction diminue. Le pétrole du Moyen-Orient (mais aussi du Venezuela, et d'ailleurs) exerce donc, à partir des années cinquante, une pression concurrentielle très forte sur le marché américain. En l'absence de barrières protectionnistes, la croissance des importations aurait été nettement plus rapide, tant en valeur absolue que relative.
+A partir de 1970, toutes les formes d'investissement susceptibles d'augmenter les réserves de pétrole connaissent, aux États-Unis, des coûts fortement croissants. Les évènements de 1973 introduisent de nouveaux paramètres, en particulier réglementaires. L'explosion des prix du brut aurait dû favoriser un relatif redressement de la production intérieure et une baisse de la demande, donc une décroissance des importations. Mais les dispositions législatives prises pour soulager les raffineurs face à l'augmentation de leurs coûts d'approvisionnement (entitlements system) fonctionnent comme une subvention aux importations. Combinée à la réglementation des prix du brut à la production, ces mesures entravent la diffusion du signal prix et distordent les incitations : le développement pétrolier intérieur est ralenti, la demande est artificiellement soutenue.
+Entre 1978 et 1985, deux effets se conjuguent pour précipiter une chute des importations (Figure 10, Figure 11) :
+En conséquence, les importations chutent sur cette période, tant en valeur absolue (-3,8 Mb/j) que relative (-16 points de part de marché).
+De 1985 à aujourd'hui, la part du pétrole importé dans la couverture de la demande ne cesse d'augmenter. La production américaine baisse au rythme de 2% par an en moyenne. Cette baisse ralentit après 1990, grâce notamment à la forte progression de l'offshore dans le Golfe du Mexique, stimulée par des mesures fiscales et par les progrès technologiques (cf. infra). Les importations ont progressé de plus de 5% par an en moyenne sur 15 ans, pour atteindre leur maximum historique en 2000. Elles s'élèvent alors à 11 Mb/j, soit 54% des besoins de l'économie et de la société américaines (Figure 10).
+Le rapport Cheney prévoit, dans son chapitre 5, plusieurs mesures de stimulation de l'offre pétrolière intérieure : promotion de la récupération assistée ; développement d'un partenariat public-privé en vue de l'amélioration des technologies d'exploration ; extension de la politique d'octroi de licences sur les terres fédérales ; octroi d'incitations fiscales à l'exploration et au développement dans les zones " frontières ", les gisements difficiles, trop petits ou trop risqués pour être rentables aux conditions du marché. Enfin, la mesure la plus attendue et la plus controversée consiste à préconiser l'ouverture aux activités pétrolières de la réserve naturelle nationale d'Alaska (ANWR). Ces propositions, si elles étaient effectivement mises en oeuvre, sont-elle de nature à ralentir le déclin de la production intérieure et la hausse des importations ? La réponse est certainement négative.
+Il importe de noter que toutes ces mesures, excepté l'ouverture de l'ANWR, sont déjà appliquées à des degrés divers. Il ne s'agit donc au mieux que de les prolonger et les amplifier. Le partenariat public-privé en matière technologique est déjà une réalité, de même que les exemptions aux législations antitrust pour certaines activité de recherche et développement, notamment dans l'offshore. Dès 1993, le gouvernement fédéral a mis en place un système d'incitation fiscale à l'exploration et développement dans l'offshore profond, renforcé en 1995 par le Deep Offshore Royalty Relief Act. Enfin, la politique de leasing sur terres fédérales n'a cessé d'être assouplie depuis une quinzaine d'années. Les réserves pétrolières nationales (champs situés sur des terres fédérales et conservés pour servir de réserve stratégique " naturelle ") ont été partiellement ou totalement privatisées (selon les cas), et sont donc développées selon une logique purement commerciale par les compagnies concessionnaires.
+Toutes ces mesures de stimulation de l'offre intérieure (à laquelle il faudrait ajouter la levée, en 1995, de l'interdiction d'exporter le brut d'Alaska) n'ont pas été sans effet : elles ont contribué au renouveau de la production offshore dans le Golfe du Mexique, au redressement des investissements d'exploration et développement en Alaska, et plus généralement au ralentissement de la baisse de la production pétrolière américaine dans les années 1990. Elles ont donc amplifié les effets positifs des progrès technologiques sur la productivité de l'effort d'exploration et développement. La prolongation de ces dispositions et leur approfondissement éventuel ne peuvent avoir qu'un effet positif sur l'offre intérieure. Mais elles ne changeront pas la tendance lourde à la croissance des importations dans la couverture de la demande, sauf dans le cas (improbable) où celle-ci chuterait fortement dans un contexte de prix mondial très élevé.
+Reste le potentiel de l'ANWR. On estime dans les milieux pétroliers que les ressources récupérables s'élèveraient à 10 milliards de barils, avec un rythme de production en pointe proche de 2 Mb/j. Ces chiffres, s'ils devaient s'avérer exacts - ce qui est loin d'être acquis - sont impressionnants ; ils mettent l'ANWR au niveau du North Slope, c'est-à-dire qu'ils en font une " seconde Alaska ". Mais l'effet sur le niveau des importations est impossible à prévoir, car il dépend du prix mondial. Dans un contexte d'offre excédentaire, le brut de l'ANWR ferait baisser le prix mondial et se substituerait largement à du pétrole américain moins compétitif. Il ne remplacerait du pétrole importé que si les pays de l'OPEP limitaient leur production pour défendre un prix élevé, ou si les États-Unis rétablissaient des barrières protectionnistes (taxe ou quotas) afin de maintenir le prix intérieur au-dessus du prix mondial. Le projet de loi de la Chambre de Représentants prévoit l'ouverture de l'ANWR, mais pas celui voté au Sénat.
+La différence entre les coûts marginaux de développement aux États-Unis et dans de nombreuses provinces pétrolières plus compétitives à l'étranger - le Moyen-Orient étant un cas extrême - est aujourd'hui très importante, et continue d'augmenter. Dans ces conditions, le taux de contribution de l'offre intérieure à l'approvisionnement des États-Unis sera principalement déterminé par les politiques pétrolières de l'Arabie Saoudite, du Koweït, de l'Iran, de l'Irak et du Venezuela, ainsi que par la capacité de l'industrie pétrolière internationale à renouveler ses réserves hors de l'OPEP. Les marges de manoeuvre des autorités américaines sont extrêmement limitées. L'effet des mesures de stimulation de l'offre est difficile à appréhender avec précision. La plus prometteuse d'entre elles, à savoir l'accélération de l'ouverture des terres fédérales aux activités pétrolières est soumise à une forte incertitude politique.
+On peut donc affirmer avec un degré élevé de certitude que toute augmentation de la demande de pétrole se traduira par une augmentation plus que proportionnelle des importations. Sauf révolution technologique dans le secteur des transports, une telle augmentation va se produire.
+L'importation de pétrole brut et de produits raffinés est une activité libre aux États-Unis. Les restrictions administratives sont limitées aux pays sur lesquels pèsent des sanctions économiques (Iran et Libye). L'évolution de la structure géographique des importations américaines reflète donc les arbitrages économiques des agents américains (raffineurs, traders, gros utilisateurs de produits pétroliers telles les compagnies aériennes), et plus généralement des acteurs du marché pétrolier mondial. En fait, l'allocation géographique de l'offre pétrolière mondiale est largement le produit d'un processus anonyme impliquant des centaines d'agents économiques cherchant à maximiser la valeur du pétrole qu'ils possèdent, et/ou à minimiser le coût de leur approvisionnement. Le marché américain est une composante de ce système mondial marchand. Les expressions du type " les États-Unis importent davantage du Canada que d'Arabie Saoudite " doivent donc être utilisées avec précaution. Ce sont des acteurs privés qui importent, et leurs choix sont dictés par des considérations de coût et de convenance, en particulier quant aux caractéristiques techniques des différents bruts et produits.
+Depuis le premier choc pétrolier, deux tendances majeures nous semblent mériter un intérêt particulier : d'une part l'évolution de la contribution du Golfe persique aux approvisionnements américains ; d'autre part la régionalisation des importations américaines au cours des années 1990. On évoquera aussi les développements récents (1998 - 2000), et l'avenir des importations américaines.
+Le Golfe persique est, sur le marché pétrolier américain, un fournisseur parmi d'autres. En moyenne, sur une période de 25 ans, les importations en provenance de cette région couvrent moins de 10% de la consommation pétrolière des Etats-Unis (13% en 1999 et 2000), et cette part n'augmente pas (Figure 13, p. 39). Les Figure 12 et Figure 14 montrent que le Golfe occupe dans les approvisionnements extérieurs des États-Unis une place ni négligeable, ni prépondérante. Ce qui frappe également dans ces graphiques, c'est le mouvement d'éviction du Golfe entre 1980 et 1985, suivi d'un retour au cours des cinq années suivantes. De fait, cette région (c'est-à-dire, sur le marché américain, principalement l'Arabie Saoudite et l'Irak) se singularise moins par le niveau de sa contribution aux importations américaines que par les fluctuations de sa part dans ces importations.
+Ces fluctuations ont une explication simple. Le pétrole brut s'échange à un prix mondial unique (net des coûts de transport et des différentiels de qualité), déterminé sur un marché " spot ". Les pays du Golfe, qui ont à tout moment la possibilité d'augmenter rapidement leur offre à des coûts représentant une petite fraction du prix en vigueur (soit en exploitant plus intensément leurs capacités installées, soit en les augmentant), ont donc le pouvoir d'évincer les autres producteurs sur les marchés (y compris le marché américain), tout en exerçant une pression à la baisse sur le prix. A l'inverse, lorsqu'ils diminuent leur production (ou simplement ne l'augmentent pas alors que la demande croît) pour défendre un niveau de prix, ils perdent des parts de marché si d'autres producteurs sont capables de couvrir la demande au prix en vigueur ; dans le cas contraire le prix augmente. Entre 1980 et 1985, l'Arabie Saoudite réduit continuellement sa production pour soutenir le prix dans un contexte de baisse de la demande mondiale ; cela se traduit par une forte chute des exportations du Golfe persique vers les États-Unis. Après 1985, l'Arabie Saoudite s'engage dans une stratégie de reconquête de ses parts de marché : ses exportations vers les États-Unis passent de 0,2 Mb/j en 1985 à 1,4 Mb/j en 1989 (Figure 15, p. 41).
+Dans les années 1990 et ceci pour la première fois, la part du Golfe a baissé alors que les importations américaines augmentaient. Pendant cette période, l'offre pétrolière mondiale (hors Golfe) est restée très dynamique, contraignant les producteurs du Golfe à contenir leurs niveaux de production pour éviter une chute des prix (qui s'est finalement produite en 1997 - 98). La part du Golfe dans les importations américaines a donc baissé jusque 1997. Son redressement entre 1998 et 2000 est entièrement dû au retour du pétrole irakien sur le marché américain : 700 000 b/j en 1999 contre 0 en 1996.
+On pourrait donc dire que les producteurs du Golfe, et notamment l'Arabie Saoudite, déterminent largement eux-mêmes l'évolution de leur part de marché aux États-Unis (et sur le marché mondial en général). Il leur suffit de produire davantage pour que cette part augmente, au prix d'une baisse, éventuellement forte, des cours du brut. Sur l'ensemble de la période couverte ici, la contribution du Golfe aux approvisionnements américains se situe à un niveau très nettement inférieur à ce qu'il serait en l'absence de restriction. Entre 1949 et 1973, le mécanisme de restriction se situait aux Etats-Unis (limitation des importations) ; depuis 1973, ce sont les États du Golfe qui limitent leur production. Si ces producteurs se désintéressaient du prix (donc augmentaient leur production jusqu'à ce que le coût d'une unité supplémentaire et le prix mondial s'égalisent), le prix du pétrole s'établirait probablement en dessous de 5 $ et le Golfe couvrirait une part largement prépondérante des importations américaines, dont le niveau serait beaucoup plus élevé qu'aujourd'hui.
+Les importations en provenance du Canada et des pays d'Amérique latine ont augmenté continuellement et assez régulièrement depuis la fin des années 1970 (Figure 14, Figure 15). Le contraste avec les fluctuations du Golfe persique apparaît de manière saisissante. En conséquence, on observe un mouvement de régionalisation des importations américaines. L'hémisphère occidental (selon l'expression consacrée aux États-Unis) représentait 50% des importations en 1997, contre 35% en 1990 et 20% en 1980 (Figure 16, p.42). Cette progression a permis de compenser la baisse de la production américaine pour maintenir autour de 70% le taux de régionalisation de l'approvisionnement pétrolier des États-Unis (production intérieure comprise).
+Face à la chute des prix survenue en 1997 - 98, les pays de l'OPEP ont décidé de retirer du marché des quantités très importantes de pétrole (par exemple 3,5 Mb/j pour la seule année 2001, et environ 5 Mb/j depuis 1999), aidés ponctuellement par le Mexique et la Norvège, marginalement par le sultanat d'Oman et la Russie. Les effets sur le prix mondial ont été très importants. Ils se sont également fait sentir très directement sur la structure des importations américaines (Figure 15). Le volume en provenance du Venezuela a chuté de plus de 300 000 b/j entre 1997 et 1999, et la progression des exportations mexicaines vers les États-Unis, qui avoisinait 10% par an depuis 1992, a brusquement stoppé. Seules les exportations saoudiennes vers les États-Unis n'ont pas diminué (à l'inverse de ce qui s'était passé dans les années 80).
+La compensation de ces volumes " perdus " est venue d'Europe et surtout du Canada, pays dont les exportations vers les États-Unis ont atteint un record historique en 2000, en hausse de 20% par rapport à 1999. Le voisin du nord est aujourd'hui le premier exportateur de pétrole vers les États-Unis. Mais c'est surtout le pétrole irakien qui a profité, sur le marché américain, des actions de l'OPEP (le pétrole exporté sous le contrôle des Nations Unies échappe aux quotas du cartel). L'Amérique est le premier " client " de l'Irak dans le cadre du programme " pétrole contre nourriture ". Jamais les États-Unis n'avaient importé autant de pétrole irakien qu'en 1999 et 2000.
+Les projections du DOE anticipent une modification sensible de la structure des importations pétrolières américaines au cours des vingt prochaines années. Les importations en provenance du Golfe persique représenteraient près de 20% de la consommation en 2020, contre 13% aujourd'hui. Elles progresseraient donc plus rapidement que le total des importations, croissant elles-mêmes plus vite que la demande. Cette tendance reflète la croissance de la contribution du Moyen-Orient à l'offre pétrolière mondiale.
+On ne peut discuter ici dans le détail ces projections. On fera simplement deux remarques. La première est que la capacité des modèles à appréhender correctement l'évolution de l'offre " hors Golfe ", et même " hors OPEP ", est incertaine. Des facteurs comme les progrès technologiques, l'évolution de la fiscalité et du cadre juridique des investissements, qui ont un impact tout à fait décisif sur les coûts et les risques assumés par les compagnies pétrolières, donc sur les décisions d'investissement, sont très difficiles à intégrer dans une approche modélisée. La seconde remarque est que les modèles traitent en général la production du Golfe persique (et parfois de l'OPEP) comme un volume résiduel : elle couvre la différence entre la demande mondiale et la production " hors Golfe " (le cas échéant " hors OPEP "). Or le paysage énergétique en 2020 sera très différent selon que les pays du Golfe (auxquels il faut ajouter le Venezuela et la Libye) adopteront, comme ils le font depuis trente ans, une politique de limitation de leur production en vue de la défense d'un niveau de prix, ou que s'enclenchera une course aux parts de marché au sein de l'OPEP. Parmi les facteurs qui pourraient favoriser l'option concurrentielle, citons la levée des sanctions sur l'Irak ou la défection d'un membre important de l'OPEP, quittant l'organisation de fait ou de droit. A l'inverse, la capacité de l'OPEP à associer durablement de nouveaux producteurs à son action (Mexique, Norvège, Russie), éloignerait le risque d'un éclatement du cartel.
+Les incertitudes sont donc très importantes. Le volume de production que les principaux modèles attribuent au Golfe persique en 2020 correspond à un doublement des capacités par rapport à 2000 (on passerait en gros de 20 à 40 Mb/j). Les prévisions de prix varient mais n'anticipent pas d'augmentation significative, en termes réels, sur les vingt prochaines années. Si les États du Moyen-Orient n'effectuaient pas les investissements requis (rappelons que les capacités de production dans le Golfe n'ont pas augmenté depuis 30 ans), le prix du pétrole pourrait être nettement plus élevé, la demande plus faible, et la production " hors Golfe " plus soutenue. Les importations américaines seraient alors plus faibles que ne l'anticipent les modèles et nettement moins concentrées sur le Moyen-Orient. A l'inverse, si le processus concurrentiel s'enclenchait entre producteurs à coûts de production très bas, le prix s'effondrerait, stimulant la demande et déprimant la production " hors Golfe ". Les importations américaines seraient encore plus fortes qu'escompté, ainsi que la part du Moyen-Orient dans les approvisionnements extérieurs.
+On a souligné plus haut que les facteurs qui détermineront le niveau des importations pétrolières américaines échappent largement au gouvernement des États-Unis. Cette conclusion vaut également pour la structure géographique des approvisionnements. Les décisions les plus structurantes, qui détermineront la contribution des provinces les plus compétitives à la couverture de la demande mondiale, donc le niveau des prix, seront prises par les gouvernements des pays du Moyen-Orient et du Venezuela. Elles le seront soit dans le cadre coopératif de l'OPEP, soit individuellement, soit, et c'est le plus probable, dans un entre-deux où les décisions collectives viendront consacrer les options individuelles de quelques-uns.
+Face au poids des tendances lourdes, les marges de manoeuvre des politiques publiques américaines sont réduites, quoi qu'en disent certains responsables de l'administration et du Congrès. Le rapport Cheney annonce la continuation et l'approfondissement d'une politique d'offre, donnant à l'industrie pétrolière toutes les chances de découvrir, développer et produire les ressources pétrolières intérieures. Cette politique contribuera de manière très limitée à l'objectif de réduire la " dépendance " pétrolière extérieure. De ce point de vue, une action sur la demande de pétrole aurait un impact potentiel supérieur (en particulier l'augmentation des taxes sur les carburants et l'amélioration de l'efficacité énergétique des véhicules automobiles.) Le rapport Cheney reste extrêmement prudent dans ses orientations en matière de gestion de la demande de pétrole liée au transport.
+La tendance la plus probable est que les importations pétrolières américaines vont continuer d'augmenter au cours des vingt prochaines années, vont couvrir une part croissante de la demande intérieure, et seront plus concentrées sur les pays du Moyen-Orient. L'intensité de ces évolutions est soumise à forte incertitude.
+Reste à étudier l'impact d'un approfondissement de la " dépendance " sur la sécurité énergétique des Etats-Unis, question traitée dans le second volet de ce travail.
+La croissance des importations dans la couverture de la demande pétrolière, qui va se poursuivre au cours des années et décennies à venir, est très souvent décrite comme menaçant la " sécurité énergétique " des Etats-Unis. Même s'ils ne proposent pas d'atteindre l'autosuffisance énergétique ou pétrolière, le rapport Cheney comme les propositions de loi votées à la Chambre et au Sénat en 2001 et 2002 reprennent à leur compte cette analyse, et établissent explicitement une corrélation entre objectif de sécurité et objectif de limitation (ou de réduction) de la dépendance. Une appréciation rigoureuse du fonctionnement du marché pétrolier montre au contraire que la sécurité énergétique, quel que soit le contenu précis qu'on lui donne (disponibilité physique des approvisionnements, niveau et stabilité des prix, exposition aux crises), est quasi indifférente au niveau des importations pétrolières, au taux de dépendance extérieure, et à la provenance géographique du pétrole.
+Toute discussion sur la sécurité énergétique et les approvisionnements pétroliers doit partir de cette réalité : le pétrole est une matière première " fongible " échangée sur un marché mondial techniquement et économiquement intégré. L'équilibre entre offre et demande est un équilibre mondial, qui détermine un prix mondial révélé par des marchés " spot ".
+Le marché est techniquement unifié car le pétrole se transporte sur longues distances à des coûts relativement faibles : environ 10$ par tonne par exemple entre le Golfe persique et les grands marchés de consommation, soit environ 1,4$/baril. La plupart des bruts n'ont pas de marchés régionaux strictement captifs et peuvent être raffinés en Europe, aux Etats-Unis ou en Asie (même si certaines caractéristiques physico-chimiques limitent les possibilités de substituer rapidement un brut à un autre dans certaines raffineries). La " substituabilité " des différents bruts dans les raffineries américaines a augmenté ces dernières années à la faveur de travaux de modernisation de l'appareil de raffinage. Ainsi, les opérateurs de marché (les traders) peuvent effectuer des arbitrages afin de profiter des différences de prix entre les marchés locaux, différences qui ne peuvent donc se prolonger dans le temps : l'unité technique du marché induit son unité économique. Une fois déduits les coûts de transport et les différentiels de qualité (teneur en soufre, gravité), il existe un seul prix mondial du pétrole brut.
+L'allocation de l'offre de pétrole entre les demandeurs se fait par un processus purement marchand, anonyme, proche de celui que décrivent les manuels de microéconomie. Ce sont les acheteurs individuels (traders, raffineurs) qui sont en concurrence pour s'approvisionner, et non les Etats ou les économies nationales. Le mécanisme des prix, qui répartit le pétrole entre les milliers de consommateurs effectifs et potentiels, transcende les frontières : les agents américains sont en concurrence entre eux comme avec les agents européens, sud-américains, asiatiques et autres.
+Une autre manière d'exprimer l'idée d'un marché mondial intégré consiste à parler de " one great pool ". L'image est due à M. Adelman, qui voit le marché pétrolier comme une " grande bassine ", dans laquelle se déversent toutes les productions - quelle que soit leur localisation géographique, qu'elles donnent lieu à échange international ou non - et dans laquelle puisent tous les consommateurs. Si cette représentation correspond au fonctionnement réel du marché, alors les prix doivent évoluer de manière identique sur tous les marchés locaux, et tendre vers un prix unique (net des coûts de transport). Les tests économétriques effectués ont largement confirmé l'hypothèse du one great pool, ou du marché intégré. Ils montrent en outre que l'intégration a fortement progressé à la faveur du développement de nouveaux modes de commercialisation, en particulier de la multiplication des instruments financiers dérivés (futures, swaps, options) permettant d'optimiser les stratégies d'approvisionnement en facilitant les arbitrages dans le temps et dans l'espace. Le marché pétrolier est devenu un marché de " commodité " comme un autre : entre l'amont et l'aval de l'industrie, forcément localisés, s'interpose un " midstream " autonome et mondialisé, qui assure par des mécanismes purement marchands l'optimisation des flux physiques et la révélation en temps réel de prix spot et à terme, sur la base desquels les agents effectuent leurs décisions.
+Les mécanismes qui viennent d'être décrits impliquent qu'il ne peut exister de rupture physique dans les approvisionnements pétroliers d'une région ou d'un pays quelconque. Une crise pétrolière, même lorsqu'elle a pour cause la défection (accidentelle ou volontaire) d'un producteur, se manifeste toujours par une hausse des prix, ressentie par tous les consommateurs de pétrole où qu'ils soient dans le monde. Si on laisse fonctionner le mécanisme des prix, c'est-à-dire qu'on laisse monter les cours, les arbitrages - ou, plus précisément, les anticipations sur les arbitrages - diffusent instantanément l'augmentation sur tous les marchés. Les mécanismes marchands fonctionnent donc comme une machine à transformer une rupture physique d'approvisionnement (qui est un phénomène local) en une hausse du prix (qui est un phénomène mondial).
+Signalons que la hausse des prix, qui est le symptôme de la pénurie, est aussi le principal remède à la pénurie. Elle " signale " aux consommateurs qui le peuvent qu'ils ont intérêt à s'effacer, partiellement ou entièrement ; elle " signale " en outre aux producteurs qui le peuvent qu'ils ont intérêt à produire plus. La hausse des prix est donc le moyen par lequel le marché diffuse à tous les agents concernés l'information sur la rareté relative du pétrole, et engendre les incitations à adopter des comportements individuels contribuant à rétablir l'équilibre entre offre et demande mondiales. Pour toutes ces raisons, la liberté des prix du pétrole, surtout en temps de " crise ", est un élément central de toute politique pétrolière rationnelle.
+Un autre corollaire de ce constat fondamental sur l'intégration du marché pétrolier mondial est que les embargos sélectifs ne constituent pas une menace crédible. Par exemple, il n'est pas possible pour l'Arabie Saoudite, ou pour tout autre producteur ou groupe de producteurs, de restreindre ou de stopper ses exportations vers les Etats-Unis. Admettons, par hypothèse, qu'il soit possible d'interdire aux cargos ayant chargé du pétrole saoudien de le livrer aux Etats-Unis (ce qui suppose un accompagnement maritime de tous les pétroliers qui chargent en Arabie Saoudite). Les raffineurs américains touchés par l'embargo - ceux qui raffinent habituellement du brut saoudien - se retourneraient vers le marché spot pour compenser les approvisionnements manquants. Ils obtiendraient tout le pétrole pour lequel ils sont prêts à payer, sachant que le prix spot augmenterait brutalement du fait de leur comportement : le marché transformerait une pénurie physique concernant quelques dizaines d'agents en une hausse de prix ressentie par des milliers.
+Sur cette base, deux scénarios sont possibles. Soit l'Arabie Saoudite maintient son niveau global d'exportations et se contente " d'interdire " toute livraison aux Etats-Unis ; dans ce cas la hausse des prix serait limitée au temps nécessaire à la réorganisation des circuits de commercialisation vers l'Amérique du Nord. Soit l'Arabie Saoudite réduit ses exportations totales du montant habituellement livré aux Etats-Unis ; l'embargo s'apparente alors à une réduction de l'offre mondiale et la durée de la hausse des prix dépend du temps nécessaire aux autres producteurs pour prendre la part de marché abandonnée par l'Arabie Saoudite. Dans les deux cas les conséquences ressenties spécifiquement par les agents américains, par exemple sous forme de pénuries physiques, seraient faibles ou nulles (à condition qu'il n'y ait pas d'entrave au libre fonctionnement du marché : ni réglementation du prix, ni allocation administrative du pétrole). De manière générale, si un Etat exportateur souhaite " punir " un Etat importateur ou faire pression sur lui, il ne peut le faire que de manière non sélective, en faisant supporter à tous les consommateurs une hausse du prix mondial.
+Historiquement, l'embargo pétrolier sélectif n'a été tenté qu'une seule fois, en 1973, par les producteurs arabes de l'OPAEP, à l'encontre des Etats-Unis et des Pays-Bas. Cet embargo, contrairement à une légende tenace, n'a eu aucun effet direct notable - même s'il a contribué à engendrer des comportements de panique, aggravés par le contrôle des prix sur le marché américain. Il n'obtint d'ailleurs aucun résultat politique. Depuis les années quatre-vingt, le phénomène des embargos fonctionne en sens inverse : les Etats-Unis interdisent l'importation de pétrole libyen (depuis 1982) et iranien (depuis 1980), et l'ONU administre les exportations irakiennes dans le cadre d'un programme dit " pétrole contre nourriture " (depuis 1991). Pour l'Iran et la Libye, l'embargo est tout aussi inefficace dans ce sens que dans l'autre : son effet mécanique est d'augmenter les importations américaines en provenance d'autres pays et les exportations libyennes vers l'Europe, iraniennes vers l'Asie. Pour ces deux pays (et surtout pour l'Irak), la prohibition des investissements d'exploration et production est un problème plus sérieux, mais extérieur à notre sujet.
+Une fois acquise l'idée que le marché pétrolier est intégré mondialement, on comprend que le lien entre dépendance extérieure et sécurité énergétique doit être nettement relativisé. Les conséquences pour les Etats-Unis d'une rupture dans l'offre pétrolière quelque part dans le monde ne sont pas liées au niveau des importations en provenance de la région concernée, ni à la part des importations dans l'approvisionnement du marché américain. Une crise pétrolière se manifeste par une hausse du prix mondial, et le prix sur le marché américain est le prix mondial du pétrole. La véritable " dépendance " est donc celle de l'économie américaine à l'égard du pétrole, plus exactement du marché pétrolier mondial, et non des importations, du Moyen Orient ou de l'Arabie Saoudite.
+La sensibilité de l'économie américaine à une crise pétrolière n'est pas liée au taux de dépendance extérieure ; en revanche, le degré de concentration de l'offre pétrolière mondiale est une variable importante de la sécurité énergétique. La gravité d'une crise pétrolière est déterminée par le rapport entre le volume d'offre qui vient à manquer et le total de l'offre mondiale. La sécurité énergétique des consommateurs de pétrole (où qu'ils se trouvent) est donc renforcée par la diversification géographique de la production pétrolière mondiale et, réciproquement, un mouvement de relative concentration augmente les risques. Le risque est d'autant plus élevé que l'offre est concentrée sur des pays ou régions où la probabilité d'une rupture de la production est élevée.
+Depuis plus de 25 ans, l'offre pétrolière mondiale s'est profondément diversifiée ; elle l'est aujourd'hui beaucoup plus qu'à aucune autre époque de l'histoire pétrolière. Entre 1945 et 1973, la production du Moyen-Orient augmentait beaucoup plus vite que la production mondiale : la part de cette région est passée de 7% en 1945 à 40% en 1973. Après avoir nettement baissé dans les années 1980, cette part est revenue aujourd'hui à 40% et semble se stabiliser depuis le début des années 1990. Depuis 1985, les prévisions d'un fort mouvement de re-concentration de l'offre pétrolière sur le Moyen-Orient ont été démenties. Toutefois, les principales projections disponibles aujourd'hui (par exemple l'International Energy Outlook de l'Energy Information Administration, le World Energy Outlook de l'Agence Internationale de l'Energie) montrent encore une forte progression de la part du Golfe persique dans l'offre pétrolière d'ici à 202049. La variable clé, en dehors de l'évolution de la demande, est la capacité de l'industrie pétrolière internationale à maintenir le rythme de développement de la production dans le segment concurrentiel du marché mondial. Cette capacité dépend de plusieurs facteurs parmi lesquels :
+Il ressort de cette analyse que la réduction de la dépendance pétrolière, à supposer qu'elle soit possible, ne constitue pas un objectif raisonnable. Les Etats-Unis se priveraient des gains à l'échange avec les producteurs les plus compétitifs, sans compensation notable en matière de sécurité énergétique ; ils n'obtiendraient en particulier aucune réduction notable de la sensibilité de l'économie américaine aux crises pétrolières. Dans un contexte où le marché pétrolier est intégré mondialement, les politiques de sécurité efficaces sont des politiques de construction et de sécurisation du marché, et non des politiques de limitation du recours au marché (réduction de la demande ou des importations). C'est sur la base de ces conclusions que nous allons étudier l'évolution de la politique pétrolière américaine depuis les années 1920.
+L'Amérique est sortie de la première guerre mondiale avec le souci aigu d'une possible " dépendance pétrolière ". C'est alors que furent créées les Naval Petroleum Reserves, champs pétroliers fédéraux maintenus en " réserve " pour assurer, en cas de guerre, l'approvisionnement de la marine. C'est aussi à cette époque que la diplomatie américaine entreprit d'obtenir des Britanniques et des Français l'entrée des compagnies américaines dans les zones les plus prometteuses, notamment en Mésopotamie - politique de l'Open Door qui devait aboutir à l'entrée de Jersey Standard (Exxon) et Socony (Mobil) dans la Turkish Petroleum Company, avant que ce consortium ne referme la porte du Moyen-Orient par le célèbre accord de la " ligne rouge ", en 1928.
+Mais l'anticipation de la pénurie fit rapidement place à la difficile gestion de l'abondance avec l'entrée en production, après 1925, des découvertes géantes effectuées en Oklahoma (champ de Seminole) et, surtout, au Texas (champ de l'East Texas). Ces découvertes géantes se conjuguèrent à la crise de 1929 pour précipiter un effondrement des prix qui heurta très durement l'industrie pétrolière, en particulier les milliers de petits producteurs qui opéraient les puits les moins productifs. Les autorités de ces deux États réagirent en édictant des législations destinées à limiter la " surproduction " et le " gaspillage ". Ce fut le début d'un vaste effort politico-juridique, relayé par les pouvoirs fédéraux dans les années 1930, qui mit fin à l'ère concurrentielle de l'histoire pétrolière américaine. Du milieu des années 1920 au début des années 1970, l'industrie pétrolière vécut sous le régime de la " proration " ; tous les puits, à l'exception des moins productifs, se voyaient octroyer des quotas de production définis au niveau des États ; le commerce inter-étatique était strictement contrôlé et limité.
+Pour justifier le maintien de ce régime né dans des circonstances historiques très particulières, on continua d'invoquer pendant près de cinquante ans la lutte contre la " surproduction " que générerait nécessairement la libre concurrence dans l'industrie pétrolière. Les meilleurs économistes du pétrole (P. Bradley et M. Adelman, entre autres) ont montré que la libre concurrence eut été tout à fait praticable, en particulier si on avait modifié le régime juridique de propriété sur les ressources et/ou imposé des règles d'unification des réservoirs. Le système de proration fut maintenu car un équilibre politique durable s'était formé en sa faveur : les petits producteurs étaient les grands gagnants ; pour les majors le manque à gagner local (aux Etats-Unis) était largement compensé par le soutien qu'apportait le contrôle du marché américain (et les quotas d'importations, cf. infra) à leurs accords anti-concurrentiels au plan mondial ; et les milieux politiques, tant fédéraux qu'étatiques et même locaux, se partageaient les prérogatives liées à l'administration d'un système très complexe - et, pour certains responsables politiques en particulier texans, les sommes d'argent générées par la corruption du système.
+Au plan économique, la proration généra une augmentation du volume global de rentes par rapport à une situation concurrentielle, et une redistribution de ces rentes vers les petits producteurs d'une part, l'administration d'autre part. Par ailleurs, les quotas entraînaient l'apparition de capacités de production inutilisées (exactement comme, plus tard, les quotas de l'OPEP), qui sont un facteur d'instabilité du marché. Enfin, les puits les moins productifs étant exempts de quotas, les petits producteurs avaient intérêt à forer toujours plus afin de gagner artificiellement des parts de marché aux dépens des puits plus productifs. Motivé par la lutte contre un " gaspillage " conjoncturel, le système de proration en généra un beaucoup plus structurel, et de grande ampleur, tout en augmentant le coût de l'approvisionnement pétrolier américain.
+Le contrôle des importations pétrolières représente l'autre face de l'interventionnisme pétrolier américain. Dès les années 1930, et plus encore après 1945, le pétrole du Venezuela et du Mexique, puis du Moyen-Orient, exerçait une forte pression sur le marché intérieur américain. La mise en place de barrières protectionnistes s'imposait comme une nécessité sous peine de ruiner le système de proration : les deux faces de l'interventionnisme pétrolier sont donc étroitement liées. Concrètement, la protection prit la forme de quotas et de taxes. Les quotas furent d'abord " volontaires " (1949 - 1958), puis obligatoires dans le cadre du Mandatory Oil Import Program (1959 - 1973). En 1932, le Revenue Act imposa, pour la première fois, des taxes sur les importations pétrolières (pétrole brut et certains produits raffinés) ; elles furent progressivement réduites à la faveur d'accords avec le Venezuela et le Mexique, et de la signature du GATT en 1947. Cette forte réduction des taxes fut à l'origine de la réglementation par les quantités (quotas) à partir de 1949. Les taxes ne furent pas pour autant abolies, et furent réorganisées en 1962 dans le cadre du Trade Expansion Act. La pénétration du pétrole importé fut néanmoins très importante sur cette période (cf. Figure 10, p. 31) ; elle eut été nettement supérieure en situation de libre-échange.
+Les cinquante années qui précèdent les chocs pétroliers représentent une période de forte intervention publique dans le fonctionnement du marché américain. La réglementation de la production intérieure et le contrôle des importations sont les deux faces, inséparables, d'une même politique consistant à contraindre le processus concurrentiel pour protéger les intérêts des producteurs " indépendants ", en particulier les moins efficaces d'entre eux, mais aussi, indirectement, les intérêts des grandes compagnies engagées par ailleurs dans des accords de contrôle du marché mondial. Il s'agit d'une politique destinée à renforcer la " sécurité économique " de l'industrie pétrolière américaine plus que la sécurité énergétique du pays, bien que les mesures protectionnistes aient été, dès les années trente, formellement justifiées à l'aune de considérations de " sécurité nationale " - alors même que les Etats-Unis exportaient, en 1932, plus de pétrole qu'ils n'en importaient et que les importations représentaient, en 1962, moins de 20% de la consommation totale.
+Les années 1970 furent un prolongement des cinquante ans d'interventionnisme, dans une conjoncture radicalement différente : il s'agissait désormais de lutter contre la hausse des prix et non plus de prévenir leur baisse. Dès avant 1973, les prix du pétrole étaient affectés par les mesures générales de lutte contre l'inflation, dans le cadre du Economic Stabilization Act (1970). La période ouverte par la crise pétrolière de 1973 - 1974 fut marquée par une forte activité en matière de politique énergétique, mais aussi par beaucoup d'erreurs et une certaine confusion. Après le premier choc pétrolier, le président des Etats-Unis affirmait solennellement que son pays atteindrait l'indépendance énergétique en 1980, et que cette quête représentait " l'équivalent moral de la guerre ". Cet objectif hautement improbable ne fut pas atteint, loin de là : les distorsions introduites par le contrôle des prix devaient conduire à une explosion des importations, qui augmentèrent de près de 50% entre 1974 et 1978. Côté législatif, le nombre de textes est impressionnant : Emergency Petroleum Allocation Act (1973), Energy Policy and Conservation Act (1975), Energy Conservation and Production Act (1976), National Energy Act (1978).
+A la fin de la période, les dispositifs de contrôle des prix, d'allocation physique du pétrole et de subventions croisées entre raffineurs avaient atteint un très haut degré de complexité. Leur objectif était de protéger les raffineurs et les consommateurs contre la hausse des prix mondiaux. Ils engendrèrent des effets pervers massifs (sous-production, stimulation de la demande, subvention des importations, pénuries locales...) et furent largement à l'origine des " files d'attente " qui symbolisèrent, aux Etats-Unis, les crises pétrolières des années 1970. En 1978 et face aux conséquences très déstabilisatrices de la réglementation en vigueur, l'administration Carter réussit à faire voter une loi prévoyant la libéralisation progressive des prix du pétrole. L'élection de R. Reagan devait accélérer brutalement le calendrier, mais aussi l'approfondir.
+A partir de l'élection de R. Reagan à la présidence, la politique pétrolière des Etats-Unis allait rompre avec 60 ans d'interventionnisme motivé par des objectifs divers, ayant généré des mesures contradictoires et, pour beaucoup d'entre elles, désastreuses au plan de l'efficacité économique et/ou de la sécurité énergétique. La politique conduite par l'administration Reagan était inspirée par l'idée que l'efficacité et la sécurité énergétiques ne s'obtiennent pas contre les forces du marché, mais en s'appuyant sur elles. Cette idée-force prenait à contre-pied l'opinion dominante dans les milieux politiques à l'époque, non seulement aux Etats-Unis mais dans tous les grands pays industrialisés et au sein des organisations internationales. On classera ici en trois grandes catégories les actions accomplies ou initiées par l'administration Reagan : libéralisation du marché, sécurisation du marché, construction du marché.
+R. Reagan prononça son discours inaugural le 20 janvier 1981 ; le 28 janvier, il signait l'Executive Order n° 12287 (le premier de son mandat), dont la première section dispose : " All crude oil and refined petroleum products are exempted from the price and allocation controls adopted pursuant to the Emergency Petroleum Allocation Act of 1973, as amended. The Secretary of Energy shall promptly take such action as is necessary to revoke the price and allocation regulations made unnecessary by this Order. " L'Executive Order prenait effet le jour même.
+Le Congrès ne désarma pas et en mars 1982 le Sénat vota le Standby Petroleum Allocation Act, qui octroyait au Président le pouvoir d'instaurer, en cas de crise, un contrôle des prix et des mesures d'allocation administrative du pétrole et des produits. R. Reagan opposa son veto à cette loi le 20 mars 1982. Le président écrit, dans sa lettre de " retour sans approbation " transmise au Sénat : " this legislation grew from an assumption, which has been demonstrated to be invalid, that giving the Federal Government the power to allocate and set prices will result in an equitable and orderly response to a supply interruption. We can all still recall that sincere efforts to allow bureaucratic allocation of fuel supplies actually harmed our citizens and economy, adding to inequity and turmoil. " Face à une rupture d'approvisionnement, c'est au contraire le libre fonctionnement du marché (" free trade among our citizens ") qui, précise le président, est le plus à même de réduire le coût supporté par l'économie américaine. Sur ce point, R. Reagan semble avoir été fermement convaincu par les démonstrations des économistes selon lesquelles le marché libre est toujours supérieur à l'allocation administrative, même (et surtout) en temps de crise.
+La déréglementation du marché pétrolier américain correspond aussi à une réintégration complète dans le marché mondial. A partir de 1982, le prix intérieur est à nouveau strictement aligné sur le prix mondial (voir Figure 1, p. 57). Au cours des deux mandats de R. Reagan la faible taxe sur les importations n'a pas été supprimée, mais l'administration a résisté, à plusieurs reprises, à de fortes pressions du Congrès pour l'augmenter de manière significative. Le decontrol américain a également eu un effet non anticipé, sur les structures du marché pétrolier international : elle a accéléré la substitution de transactions de court terme aux contrats de long terme et la généralisation de la référence au prix spot. Pleinement exposés aux aléas du marché mondial (jusque-là atténués par le contrôle des prix et les mécanismes de redistribution physique), les raffineurs américains ont modifié leurs pratiques commerciales ; les activités de trading ont explosé aux Etats-Unis au début des années quatre-vingt, et le NYMEX a lancé son contrat à terme de pétrole brut en 1983 (après avoir lancé, en 1978, les contrats à terme de heating oil) (voir Figure 18, p. 57).
+Les gouvernements successifs, républicains et démocrates, ne sont pas revenus sur la réforme fondamentale initiée par l'administration Reagan. Dans les années 1990, la politique pétrolière de l'administration Clinton (largement " encadrée ", il est vrai, par un Congrès républicain) fut une politique libérale. Il n'y eut aucun retour sur la déréglementation du marché pétrolier. Parmi les mesures d'inspiration libérale prises au cours de cette période, on peut citer la levée de l'interdiction d'exporter le brut d'Alaska, l'accélération du leasing dans l'offshore fédéral, les exemptions de royalty sur l'offshore profond (Deep Offshore Royalty Relief Act), ou encore la privatisation (partielle) des Naval Petroleum Reserves.
+La libéralisation du marché intérieur s'est accompagnée de la mise en place d'un important dispositif public de sécurisation du marché. Il s'agit du second pilier de la politique pétrolière américaine mise en place sous l'administration Reagan. On peut regrouper dans cette catégorie des mesures aussi différentes que la mise en place de la Strategic Petroleum Reserve d'une part, la création d'une force d'intervention rapide au Moyen-Orient (la Rapid Deployment Force) d'autre part.
+La Strategic Petroleum Reserve (SPR) fut crée dans le cadre de l'EPCA à la fin de 1975 mais resta " virtuelle " pendant cinq ans, en raison de dysfonctionnements administratifs et surtout d'un manque de volonté politique. Les pays exportateurs, et notamment l'Arabie Saoudite, ont dénoncé la SPR dès sa création, et menacé les Etats-Unis de restreindre leur production si elle était mise en place. En 1978, un accord secret entre le président Carter et les Saoudiens avait " échangé " le non-remplissage de la SPR contre le maintien d'un " haut " niveau de production. A la fin de 1980, la SPR ne contenait que 107 millions de barils de pétrole. L'administration Reagan allait faire du remplissage une priorité de sa politique pétrolière, complémentaire de la libéralisation du marché intérieur. A la fin du premier mandat de R. Reagan le volume stocké était de 450 Mb, et 560 Mb fin 1988 - niveau auquel on est encore aujourd'hui (voir Figure 19, p. 59). Le rythme moyen de remplissage était de 77 000 b/j entre 1976 et 1980 ; il est passé à 290 000 b/j en 1981 (année fiscale) et 215 000 b/j en 1982. 80% du pétrole stocké dans la SPR l'a été sous Reagan, dont plus de 60% entre 1981 et 1984.
+Le renforcement de la présence militaire américaine dans le Golfe Persique répondait certainement à des considérations stratégiques plus larges que la seule prévention d'une rupture de l'approvisionnement pétrolier mondial. La création de la RDF venait après l'invasion soviétique en Afghanistan et s'inscrivait dans le cadre de la " doctrine Carter " (sanctuarisation du Moyen-Orient), qui n'est pas réductible à une politique énergétique. Toutefois, cette dimension était certainement présente. La logique est alors la même que pour la SPR, même si l'instrument est très différent. Accepter que l'approvisionnement pétrolier repose sur un marché mondialisé, concurrentiel et dominé par les transactions de court terme, supposait la mise en place d'une sécurisation en amont, ou " par le haut ", dont le coût s'apparente à une assurance contre les conséquences économiques d'une défaillance de l'offre mondiale. Libéralisation et sécurisation ne s'opposent pas, mais constituent deux faces d'une même politique.
+Tout comme la libéralisation, les mesures de sécurisation du marché initiée sous R. Reagan ont été assumées par tous les gouvernements depuis 1988, et demeurent un élément essentiel de la politique pétrolière américaine. Au cours des années 1990, la SPR a connu plusieurs améliorations techniques au niveau du stockage et des modalités d'utilisation ; quant à la présence militaire au Moyen-Orient, elle est aujourd'hui beaucoup plus forte qu'elle n'était en 1990 (avant la guerre du Golfe).
+La troisième orientation de la politique pétrolière américaine est moins connue que les deux premières. Il s'agit de l'effort de construction (ou de reconstruction) du marché international des permis d'exploration et production, après les bouleversements juridiques et politiques des années 1970. Dans le sillage de la " révolution OPEP ", de nombreux pays ont nationalisé leur industrie pétrolière et fermé leur sous-sol aux compagnies étrangères, ou durci considérablement les conditions juridiques et fiscales offertes aux investisseurs. En conséquence, l'industrie pétrolière internationale a recentré ses investissements d'exploration et développement sur les pays de l'OCDE, essentiellement les Etats-Unis (dont l'Alaska et le Golfe du Mexique) et la Mer du Nord.
+Les zones les plus prometteuses en dehors de l'OPEP se trouvaient donc marginalisées dans les stratégies des compagnies pétrolières. Pour corriger cette situation très défavorable à la diversification de l'offre pétrolière à long terme, il avait été décidé dans le cadre du G7 de créer, au sein de la Banque mondiale, une " filiale énergie " destinée à aider les Etats exclus du marché des capitaux pétroliers privés à entreprendre la prospection et l'exploitation de leurs ressources énergétiques. Ce projet s'est vu opposer un veto américain en 1981. L'administration Reagan a imposé l'idée selon laquelle les institutions internationales devaient encourager les pays en développement à adapter leurs législations et leurs fiscalités, et non les soustraire au marché en apportant des financements publics. Cette idée d'une nécessaire adaptation des termes législatifs et contractuels dans les pays en développement était défendue par les compagnies pétrolières internationales, qui y voyaient la condition d'un retour de l'industrie dans ces pays. L'action de la Banque mondiale a été réorientée en ce sens ; entre 1985 et 1995, plusieurs dizaines d'Etats ont bénéficié des conseils économiques et juridiques de la Banque pour réformer leurs législations et rendre leurs sous-sols plus attractifs sur le marché des contrats pétroliers.
+Parallèlement, l'administration Reagan a lancé, dès 1981, une politique juridique internationale très ambitieuse, destinée à réformer le régime juridique international des investissements. Les objectifs poursuivis étaient : l'octroi d'un haut niveau de protection des investisseurs étrangers (application du principe du " traitement national ") ; le respect des contrats entre investisseurs et Etats ; la liberté de rapatriement des profits ; l'internationalisation du droit s'appliquant à la relation contractuelle ; enfin - point capital - le règlement des différends relatifs aux investissements devant des tribunaux arbitraux dont les sentences sont garanties par le droit international public. La régulation juridique des contrats pétroliers, pour lesquels ces principes revêtent une importance capitale, représentait une motivation essentielle de cette initiative. Ces principes étaient initialement promus à travers un programme de traités bilatéraux sur les investissements (TBI), qui a ouvert la voie à une nouvelle génération de TBI portée par tous les grands pays de l'OCDE, qui ont repris, dans les années 1990, les principales dispositions des TBI américains. Ensuite, l'influence américaine s'est fait sentir dans les négociations sur les instruments multilatéraux régionaux (ALENA chap. 11), sectoriels (Traité sur la Charte de l'Energie), ou mondiaux (AMI). Vingt ans après le lancement de l'initiative américaine, les principes que l'administration Reagan avait commencé de promouvoir dans l'hostilité générale - et notamment de la part des pays en développement propriétaires de ressources naturelles - sont aujourd'hui au fondement du nouveau régime juridique international des investissements, auquel ont adhéré la plupart des pays en développement actifs sur le marché des permis pétroliers, ou souhaitant entrer sur ce marché. Cette réforme juridique a joué un rôle important dans le redéploiement des investissements privés d'exploration et développement vers les pays d'Afrique, d'Amérique latine et d'Asie - et aujourd'hui vers les pays de l'ex-URSS.
+La politique pétrolière initiée sous la première administration Reagan est motivée par l'idée qu'il n'existe pas de " coût externe " de sécurité lié à la consommation de pétrole, même si cela implique un recours croissant au pétrole importé. Plus exactement, même s'il existe une " externalité ", aucune mesure de politique énergétique ne peut la corriger à un coût inférieur à son bénéfice social. Dans ces conditions, la politique énergétique doit consister à laisser fonctionner les mécanismes marchands, qui garantissent la minimisation du coût d'approvisionnement, à sécuriser le marché contre les perturbations exogènes, et à rechercher l'extension géographique maximale du marché, qui améliore son efficacité.
+Cette politique pétrolière n'a pas été remise en cause dans ses principes ; même si le discours politique met souvent l'accent sur les risques associés à la " dépendance " et sur la nécessité de la contenir, la réalité est que R. Reagan a fait entrer les Etats-Unis dans l'ère de la dépendance pétrolière acceptée et assumée. Reste à étudier les chances d'une réorientation sensible de cette politique après quinze ans d'augmentation continue de la part des importations dans la couverture de la demande, et face à la perspective d'une " dépendance " pouvant atteindre 70% en 2020.
+La politique pétrolière de l'administration Bush, telle qu'elle est envisagée dans le plan Cheney, traduit-elle une évolution dans la manière d'appréhender la " dépendance pétrolière ", ou augure-t-elle d'une continuation de la politique conduite depuis vingt ans ? L'analyse des propositions contenues dans le rapport montre, de manière très nette, qu'il s'inscrit dans la continuité beaucoup plus que dans la rupture. Au-delà de l'association rhétorique entre maîtrise de la " dépendance " et renforcement de la sécurité, c'est bien la libéralisation, la sécurisation et la construction du marché qui dominent très largement les propositions concrètes. Le fonctionnement des mécanismes marchands est au centre de la vision de l'approvisionnement pétrolier développée par le rapport Cheney, ce qui implique l'acceptation d'un recours croissant aux importations.
+Les mesures visant à maîtriser la demande pétrolière sont très timides ; en l'absence de durcissement des normes de consommation (CAFE standards), il s'agit essentiellement de crédits d'impôts pour l'acquisition de véhicules efficaces (hybrides ou piles à combustible).
+Le rapport prévoit neuf mesures destinées à stimuler la production intérieure, parmi lesquelles la continuation du soutien public à la R&D en matière de technologie d'exploration et production, l'accélération du leasing sur les terres fédérales et l'ouverture de certaines zones jusque là fermées aux activités de forage, en particulier l'ANWR en Alaska. Il importe de noter que, en l'absence de barrières aux importations et aux exportations, l'évolution de l'offre intérieure se " dissout " dans l'évolution de l'offre mondiale. L'ouverture des terres fédérales peut donc s'apparenter à une mesure d'extension du marché mondial des permis d'exploration et production.
+Le chapitre 8 du rapport Cheney, consacré à la " sécurité énergétique nationale et aux rapports internationaux ", concentre l'essentiel des mesures pertinentes du point de vue la gestion de la dépendance pétrolière. Sur les 35 recommandations du chapitre, 18 (soit 50%) constituent des mesures de construction du marché, qui peuvent être regroupées en trois sous-catégories :
+Pour la première fois dans un document officiel, la politique juridique extérieure des Etats-Unis en matière de régulation des investissements transnationaux est reconnue comme un instrument de politique énergétique. Le rapport fait explicitement référence à la signature d'un traité bilatéral sur les investissements avec le Venezuela, et de " consultations formelles " avec le Brésil en vue d'améliorer le climat des investissements énergétiques.
+L'importance des mesures de construction des marchés énergétiques internationaux dans le rapport Cheney est remarquable. Elle témoigne d'une réelle prise en compte de l'interdépendance des systèmes énergétiques, donc du fait que la sécurité, pour l'essentiel, se construit globalement et non localement. De ce point de vue, on peut noter une véritable différence avec le Livre Vert publié fin 2000 par la Commission européenne, qui semble n'accorder qu'une importance très relative aux dispositifs de construction du marché. Il s'agit cependant, rappelons-le, du maintien d'une préoccupation constante des Etats-Unis depuis le début des années 1980, et non d'une innovation de la présente administration. On doit aussi inclure dans les mesures de construction du marché la résolution des problèmes de " balkanisation réglementaire " du marché américain des carburants automobiles, proposée au chapitre 7 du rapport.
+Le chapitre 8 du rapport contient en outre six recommandations relevant de la sécurisation du marché. L'importance de la SPR est réaffirmée, et l'augmentation de son volume est envisagée, en des termes très prudents. En revanche, rien n'est dit sur la réforme des règles et modalités d'utilisation de la SPR ; au contraire, le rapport précise que la SPR n'a pas vocation à être un instrument de gestion du prix, et reste destinée à " répondre à une rupture imminente ou réelle des approvisionnement pétroliers " - faisant l'impasse sur la question cruciale de la définition et de l'identification d'une rupture d'approvisionnements, qui passe forcément par une référence au prix du pétrole. Le rapport évoque la possibilité de louer à d'autres pays les capacités inutilisées de la SPR, de manière à permettre à des Etats qui n'ont pas de réserve stratégique d'en développer une à coût réduit. Enfin, la question des stocks stratégiques dans les pays d'Asie non membres de l'OCDE, qui n'en possèdent pas, est évoquée.
+Entre libéralisation, construction et sécurisation du marché, le rapport Cheney marque, sur les questions pétrolières, une forte continuité avec la politique initiée sous R. Reagan et poursuivie depuis avec constance. Après le débat législatif, il n'est même pas certain que les mesures les plus fortes, côté offre comme côté demande, soient préservées. La proposition de loi votée par la Chambre octroie de fortes aides fiscales à l'exploration et autorise l'ouverture de l'ANWR ; le Sénat (dominé par les démocrates) a réduit les déductions fiscales et supprimé l'ouverture de la réserve écologique d'Alaska, troquée contre des subventions aux bio-carburants. Le texte de compromis qui émergera - à supposer qu'il y en ait un - sera en retrait par rapport au rapport Cheney et ne comportera aucune mesure significative.
+Alors que la " dépendance " extérieure a atteint son maximum historique, et que son approfondissement est une quasi certitude pour les deux décennies à venir, les Etats-Unis ne semblent pas devoir modifier radicalement leur politique pétrolière. Au contraire, les grandes orientations définies il y a vingt ans sont confirmées, mêmes si c'est par défaut : après la " crise " de 2000 - 2002 comme après celle de 1990 - 1991, le grand débat de politique énergétique initié par l'administration accouche essentiellement de non-mesures, c'est-à-dire qu'il confirme l'approche libérale qui structure la politique énergétique américaine depuis le tournant des années 1980.
+Pour l'économiste, cette politique reste raisonnable même si elle implique une croissance régulière de la " dépendance pétrolière ". La plupart des études sur les coûts de réduction des importations américaines coûts (ou du taux de croissance des importations), tant par la stimulation de l'offre intérieure que par la maîtrise de la demande, concluent à la faiblesse des marges de manoeuvre en la matière. Le seuil au-delà duquel les coûts de la réduction sont supérieurs aux bénéfices en termes de sécurité énergétique est très vite atteint ; il n'existe qu'un potentiel très limité de réduction profitable de la " dépendance " pétrolière. Si cette analyse coûts / avantages semble effectivement inspirer la politique pétrolière américaine dans la durée, elle paraît toujours aussi difficile à soutenir explicitement dans le débat public. Les références à la réduction de la dépendance énergétique comme source de sécurité sont omniprésentes dans le rapport Cheney, comme dans le débat qui a eu lieu depuis au Congrès, et servent à justifier les mesures les plus diverses (de la relance du nucléaire à l'assouplissement des normes environnementales sur le charbon, en passant par les subventions à la culture du colza et aux énergies renouvelables), y compris celles dont l'impact sur le niveau des importations pétrolières ou sur la sécurité énergétique est plus que douteux. Plus généralement, on observe depuis plus de vingt ans une différence saisissante entre la tonalité très interventionniste du débat public sur l'énergie aux Etats-Unis, et la reconduction - voire l'approfondissement - d'une politique essentiellement libérale.
+D'aucun voudront expliquer ce décalage par les dysfonctionnements du processus législatif américain, sa perméabilité à l'action des groupes d'intérêt, sa pente naturelle au compromis (bipartisan d'une part, entre législatif et exécutif d'autre part), toutes caractéristiques propres à laminer les ambitieux projets de réforme, et notamment les comprehensive energy policy plans élaborés à intervalles réguliers par l'administration ou les majorités parlementaires. Cette analyse doit être complétée par la prise en compte du fait que les débats de politique énergétique ont toujours lieu, aux Etats-Unis, dans le sillage de " crises ", c'est-à-dire d'épisodes de forte hausse - éventuellement de fortes baisses - des prix de l'énergie : 1973 - 74, 1979 - 80, 1985 - 86, 1990 - 91, 2000 - 2001. Dans ces contextes marqués par un sentiment d'urgence plus ou moins justifié, le débat politique est nécessairement dominé par une " prime à l'intervention " : à situation exceptionnelle, mesures exceptionnelles. Ceci n'est évidemment pas propice à l'évaluation froide et rationnelle des orientations proposées. En temps de crise plus encore qu'en temps normal, les affaires énergétiques et notamment pétrolières sont entourées, selon le mot de M. Adelman, d'une " aura romantique " susceptible de " rendre plausible n'importe quel non-sens ". Le sentiment d'urgence s'effaçant comme il était venu avec le retour à une situation normale sur les marchés de l'énergie, il devient impossible au moment décisif de réunir une majorité parlementaire sur des mesures dont la rationalité est plus que douteuse - d'où le sentiment, a posteriori, que la montagne a accouché d'une souris. A bien y regarder, les " lourdeurs " du processus législatif américain constituent peut-être un garde-fou, au moins autant qu'une entrave à l'action réformatrice.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Le lobbying n'est peut-être pas le plus vieux métier du monde, mais peu s'en faut. Dès l'instant où des souverains ont eu besoin d'intendants et de conseillers pour gérer leurs affaires et administrer leur politique, d'aucuns ont cherché à les courtiser par le biais de leurs plus proches serviteurs. Il est intéressant de noter qu'aussi bien en Europe qu'en Asie, rois et empereurs disposaient d'un vaste appareil destiné à entretenir membres de la cour et favoris. L'empereur chinois comme le shogun japonais étaient entourés d'une foule de courtisans, et ceux qui étaient en quête de faveurs cherchaient souvent à soudoyer les hauts dignitaires pour peser sur leurs décisions.
+Chaque fois que les pouvoirs publics envisagent des politiques propres à faire des gagnants et des perdants, opposants et partisans s'organisent pour défendre leurs intérêts. Cette joute entre groupes d'intérêts et adversaires politiques se livre dans la plupart des systèmes politiques, démocratiques ou non, à tous les échelons de l'administration, au niveau tant local que national.
+Or aujourd'hui, pour ceux qui veulent infléchir le cours des grandes décisions politiques, la première scène du monde, voire de l'Histoire, est à Washington, D.C., ville née d'une transaction politique entre forces opposées qui s'est soldée par des gagnants et des perdants, mais où certains ont récupéré plus que leur mise. La genèse de la création d'une nouvelle capitale dans les tous jeunes Etats-Unis d'Amérique a ouvert la voie au lobbying et en a fait un terme incontournable de l'équation de toutes les grandes décisions de l'Etat. Sous la présidence du général Washington, Alexander Hamilton, le secrétaire au Trésor, soucieux d'asseoir le crédit de la jeune nation, décide d'assumer les dettes héritées de la révolution. Thomas Jefferson et James Madison, deux de ses adversaires politiques, s'opposent à son plan, tout en faisant eux-mêmes l'objet d'un lobbying de la part des Etats et des groupes d'intérêts qui redoutent de voir leur prospérité entamée si la nation honore ses dettes. Mais Hamilton sait que ce qui importe davantage encore à Madison, c'est le débat sur le lieu d'installation du futur siège du Congrès, pour lequel cinq sites sont envisagés. Les spéculateurs immobiliers ne pouvant que profiter de l'opération, quel que soit le site choisi pour le Capitole, Hamilton s'assure le soutien de ses adversaires sur la question du budget en se ralliant au projet d'installer la capitale fédérale dans une zone marécageuse sur le Potomac, à côté de la Virginie, Etat d'où Madison et Jefferson sont originaires. Les amis de Madison en profitent et la fierté de la Virginie s'en trouve confortée. Le compromis politique n'est donc pas chose nouvelle, et souvent la définition de la politique officielle est le fruit de l'âpre rivalité qui, en coulisses, oppose entre eux les responsables politiques légitimes, mais aussi les acteurs puissants et officieux, voire illégitimes, qui oeuvrent au sein de l'appareil politique.
+Si les rédacteurs de la Constitution des Etats-Unis n'ont pas prévu le lobbying dans leur traité sur le gouvernement, les lobbyistes constituent pourtant un rouage essentiel de l'appareil d'Etat depuis le début de sa création. Dans son acception initiale, le terme de " lobbyiste " désigne toute personne ou tout groupe qui essaie d'influer sur la politique ; mais, au fil du temps, il a été utilisé plus généralement pour qualifier tout simplement un agent d'influence rémunéré, un défenseur de dossiers, souvent avocat ou chargé de relations publiques, ou encore ancien membre du gouvernement, dont la connaissance des représentants et des coulisses du pouvoir peut conférer à des intérêts privés l'avantage d'influer sur une décision politique.
+Au Sénat comme à la Chambre des représentants, la correspondance que reçoit le bureau d'un parlementaire est, en règle générale, codifiée et enregistrée différemment selon que le courrier postal ou électronique reçu fait partie d'un envoi massif ou qu'il est unique. Si le courrier provient du district ou de l'Etat d'origine du parlementaire, il bénéficie d'une attention plus grande que s'il émane d'une lointaine localité. Or, la catégorie qui se voit accorder une attention prioritaire est souvent qualifiée de " point rouge ", ce qui signifie que le membre du Congrès lit ce courrier et y répond souvent personnellement. Pour bénéficier du statut de " point rouge ", il ne suffit pas d'envoyer une proposition de mesure particulièrement intéressante et utile pour la collectivité ; il vaut mieux effectuer des dons importants - du niveau maximal autorisé par la loi - sur le compte de campagne de l'élu. On peut aussi aider à mettre sur pied un comité d'action politique qui versera, toujours dans le respect de la légalité, des sommes importantes au parti politique dudit parlementaire, ou contribuera financièrement à ce comité. A l'évidence, l'argent règne en maître et il en a toujours été ainsi. Une participation financière permet de faire entendre sa voix, et les lobbyistes exercent leur influence en mobilisant leurs réseaux traditionnels, mais aussi en exploitant leur aptitude à collecter des fonds et à susciter la contribution d'un grand nombre de " points rouges ", ainsi qu'en démontrant leur capacité à obtenir les résultats politiques escomptés par leurs clients.
+Les cabinets de lobbying de Washington - la légion des " points rouges " -sont concentrés sur " K Street ", dans le district de Columbia. A vrai dire, " les lobbyistes d'entreprise ont tellement pénétré dans la culture de la Cité qu'on a parfois le sentiment qu'ils font partie de l'appareil d'Etat lui-même ". Le secteur du lobbying a pris désormais une place si importante que certains grands journaux de la presse nationale, comme le Washington Post, le National Journal et Roll Call, lui consacrent une rubrique spéciale.
+L'archétype du lobbyiste, tel qu'il a été croqué aux Etats-Unis dans certaines des caricatures politiques les plus incisives du XXe siècle, a longtemps été un personnage ventripotent qui fume le cigare et rôde dans l'ombre d'un homme politique dont il remplit les poches de dollars. Aujourd'hui, les lobbyistes sont devenus des acteurs plus sophistiqués du jeu politique. Toutefois, des efforts sont en cours pour endiguer le pouvoir de ces éminences grises et instaurer davantage de transparence sur les liens qu'ils entretiennent avec les responsables politiques. Auparavant, les lobbyistes avaient leurs entrées dans les " vestiaires " du Congrès, ces antichambres privées dont disposent les délégations des partis dans chacune des deux chambres, ce qui n'est pas le cas du citoyen moyen. Ce privilège leur a été retiré, mais le monde des " points rouges " détient encore nombre de privilèges officieux, en particulier au Congrès, dont le simple citoyen ne bénéficie pas non plus. Récemment, Chris Dodd (sénateur démocrate, Connecticut), président du Senate Rules and Administration Committee (Commission sénatoriale des règlements et de l'administration), a voulu une fois encore accroître les prérogatives des lobbyistes par rapport aux citoyens ordinaires pour ce qui est de leurs entrées au Capitole : il a proposé un dispositif leur permettant d'y accéder plus rapidement et plus aisément pour contacter les parlementaires et leurs collaborateurs - une sorte de coupe-file analogue à la carte proposée aux VIP par la compagnie aérienne United Airlines. Néanmoins, les relations financières entre responsables politiques et lobbyistes sont strictement réglementées : repas, voyages ou dons financés par des groupes d'intérêts par le biais des seconds au profit des premiers sont soit devenus illicites, soit désormais réglementés par plusieurs bureaux de contrôle déontologique au sein du Congrès et de l'Exécutif.
+Dans un article écrit après la promulgation de l'interdiction de dons aux sénateurs, en 1996, sous le titre " How to Still Make a Senator Smile? " (" Comment faire encore sourire un sénateur ? "), j'examine comment le monde de l'influence peut encore induire en tentation les législateurs et leurs équipes, malgré la profusion de règles et règlements nouveaux qui ont été adoptés aussi bien à la Chambre des représentants qu'au Sénat concernant leurs liens avec les lobbyistes. C'est ainsi que la cafétéria du Sénat - et sa nourriture bon marché mais tout à fait honnête - a remplacé les restaurants renommés pour devenir le lieu privilégié où les lobbyistes invitent les collaborateurs personnels (staffers) des membres du Congrès ou les parlementaires eux-mêmes, car c'est un endroit où ils peuvent leur offrir un nombre illimité de repas non enregistrés sans dépasser la limite annuelle imposée par les nouvelles règles. Le Code de déontologie du Sénat est un document de 562 pages qui recense ce qui est autorisé et ne l'est pas entre, d'une part, les sénateurs et leurs collaborateurs et, d'autre part, les groupes d'intérêts. Une partie des dispositions concernant les dons est libellée comme suit :
+" Le terme "don" désigne toute forme de gratification, de faveur, de remise, d'invitation, de prêt ou d'exonération ou tout autre élément ayant une valeur monétaire. Il englobe les dons de services, de formation, de transport, d'hébergement et de repas, qu'ils soient fournis en nature, par l'achat d'un billet, par un paiement anticipé, ou par le remboursement des dépenses engagées. "
+Toutefois, si certains collaborateurs personnels des parlementaires peuvent toujours continuer à bénéficier de repas offerts par des lobbyistes au service d'intérêts aussi divers que les droits de pacage, les licences d'utilisation du spectre électromagnétique, la levée des sanctions unilatérales visant Cuba ou le Soudan, ou l'exploration pétrolière dans la réserve naturelle de l'Alaska, les lobbyistes ont vu battre en brèche leur capacité à inviter les parlementaires dans les meilleurs clubs et restaurants de Washington.
+Sans entrer dans le détail des dispositions qui régissent désormais les rapports entre lobbyistes et membres du Congrès ou de l'Administration, on constate néanmoins que s'est mise en place une véritable " seconde économie " de l'influence politique. Au lieu de se contenter des contacts privilégiés et directs qu'ils entretiennent avec les membres de l'exécutif, les lobbyistes recourent de plus en plus à des forums de " sensibilisation des responsables publics " et à des think tanks (" laboratoires d'idées ") pour démarcher les parlementaires ou leurs assistants. Le code de déontologie autorise les collaborateurs politiques à assister à des réunions " largement ouvertes " - définies comme étant simplement celles auxquelles assistent un minimum de dix personnes - et à profiter des repas et autres avantages offerts à cette occasion. Il autorise aussi les parlementaires et leurs assistants à effectuer des voyages à l'intérieur et à l'extérieur des Etats-Unis, aux frais de leur hôte, si l'objet de ces voyages relève de leurs obligations et si le financement en est assuré par un organisme sans but lucratif sélectionné par un bureau de déontologie.
+Fait étonnant, malgré cette exigence de contrôle déontologique, l'organisme de financement ne rencontre aucun problème et n'enfreint aucune loi s'il sert de vecteur à une opération de blanchiment d'argent pour le financement, par des entreprises ou des fonctionnaires étrangers, de programmes ou de voyages destinés à des responsables publics. C'est ainsi que le gouvernement chinois peut inviter des membres du personnel du Congrès en finançant un organisme sans but lucratif chargé de l'organisation de la visite et de l'invitation des assistants des parlementaires, voire, dans certains cas, des parlementaires eux-mêmes. Le gouvernement taiwanais fait voyager tous les collaborateurs invités des membres du Congrès en première classe sur China Airlines et leur offre un accueil pour VIP dans les meilleurs hôtels de Taipei, où ceux-ci ont le privilège tout à fait inhabituel d'avoir chacun un serveur d'étage personnel. C'est ainsi qu'un de ces collaborateurs, ayant changé de domaine d'intervention au sein de l'équipe d'un membre de la Chambre des représentants, m'a fait savoir qu'il était " disponible " pour effectuer des visites partout dans le monde si celles-ci avaient trait à ses nouvelles responsabilités dans le domaine de la politique des télécommunications. Nombre de programmes financés par des entreprises, voire par des gouvernements étrangers, offrent effectivement d'excellentes occasions de sensibiliser les participants aux dossiers de politique publique ; mais beaucoup ne sont en fait qu'un simple moyen de voyager aux frais de la princesse, et visent davantage à corrompre qu'à éclairer l'esprit et le choix des hauts responsables des politiques publiques.
+Jeremy Azrael, analyste de la RAND Corporation, a beaucoup écrit sur les seconde et tierce économies de l'ex-Union soviétique et des nouveaux Etats indépendants d'Europe orientale, estimant que la corruption qui s'est manifestée au sein de ces appareils politiques était une nécessité naturelle et prévisible compte tenu de l'inadéquation de l'économie centralement planifiée. Si l'Etat n'est pas en mesure d'assurer une distribution efficace de pain et de chaussures dans le pays, des marchés parallèles se mettent en place pour répondre à la demande. Certes, les règles de comportement jouent un rôle - le comportement étant influencé via la tactique de la carotte et du bâton -, mais si les règles d'une économie politique vont trop à l'encontre de la demande de certains biens ou services, le fournisseur cherchera d'autres moyens de survivre et de prospérer. Un bon exemple d'une telle situation est offert par l'économie de la drogue aux Etats-Unis et dans d'autres systèmes fortement régulés de lutte contre la production et la consommation de drogues illicites. L'économie souterraine du secteur de la drogue outre-Atlantique semble en effet prospérer, et ce, malgré l'énorme effort d'investissement déployé par l'Administration pour lutter contre la production, l'offre et la distribution de drogues illicites. On peut aussi voir dans le vol de propriété intellectuelle pratiqué en Chine un autre cas où le dispositif de lois et règlements n'est pas encore suffisamment élaboré pour battre en brèche l'économie illicite qui consiste à copier, produire et distribuer des copies piratées de disques compacts à succès, voire à publier une série de nouveaux Harry Potter que J. K. Rowling n'a jamais écrits, sans parler des nombreuses copies piratées de ceux qui sont réellement de son cru.
+En réalité, face au contrôle et à la réglementation accrus du secteur du lobbying, les lobbyistes ont cherché d'autres moyens de défendre leurs intérêts : or, l'une des stratégies les plus habiles, déjà employées par les entreprises et d'autres groupes d'intérêt, consiste à se servir des think tanks pour relayer leurs propositions en matière de politiques publiques. La plupart des think tanks sont organisés en vertu du droit américain des sociétés selon les mêmes dispositions que celles régissant les organisations caritatives et éducatives, ce que l'on appelle les " organisations 501(c) ". Si DaimlerChrysler veut sensibiliser des parlementaires ou leurs assistants au problème du non-respect par la Corée des termes de l'accord bilatéral sur l'automobile passé entre ce pays et les Etats-Unis, ou si la Biotechnology Industry Association veut faire valoir les raisons pour lesquelles le " principe de précaution " prôné par l'Europe sur les aliments et les produits génétiquement modifiés constitue une entrave à la recherche, au libre-échange et à la modernité, ces deux organisations pourraient s'adresser, par exemple, à des organisations comme celle à laquelle j'appartiens - la New America Foundation, ou à d'autres comme la Heritage Foundation, la Brookings Institution, le Center for Strategic and International Studies (CSIS), le Cato Institute, le Carnegie Endowment ou l'American Enterprise Institute (AEI), pour qu'elles organisent un déjeuner ou un colloque dans le but de " sensibiliser " les responsables publics à ces problèmes. Ces groupes d'intérêt spécifiques pourraient demander à une organisation sans but lucratif, telle que le Congressional Economic Leadership Institute ou la New America Foundation, de mettre sur pied un voyage à Sydney, en Australie, pour étudier la problématique des biotechnologies, ou à Séoul ou Bruxelles pour comparer les caractéristiques respectives du commerce européen et coréen de l'automobile. Dans la mesure où les membres du Congrès disposent souvent, en propre, de budgets de mission pour leurs bureaux personnels ou pour les commissions auxquelles ils appartiennent, une tactique intéressante employée par l'organisme sans but lucratif ou l'équipe de liaison du groupe d'intérêt concerné consiste à sensibiliser les épouses desdits parlementaires aux dossiers de politique publique et à les faire participer simultanément à des voyages qui poursuivent les objectifs du bureau personnel de ces parlementaires ou de leur commission.
+Suivant une tradition instaurée au sein de la vieille Europe, des individus et des institutions fortunés ont souvent mis sur pied des associations caritatives destinées à aider les défavorisés. Londres regorge encore aujourd'hui de ces vénérables " fondations de bienfaisance " (les charities) créées pour éduquer la jeunesse, aider les sans-abri et s'attaquer à toutes sortes de maux sociaux. Sous une forme quelque peu différente, ce type de fondation, issu d'une opulence révolue, est légion en Italie, en France, en Allemagne et dans d'autres pays d'Europe. Aux Etats-Unis, des particuliers fortunés, d'Andrew Carnegie à Bill Gates, se sont acquittés de leurs responsabilités de citoyens privilégiés en créant des fondations privées. La Ford Foundation de Henry Ford a été l'une des premières grandes fondations à s'engager dans les affaires du monde. Des libéraux de la société civile comme Norman Lear et des politiciens conservateurs comme John Olin ont créé des fondations et des fonds destinés à aider des projets et des individus s'inscrivant dans leurs camps politiques respectifs. Mais des entreprises ont fait de même. DaimlerChrysler, AT&T, Federal Expression, Philip Morris, Toyota, AIG Citigroup : partout dans le monde, des entreprises allouent des fonds issus de leur trésorerie propre ou de leurs fondations respectives, créées autour de leurs thèmes d'intérêt spécifiques, pour financer aussi bien un orchestre philharmonique ou un bal d'investiture à l'issue de l'élection présidentielle, que des voyages ou des programmes de réflexion politique destinés aux responsables publics.
+La société civile aux Etats-Unis regroupe un éventail diversifié d'acteurs et de points de vue qui couvrent tout l'échiquier politique et s'affrontent pour avoir le dessus, les gagnants d'un jour pouvant être contraints à battre en retraite le lendemain. Partis politiques, médias, universitaires, institutions politiques publiques, syndicats, entreprises, responsables associatifs ou culturels, organismes de défense d'intérêts particuliers constituent ainsi l'un des plus riches tissus sociaux du monde. Préserver la bonne santé de la démocratie nécessite, entre autres, d'empêcher des monopoles de pouvoir, qu'ils soient financiers ou politiques, de déséquilibrer ce système de concessions mutuelles entre adversaires. Où se situent les lobbyistes et leurs cabinets dans ce paysage ? En général, ils sont dénués de moralité et prêts à défendre la plupart des dossiers en échange d'une rémunération appropriée. Il existe des lobbyistes de gauche comme de droite ; ils peuvent représenter des communautés, des Etats, des intérêts particuliers, des syndicats, des fédérations professionnelles et commerciales, ou des universités, car les lobbies couvrent tous les intérêts dont les politiques publiques sont susceptibles de faire des gagnants ou des perdants. Les lobbyistes ont envahi le système, mais, en tant que groupe, ils sont pratiquement invisibles puisqu'ils ont revêtu l'apparence de leurs clients. Comme l'a déclaré Jonathan Rauch dans un entretien sur l'impossibilité de distinguer entre l'emprise omniprésente des lobbyistes sur le gouvernement et l'intérêt véritable des citoyens, " les lobbyistes sont des citoyens, les citoyens sont des lobbyistes ".
+Toutefois, comme les outils du lobbying, et notamment leur faculté de solliciter des faveurs contre de l'argent, sont de plus en plus réglementés et transparents, les professionnels de l'influence ont découvert que les think tanks - qui sont eux aussi réglementés en théorie, mais beaucoup moins en pratique - constituent un vecteur efficace pour promouvoir leurs dossiers.
+Aux termes des règles de l'Internal Revenue Service (IRS), les organisations 501(c) bénéficient d'un régime fiscal particulier en tant qu'organisations au service de l'intérêt public. Un établissement de soins palliatifs pour malades du sida, une école privée, les Boy Scouts d'Amérique (BSA) sont autant d'institutions constituées en organisations sans but lucratif dont l'objet n'est pas officiellement de réaliser des bénéfices financiers mais bien de servir l'intérêt public. Or les think tanks sont généralement régis par les mêmes dispositions du Code des impôts.
+En tant qu'organisations 501(c) traitant de questions d'intérêt public, les think tanks ne sont pas autorisés à consacrer plus de 5 % de leurs ressources totales au lobbying et à la promotion de points du vue politiques. Ils doivent se doter d'un conseil d'administration et rendre librement accessibles le compte rendu des séances de ce conseil ainsi que les formulaires 990 de déclaration fiscale. Lors de la demande de statut d'organisation sans but lucratif, l'IRS vérifie les règles d'adhésion, notamment le caractère non discriminatoire, les programmes envisagés et le caractère public, ainsi que les publications prévues et les modalités administratives qui en régissent le choix. Cependant, une fois le statut accordé, et tant qu'elle dépose les déclarations fiscales requises, l'organisation n'est que très rarement soumise à des investigations concernant le respect du caractère non lucratif de ses activités. L'une des rares exceptions à cette règle est le litige qui oppose de longue date l'IRS et l'Eglise de scientologie, constituée en association sans but lucratif d'intérêt public. Si les règles régissant les organisations sans but lucratif, à la différence de celles applicables aux entreprises classiques, intéressent tellement les institutions actives dans le domaine des politiques publiques et les organismes à vocation sociale, c'est que les contributions qui leur sont versées par des particuliers, des entreprises et des fondations sont déductibles du revenu imposable. En d'autres termes, des particuliers fortunés, inquiets par exemple de l'incidence négative que pourrait avoir pour leurs affaires une détérioration des échanges commerciaux avec la Chine, peuvent soit donner de l'argent à des parlementaires, soit faire un don à des partis politiques, ni l'un ni l'autre n'étant déductibles du revenu imposable ; mais ils peuvent aussi verser une contribution illimitée à des think tanks pour que ceux-ci organisent à l'intention d'assistants parlementaires des dîners, des colloques et des missions, ou encore subventionner des travaux de recherche d'un think tank sur les politiques publiques en vue de " sensibiliser " les responsables concernés.
+Cette pratique, souvent qualifiée de " lobbying de fond ", est mise en oeuvre depuis de nombreuses années. Elle l'a été au premier chef par Roger Milliken, magnat du textile de Caroline-du-Sud, qui a discrètement combattu l'Accord de libre-échange nord-américain (ALENA), l'Initiative concernant le bassin des Caraïbes (CBI), la législation " accélérée " et autres réglementations visant à s'attaquer aux protections dont bénéficiait le secteur du textile aux Etats-Unis. Si les efforts de Milliken ont souvent échoué, sa fortune lui a permis de gagner du temps et de devenir en coulisses un acteur décisif de la scène publique. Le soutien qu'il a apporté en sous-main à Ross Perot, en 1992 et 1996, a vraisemblablement coûté leur élection à l'ancien président George Bush et au sénateur Robert Dole. Malgré la fortune de Perot, ce furent en fait le financement par Milliken du Manufacturing Policy Project lancé par Pat Choate et ses liens avec Pat Buchanan qui ont véritablement entravé la capacité du Parti républicain à lancer une offensive efficace contre Bill Clinton. Les tentatives cyniques mais couronnées de succès de George W. Bush pour acheter le soutien de ceux qui étaient désireux de protéger l'industrie sidérurgique ou de voir augmenter les subventions à l'agriculture - mesures allant toutes à l'encontre du message global des Etats-Unis en faveur du libre-échange et du libéralisme économique - visent aussi à empêcher d'autres magnats de l'industrie du type de Roger Milliken de placer sur le chemin du président sortant, en les finançant, des adversaires susceptibles de le mettre en danger lors des élections de 2004.
+Les think tanks ont toujours reçu des contributions de particuliers, de fondations et d'entreprises défendant des causes politiques spécifiques. C'est ainsi que la Ford Foundation, soucieuse de réhabiliter à bien des égards la mémoire de son fondateur, qui était antisémite et pétri de préjugés divers, est devenue le champion des mesures anti-discriminatoires aux Etats-Unis. Les organisations qui ne respectent pas une diversité ethnique et une représentation des deux sexes effectives sur le plan quantitatif ne sont pas financées par cette fondation ; et celles qui s'interrogent sur la question, particulièrement sensible, de savoir si de telles mesures ne sont pas devenues anachroniques ne bénéficient pas non plus d'une aide de la fondation, même si celle-ci est tout à fait favorable, par ailleurs, à tel ou tel projet desdites organisations. Il en va de même pour les entreprises et les syndicats. Aucune fondation liée à un syndicat ne s'adressera à un think tank qui a produit force travaux de recherche en faveur du libre-échange mondial. Et des entreprises qui ont mené une guerre de tranchée contre une politique de sanctions unilatérales ne soutiendront pas des intellectuels ou des institutions qui considèrent qu'actuellement une grande partie du monde profite de la situation créée par la décision des Etats-Unis de sacrifier des avantages économiques aux intérêts supérieurs de la sécurité nationale.
+S'il n'est pas nouveau que les think tanks reçoivent de l'argent d'instances défendant tel ou tel intérêt politique, la culture de la société civile telle qu'elle existe aux Etats-Unis a fait que, globalement, les think tanks et les institutions de recherche ont longtemps constitué les meilleures sources d'analyses objectives des politiques publiques. Ces études défendaient bien sûr des points de vue divergents, mais leurs éclairages respectifs étaient étayés par une mise en perspective historique, des analyses, des données empiriques, des modélisations, et des réflexions stratégiques approfondies. Parallèlement, d'autres acteurs occupaient d'autres fonctions. Les médias servaient non pas à approfondir les dossiers mais à porter les faits sur la place publique et à informer les citoyens. Divers intérêts opposés poursuivaient des objectifs spécifiques plus limités mais n'étaient pas censés être la conscience intellectuelle du processus d'élaboration des politiques publiques. Les think tanks et, dans une certaine mesure, les universités sont essentiellement des centres de recherche et d'analyse politiques : or, ce sont précisément cette fonction et la légitimité dont les think tanks jouissent auprès de l'Administration et des médias que les lobbyistes se sont évertués à s'approprier et à mettre au service de leurs propres stratégies.
+Cet article ne prétend pas présenter le type de données " évolutives " propres à nourrir une réflexion approfondie sur la corruption des think tanks par le secteur du lobbying. Il vise plutôt à dégager de grandes tendances et à mettre en lumière la donne radicalement nouvelle introduite par l'inventivité tous azimuts dont font preuve les lobbyistes pour trouver auprès des think tanks de nouveaux moyens d'atteindre leurs objectifs. Cette mutation s'explique par toutes sortes de raisons, la principale étant tout simplement qu'aux Etats-Unis, le lobbying fait désormais l'objet d'un contrôle de plus en plus strict. Les efforts démesurés déployés par le sénateur McCain aux côtés de Trevor Potter, l'ancien président de la Commission des élections fédérales (FEC), pour réformer le financement des campagnes électorales rendent encore plus difficile, quoique toujours possible, pour des intérêts spéciaux de verser pour des campagnes politiques des sommes pratiquement illimitées sous forme de soft money, ces contributions aux partis qui échappent au plafonnement, à la différence de celles allouées aux candidats. Bien entendu, les assistants des sénateurs sont aujourd'hui contraints soit de s'accommoder des plafonds annuels auxquels sont soumis les repas auxquels ils sont conviés, qui sont certes agréables mais en comité restreint, soit d'obtenir des lobbyistes qu'ils leur offrent une multitude de repas " à moins de 10 dollars " à la cafétéria du Congrès.
+Le secteur des think tanks, pléthorique à Washington, prospère essentiellement grâce aux milliards de dollars qui y sont injectés. Malgré le caractère apparemment passionné de nombre de batailles politiques auxquelles ils participent, les think tanks s'investissent de moins en moins dans des études politiques approfondies destinées à mieux éclairer le choix des décideurs, et s'attachent plutôt à creuser plus avant les ornières d'un débat déjà bien enlisé et menacé de paralysie par le pouvoir antagoniste des gagnants et des perdants potentiels, poursuivis sans relâche par une armée de lobbyistes. La vulnérabilité croissante des think tanks, petits ou grands, face aux quatre volontés de lobbies qui n'ont de cesse d'atteindre leurs visées politiques, s'explique en partie par leur prolifération accélérée et par le nombre croissant d'acteurs qui se partagent la masse de dollars consacrée au champ politique.
+Pour prospérer en tant qu'institution, un think tank est tenu de signer une sorte de pacte faustien qui consiste à accepter l'argent des donateurs tout en maintenant une apparence d'objectivité et de sérieux politiques, alors même qu'il exécute les ordres de tel ou tel lobbyiste. De surcroît, le manque de moyens de l'IRS pour mener de véritables investigations sur le secteur sans but lucratif, conjugué à la difficulté de faire précisément la différence entre le lobbying et ce que l'on qualifie d'" actions de sensibilisation " à l'intention des responsables publics et de leurs collaborateurs, vient nourrir le terreau sur lequel prospère la corruption des think tanks.
+Lorsque je travaillais encore au Sénat, une fondation dont l'objet était de promouvoir le tennis en tant qu'activité périscolaire m'avait invité à assister au Legg Mason Tennis Championship dans l'une des luxueuses tribunes réservées par IBM. L'invitation ne faisait aucune référence à cette entreprise, et il ne m'avait pas été signalé que j'avais été spécialement sélectionné par elle pour participer à cette manifestation caritative. Dans la tribune, pendant que l'on me régalait de caviar, de champagne et de toutes sortes de mets délicieux, j'ai rencontré une quinzaine des plus prestigieux collaborateurs politiques du Sénat - chefs des assistants des commissions et des bureaux personnels des parlementaires - des deux partis, qui avaient presque tous aidé IBM et une coalition d'autres entreprises à faire adopter au Sénat une nouvelle disposition appelée le Team Act visant à réformer une partie de la loi sur les relations du travail qui interdisait les négociations non réglementées entre un nombre restreint d'employés et la direction de l'entreprise sur des questions intéressant l'ensemble des employés. En fait, on nous récompensait pour nos bons et loyaux services.
+Le Code de déontologie du Sénat comporte les exemples suivants :
+Autrement dit, si, en tant que lobbyiste d'entreprise, vous voulez inviter le collaborateur d'un membre du Congrès à un dîner de gala organisé par un think tank comme la New America Foundation, vous n'avez pas le droit d'acheter des billets pour cette manifestation et de les donner à ce collaborateur ou à un parlementaire ; mais vous pouvez donner une liste de noms à l'organisation sans but lucratif et faire ainsi en sorte que celle-ci invite ledit collaborateur. Lors du dîner de gala, le collaborateur se retrouvera tout naturellement assis à côté de vous. Cette pratique, qui est devenue extrêmement courante à Washington, n'est rien d'autre qu'une opération de blanchiment d'argent destinée à contourner l'esprit du Code de déontologie. Les dîners annuels organisés par le Cato Institute, la Heritage Foundation et l'American Enterprise Institute - qui, de tous les événements organisés sur les dossiers de politiques publiques, figurent parmi les manifestations annuelles les plus courues de Washington -réunissent une foule de responsables de l'Administration et du Congrès dont la participation est payée par des entreprises qui ont blanchi les fonds consacrés à leur soutien et à l'invitation de ces responsables par le biais du think tank.
+Les invitations à dîner que les lobbyistes avaient l'habitude d'adresser tout à fait ouvertement aux membres du Congrès et à leurs principaux assistants passent désormais de plus en plus par des organisations sans but lucratif qui servent d'intermédiaires. Lorsque je travaillais au Sénat, ceux qui étaient parmi les plus friands de ces manifestations offertes par les lobbyistes proclamaient : " Nous respectons la lettre du Code, rien que la lettre. "
+Mais la forme d'intervention en faveur de dossiers de politique publique que les lobbyistes ont désormais obtenue des think tanks revêt un caractère beaucoup plus ambitieux et subtil que des invitations à des dîners en smoking ou des voyages à Bali ou Singapour. En effet, non seulement les think tanks réalisent des travaux d'analyse politique ; mais, surtout, ils les diffusent tous azimuts dans le but de convaincre l'opinion publique et les responsables publics. C'est ainsi que les chercheurs principaux de la Brookings Institution ont la réputation de produire des travaux beaucoup plus théoriques que la plupart des conseillers politiques de Washington et qu'ils publient leurs analyses dans des livres plus fréquemment que ceux de la Heritage Foundation, par exemple, qui recourent plutôt à l'envoi par télécopie de synthèses politiques ou à la publication de points de vue dans les pages de libre expression du Washington Times et d'autres journaux ou magazines. Toutefois, au cours de la décennie 1990, le phénomène observé dans le domaine du financement de la recherche-développement scientifique s'est produit dans celui de l'analyse des politiques publiques. Dans le champ scientifique, au lieu de financer la recherche fondamentale, les bailleurs de fond réclament de plus en plus de recherches appliquées dont les objectifs sont plus précis et moins incertains. De même, s'agissant des think tanks, alors que nombre d'organismes de financement, en particulier les entreprises, syndicats et fondations, semblaient se satisfaire d'un éventail diversifié de recherches sur les politiques, ils sont aujourd'hui de plus en plus demandeurs de résultats susceptibles de contribuer positivement à leur bilan financier. Les exemples abondent.
+L'Economic Strategy Institute (ESI), qui était l'une des plus importantes institutions de Washington à travailler sur l'incidence des politiques microéconomiques, s'est transformé pour devenir un cabinet-conseil constitué en organisation sans but lucratif. Autrement dit, les entreprises ou les associations patronales venaient voir les principaux chercheurs de l'ESI pour des opérations qui ressemblaient davantage à des avances sur honoraires pour service rendu qu'à des contributions en faveur d'une organisation au service de l'intérêt public. Et ce n'est pas médire de cette institution puisque son directeur et son économiste en chef faisaient régulièrement référence, en public, aux compétences de l'ESI en matière de conseil et de lobbying.
+Parmi les lobbyistes clients de cet institut figurait ainsi un groupe d'entreprises désireuses de produire des rapports intellectuellement solides pour contrer les initiatives en faveur de la lutte contre le réchauffement climatique. Une fois, alors qu'il était question du débat très vif qui voyait s'affronter dans le secteur des télécommunications les opérateurs longue distance et les opérateurs locaux, tous deux toujours aux prises avec la lettre et l'esprit de la loi de 1996 sur les télécommunications, plusieurs membres de l'ESI ont proposé de faire pencher la balance du côté de ceux qui apporteraient le soutien financier le plus important à l'institut. Cette histoire n'est pas unique en son genre et elle n'est même pas inhabituelle.
+La Progress and Freedom Foundation reçoit une large part de son financement d'opérateurs de télécommunications locaux et d'entreprises opposées à l'hégémonie de Microsoft dans le secteur de l'informatique ; pourtant, lors de sa création, cette fondation s'était fixé un objet beaucoup plus large que les questions de réglementation dans les domaines des télécommunications et de l'informatique. Les synthèses politiques et les pages de libre expression publiées par cette institution ressemblent pourtant fort à des plaidoyers qui pourraient avoir été rédigés par les entreprises ou les organisations professionnelles concernées. Or, en l'occurrence, le rapport a été élaboré par une institution sans but lucratif qui bénéficie d'un régime fiscal spécial et est exemptée de l'impôt sur les sociétés. Autre exemple : dans un dossier où s'affrontaient des sociétés américaines de transport en messagerie express et une société étrangère nouvelle venue sur le marché américain, l'Economic Strategy Institute a organisé une réunion d'information à l'intention des décideurs publics et des médias et publié un rapport sur les pratiques du nouveau venu sans en indiquer l'auteur. L'absence de nom tenait au fait que les lobbyistes de l'entreprise avaient rédigé ce rapport et l'avaient publié par l'intermédiaire de cet institut de recherche sans but lucratif.
+Il s'agit là, certes, d'exemples patents d'utilisation de l'appareil des organisations sans but lucratif par des intérêts particuliers pour promouvoir leur cause, mais de tels agissements sont relativement monnaie courante à Washington. La majorité des observateurs estiment que l'ensemble des grandes institutions se livrent à ce genre de pratiques, même si ce n'est pas de façon aussi évidente. Dans le domaine de la politique étrangère, deux exemples démontrent bien la vulnérabilité du secteur des think tanks face à la détermination sans faille des lobbyistes.
+Le premier est fourni par USA*Engage, un imposant organisme de lobbying qui a été créé pour combattre la prolifération des sanctions unilatérales instaurées par les Etats-Unis contre les pays qu'ils estimaient avoir menacé leurs intérêts vitaux de sécurité nationale. Comme les sanctions des Etats-Unis contre le Soudan, Cuba, la Birmanie et d'autres pays ne s'accompagnaient pas de sanctions analogues de la part de nos principaux alliés européens et asiatiques, les entreprises américaines se sont vues privées d'un grand nombre d'opportunités commerciales dans ces pays, opportunités sur lesquelles l'Allemagne, la France, le Japon et même Israël étaient prêts à bondir, d'autant que les multinationales américaines étaient ligotées par les décisions fédérales. La mobilisation des lobbyistes a permis de rassembler plus de 600 membres, dont des multinationales de renom comme Eastman Kodak, IBM, Unocal, Boeing, General Electric et Caterpillar. Ainsi que l'écrivait Jacob Heilbrunn, en 1998, dans une brillante analyse sur cet organisme : " USA*Engage, comme son nom l'indique, vise à établir une équation entre commerce et internationalisme, sanctions unilatérales et isolationnisme. Cette organisation n'est pas opposée à des sanctions multilatérales : elle refuse simplement que les Etats-Unis fassent cavalier seul et qu'ils se retrouvent isolés, qu'ils perdent des marchés et qu'ils s'aliènent leurs alliés. Ses responsables ajoutent que, loin d'être de cupides soutiens des dictatures, les entreprises sont les derniers internationalistes, rien moins que la nouvelle avant-garde de la démocratie. "
+Même en étant totalement favorable aux objectifs de USA*Engage, on ne peut que considérer que ce projet-là dépendait en partie de sa capacité à recruter des think tanks qui, à la fois, disposaient de praticiens renommés des politiques publiques, comme indiqué précédemment, et s'alliaient les meilleurs théoriciens des Etats-Unis sur ces questions pour plaider en faveur des objectifs politiques de l'organisme, et non pour être des commentateurs impartiaux et non corrompus sur la totale absurdité et les limites évidentes d'une application à grande échelle de sanctions unilatérales. Comme l'indique Heilbrunn, USA*Engage a financé un rapport élaboré par l'Institute for International Economics (IIE), qui est sans doute la première institution de Washington spécialisée en politique macroéconomique, et l'a communiqué aux médias lors d'une conférence de presse convoquée en avril 1997. De fait, rien dans le rapport établi par l'IIE ne va à l'encontre de la perspective générale adoptée dans la plupart de ses rapports. Toutefois, si cet institut n'a certes pas rédigé ce rapport avant la création de USA*Engage, il l'a toutefois élaboré à l'aide d'un financement extérieur - même si ce document est thématiquement cohérent avec ses autres travaux -, et il a franchi la ligne jaune en rendant publique une analyse politique lors d'une manifestation qui s'inscrivait dans une action de lobbying/sensibilisation destinée à influencer les médias et le gouvernement.
+Dans les milieux de Washington, la grande majorité des protagonistes ne se soucient absolument pas de la distinction qui est faite ici entre, d'une part, la question du financement d'importants travaux de politique générale et du moment où ils sont introduits dans le débat public, et, d'autre part, les lobbyistes qui en sont les commanditaires. On pourrait dire que l'IIE a profité de l'opération lancée par USA*Engage, et non l'inverse. Le fond du problème, c'est que, même si, à bien des égards, les objectifs de USA*Engage sont louables pour des gens convaincus des avantages du commerce néo-libéral - et donc des limites inhérentes aux arbitrages économiques et sécuritaires pour atteindre des objectifs de politique étrangère axés sur des sanctions -, la mission de cet organisme de lobbying n'est pas de défendre des intérêts publics incontestables, alors que telle est celle de l'IIE, qui bénéficie d'avantages fiscaux pour ce faire. Heilbrunn indique aussi que USA*Engage et l'un de ses membres phares, la National Association of Manufacturers, ont financé une étude de la Georgetown University sur la " très lourde facture à payer pour les intérêts commerciaux américains ". L'influence de cet organisme de lobbying s'est fait aussi sentir dans un large éventail de programmes et de synthèses politiques élaborés par le Cato Institute et la Heritage Foundation.
+Un autre exemple de cette pratique - quoique sous une forme plus insidieuse et avec des objectifs totalement cyniques, ce qui n'est pas le cas des travaux de USA*Engage - est fourni par le cabinet de lobbying Jefferson Waterman International (JWI) qui, selon le journaliste Ken Silverstein, " a promu des despotes sur trois continents ". JWI se compose de responsables qui occupaient auparavant des postes importants dans le secteur de la sécurité nationale au sein du gouvernement, notamment à la Central Intelligence Agency (CIA) ; il a souvent travaillé pour de grandes entreprises américaines de l'industrie de l'énergie et de la défense, tout en oeuvrant activement pour des gouvernements étrangers. Malheureusement, c'était aussi un protagoniste majeur de la coalition d'entreprises réunies au sein de USA*Engage. Comme l'écrit Silverstein : " Un des premiers gros clients de JWI a été Franjo Tudjman, le président de la Croatie, qui a fait appel aux services de ce cabinet vers 1995 pendant la guerre en ex-Yougoslavie (...). Dans une note adressée au dirigeant croate, Waterman écrivait que la politique étrangère et de défense des Etats-Unis était " élaborée au premier chef " par le président, sur la base de consultations avec le département d'Etat, le Pentagone, le Conseil national de sécurité (NSC) et la CIA. " Il importe (...) d'avoir dans toutes ces instances des contacts officiels et personnels aux niveaux appropriés, ajoutait-il. Comme vous le savez, nous sommes bien placés pour vous aider dans ce domaine ". "
+Jefferson Waterman a également informé Tudjman qu'il assurerait le contrôle de son image dans les médias " quelle qu'en soit la difficulté ", et qu'il contribuerait à mobiliser les grands ténors des think tanks spécialistes des politiques publiques en faveur du président croate si celui-ci jugeait nécessaire de prendre le contrôle de territoires surveillés par les Casques bleus des Nations unies. L'ensemble des objectifs et des visées de JWI apparaissent clairement dans les dossiers déposés à la section chargée de l'application de la loi sur l'enregistrement des agents étrangers, au Service de la justice pénale du ministère américain de la Justice. N'importe qui peut étudier de près les dossiers sur les cabinets de lobbying et leurs stratégies pour infléchir les politiques au nom de leurs clients étrangers. Une consultation rapide de ces milliers de dossiers montre qu'il y est souvent fait référence au milieu des think tanks, à divers intellectuels spécialistes des politiques publiques disposés à offrir leurs services, et aux médias, comme autant d'acteurs susceptibles de monter au créneau sur ordre du lobbyiste. La fonction des think tanks sans but lucratif, qui est de servir l'intérêt public, n'est absolument pas respectée : au contraire, il ressort de ces documents que leur légitimité et le rôle particulier qu'ils jouent dans l'élaboration des politiques sont assurément là pour être exploités et récupérés sans coup férir à leur profit par le lobbyiste et son gouvernement client.
+Il existe bien d'autres exemples de ce franchissement quotidien de la ligne jaune entre intérêt général et intérêt particulier dans le cadre des collaborations et des rapports entre institutions sans but lucratif et lobbyistes. Parmi les cas récents, l'un des plus intéressants concerne l'actuel " ambassadeur " des Etats-Unis à Taiwan, qui porte officiellement le titre de directeur de l'American Institute in Taiwan (AIT), organisation en principe sans but lucratif (aussi paradoxal que cela puisse paraître) et remplissant toutes les fonctions d'une ambassade sans en être une, puisque les Etats-Unis ne reconnaissent plus la souveraineté de l'île. Douglas Paal, le directeur de l'AIT, a été conseiller spécial pour l'Asie de l'Est du président George H.W. Bush. Quand il a quitté ses fonctions, Douglas Paal a fondé son propre think tank, l'Asia Pacific Policy Center (APPC). D'après une importante enquête sur Paal et ses activités, publiée par Joshua Micah Marshall dans l'hebdomadaire The New Republic, la majeure partie de l'équipe de Douglas Paal - c'est-à-dire les collaborateurs permanents du Centre eux-mêmes ! - pensait que l'APPC était un cabinet de conseil-lobbying. L'APPC a lancé une lettre d'information dont l'abonnement annuel s'élevait à plusieurs milliers de dollars et qui était diffusée essentiellement auprès d'importants organismes gouvernementaux asiatiques : ceux-ci pouvaient certes être intéressés par cette lettre, mais leur intérêt était surtout de promouvoir la carrière d'un proche du président.
+L'APPC n'organisait pas de programmes sur les grands dossiers politiques à l'intention du public, pas plus qu'il ne publiait, via Internet ou d'autres supports, des documents d'information. Plusieurs personnalités mentionnées comme faisant partie de son conseil d'administration, dont Brent Scowcroft, l'ancien parlementaire Dave McCurdy et l'ancien chef du Pentagone Frank Carlucci, firent part de leur étonnement quand ils apprirent qu'ils apparaissaient comme administrateurs de l'APPC dans les formulaires 990 fournis à l'IRS par l'organisation de Douglas Paal. La dernière année où des documents ont été fournis au fisc, les trois principaux bailleurs de fonds de cette organisation d'intérêt public sans but lucratif étaient le gouvernement de Singapour, le JETRO (Japan External Trade Organization, organisme japonais du commerce extérieur relevant du ministère japonais de l'Economie, du Commerce et de l'Industrie), Itochu (maison de commerce japonaise) et Mitsui Marine & Fire Insurance (société d'assurance japonaise). L'APPC organisait de nombreux voyages à haut niveau en Malaisie pour des membres du Congrès, en particulier du Sénat, voyages financés par des sources malaisiennes publiques et privées qui versaient directement des fonds sur les comptes bancaires du Centre en tant qu'organisateur agréé des missions de parlementaires à l'étranger, ce que le Comité de déontologie du Sénat acceptait encore à cette époque. D'aucuns affirment que Douglas Paal était généreusement rémunéré par le vice-Premier ministre malaisien Anwar Ibrahim qui était à l'époque le dauphin du Premier ministre Mahathir. Les résultats de l'enquête de Joshua Marshall, qui remplirent un article de 4 500 mots dans un hebdomadaire phare, n'empêchèrent pas Douglas Paal d'être nommé à Taipei, même si cet article a vraisemblablement retardé son départ de plusieurs mois. La question qui se pose ici est que l'APPC, organisation censée être sans but lucratif, ne s'est pas comportée comme les Boy Scouts d'Amérique (BSA) ou la Brookings Institution, ou encore comme un établissement de soins palliatifs pour malades du sida ou d'autres institutions à vocation sociale. En un sens, on pourrait affirmer que son comportement relève d'une forme de criminalité d'entreprise car, à la différence des organisations sans but lucratif, les cabinets de conseil sont soumis à l'impôt sur les sociétés.
+En 1997, j'ai rédigé un projet de loi qui a été adopté au Sénat mais n'a pas franchi le cap de la commission mixte paritaire, et qui aurait rendu obligatoire pour les organismes de relations publiques sans but lucratif de déclarer s'ils recevaient de gouvernements étrangers, directement ou indirectement, des sommes supérieures à 10 000 dollars. Lors du débat sur ce projet de loi, l'American Civil Liberties Union l'a combattu au motif que les BSA ou d'autres organisations de ce type seraient tenus à cette déclaration s'ils recevaient des fonds de gouvernements étrangers, risquant ainsi de passer pour des agents étrangers, ce qui serait extrêmement dommageable pour leur activité. C'est ainsi que rien n'a été fait pour régler un problème bien réel, pourtant constaté par le Congrès, à savoir qu'un nombre croissant d'organisations 501(c) sans but lucratif, au financement opaque, mènent des actions de lobbying auprès du Congrès sur des questions comme l'établissement de relations commerciales normales permanentes avec la Chine tout en prétendant qu'il s'agit d'" actions de sensibilisation des responsables publics ". La solution réside dans la transparence, mais rares sont ceux qui ont trouvé une méthode satisfaisante pour parvenir à une transparence plausible concernant le financement et les visées des institutions sans but lucratif, dont beaucoup ont été créées ou sont contrôlées par des lobbies.
+L'un des membres de la direction de l'American Enterprise Institute (AEI) m'a entretenu de ce projet de loi. Notre conversation s'est déroulée à peu près en ces termes :
+" AEI : Steve, le projet de loi du Sénat part à l'évidence d'une bonne intention. La transparence concernant les financements étrangers est une question très importante, mais vous omettez un élément quand vous vous focalisez sur le montant en dollars au lieu de prendre en compte le pourcentage de budget que représente l'aide allouée.+
" S. Clemons : J'entends bien, mais cela ne reviendrait-il pas à permettre aux grandes organisations, qui reçoivent des subventions relativement considérables, d'échapper à cette obligation, et à contraindre les petites à déclarer ces contributions ?+
" AEI : Peut-être, mais s'agissant de l'AEI, par exemple, il se trouve que divers instituts de recherche de Taiwan ont été d'importants bailleurs de fonds de notre Asia Studies Center ; or, comme vous le savez sans doute, ces instituts sont eux-mêmes financés par le gouvernement taiwanais. Et, comme ce dispositif a été reconduit chaque année, l'AEI figure désormais au budget du gouvernement taiwanais. Or, le montant global du financement que nous recevons de Taiwan, s'il est important pour une organisation de petite taille, est restreint par rapport à celle de notre Institut. Peut-être devriez-vous prendre en compte non pas le montant en dollars, mais un pourcentage du budget global, de l'ordre de 20 ou 30 % par exemple. "+
Cette conversation a de quoi surprendre. Tout comme on peut s'étonner que, malgré le débat soulevé par le fait que Douglas Paal gérait une organisation sans but lucratif comme un cabinet de conseil, une institution de premier plan comme l'AEI considère qu'en raison de sa taille, elle est à l'abri des influences et des visées lobbyistes de gouvernements étrangers. Bien entendu, Douglas Paal est un important intellectuel dans le débat sur les politiques publiques, qui voulait probablement faire de son centre une organisation de premier plan dans le domaine de l'analyse politique et qui se heurtait à des difficultés pour réunir le type de financement capable de lui donner toute latitude pour mener des travaux de recherche sérieux. Et il a fait siens les objectifs à courte vue axés sur les seuls résultats financiers des bailleurs de fonds de l'APPC. Mais son organisation était globalement plus petite que l'Asia Studies Center de l'AEI, centre réputé à Washington pour son soutien indéfectible aux intérêts de Taiwan.
+L'étude du secteur du lobbying de Washington, notamment des organisations qui mènent des travaux de politique étrangère, ne doit plus se cantonner aux seules institutions elles-mêmes et aux relations qu'elles entretiennent et dont elles rendent compte consciencieusement comme leur en fait obligation le Lobbying Disclosure Act (loi de 1995 sur les groupes de pression ). Car une seconde économie s'est mise en place au sein de laquelle les lobbies profitent d'organisations sans but lucratif moins réglementées et qui mènent des travaux sur les politiques publiques, les récupèrent, les détournent et les manipulent, voire en créent de nouvelles. Souvent, ces think tanks servent de refuge à des responsables publics qui ont été remerciés lors d'un changement de gouvernement et qui y attendent l'heure où ils seront rappelés à de hautes fonctions.
+Dans cette analyse, ont été mis en lumière certains aspects structurels de la nouvelle donne introduite récemment par le secteur du lobbying dans le milieu des think tanks. Les questions soulevées par cette mutation ont été explicitées, car la communauté des spécialistes des politiques publiques de Washington joue un rôle important dans ce jeu vigoureux mais subtil entre forces et intérêts antagonistes qui caractérise ce que nous appelons la " société civile ". Laisser les lobbyistes infiltrer en toute liberté le secteur des organisations sans but lucratif oeuvrant dans le domaine des politiques publiques menace de saper définitivement la légitimité des think tanks et le rôle important qu'ils jouent dans l'élaboration des politiques publiques. A l'instar de tant d'autres secteurs de la société qui sont tombés sous le coup d'accusations de corruption ou qui y ont succombé, le secteur des think tanks n'est nullement à l'abri d'un tel risque.
+Enfin, les problèmes de corruption des think tanks sont systémiques, donc difficiles à résoudre. L'inquiétante pratique du " lobbying de fond " et du trafic d'influence via des institutions de recherche mérite d'être analysée de façon approfondie et sérieuse. L'IRS doit prendre des mesures à l'encontre des organisations sans but lucratif qui ne servent pas l'intérêt public de façon crédible et qui, en règle générale, ont davantage pour fonction de procurer des revenus non imposables à leurs principaux dirigeants. De surcroît, il convient d'accroître la transparence concernant les dons importants aux organisations sans but lucratif de façon à pouvoir évaluer les prestations de ces institutions à l'aune des fonds alloués par leurs donateurs ou leurs " clients ", selon le cas. La New America Foundation fait un effort remarquable pour maintenir un équilibre entre les bailleurs de fonds et éviter ainsi que tel ou tel ne cherche à infléchir ses activités dans un sens ou dans l'autre. Toutefois, même cette organisation n'est pas totalement à l'abri de cabinets ou de fondations qui chercheraient à l'utiliser au service de leur cause politique. Même si nous répétons à l'envi, comme d'autres institutions, que nous n'entendons rien faire qui ne s'inscrive dans notre vision globale du monde et dans notre perspective de " centre radical ", la teneur de nos travaux et leur financement ou le moment choisi pour les publier sont parfois un peu trop étroitement imbriqués. Cette étude n'entend pas se prévaloir d'une quelconque supériorité. Elle se veut à la fois une confession et une simple observation de comportements nouveaux dans le secteur des think tanks, induits par l'avidité et l'inventivité des lobbyistes de Washington. Cette évolution relativement récente mérite un examen attentif pour éviter qu'elle ne sape la formidable dynamique de la société civile aux Etats-Unis.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Le système de gouvernement de l'Union européenne est unique. Ce simple fait exige des groupes de pression qu'ils recourent à des stratégies variées tout en conservant à l'esprit les multiples contraintes qui résultent de la structure même de l'Union, de sa grande diversité culturelle et politique, ainsi que des nombreux intérêts qui la traversent. Pendant longtemps, on accusa le système européen de prise de décision d'être une sorte de " jardin secret " dont seuls les initiés avaient la clef - malgré les efforts affichés de transparence des décisionnaires européens. L'aspect hermétique du système européen résulte certes de cette absence de transparence à certains moments-clefs de la prise de décision, mais il découle aussi de la complexité et de la spécificité de ce système ainsi que de son éloignement de la plupart des capitales nationales.
+La première caractéristique importante du système de gouvernance européen concerne son cadre légal, déterminé par une série de six (bientôt sept ?) traités dont l'application relève des tribunaux, en particulier de la Cour de justice des Communautés européennes (CJCE). Les traités définissent, et théoriquement limitent, les compétences des institutions européennes, bien qu'il faille admettre que toute initiative relevant d'une logique fondée sur un approfondissement des principes du marché unique est susceptible d'être justifiée par les articles 95 et 308 (anciennement 100a et 235 du traité initial instituant la CEE). En pratique, il existe peu de contraintes empêchant l'Union d'investir de nouveaux domaines politiques, à la condition expresse que tous les Etats membres y soient disposés et que la Commission et le Parlement européens y apportent leur soutien. Il en va de même pour la politique étrangère, les questions de sécurité, les aspects judiciaires et les affaires intérieures, si ce n'est que la Commission et le Parlement n'ont pas d'influence directe.
+En second lieu, les instruments législatifs utilisés par l'Union ont des caractéristiques dont les spécificités doivent être assimilées par les organes de lobbying. La directive, adressée par l'Union à tous les Etats membres, définit les objectifs d'une politique, mais en laisse les moyens à l'appréciation des gouvernements nationaux. Pour un groupe de pression, cela signifie qu'il peut promouvoir ses intérêts au moins à deux niveaux. Le règlement s'applique à l'ensemble de l'Union et ne peut être modifié par les gouvernements des Etats membres. Il est généralement assez détaillé et précis, et peut très bien intervenir dans le cadre plus large d'une directive. Une décision de l'Union, pouvant provenir de la Commission, de la CJCE ou du Conseil des ministres avec ou sans le concours du Parlement européen, est obligatoire seulement pour ceux auxquels elle s'adresse - par exemple une entreprise ou un Etat membre, pris individuellement. Enfin, une recommandation de l'Union est un avis non contraignant souvent destiné à exprimer une préférence politique commune à la plupart des Etats membres, et peut être prise en considération par la CJCE lorsque celle-ci se prononce sur une affaire.
+Un troisième aspect qu'il faut garder à l'esprit concerne les emplacements géographiques. La plupart des principales institutions européennes sont situées à Bruxelles, mais pas toutes. Le Luxembourg abrite la CJCE, la Banque européenne d'investissement (BEI) et le secrétariat du Parlement européen. Strasbourg accueille les séances plénières du Parlement, qui exigent la présence physique de plusieurs commissaires européens, accompagnés de leur équipe, ainsi que de presque tous les députés européens, et donc de nombreux membres actifs de groupes de pression, tous contraints à un pénible pèlerinage mensuel dans la capitale gastronomique de l'Europe ! Les agences para-étatiques de l'Union sont éparpillées dans tous les Etats membres, et les avant-postes de la recherche menée en interne se trouvent en Belgique, en Italie, en Allemagne et au Royaume-Uni.
+Certaines des caractéristiques les moins plaisantes des organisations internationales se retrouvent aussi dans le cas de l'Union. On observe une tendance à rechercher en permanence une répartition équitable des prérogatives, notamment pour l'attribution des postes politico-administratifs importants au sein des institutions européennes. La CJCE a catégoriquement condamné toute nomination ou mutation qui ne serait pas fondée sur le mérite, mais cela ne semble pas avoir infléchi beaucoup une pratique qui est devenue monnaie courante.
+La prise de décision au sein de l'Union dépend toujours des dispositions hybrides introduites par le traité de Maastricht en 1992. Les principales politiques économiques communes ainsi que beaucoup d'autres sont élaborées dans le cadre du premier pilier, la Communauté européenne, et sont soumises aux exigences institutionnelles de l'Union. La Commission a l'initiative des propositions législatives, que peuvent amender le Parlement européen et le Conseil des ministres. La CJCE juge toute infraction à la législation ainsi adoptée et tranche lorsqu'un doute apparaît dans des affaires particulières ou concernant les fondements mêmes du traité. Le second des trois piliers définit la politique étrangère et de sécurité commune (PESC), dont l'objectif est d'assurer une plus grande coordination et une meilleure entente entre les Etats membres sur une série de questions étrangères, militaires et sécuritaires. La Commission et le Parlement ont une marge d'action très limitée au regard du second pilier, et la prise de décision relève essentiellement des Etats, qui agissent à l'abri des regards. Bien que la PESC soit aujourd'hui représentée publiquement par Javier Solana, qui est attaché au Conseil des ministres, les opportunités offertes aux groupes de pression pour agir au niveau européen restent très circonscrites. Dans la mesure où, dans ce domaine, la plupart des décisions ne sont prises que lorsqu'un consensus a été trouvé au Conseil, la meilleure stratégie à adopter pour ceux qui cherchent à avoir une influence sur ces politiques consiste à se rapprocher de certains gouvernements dans un cadre national. Ceci suppose que les représentants des lobbies sachent ce qui est en cours de discussion au Conseil, et de telles informations (jugées généralement confidentielles) sont souvent plus accessibles à Bruxelles qu'ailleurs. Dans leurs grandes lignes, ces considérations sont valables pour le troisième pilier qui recouvre les affaires judiciaires et intérieures (voir l'annexe ci après).
+Le rôle des principales institutions européennes est décrit dans le document joint à cet article, mais quelques remarques complémentaires devraient permettre une meilleure compréhension. Jusqu'en 2005, la Commission continuera à être dirigée par aux moins 20 commissaires nommés par les Etats membres, mais son président (actuellement Romano Prodi) verra son rôle renforcé avec de plus amples pouvoirs pour remanier et réorganiser son équipe, et une responsabilité plus affirmée devant le Parlement. Depuis la démission forcée, le 16 mars 1999, de la Commission Santer, beaucoup considèrent que la Commission a perdu de son influence et de sa confiance en elle. Sans doute s'efforce-t-elle de moins légiférer et de trouver de nouvelles façons d'impliquer davantage d'acteurs dans les décisions collectives (voir infra), mais son rôle de moteur du système européen au regard de l'intégration économique et politique demeure inchangé. La Commission est toujours directement responsable de la conduite des affaires dans des secteurs-clefs tels que les relations extérieures (dont le commerce international), la gestion des marchés agricoles et la politique de concurrence de l'Union, donnant ainsi son aval aux fusions et aux aides étatiques, tout en traitant des affaires antitrust plus classiques.
+En outre, la Commission, qui détient toujours l'" unique droit d'initiative " dans le système politique de la Communauté, représente nécessairement la première étape pour ceux qui ont des intérêts à promouvoir, dans la mesure où elle reste l'initiatrice " par excellence " de la politique européenne. De surcroît, c'est à la Commission que de tels groupes d'intérêt doivent se plaindre s'ils estiment que la législation européenne est trop contraignante ou mal appliquée dans les Etats membres, ou s'ils réclament qu'une enquête soit ouverte sur des cas de dumping, de subventions étatiques illégales ou de comportements anti-concurrentiels. C'est à elle qu'incombe la tâche délicate de convaincre les Etats membres réticents de mettre en oeuvre les engagements communautaires pris à Bruxelles et, si nécessaire, de conduire les gouvernements nationaux récalcitrants devant la CJCE. C'est aussi la Commission qui, sur la base de décisions prises en accord avec le Conseil et le Parlement européens, organise la distribution des subventions provenant des fonds structurels, des programmes de recherches et autres mannes communautaires.
+Il se peut que l'électorat se désintéresse du Parlement européen (la participation lors des élections de 1999 n'était que de 52 %), mais son pouvoir a été accru du fait des modifications introduites par les nouveaux traités. En effet, l'Acte unique européen de 1986 soumettait la plupart des mesures relatives au marché unique à un vote à la majorité pondérée au Conseil et autorisait le Parlement, une fois exprimées les opinions du Conseil, à exercer un droit de regard, et éventuellement de veto. Le Parlement continue à rencontrer des problèmes dans l'accomplissement de ses nombreuses attributions et souffre de son incapacité à traiter convenablement toutes les questions importantes. Mais il a suffisamment de pouvoir, du fait de la nouvelle procédure de codécision où il partage le dernier mot avec le Conseil des ministres, pour exercer, dans la plupart des cas, une influence cruciale lors de la phase finale de la prise de décision. Les dernières étapes, qui nécessitent un processus de conciliation, offrent aussi d'importantes opportunités au lobbyiste astucieux et bien informé. Quoique l'on accorde une grande attention aux séances plénières du Parlement, auxquelles se réfèrent fréquemment les commissaires et les représentants du Conseil, le détail de ses travaux est effectué par ses vingt comités permanents, dont le président et le rapporteur sont, dans chaque cas particulier, des acteurs importants.
+Au Parlement européen, les partis politiques ressemblent plus à de vagues coalitions de gens de même sensibilité ou de mouvements qui se trouvent porter le même nom. Sur les questions d'importance nationale, leur discipline interne est souvent mise à mal, bien qu'il existe des signes d'une cohésion partisane croissante. Ce sont cependant les neuf groupes politiques du Parlement, notamment les deux formations les plus importantes, les chrétiens-démocrates et les socialistes, qui y contrôlent la plupart des activités ainsi que le partage des prérogatives et des avantages (présidences de comités, temps de parole lors des séances plénières) entre les différentes sensibilités politiques. Dans la mesure où il est peu probable qu'un groupe soit un jour susceptible d'être majoritaire au Parlement, et étant donné la nécessité imposée par les traités de se prononcer à la majorité absolue sur les principaux défis qui se présentent aux autres institutions européennes, le Parlement est le plus efficace lorsqu'il est capable d'établir un large consensus à travers les différents groupes.
+Le Conseil des ministres et le sommet des chefs d'Etat et de gouvernement de l'Union connu sous le nom de Conseil européen prennent aussi plus d'importance à mesure que le programme de l'Union s'étoffe. C'est notamment le Conseil, et non la Commission, qui pilote la PESC et les questions touchant aux affaires judiciaires et intérieures (essentiellement la coopération policière, et la lutte contre le terrorisme et le crime organisé). Cependant le secrétariat du Conseil ne s'accommode guère du lobbying dans la mesure où il n'a pas le même pouvoir discrétionnaire que la Commission. Ainsi, ceux qui ont des intérêts à promouvoir doivent s'efforcer de se faire entendre dans les capitales nationales ou auprès des délégations permanentes des Etats membres à Bruxelles. Dans son travail, le Conseil est aujourd'hui subdivisé en trois sections : l'agriculture, la PESC... et le reste. Mais presque toutes les délégations nationales viennent à ces réunions avec des instructions de leur gouvernement. D'où l'accent placé sur les efforts de lobbying au niveau national pour faire pression sur le Conseil. Cela peut se révéler particulièrement fructueux si un Etat membre est sur le point d'en assumer la présidence. En effet, chaque présidence est amenée à élaborer une série d'objectifs pour la durée de son mandat, et elle a une influence sur l'ordre de priorité des discussions lors des réunions du Conseil qu'elle anime.
+Le Conseil des ministres multiplie aussi les groupes de travail constitués de responsables nationaux qui examinent la législation et d'autres questions. Il existe en permanence plus de 200 groupes de ce type en activité. Bien qu'il ne soit pas possible d'exercer une pression directe sur ces groupes, des lobbyistes dévoués sont présents " à leurs marges ", donnant leur avis aux élus qui sortent de ces réunions afin qu'ils puissent aider les responsables à mieux comprendre les implications des idées qui ont émergé au cours du débat.
+La CJCE de Luxembourg n'est pas du tout réceptive aux formes habituelles du lobbying, mais son influence va croissant tandis que de plus en plus d'affaires sont portées à sa connaissance (et à celle de sa cour adjointe, le Tribunal de première instance). C'est le résultat logique de l'élargissement des compétences de l'Union et de l'inflation permanente qui caractérise la législation européenne. La CJCE peut cependant constituer une étape importante dans les campagnes menées par les groupes de pression, et elle a pris des décisions importantes au regard de la politique sociale et de celle de la concurrence, pour lesquelles la législation existante reste incomplète, obligeant ainsi à une interprétation des principes contenus dans les traités. Syndicats et entreprises ont fréquemment porté des affaires devant elle afin d'évaluer ce que les droits et principes que renferment les traités et le droit jurisprudentiel signifient réellement dans la pratique. La décision rendue en 1986 dans l'affaire Nouvelles frontières, par exemple, a certainement accéléré la dérégulation des services proposés aux passagers des avions dans la Communauté européenne. L'affaire Barber, en 1990, a eu pour effet de modifier radicalement les dispositions relatives aux régimes de retraite dans la plupart des Etats membres.
+Ces commentaires visent à expliciter comment chacune des quatre grandes institutions européennes prend part au processus de décision au sein de l'Union. Cependant, le lobbyiste doit aussi savoir où réside le pouvoir dans l'ensemble du système politique. L'Union est clairement devenue un acteur politique plus important, à la fois internationalement et au regard de la politique intérieure de chaque Etat membre. Le Conseil continue d'être le principal acteur politique sur la scène européenne, mais sa marge de manoeuvre est limitée par d'autres acteurs. Historiquement, les progrès de la Communauté et de l'Union européenne ont dépendu du " dialogue " entre le Conseil et la Commission.
+Les Commissions Delors (1985 - 1994) étaient réputées énergiques, et il se peut que la rapidité avec laquelle progressait l'intégration ait inquiété, mais leurs actions se fondaient sur une étroite collaboration avec le Conseil. Depuis 1995, la Commission a perdu de sa confiance en elle, a été affaiblie par des scandales et est aujourd'hui absorbée par sa propre réforme. Cela a considérablement renforcé l'influence du Conseil, mais il reste que l'on ne peut envisager de véritables progrès au sein de l'Union sans que la Commission soit de la partie. Dans le même temps, les pouvoirs du Parlement européen ont été progressivement renforcés, notamment avec l'invention et l'extension de la procédure de codécision, mais aussi par rapport à la Commission, surtout depuis que celle-ci est affaiblie. Cela a encore accentué le marchandage, mené dans la confidentialité, entre les différentes institutions. Ainsi, et alors que les principales institutions européennes voudraient accroître leurs pouvoirs, la prééminence du Conseil reste la principale caractéristique du système décisionnel de l'Union, et cela semble devoir durer.
+Le rôle futur de la Commission et les différentes manières d'éviter une centralisation excessive au sein de l'Union font l'objet d'un débat permanent. Une solution a consisté à séparer un certain nombre d'agences européennes indépendantes du noyau institutionnel de l'Union. Ces agences sont aujourd'hui une douzaine. De fait, la première d'entre elles fut la Banque européenne d'investissement (BEI), crée en 1959, à Luxembourg. Elle a été délibérément détachée des autres institutions européennes, bien qu'elle soit régie par des éléments du socle conventionnel, les Etats membres étant directement impliqués dans la direction de cette banque à travers la nomination des membres de son conseil d'administration. Europol, formée en marge de La Haye dans les années 1990, comporte certaines similitudes avec la BEI, du fait de l'étroite participation des Etats membres à ses activités. Mais il s'agit là d'exceptions au modèle habituel des agences de l'Union, pour lequel la principale contribution des gouvernements nationaux se situe beaucoup plus en amont, lorsqu'il s'agit de s'assurer de l'installation d'une institution européenne sur le territoire national ! Après cela, chaque agence travaille dans un cadre fixé par la législation européenne, mais peut évidemment faire l'objet de pressions considérables de la part des entreprises - au premier rang desquelles on peut citer celles subies par l'Agence européenne pour l'évaluation des médicaments (EMEA), située à Londres, qui délivre les autorisations de commercialisation des produits médicaux pour l'ensemble de l'Union. Une autre agence mérite d'être mentionnée : l'Agence européenne pour l'environnement (AEE), située à Copenhague. Son rôle consiste à surveiller l'état de l'environnement en Europe et à contrôler la mise en place et l'efficacité de la législation environnementale européenne. Son travail repose en grande partie sur une coopération avec les autorités nationales de chaque Etat membre, une relation symbiotique se développant ainsi entre les deux niveaux. En fin de compte, si l'AEE se trouve insatisfaite des critères environnementaux d'un Etat membre, il est probable que ce mécontentement se répandra à travers le système bruxellois et aura des conséquences négatives pour le pays en question. Il est donc dans l'intérêt des Etats membres de maintenir de bonnes relations avec l'agence et de chercher à dissiper rapidement tout incertitude quant à leurs états de service et à leurs pratiques en matière d'environnement.
+L'Union doit faire face à un futur plutôt incertain, la perspective de l'élargissement venant modifier ses priorités institutionnelles et l'équilibre financier entre les contributeurs et les bénéficiaires nets du budget européen - tout cela au moment où la légitimité démocratique de l'Union est de plus en plus mise en question.
+Du point de vue des groupes de pression, il n'est pas du tout évident que des pays comme l'Espagne et l'Irlande, qui ont beaucoup profité des transferts de fonds d'Etats membres plus riches, soient toujours aussi enthousiasmé par les activités de l'Union alors que leurs avantages à être membres apparaissent moins clairement. Et si le traité de Nice (23 février 2001) achève le processus de ratification, les grands Etats membres ne seront plus représentés à la Commission que par un commissaire à partir de 2005, les petits Etats - dont, désormais, beaucoup de nouveaux pays d'Europe centrale et orientale -accroissant toujours un peu plus leur emprise sur cet organe. L'élargissement va évidemment gonfler le nombre des députés européens, des juges à la CJCE, des membres du Comité économique et social (ECOSOC) et du Comité des régions (CDR), diluant soi-disant le pouvoir des grands Etats de l'ouest de l'Europe. Cependant, une reconfiguration complexe du système de vote à la majorité qualifiée au Conseil des ministres doit permettre aux plus grands Etats membres de récupérer une partie de leur pouvoir. Les quatre plus grands pays (l'Allemagne, la France, l'Italie et le Royaume-Uni) ainsi que l'Espagne ou la Pologne seront en mesure de bloquer les décisions au Conseil des ministres, qui comprendra alors 25 Etats. Il se peut que l'axe franco-allemand soit encore un peu plus affaibli, mais les grands acteurs européens auront toujours la possibilité de diriger les affaires, quoique d'une autre manière. En tout cas, l'élargissement pourrait entraîner une modification des priorités politiques de l'Union, qui reflétera le nouvel équilibre des intérêts au sein d'un groupe plus vaste d'Etats membres. En un mot, on doit s'attendre à un intérêt plus faible pour l'approfondissement de la politique environnementale, et un intérêt renouvelé pour les questions agricoles et de sécurité.
+L'élargissement de l'Union devrait centrer l'attention sur l'application du principe de subsidiarité adopté lors du traité de Maastricht. Jusqu'ici, cette déclaration d'intention ne semble pas avoir entraîné de modification tangible du travail des institutions européennes, si ce n'est une diminution de la production législative. Mais la diversité des situations va s'accroître avec l'incorporation, dans le processus décisionnel, de tant de nouveaux Etats membres. On peut alors envisager un regain d'intérêt pour les décisions prises au niveau national, réputées mieux convenir aux conditions locales. La Commission elle-même pourrait bien se trouver submergée par l'énorme tâche consistant à s'assurer du respect des 80 000 pages de l'acquis communautaire sur un territoire aussi vaste et divers. Ces deux évolutions parallèles pourraient à leur tour susciter des demandes de renationalisation des politiques actuellement menées depuis Bruxelles, la plus souvent citée étant l'agriculture. La Convention sur l'avenir de l'Europe (notamment composée de représentants des Etats membres et des pays candidats) cherche aussi des moyens d'enraciner le principe de subsidiarité avant la conférence intergouvernementale de 2004. A lui seul, cet événement peut reconfigurer la structure de prise de décision ainsi que les compétences de l'Union, et ce qui découlera de cette situation particulièrement ingérable est loin d'être clair. Une Constitution européenne simplifiée permettrait peut-être aux citoyens et aux gouvernements nationaux de contester devant les tribunaux certains aspects des projets politiques européens qui outrepasseraient leurs compétences ou violeraient le principe de subsidiarité.
+Dans le même temps, il faut conserver à l'esprit deux autres éventualités. L'une d'elles est que le rôle de la Commission elle-même pourrait changer devant l'ampleur du défi bureaucratique que constitue l'élargissement. La Commission pourrait s'orienter davantage vers une activité de soutien ou de médiation dans l'évolution politique, en fondant son influence et son autorité sur sa position centrale, au carrefour de nombreux réseaux politiques et de communautés " épistémiques ". Un autre scénario pourrait voir la Commission, avec le concours des Etats membres et d'un large échantillon de groupements d'intérêts, élaborer, dans des domaines précis, un programme politique européen fondé sur le consensus et des mesures concertées prises simultanément à plusieurs niveaux (local, national, européen). Cette " méthode ouverte de coordination " a été amorcée par les décisions prises lors de la rencontre au sommet des dirigeants de l'Union, à Lisbonne, en avril 2000, et elle est en cours d'application dans des domaines politiques aussi variés que l'éducation, les retraites, l'exclusion, l'immigration ou la compétitivité industrielle. Dans quelle mesure cela représente-t-il une perte d'influence pour la Commission ou le Parlement ? Il est trop tôt pour le savoir. Mais il paraît évident que ce processus laisse des occasions aux gouvernements nationaux et aux groupes d'intérêts pour modifier l'agenda européen, en intervenant politique par politique.
+Le mot " lobby " est un terme vague, employé pour caractériser une nébuleuse d'intérêts cherchant à se faire représenter et à exercer une influence dans les centres de pouvoir où sont prises les décisions. Dans le cas de Bruxelles, la pratique du lobbying est particulièrement opaque : les règles régissant les rapports entre les groupes de pression et ceux qui la subissent sont très imprécises, et la frontière entre les organisations pratiquant le lobbying et les structures gouvernementales sont souvent ténues. Le mot renvoie ici à tous les acteurs du processus décisionnel autres que les institutions européennes elles-mêmes, ce qui comprend les intérêts sectoriels, les groupes défendant des convictions et, parfois, les gouvernements de pays tiers.
+Il serait trop facile de circonscrire le phénomène du lobbying européen aux 800 et quelques fédérations paneuropéennes d'associations et/ou d'entreprises nationales spécialistes des arcanes de la vie politique, qui forment une sorte de club fermé d'interlocuteurs dialoguant avec les institutions européennes. En réalité, des centaines d'autres entités sont régulièrement de la partie : cabinets d'avocats, agences comptables, cabinets de conseil en gestion, services de consultants en politique et/ou en affaires publiques, associations fédératives nationales, associations commerciales et élus locaux. A Bruxelles, il existe aujourd'hui environ 1 800 organisations qui s'adonnent au lobbying, employant près de 10 000 personnes. Il y a vingt ans, elles étaient au nombre de 400 pour environ 3 000 employés. Ces organisations ne sont pas toutes présentes dans tous les Etats de l'Union, certains de leurs membres ne travaillent pas sur son territoire, et une large minorité d'entre elles n'ont pas leur siège à Bruxelles. Certaines associations industrielles n'acceptent pas, parmi leurs membres, les producteurs japonais installés en Europe (comme les constructeurs automobiles), tandis que d'autres sont très influencées par les investisseurs étrangers (les fabricants d'appareils électriques, par exemple). En outre, le lobbying prend de plus en plus la forme de coalitions temporaires et de structures ad hoc constituées en vue de réagir à des propositions ou des événements particuliers. Il y a ensuite les activités des gouvernements, notamment les gouvernements non européens, qui, par le biais de la diplomatie ou de démarches plus caractéristiques du lobbying, tentent de persuader les décideurs européens de prendre en compte leurs intérêts.
+En réalité, n'importe qui peut faire du lobbying auprès de l'Union, mais peu de gens savent comment s'y prendre. Le lobbying n'est pas véritablement réglementé, bien que la Commission tienne à jour sa propre liste d'informations sur quelque 700 organisations. Mais cette liste omet les intermédiaires rémunérés par de nombreux groupes d'intérêts ainsi que les organisations éphémères issues d'un Etat membre n'ayant pas d'affaires régulières à Bruxelles.
+Le Parlement européen essaie aussi de limiter le nombre de laissez-passer accordés aux membres des groupes de pression (et qui constituent un avantage pour ceux qui travaillent régulièrement à Bruxelles) afin d'éviter aux députés d'être contraints de consacrer trop de temps à l'examen de telle ou telle préoccupation dans le cadre de leurs activités parlementaires. La Commission et le Parlement européens ont aujourd'hui des règlements stricts interdisant à leurs membres ou à leur personnel de recevoir des cadeaux importants, mais le Parlement, depuis le rapport Ford de 1996, semble rencontrer des difficultés à s'assurer que tous les députés suivent scrupuleusement ce nouveau code de conduite. Deux groupes de consultants en lobbying ont rédigé des chartes déontologiques à l'intention de leurs membres, mais seule une petite douzaine d'entreprises les ont paraphées, cette décision étant totalement facultative. Tout le reste de l'activité des lobbies n'est pas réglementée à Bruxelles, si ce n'est peut-être indirectement du fait du statut légal des organisations en Belgique qui les laisse libres de décider pour elles-mêmes.
+Depuis le milieu des années 1980, les universitaires ont fait des efforts croissants pour comprendre l'essence et le degré d'influence des organisations pratiquant le lobbying à Bruxelles. Les théoriciens de l'intégration considèrent depuis longtemps les groupes d'intérêts comme un indicateur fondamental du caractère des institutions européennes : soit leur influence est faible, et le cadre institutionnel européen peut être considéré comme intergouvernemental ; soit elle est importante, et ce cadre se rapproche alors du modèle fédéraliste ou fonctionnaliste. Ce débat, qui agite la communauté universitaire, est loin d'être clos, mais il semble que les opinions s'articulent autour de deux pôles. Le premier est le pôle " intergouvernemental libéral ", aujourd'hui plus enclin à accepter que certaines organisations non gouvernementales (ONG) aient du pouvoir au sein du système européen. L'autre est le pôle " néo-institutionnel ", qui soutient que les Etats membres, les groupes d'intérêts et les institutions européennes interagissent et s'influencent mutuellement. L'émergence, dans les années 1990, de la nouvelle école institutionnaliste a principalement découlé d'études de cas sur la prise de décision au niveau politique et individuel. Ces études montraient que des groupes d'intérêt sectoriels ou sous-sectoriels - qu'ils soient ancrés dans le monde de l'entreprise ou axés sur la promotion de convictions - pouvaient jouer, et jouaient effectivement, un rôle important dans le processus de prise de décision de la Communauté/Union européenne. Ce n'est que lorsqu'il s'agit de questions " politiques de la plus haute importance " que les groupes d'intérêt sont plus ou moins exclus du processus de prise de décision. En d'autres termes, lorsqu'il s'agit de questions techniques, non politisées et de peu d'importance, les ONG peuvent exercer une grande influence. Mais, plus une question devient politique et met en jeu des intérêt gouvernementaux, plus il sera difficile pour les groupes d'intérêt de contrôler le débat, sans parler d'influencer les résultats.
+Quand la Communauté européenne est devenue l'Union européenne et que de nouveaux traités ont étendu les compétences de ses institutions, une autre évidence s'est faite jour : la structure du lobbying avait changé. Dans les années 1960, ces activités concernaient essentiellement l'agriculture et l'alimentation ; les intérêts sociaux et environnementaux commencèrent à s'organiser collectivement seulement dans les deux décennies suivantes ; la perspective du marché unique fit naître de nouvelles préoccupations commerciales en mal de représentation ; les traités de Maastricht et d'Amsterdam incitèrent à la promotion de nouveaux intérêts recouvrant le social, la santé, l'éducation, la justice et l'immigration. Globalement, plus l'Union est devenue un acteur international fort et cohérent (sur les questions commerciales et environnementales, par exemple), plus le dialogue institutionnel s'est extrait des zones périphériques du pouvoir à Bruxelles comme dans l'ensemble de l'Union. Ainsi, ces dernières années, le Trans-Atlantic Business Dialogue (TABD, " Dialogue transatlantique des milieux d'affaires "), né il y a à peine dix ans, est devenu l'un des plus importants forums représentant l'" opinion étrangère " à Bruxelles. Il n'est pas non plus possible de prétendre que les opinions des milieux d'affaires des Etats-Unis ont été, par le passé, relativement sous-représentées auprès des institutions européennes, dans la mesure où l'on s'accorde à dire que le comité européen de la Chambre de commerce américaine (AMCHAM) est l'un des lobbies les plus efficaces sur la scène bruxelloise. En revanche, on peut affirmer qu'étant donné les intérêts économiques concurrents de l'Union et des Etats-Unis en matière de commerce international, ajoutés à une traditionnelle propension à se brouiller sur certaines questions, un nouveau forum était nécessaire pour améliorer la compréhension mutuelle et insister sur les intérêts stratégiques que partagent les deux partenaires.
+La souplesse et l'opportunisme caractérisant la pratique du lobbying à Bruxelles doivent aussi être analysés. Le lobbying ne s'y déploie pas dans un cadre bien établi, et les structures dans lesquelles la représentation des groupes d'intérêt est préalablement déterminée (comme le Comité économique et social ou les centaines de comités consultatifs officiels) ne sont souvent pas les plus efficaces. Si, dans le dispositif institutionnel actuel, l'expression de certains intérêts particulièrement importants n'est pas possible, il est facile de créer de nouvelles structures ou de trouver de nouveaux canaux pour faire entendre ces points de vue. Le plus important est de savoir comment jouer la partie politique à Bruxelles. Les organisations qui y sont établies doivent savoir ce qu'il faut qu'elles fassent. Etant donné la qualité des systèmes de communication modernes, les organisations et les professionnels du lobbying qui réussissent n'ont pas toujours besoin d'être présents à Bruxelles. Un déficit de compétences ou de connaissances dans une campagne précise de lobbying peut toujours être comblé par le recours à l'univers hautement concurrentiel des cabinets de conseil. Une étude plus approfondie des styles de lobbying sera entreprise plus loin.
+Au coeur du processus décisionnel bruxellois (qui articule évidemment un niveau national, et parfois aussi infra-national), on trouve le besoin de la Commission de recueillir des informations pour pouvoir formuler des propositions pertinentes dans tous les secteurs et suivre les événements dans les domaines politiques qui l'intéressent. Ces renseignements sont fréquemment indisponibles et ne peuvent parfois pas être fournis par les gouvernements des Etats membres. La Commission se tourne donc inévitablement vers les organes représentatifs afin d'obtenir informations et opinions pouvant orienter son action. C'est là le fondement de la relation symbiotique entre la Commission et les groupes d'intérêts, qui, à leur tour, se renseignent sur les opinions et les projets de la Commission afin de pouvoir y répondre rapidement ou même les anticiper. L'état de dépendance mutuelle où se trouvent ces deux groupes d'acteurs a été renforcée par l'hégémonie du Conseil des ministres dans la plupart des grandes décisions de l'Union. Mais un partenariat solide entre la Commission et des groupes d'intérêts bien organisés au niveau européen peut permettre parfois de véritablement contourner le Conseil, ou du moins de marginaliser un Etat membre qui exprimerait de vigoureuses objections. Ainsi, l'alliance, à la fin des années 1970, entre la Commission et EUROFER (Association européenne de la sidérurgie) a permis de contrer les réserves allemandes à propos d'une intervention sur le marché de l'acier, alors très touché par la crise. Et l'enthousiasme des banquiers français, à la fin des années 1970, en faveur de la libéralisation de leur environnement économique intérieur l'emporta grâce au concours de la Commission et des institutions européennes, et malgré les objections de Paris.
+Depuis 1986, il y a eu plusieurs changements importants dans le système décisionnel de la Communauté/Union européenne, lesquels ont aussi influencé la nature du lobbying sur beaucoup de points. Les quatre traités, ou amendements aux traités existants, conclus par les Etats membres depuis la conférence intergouvernementale de Luxembourg, en 1985, ont consacré la généralisation progressive du recours au vote à la majorité qualifiée au Conseil des ministres, ce qui a rendu du pouvoir à la Commission et au Parlement. Le rôle de celui-ci a été élargi depuis l'institution du suffrage universel direct en 1979, mais le changement le plus important a été l'adoption de la procédure de codécision (instaurée par le traité de Maastricht) qui donne au Parlement des prérogatives décisionnelles communes à celles du Conseil des ministres dans un nombre croissant de domaines politiques (pour une grande partie des politiques relatives au marché unique et à l'environnement, par exemple), la Commission intervenant parfois comme médiateur en cas de désaccord entre le Conseil et le Parlement. Dans l'Union, toute prise de décision se fait dans le cadre d'un règlement très complexe qui émane des fondements contractuels et législatifs relatifs au secteur en question et au type de décision devant être pris. On dit qu'il existe au moins vingt-trois structures décisionnelles différentes en exercice au sein de l'Union, et les stratégies de lobbying doivent ainsi s'adapter à la fois à l'état du règlement et à l'équilibre des forces politiques en présence. Selon les domaines, la Commission ou le Conseil peuvent prédominer, tandis que le Parlement peut bloquer les progrès sur certaines questions et qu'un recours devant la CJCE en suivant la procédure légale peut se révéler très efficace. Ceux qui veulent véritablement promouvoir leurs intérêts à Bruxelles avec des chances de succès doivent ainsi élaborer une stratégie spécifique pour chaque question politique et chaque étape du processus décisionnel.
+Le système de prise de décision au sein de l'Union est un mélange unique de styles de lobbying, où coexistent des cultures politiques très diverses, de sources continentales et anglo-saxonnes, combinées aux contraintes d'une configuration institutionnelle particulière. Confrontées à un sujet précis, la plupart des organisations de lobbying doivent d'abord déterminer le degré auquel elles souhaitent s'investir. Très souvent, ces organisations sont réticentes ou inaptes à consacrer beaucoup de ressources à cette activité, ce qui confère un avantage à celles qui s'en donnent la peine.
+En général, il convient de suivre quelques règles importantes.
+ +Au niveau de l'Union, les efforts de lobbying se sont traditionnellement et principalement concentrés sur des questions politiques intérieures, notamment celles touchant au marché unique et au développement du commerce. Le commerce a cependant des dimensions à la fois intérieures et extérieures, et dans la mesure où les institutions européennes cherchent à réglementer ou autoriser les relations commerciales entre des pays tiers et le marché intérieur européen, ces relations comportent une dimension de politique étrangère. L'Union se rend parfois coupable de ne pas reconnaître pleinement les implications extérieures de ses décisions politiques intérieures, l'exemple récent le plus évident en étant le fameux Livre blanc de 1985 sur l'achèvement du marché intérieur qui omit totalement de les aborder. Cet aspect quelque peu introverti d'une grande partie de la politique de l'Union rend d'autant plus important pour les acteurs extérieurs (gouvernements et entreprises ayant des intérêts sur le marché européen) le fait d'être représentés à Bruxelles et d'exercer des pressions sur les décideurs de l'Union au niveau national, en plus du niveau européen. Il n'est pas exagéré d'affirmer que les gouvernements des pays tiers sont devenus partie intégrante de l'infrastructure du lobbying européen.
+Ce type de lobbying excède désormais les questions liées au commerce depuis que les second et troisième piliers des compétences de l'Union, spécifiés dans le traité de Maastricht et approfondis dans le traité d'Amsterdam, sont d'actualité. Il se peut que le système décisionnel intergouvernemental soit quelque peu différent, mais l'intérêt des pays tiers pour les domaines politiques couvert par la PESC et la coopération en matière de justice et d'affaires intérieures (JAI) est évident. Cet intérêt des pays tiers peut se manifester dans un cadre strictement bilatéral, lorsque le gouvernement ou son territoire sont directement concernés ; ou bien, dans un cadre plus collectif, lorsque, par exemple, un accord international est en cours de négociation sur des sujets tels que le terrorisme, le blanchiment d'argent, le trafic de stupéfiants ou la création d'une Cour pénale internationale.
+Il est peut-être utile d'insister dès maintenant sur le fait que la politique étrangère est un concept plutôt large et mal délimité. Le terme est employé ici pour caractériser toute politique menée par un gouvernement national en relation avec d'autres pays ou des organisations internationales. Les forces de la mondialisation ont étendu le champ d'action de la politique étrangère au commerce des services et des biens, aux marchés financiers, à la criminalité internationale, au terrorisme, etc. Du fait de la croissance rapide du commerce mondial depuis 1945, les préoccupations de la politique étrangère sont devenues plus économiques et commerciales. D'où l'intérêt de beaucoup de gouvernements de pays tiers pour les décisions de la Communauté européenne bien avant que les années 1990 ne donnent jour aux traités de Maastricht et d'Amsterdam. L'Union est la plus grande entité commerciale du monde, et ses décisions sont d'une grande importance pour la plupart des pays impliqués dans le commerce international.
+La Communauté européenne n'a pas craint non plus d'établir des liens entre la politique commerciale et la politique étrangère. Ce fut clairement le cas en 1982, lorsqu'elle décida d'un embargo à l'encontre de tous les biens provenant d'Argentine, après l'invasion, par ce pays, des îles Malouines. En 1986, elle menaça aussi de suspendre son accord commercial avec la Syrie en réponse aux éléments, dans l'affaire Hindawi, attestant que la Syrie avait hébergé en connaissance de cause une organisation terroriste ainsi que les véritables auteurs d'une tentative d'attentat contre un avion de ligne israélien à l'aéroport de Heathrow.
+On trouve un autre exemple important dans la longue liste des conflits commerciaux entre les Etats-Unis et la Communauté/Union européenne. En 1982, l'Administration Reagan se soucia des implications stratégiques qui découlaient, pour l'Europe occidentale, de la construction d'un pipeline destiné à l'importation de ressources énergétiques russes sur le marché européen. La Maison-Blanche craignait qu'une dépendance énergétique si importante à l'égard de l'Union soviétique entame la capacité de l'Europe à répondre vigoureusement à une menace sécuritaire émanant du bloc communiste. Les Etats-Unis menacèrent donc de mettre sur liste noire toute entreprise américaine ou étrangère fournissant des pièces (voire des services) pour la construction de ce pipeline, les entreprises ainsi mises à l'index étant exclues des appels d'offre de la Maison-Blanche et ne pouvant obtenir de contrat privé avec les entreprises américaines. La Communauté européenne annonça des mesures de représailles commerciales au cas où la menace serait suivie d'effets, et une entreprise au moins, British Aerospace, se trouva au banc des accusés pour avoir ignoré l'embargo. La position des Etats-Unis suscita des critiques très virulentes dans le monde entier et fut d'ailleurs rapidement abandonnée.
+Peu d'aspects de la politique de l'Union auront suscité de débats plus douloureux et d'activités de lobbying plus intenses que la question de la réglementation du régime européen d'importation des bananes. Des gouvernements du monde entier ainsi que des groupements d'intérêt économique et des ONG ont passé plus d'une décennie à faire pression sur l'Union et à porter leurs revendications devant la CJCE, l'Accord général sur les tarifs douaniers et le commerce (General Agreement on Trade and Tariffs, GATT) et l'Organisation mondiale du commerce (OMC). Les résultats et conséquences des décisions de l'Union ont été évoqués de façon dramatique : le libre-échange contre le commerce équitable ; la survie économique de quelques micro-Etats des Caraïbes; l'obligation morale des ex-puissances coloniales européennes de soutenir leurs anciennes colonies ; l'incitation à la culture de drogues illicites comme seule alternative viable à la culture de bananes ; la capacité des multinationales américaines à adapter les règles commerciales à leur avantage sans considération pour les autres, notamment avec l'aide de Washington.
+Le problème du régime d'importation des bananes date des débuts de la CEE : la signature du traité de Rome fut retardée de plusieurs jours pendant qu'un protocole final était adopté qui autorisait l'Allemagne à importer des bananes sans taxes (et donc peu chères), tandis que la France et les autres pays pouvaient garantir l'accès à leur marché à leur anciennes colonies et aux DOM-TOM, à des prix plus élevés. Cet accord constituait une dénégation du principe de marché unique. Et lorsque d'autres Etats, comme la Grande-Bretagne, rejoignirent la Communauté/Union européenne, l'accord fut étendu, puis inclus dans la Convention de Lomé par laquelle l'Union accordait un accès préférentiel au marché unique européen pour de nombreux produits des pays d'Afrique, des Caraïbes et du Pacifique (ACP, aujourd'hui au nombre de 77), ainsi qu'une aide financière et alimentaire, un partage de compétences et des systèmes de stabilisation des recettes d'exportation. Le fondement de ces dispositions complexes fut remis en question par le Livre blanc sur l'achèvement du marché intérieur, publié par la Commission en 1985, et en particulier par la promesse d'abolir tous les contrôles aux frontières au sein de la Communauté. Les quotas et les taxes d'importation différenciées, qui avaient permis aux marchés nationaux voisins de définir les conditions du commerce de la banane complètement différemment les uns des autres, commencèrent à devenir inutiles et inopérantes. Il fallait soit mettre en place un marché libre de la banane au sein de l'Union (avec pour effet l'éviction des producteurs européens locaux et de beaucoup de producteurs antillais), soit concevoir un régime d'importation nouveau permettant de concilier de nombreux intérêts contradictoires. Plusieurs grands Etats européens s'étant publiquement prononcés en faveur de la seconde option dans le but de protéger leurs intérêts locaux et ceux de leurs ex-colonies, il était évident, dès 1986, que la solution du marché libre ne serait pas retenue et qu'un nouveau régime d'importation devait être élaboré. Cela ne fut réalisé qu'en 1993, six mois après l'entrée en vigueur du nouveau marché unique, tellement il fut difficile de trouver un accord entre les parties. Mais ce nouveau régime ne devait pas durer longtemps.
+Les intérêts impliqués dans le processus de lobbying sur cette question étaient à la fois puissants et divers. De toute évidence, les producteurs européens locaux des Açores, des Canaries, de Crète et de Laconie avaient trouvé une oreille attentive auprès de leurs gouvernements respectifs (le Portugal, l'Espagne et la Grèce), tous représentés au Conseil des ministres, lequel devait donner son aval à la nouvelle réglementation sur la banane. Les producteurs martiniquais et guadeloupéens, ainsi que ceux de beaucoup d'anciennes colonies, pouvaient compter sur la bienveillance du gouvernement français, soucieux de les aider. Les producteurs des anciennes colonies et dépendances britanniques des Caraïbes et du Pacifique trouvèrent un gouvernement britannique tout aussi disposé à les assister. Les Italiens ne tenaient pas à délaisser les intérêts des producteurs somaliens, autre ancienne colonie. Par ailleurs, les gouvernements caribéens constituèrent, avec les principales entreprises cultivant la banane sur leur territoire, une association, la CBEA (Caribbean Banana Exporters Association). Parallèlement, les producteurs d'Amérique latine adoptèrent une attitude discrète mais comptaient sur leurs gouvernements (la plupart des Etats d'Amérique centrale, la Colombie et l'Equateur) pour défendre leur point de vue. Ils se déclaraient en faveur d'un respect rigoureux des principes du libre-échange - ce que l'Union est normalement disposée à accepter - afin de pouvoir tirer pleinement bénéfice de leurs faibles coûts de production, avantage qu'ils avaient sur les autres pays ACP, notamment caribéens. La Maison-Blanche entra aussi dans la partie à la demande des multinationales américaines (notamment Chiquita/United Brands) une fois qu'il fut évident que l'Union avait décidé de soutenir un régime d'importation de bananes qui pouvait être en désaccord avec les règles du GATT (et plus tard de l'OMC). Chiquita et son directeur général de l'époque, Carl Lindner, ont ouvertement admis avoir octroyé d'importantes donations aux Partis démocrate et républicain afin de s'assurer que leur voix serait entendue tout au long du débat sur le régime européen d'importation des bananes dans les années 1990.
+Voilà pour les acteurs gouvernementaux. Les acteurs industriels adoptèrent plusieurs approches différentes tandis que les problèmes émergeaient. Parmi les entreprises productrices, certaines choisirent de se battre ouvertement en association étroite avec leur gouvernement (Chiquita et l'Administration des Etats-Unis, Noboa et le gouvernement équatorien) ; d'autres décidèrent de se prémunir et de développer des stratégies commerciales leur permettant de résister aux conséquences les plus prévisibles (Dole, Del Monte et l'anglo-irlandais Fyffes) ; tandis que d'autres encore furent tentées de laisser les gouvernements des pays dans lesquels elles cultivaient la banane se charger de l'effort politique (à nouveau Dole et Fyffes). A l'autre bout de la chaîne, les entreprises commercialisant les bananes dans l'Union étaient représentées par leur association commerciale (l'European Community Banana Trade Association, ECBTA), mais ne semblent pas avoir influencé d'importantes décisions sur la question. En effet, la nature de leur association changea durant la période du fait du rachat des plus importantes filières de distribution de fruits par les principaux producteurs et convoyeurs de bananes - une conséquence évidente de l'intégration verticale du marché du secteur, rendue nécessaire par l'intensification de la concurrence.
+Des ONG ont également manifesté un vif intérêt pour ce débat, pour l'essentiel des organisations humanitaires et caritatives, comme Oxfam (Oxford Committee for Famine Relief), des groupes impliqués dans le développement des pays du Tiers-Monde, et beaucoup d'organisations confessionnelles. Leurs efforts conjoints ont permis de mobiliser des centaines de milliers de gens qui ont protesté auprès de leurs gouvernements à propos de la situation critique dans laquelle se trouvaient les producteurs de bananes des pays ACP, attirant l'attention des médias sur la question du commerce des bananes : de nombreux documentaires télévisés et campagnes pétitionnaires s'ensuivirent !
+Arrivés à ce point, il nous faut résumer l'histoire et l'évolution du conflit commercial autour de l'importation des bananes dans l'Union. Cette histoire est longue et complexe.
+Les origines du conflit commercial sur la banane remontent à la création de la CEE. La signature du traité de Rome, en mars 1957, fut retardée de quatre jours tandis qu'un accord était recherché sur le protocole très contesté concernant la banane. Celui-ci accorda à la République fédérale d'Allemagne (RFA) une exemption du tarif extérieur commun pour les bananes que tous les autres Etats membres étaient tenus d'appliquer. Le consommateur allemand a joué un rôle important tout au long de ce débat en persuadant son gouvernement de recourir à tous les moyens possibles pour maintenir l'approvisionnement du marché allemand en bananes à bas prix. Comme on peut s'y attendre, les Allemands détiennent le record de consommation de banane par habitant pour toute l'Union. Et l'Union dans son ensemble représente 30 % en volume du commerce mondial de la banane (45 % en valeur).
+Quand fut lancé, en 1985, le programme destiné à achever le marché unique, il devint tout à fait clair que la fragmentation délibérée du marché de la CEE résultant de l'organisation du commerce de la banane ne pouvait plus durer, du fait de l'élimination des contrôles aux frontières à l'intérieur de la Communauté. Un nouveau régime d'importation des bananes commun à l'ensemble de la Communauté devait être élaboré, comme dans le cas des voitures neuves.
+L'article 115 du traité de la CEE fournissait à chaque Etat membre la possibilité d'adopter un régime d'importation des bananes spécifique puis de le faire valider et appliquer par la Communauté. Les séries de conventions de Yaoundé et de Lomé promettaient, dès 1991, qu'aucun pays ACP ne serait " placé, en ce qui concerne ses marchés traditionnels et ses avantages sur ces marchés, dans une position moins favorable que par le passé ou qu'aujourd'hui ".
+Ainsi, tout était prêt pour de longues et classiques négociations au sein de la Communauté, lesquelles débouchèrent sur la décision, prise en 1993, d'introduire un régime d'importation de bananes commun, se caractérisant par un système de quota pour l'importation des " bananes dollars " (initialement établi à 2 millions de tonnes) et un tarif extérieur commun de 20 %. Douze Etats ACP continuaient à bénéficier d'un accès détaxé au marché à hauteur de 620 000 tonnes de bananes par an. La Commission devait conserver un quota discrétionnaire qu'elle pouvait répartir librement tandis que le marché de la banane continuait son expansion. Les importations de bananes dollars étaient cependant contrôlées par un système de licences uniquement accordées aux importateurs promettant de vendre des bananes provenant des pays ACP ou d'Europe. On prévoyait que le nouveau système accorderait 30 % des licences d'importation (en volume de ventes) aux négociants ayant commercialisé des bananes en provenance des pays ACP traditionnels, 60 % aux négociants ayant commercialisé des bananes dollars et 10 % aux nouveaux venus sur le marché et aux négociants en bananes cultivées en Europe. Le système est administré par le Comité de gestion de la banane de l'Union et par la Commission.
+Le nouvel accord fut entériné avec beaucoup de difficulté par un vote à la majorité qualifiée, le changement d'avis du Danemark se révélant décisif. Cet accord fut violemment attaqué par l'Allemagne qui le contesta, sans succès, devant la CJCE, l'accusant d'être contraire aux principes économiques garantis par le traité de Rome. Une autre attaque fut lancée dans le cadre du GATT par les Etats-Unis et plusieurs producteurs de bananes dollars d'Amérique latine. La décision du GATT sur le nouveau régime d'importation conduisit à une augmentation du quota de bananes dollars à 2,1 millions de tonnes. Cela signifiait qu'avec la fin du GATT, en 1994, la procédure de résolution du litige sous l'égide de l'OMC devait repartir de zéro, cette fois à l'instigation de l'Equateur et des Etats-Unis. En 1997, l'OMC se prononça contre le régime européen d'importation de bananes, le déclarant discriminatoire à l'encontre des producteurs d'Amérique latine. L'Union introduisit des modifications dans son régime d'importation qui entrèrent en vigueur en janvier 1999, mais un panel de l'OMC décida en avril 1999 que, même modifié, ce régime perpétuait cette discrimination. Avant que l'Union ait proposé une réponse à cette dernière décision, le gouvernement des Etats-Unis introduisait un système de sanctions commerciales révisables (" carrousel approach ") d'un montant de 200 millions de dollars contre les Etats européens, notamment ceux favorables au régime européen d'importation des bananes. L'Union déclara que les Etats-Unis enfreignaient les règles de l'OMC en agissant de la sorte, mais il était évident que la Maison-Blanche était alors exaspérée par les retards européens. En janvier 2001, Chiquita, l'un des principaux producteurs et négociants de bananes dollars, intenta un procès pour dommages et intérêts à hauteur de 525 millions de dollars (soit, à l'époque, 564 millions d'euros), invoquant les pertes subies depuis que le nouveau régime avait été mis en place en janvier 1999. En avril 2001, cependant, l'Union semblait avoir trouvé un compromis avec les Etats-Unis, se fondant sur une révision du système de licences afin de favoriser les fournisseurs traditionnels du marché européen, au grand dam d'un autre producteur et négociant américain, Dole, et du gouvernement équatorien.
+La question du commerce de la banane illustre bien les forces et faiblesses institutionnelles de l'Union. Les divisions au sein du Conseil des ministres furent profondes, et le règlement du conflit par l'application du vote à la majorité qualifiée obligea simplement la minorité dissidente à rechercher, sans succès, un secours du côté de la CJCE. Dans cette affaire, la Commission eut la malchance d'être emmenée par la DG VI (celle de l'agriculture) qui prend toujours fait et cause pour les producteurs plutôt que pour les consommateurs. Mais faire évoluer la position adoptée par la DG VI fut un véritable casse-tête " acronymique " de directions générales, chacune avec son lot d'organisations de lobbying - la DG I (relations extérieures), la DG III (affaires industrielles), la DG VIII (développement et coopération), la DG XV (marché intérieur), la DG XVI (affaires régionales) - auxquelles il faut ajouter le Comité européen d'administration de la banane.
+C'est donc toute une superposition de problématiques qu'il fallut démêler. Les pays en développement (PED) étaient profondément divisés en deux camps : les pays ACP et les pays non ACP. Les principes du marché unique étaient en jeu, favorisant la consolidation du régime d'importation de la banane au niveau de l'Union ; mais la libéralisation de l'accès à ce marché nouvellement intégré devait être mis en balance avec les politiques protectionnistes destinées à préserver le niveau de vie de gens comptant parmi les plus pauvres du monde. Sur cette question, les lignes de clivage traditionnelles entre les Etats pratiquant le libre-échange et ceux plus enclins au protectionnisme se désagrégèrent, le Royaume-Uni adoptant un point de vue plus protectionniste (soutenu par la France, l'Italie et les Pays-Bas) en raison des intérêts des PED. Finalement, et c'est peut-être le plus important, l'ensemble des relations de l'Union avec les Amériques furent menacées par ce conflit commercial : entre l'Union et les Etats-Unis (relations qui se dégraderont encore sur d'autres questions), entre les Etats caribéens et ceux d'Amérique centrale, entre ces derniers et les Etats d'Amérique du Sud (notamment l'Equateur), enfin entre les Etats radicaux d'Amérique centrale, comme le Honduras, et des Etats plus modérés, comme le Costa Rica.
+L'acceptation par l'Union, en 1997, des propositions du protocole de Kyoto sur la réduction des émissions de gaz à effets de serre a eu des répercussions pour les constructeurs automobiles et les compagnies pétrolières présents sur le marché européen. L'Union a accepté de réduire ses émissions de 8 % d'ici à 2010 par rapport au niveau de 1990. Mais ces réductions devront être plus importantes dans certains pays (12 % pour le Royaume-Uni), tandis que d'autres (l'Irlande) seront autorisés à accroître leur niveau d'émissions (jusqu'à 13 %). Le protocole de Kyoto affecte les intérêts des entreprises en Europe, alors qu'elles doivent déjà faire face à d'intenses pressions réglementaires de Bruxelles pour parvenir à une allocation plus efficace des ressources, une pollution automobile plus faible et un meilleur recyclage. Ces pressions reflètent les préoccupations écologiques d'un grand nombre d'Etats membres (six d'entre eux sont considérés comme constituant l'avant-garde de la politique environnementale) et du Parlement européen. Les deux principaux groupements d'intérêt concernés et menacés (les constructeurs automobiles et les compagnies pétrolières, représentés par des fédérations paneuropéennes telles que l'Association des constructeurs européens d'automobile (ACEA) et l'Association de l'industrie pétrolière européenne (EUROPIA)) ne se sont pas laissé imposer séparément un agenda déterminé par les institutions européennes selon des critères politiques plus qu'industriels. Ils ont au contraire annoncé, en 1996, qu'ils feraient des propositions communes pour aider à réaliser les objectifs environnementaux de l'Union, puis ceux définis à Kyoto en matière d'émissions de gaz automobile d'ici à 2008 - 2012, le tout en concertation avec la Commission et sous réserve de l'approbation finale du Conseil des ministres et du Parlement. D'autres accords ont aussi été conclus avec les constructeurs automobiles japonais et coréens. Malgré les appréhensions de beaucoup de députés européens, cette approche a été acceptée et le premier programme Auto-Oil voté - et ce, en dépit de désaccords ouverts entre les deux industries concernées sur la façon de répartir le fardeau de la réduction des émissions de gaz d'origine automobile. Des ONG écologistes prétendent aussi que ces deux industries ont édulcoré les exigences politiques de l'Union. Un second programme Auto-Oil est actuellement en cours de négociations, avec une plus grande harmonie entre les deux secteurs et une plus grande implication des ONG.
+Ce processus soulève d'importantes questions touchant la légitimité démocratique et la nature de l'autorité habilitée à élaborer, appliquer et évaluer une politique publique. Il permet aussi aux intérêts industriels d'exercer un plus grand contrôle sur l'agenda politique, et d'être hostiles au protocole de Kyoto d'un côté de l'Atlantique tout en se montrant apparemment disposés à aider à la réalisation des objectifs de Kyoto sur l'autre rive de l'océan.
+Au premier abord, le lobbying peut être considéré comme un élément inévitable du processus démocratique. Les lobbyistes sont en droit de faire connaître directement leurs points de vue aux décideurs européens ainsi qu'aux membres du Parlement. Chose rare, ce dernier n'est pas le seul organe législatif au sein du dispositif décisionnel européen (il partage ce rôle avec le Conseil des ministres) et il n'a pas non plus l'initiative des propositions législatives (qui relève de la Commission). Ainsi, on peut considérer de façon simpliste que le lobbying est une manifestation de la démocratie à l'oeuvre, et qu'il est susceptible de garantir une certaine responsabilité des institutions européennes au moins devant ceux qui sont le plus concernés par les décisions de l'Union.
+Le lobbying se révèle aussi très utile à la Commission, qui cherche à sonder l'opinion des entreprises et des ONG avant de prendre des initiatives politiques radicalement nouvelles. Elle compte alors souvent, avant de se déterminer, sur des associations commerciales et professionnelles pour obtenir des données et des analyses sur les secteurs concernés. Compte tenu de la dimension relativement réduite de la Commission et de l'impossibilité où sont ses fonctionnaires de connaître par eux-mêmes toutes les spécificités sectorielles de chaque Etat membre, l'échange d'informations entre la Commission et les groupes de pression est souvent essentiel pour les deux parties. Une Commission bien informée a plus de chances de faire des propositions politiques légitimes et susceptibles d'être mises en oeuvre. Le raisonnement consiste à dire que le lobbying peut conduire à un processus politique plus efficace, dans lequel les décideurs sont finalement conduits à adopter les mesures ayant le plus de chances d'aboutir aux résultats politiques escomptés, en prenant pleinement en compte les réalités et les aspects pratiques tels qu'ils sont perçus sur le terrain par les intérêts immédiatement concernés. Les mêmes groupes d'intérêt peuvent donner leurs impressions sur la mise en oeuvre de la politique de l'Union en recourant à des méthodes identiques vis-àvis de la Commission.
+Le processus de lobbying est aussi de plus en plus interactif dans la mesure où les différents intérêts sont en concurrence pour obtenir gain de cause et où les lobbyistes, pour se faire vraiment écouter, doivent essayer de développer une vision européenne globale qui aborde les questions-clefs de leur domaine politique à l'échelle de l'Union. Deux conséquences pourraient en résulter. La première serait l'élaboration de consensus au niveau européen dans la mesure où un ensemble d'intérêts se cherchant des alliés est contraint de se préoccuper des autres, qui n'ont pas nécessairement des intérêts compatibles. L'autre conséquence, qui pourrait émerger parallèlement au développement du consensus, serait que le contact direct avec les institutions européennes favorise le processus d'intégration sur le long terme au travers d'une influence progressive sur ceux qui façonnent les opinions, une dialectique que les universitaires ont appelé " engrenage ".
+Le lobbying au niveau européen est très critiqué pour des raisons relevant de considérations démocratiques. Il y a d'abord le relatif secret qui entoure à la fois le processus de prise de décision et la pratique du lobbying. Ce secret nourrit les soupçons selon lesquels les accords sont conclu, à l'abri des regards, entre les entreprises et les décideurs européens, sans grands égards pour l'intérêt général ou le bien public. Ainsi les structures démocratiques se trouvent-elles en un sens contournées et la responsabilité devant les citoyens marginalisée au profit d'une responsabilité prise par rapport à quelques intérêts particuliers. Une multinationale étrangère pourrait obtenir une plus grande attention de Bruxelles à ses points de vue qu'un groupe inexpérimenté de citoyens européens.
+Ces soupçons sont renforcés par le fait qu'il est fort coûteux de faire pression avec succès sur les institutions européennes, tout comme cela exige du temps et des compétences. D'une façon générale, l'univers du lobbying à Bruxelles est dominé par des groupes de pression commerciaux qui défendent des intérêts économiques pour lesquels ils sont souvent en mesure - et disposés -à payer le prix fort. Une telle démarche n'est pas envisageable pour des groupes poursuivant des objectifs plus généraux ou altruistes, comme ceux représentant les intérêts des réfugiés, des travailleurs immigrés, des personnes handicapées ou des chômeurs. Le raisonnement est donc que l'équilibre atteint au sein de l'Union entre les différents intérêts penche nettement en faveur de ceux pouvant consacrer beaucoup d'argent à la promotion de leur cause (d'une façon générale, il s'agit des intérêts des entreprises et des gouvernements). La Commission reconnaît le bien-fondé de cet argument en subventionnant quelque soixante ONG actives à l'échelle européenne, mais cette réponse comporte aussi le risque de compromettre l'indépendance des organisations mises en places pour représenter de tels intérêts.
+Une autre inquiétude concerne la représentativité des organisations censées incarner l'opinion européenne sur tel ou tel sujet. La Commission prête attention à la structure et au nombre de membres des organisations qui prétendent représenter des groupes sociaux, économiques ou professionnels particuliers. Une question tout aussi importante consiste à savoir dans quelle mesure les positions adoptées par une organisation au niveau européen prennent réellement en compte les préoccupations et les exigences des associations nationales, et si elles ont été validées démocratiquement au sein de l'organisation. L'arrivée d'Internet et de la messagerie électronique a certainement modifié les moyens, pour une ONG basée à Bruxelles, de rester en contact étroit avec ses membres au niveau national. Mais il est encore difficile de savoir dans quelle mesure ces pratiques ont permis une décentralisation et une plus large contribution à la prise de décision, auparavant dévolue aux initiés qui dirigent les groupes d'intérêts à Bruxelles.
+En fin de compte, les fonctionnaires de la Commission et les députés européens font souvent référence à l'excès de lobbying, alors même que la structure fragmentée du processus de décision européen en est une des causes. On peut ainsi affirmer que les intenses efforts de lobbying, impliquant parfois des centaines d'organisations, empêchent une prise de décision rapide et cohérente dans le cadre de l'Union.
+Malgré l'élargissement à 25 prévu pour 2004, la structure et les évolutions futures de l'Union sont plutôt incertaines. Pour les organisations de lobbying, l'élargissement signifie que tout un ensemble d'intérêts entièrement nouveaux (et parfois contradictoires) devront être intégrés au sein d'organisations particulières, et assimilés par les institutions européennes. L'élargissement devrait aussi éloigner le Conseil des ministres des préoccupations écologiques et le réorienter vers les questions de sécurité.
+L'élargissement accentuera certainement la tension existant entre ceux qui recherchent une plus grande standardisation européenne et ceux qui donnent la priorité au principe de subsidiarité. Beaucoup d'entreprises aimeraient une plus grande centralisation du pouvoir de décision. Leur vie serait simplifiée, et leur coûts réduits, si les décisions prises à Bruxelles s'appliquaient partout sur le territoire de l'Union. C'est la raison pour laquelle les grands groupes d'intérêt représentant les entreprises firent cause commune avec les écologistes, en 1992, contre la proposition de Jacques Delors en faveur de règles environnementales décidées et administrées au niveau national. En ouvrant la voie à davantage de variations nationales et régionales dans la définition et l'application des règles, les partisans de la subsidiarité courent inévitablement le risque de s'éloigner de la notion de concurrence " sur un pied d'égalité " entre les entreprises, notion constitutive du marché unique. Mais cela ne sera-t-il pas la conséquence inévitable du prochain élargissement, même sans aucun renforcement du principe de subsidiarité ?
+Une autre question est celle du processus décisionnel alternatif annoncé au sommet de Lisbonne, en 2000 : la " méthode ouverte de coordination ", mentionnée plus haut. Bien qu'elle envisage un partenariat interactif entre les institutions européennes, les gouvernements nationaux et les principaux groupes d'intérêts pour développer des réponses politiques dans des domaines pour lesquels plusieurs niveaux de gouvernement, dont celui de l'Union, sont compétents, les inquiétudes sont déjà légion quant au risque d'exclure les élus du processus et de n'y inclure que les groupes d'intérêts déjà bien connus des autorités ou ceux qui ne sont pas susceptibles de " jouer les trouble-fête ". Dans la mesure où les sujets déjà concernés par la méthode ouverte de coordination sont plutôt décisifs, plus ce processus prendra de l'importance, plus cette question deviendra sérieuse.
+Finalement, l'intégration du processus décisionnel bruxellois est rendu plus difficile par des activités de lobbying ad hoc et protéiforme auprès d'une Commission fragmentée et des autres institutions européennes. Il pourrait bien y avoir des arguments en faveur de forums consultatifs plus formalisés auxquels seraient invités à participer toutes les parties intéressées, et à travers lesquels devrait passer toute représentation auprès de l'Union, ainsi qu'en faveur de la publication de tous les documents, Position Papers et autres débats que pourront susciter de tels forums. Non seulement cela favoriserait la transparence auprès du public dans son ensemble, mais cela contribuerait aussi à améliorer la transparence au sein de la Commission et des autres institutions européennes, et entre les différents groupes de pression.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Le cycle de négociations commerciales multilatérales lancé à Doha, en 2001, couvre un grand nombre de questions, des plus traditionnelles (l'agriculture, les tarifs douaniers, les mesures antidumping) aux plus nouvelles (la concurrence, l'environnement, l'investissement). Jusqu'à présent, les progrès ont été limités, et la prochaine conférence ministérielle, qui se tiendra à Cancun, en septembre 2003, risque d'être un échec si aucune initiative politique forte n'est prise d'ici là. Cette initiative doit d'abord s'ancrer dans une coopération transatlantique renforcée, que la crise irakienne semble rendre plus délicate que jamais. Elle doit aussi montrer que les pays industrialisés ont désormais la volonté de faire une place à un plus grand nombre de pays en développement en ouvrant plus largement leurs marchés, en particulier dans les secteurs les plus sensibles comme l'agriculture et le textile. L'enjeu n'étant rien moins que la croissance et le développement, le plus équilibré possible, dans un monde interdépendant.
+Dans la situation internationale actuelle, le succès d'une négociation mondiale dans le domaine des échanges commerciaux pourrait constituer un signe tangible que le système fonctionne et qu'une organisation internationale de premier rang est à même de remplir la mission que ses membres lui ont assignée. La poursuite et la conclusion des négociations dans le calendrier imparti constituerait également une réponse convaincante de la communauté internationale aux détracteurs de la libéralisation des échanges et, à travers elle, de la coopération entre nations.
+Au-delà du contexte immédiat, les pays riches, comme les pays en développement (PED), ont un intérêt direct à la poursuite du cycle de Doha. Les premiers parce que, dans une conjoncture qui semble durablement déprimée, le succès favoriserait la confiance et montrerait que le système commercial multilatéral peut prendre en compte des questions comme la sécurité alimentaire, la protection de certains services publics ou l'environnement. Les seconds parce qu'il s'agit de montrer que les " règles du jeu " peuvent être amendées dans un sens qui leur soit favorable, d'une part, en apportant une solution à la délicate question de la mise en oeuvre des accords du cycle de l'Uruguay, de l'autre, en rendant les pays pauvres acteurs à part entière du commerce mondial, ce qui n'est vrai, à ce stade, que pour une quinzaine de pays émergents et une dizaine d'autres PED. Aucune exigence n'est en effet plus pressante aujourd'hui que celle du développement, et, qu'on le veuille ou non, la mondialisation, c'est-à-dire l'extension de l'économie de marché à un nombre croissant de pays, demeure l'un des plus puissants moteurs du développement. Il n'existe à l'évidence aucune recette magique en la matière, et le libre-échange ne peut en aucun cas se substituer à des institutions défaillantes, ni pallier les affrontements internes, les politiques monétaires et budgétaires erratiques ou l'insuffisance des flux d'aide au développement. Mais s'il n'y a pas de recette magique pour le succès, il y en a bien une pour l'échec : la fermeture des frontières. Il n'est pas un seul exemple aujourd'hui pour contredire ce point.
+La préparation du cycle de Doha n'a pas échappé aux débats traditionnels sur la configuration de la négociation : cycle large ou étroit, long ou court, engagement unique pour tous ou accords à la carte, tout fut envisagé, et le début des négociations n'a pas clos ces interrogations.
+Cette controverse a opposé et continue d'opposer les tenants d'une négociation limitée à l'accès au marché, à l'agriculture et aux services, et les partisans d'un plus grand nombre de sujets, cet élargissement pouvant faciliter les concessions, aider à prendre en compte les préoccupations de la société civile, et résoudre certains problèmes des pays en développement. Les Etats-Unis et les membres du groupe de Cairns d'une part, l'Union européenne de l'autre, s'opposent sur le sujet ; les PED sont également divisés, une légère majorité d'entre eux penchant plutôt pour le cycle " accès au marché seulement ". Certes, tel qu'il a été lancé en 2001, le cycle est large et comprend douze sujets de négociation. Mais, si le programme était menacé d'enlisement, des voix s'élèveraient à nouveau en faveur d'un allégement de l'ordre du jour.
+Ce débat est lié au précédent, et au fait que le cycle de l'Uruguay a duré près de huit ans au lieu des quatre prévus. La crédibilité politique de la négociation repose en partie sur le respect les délais. En outre, les PED dont les ressources humaines sont rares préfèrent en général un cycle court. Doha doit en principe s'achever fin 2004.
+Le cycle de l'Uruguay avait comme priorité de mettre fin au " plurilatéralisme ", terme qui qualifie les engagements souscrits par certains membres seulement. De tels accords permettent de " faire avancer la machine ", avant que d'autres pays ne " prennent le train en marche ". Leur inconvénient est d'aller à l'encontre de la logique du système GATT/OMC, qui est d'établir des droits et obligations identiques pour tous, et non un " patchwork " de régimes différents au détriment de la transparence et de la non-discrimination. La " récolte précoce " est une variante temporelle du plurilatéralisme, qui consiste à engranger certains résultats, en matière agricole par exemple, avant la fin des négociations. De telles pratiques, utilisées dans le passé pour des raisons politiques - témoigner concrètement de l'avancée des négociations - conduisent à déséquilibrer toute la logique du cycle, où les ultimes arbitrages sont pris en pondérant gains et pertes sur tous les sujets.
+La négociation de Doha (article 41 de la déclaration finale) s'inscrit dans la logique de l'engagement unique. Mais elle n'exclut pas des mises en oeuvre, provisoires ou définitives, d'accords conclus dans les premières négociations. Ces ambiguïtés ne manqueront pas d'être exploitées, ici ou là, par tel ou tel groupe de négociateurs.
+Constructive pour les uns, dirimante pour les autres, l'ambiguïté de la déclaration de Doha est de règle pour ce genre de document. En l'espèce, il fallait réussir à tout prix, et le succès n'était pas garanti. La multiplication des dates limites, les nombreuses mentions des " modalités de négociation " et la référence constante au développement témoignent de volontaires obscurités.
+Fixer des dates limites à un cycle et à ses différentes étapes est sans conteste un procédé qui permet à certains pays riches de parer d'avance aux critiques du type : " Il est impossible de régler tant de sujets dans un délai raisonnable " ou " les opinions publiques s'irritent de l'absence de progrès ". Pour d'autres, les dates intermédiaires sont censées éviter les tactiques dilatoires, certains participants gardant leurs cartes en main pour éviter de " payer deux fois ", une à la date intermédiaire et une seconde à la fin. Pour les PED, les dates butoirs permettent d'éviter les marchandages de fin de cycle, dont ils se plaignent de faire la plupart du temps les frais. La multiplication de ces dates fut sans doute à Doha un moyen d'obtenir un compromis entre tenants d'un cycle étroit et court et partisans d'un cycle large et long, au prix toutefois de plusieurs inconvénients. Au plan logique, l'idée de butoir s'oppose à la notion même de cycle, où les arbitrages se font à la fin entre tous les sujets. Au plan pratique, ces dates butoirs ne sont guère respectées et provoquent, comme c'est le cas actuellement, des commentaires critiques sur l'enlisement, l'échec et l'absence de perspective des discussions. Parallèlement, la méthode produit une crispation " volontariste " : parler de report ne relève plus du réalisme mais du défaitisme.
+L'abus du terme " modalités " est une autre illustration des contorsions qui ont précédé l'accord. Sur les douze sujets de négociation, il est prévu que, pour six d'entre eux, les membres devront au préalable s'accorder sur les " modalités " de la négociation. L'ambiguïté du terme est destinée à rassurer ceux qui ne veulent pas trop s'engager, en leur donnant l'impression qu'ils détiennent un levier solide sur la négociation elle-même. Cette interprétation a d'ailleurs été renforcée, pour les quatre sujets de Singapour, par la réponse du président de la conférence ministérielle lui-même à une objection soulevée par l'Inde à la fin de la réunion de Doha. Dans tous les cas, le terme prête à controverse car, selon que l'on retient l'une ou l'autre interprétation, c'est tout l'équilibre du cycle qui est modifié : agriculture, services, tarifs industriels, quelques sujets environnementaux, antidumping et subventions dans un cas ; les mêmes sujets plus ceux de Singapour dans l'autre.
+La référence au développement, qui traverse tout le texte de Doha, reste une des plus importantes difficultés à surmonter. Il est avéré, depuis la fin du cycle de l'Uruguay, qu'aucun accord ne peut recueillir de consensus sans le soutien des PED. Dès lors (et de façon parfois un peu cynique), les grands acteurs du jeu (Etats-Unis, Union européenne) s'efforcent de gagner à leur position un nombre croissant d'entre eux, moins par des concessions réelles que par des promesses qu'ils ont plus ou moins l'intention, ou les moyens, de tenir. Le cycle de l'Uruguay fut, par exemple, fondé sur un " grand dessein " consistant à demander aux pays pauvres d'une part d'ouvrir leurs marchés en matière de services, et d'autre part de souscrire à la protection des droits de propriété intellectuelle en échange d'un accès aux marchés des pays riches, en particulier dans les domaines du textile et de l'agriculture. Huit ans plus tard, l'équilibre douteux de ce grand marchandage a rendu les PED beaucoup plus exigeants, et les conduit à refuser d'entrer dans de nouvelles négociations sans engagement très sérieux en leur faveur.
+Mais que l'on parle de " traitement spécial et différencié " ou d'assistance technique, on a " tiré des traites " sur l'avenir, qu'il faudra bien honorer un jour ou l'autre. Tel est le cas aujourd'hui, où le développement est passé du statut d'obligation morale ou de v?u pieux à celui de composante à part entière de la négociation.
+Si l'on s'en tient à l'ordre arrêté à Doha, le premier sujet est celui de la " mise en oeuvre ". Il paraît paradoxal et peu porteur politiquement qu'une négociation traitant de l'avenir du système commercial mondial se préoccupe d'abord du passé, consacrant autant de temps et d'efforts à une question liée au cycle précédent. C'est là le principal argument de ceux qui contestent la légitimité et l'utilité d'un nouveau cycle. Il n'est pas abusif de dire que le sujet a saturé l'agenda de l'OMC depuis la conférence de Singapour en 1997. Il fut l'une des principales causes - sinon la seule - de l'échec de Seattle, en 1999, et a constitué, de loin, le premier sujet de discussion entre Etats membres jusqu'à Doha et depuis lors. Rappelons que la décision prise à Doha ne recense pas moins de 48 " questions et préoccupations liées à la mise en oeuvre ", concernant onze accords, sans compter les " questions transversales " liées au traitement spécial et les " questions en suspens ", au nombre de 39. Même en tenant compte d'une tendance tactique à " charger la barque " pour obtenir quelque chose en échange de l'abandon d'une demande, il n'en demeure pas moins que le sujet, à lui tout seul, suffirait à remplir la charge de travail de l'OMC pendant de longs mois.
+Au-delà des aspects techniques, les positions politiques des parties en présence n'ont guère changé : " Pas de nouveaux sujets tant que la mise en oeuvre des anciens n'est pas réglée ", disent les PED ; " pas de règlement des anciens sujets en dehors de la négociation d'ensemble ", disent les pays développés.
+Pour tenter de concilier ces positions antagonistes, un équilibre délicat a été bâti à Doha :
+ +Ce découpage correspond au souci des pays du Nord de ne pas rouvrir, même partiellement, les négociations closes en 1994. A ce stade, donc, les sujets relevant de la première catégorie (les plus conflictuels concernent le mode de calcul des contingents textiles, le recours aux subventions à l'exportation, certains aspects de l'accord ADPIC) suivent le rythme des négociations ouvertes par Doha sur les mêmes questions.
+Ceux de la deuxième catégorie sont liés, en fait sinon en droit, au débat sur le traitement spécial et différencié. En effet, les pays développés ont souhaité saisir l'occasion d'une remise à niveau du système de traitement spécial dans sa finalité, ses principes, ses objectifs et ses instruments (système de préférence généralisée, accords de type Lomé), dont la pertinence peut devenir discutable à mesure que s'abaissent les obstacles aux échanges. Les PED, au contraire, s'en tiennent à une conception plus étroite consistant à examiner des mesures pratiques (85 à l'heure actuelle) pour les rendre plus " précises, effectives et opérationnelles ".
+Les deux sujets sont aujourd'hui également paralysés. La mise en oeuvre n'a fait aucun progrès récent, malgré d'ultimes efforts de médiation du directeur général de l'OMC. Le traitement spécial et différencié n'a rien gagné à être lié partiellement à la mise en oeuvre, et, après avoir dépassé trois dates limites (juillet et décembre 2002, février 2003), il a été évoqué à nouveau en mai, au conseil général de l'OMC, dans le scepticisme général.
+Des cinq sujets sectoriels (non transversaux comme les deux précédents), l'agriculture donne lieu aux plus grandes controverses, alors même que les enjeux économiques et commerciaux ne sont pas à la mesure des querelles. A priori, le débat ne devrait pas être d'une difficulté insurmontable. Sur les quatre grands sujets (soutiens à l'export, soutiens intérieurs, accès au marché, questions non commerciales), entre les quatre acteurs ou groupes d'acteurs (Etats-Unis, Union européenne, groupe de Cairns et grands PED non-Cairns, menés par l'Inde), les plages de compromis devraient exister. Mais les discussions sont occultées par des positions idéologiques : "la subvention est intrinsèquement néfaste", "la PAC est intouchable", "les PED sont quoi qu'il arrive victimes d'un système injuste"... positions contredites par les pratiques. Tout le monde subventionne, même les pays les plus vertueux, d'une façon qui peut fausser les échanges; la PAC est en constante révision, et son coût n'est pas élevé (0,5% du PIB européen); enfin, il est faux que les PED aient tout à gagner d'une disparition totale des subventions, tant est grand l'avantage comparatif des plus gros producteurs agricoles, qui ne sont pas des PED.
+Les modalités de la négociation agricole devaient être arrêtées le 31 mars. En l'absence de définition précise du terme, les débats se sont crispés sur les formules de réduction tarifaire, qu'il est difficile de considérer comme une simple " modalité ", alors qu'elles sont un élément crucial de la négociation.
+Le président du groupe de négociation, M. Harbinson, a fait de louables efforts pendant six mois pour appliquer à l'agriculture la même méthode que celle qui avait si bien réussi lorsque, président du conseil général de l'OMC, il avait élaboré la déclaration de Doha : on écoute les arguments des uns et des autres, et, plutôt que de tenter une impossible synthèse entre des positions contradictoires, on élabore " à titre personnel " un projet d'accord qui, ne satisfaisant complètement personne, ne suscite aucun veto.
+Cette méthode n'a pas réussi en matière agricole puisque les deux versions successives du projet d'accord soumis aux membres ont été rejetées, notamment par les Européens, qui voyaient sacrifiées leurs demandes sur les aspects non commerciaux de l'agriculture (sécurité alimentaire, environnement, bien-être animal...) sans obtenir satisfaction sur les sujets proprement commerciaux (subvention, protection tarifaire). Le sujet a donc été renvoyé à Cancun.
+Dans le domaine de la propriété intellectuelle, la question de l'accès des pays pauvres aux produits pharmaceutiques est moins importante pour elle-même qu'en ce qu'elle illustre la capacité - ou l'incapacité - de l'OMC à traiter d'une question sensible pour les opinions publiques. Sur le fond, le débat est lui aussi largement occulté par des positions idéologiques. La situation désastreuse de l'Afrique subsaharienne en matière sanitaire (spécialement en ce qui concerne le sida) ne dépend que pour partie du prix des traitements. Seraient-ils gratuits qu'ils ne changeraient rien à l'absence d'hôpitaux, de personnels médicaux et de dispositifs de prévention. Inversement, le lien direct entre niveau de recherche et niveau de protection de la propriété intellectuelle n'a jamais été démontré, d'autant que, dans les pays riches, la recherche scientifique, tous secteurs confondus, bénéficie de soutiens - notamment fiscaux - déconnectés de cette protection.
+La rigidité des positions tient ici à deux facteurs rarement exposés. Le premier est la concurrence entre grands groupes occidentaux et industries naissantes de quatre ou cinq pays émergents (Inde, Brésil), où la croissance du secteur pharmaceutique repose sur une protection partielle des droits des brevets - pour les procédés et non pour les produits -, protection compatible avec l'accord ADPIC jusqu'en 2005. Une course de vitesse est donc engagée entre les uns et les autres. Le second est que les grands groupes occidentaux ont un " portefeuille " de brevets qui va largement tomber dans le domaine public dans les cinq ou dix ans à venir, et qu'ils ne sont pas sûrs de pouvoir le remplacer à partir de technologies actuellement en phase de développement (thérapies géniques, clonage cellulaire...). Ces groupes savent qu'ils risquent d'être supplantés par d'autres firmes, aujourd'hui inconnues, qui exploiteront au mieux le potentiel de ces techniques pour devenir les géants de demain. D'où leurs crispations autour des flexibilités prévues dans l'accord ADPIC en matière de brevets pour les médicaments. Doha avait permis de mettre un terme au " harcèlement judiciaire " des grandes firmes à l'égard des pays à industrie pharmaceutique naissante, pour les empêcher d'utiliser à plein ces souplesses (importations parallèles, licences obligatoires). Les discussions se sont désormais déplacées vers la possibilité, pour les pays dépourvus de capacités manufacturières, de demander à d'autres pays de les approvisionner en utilisant les mêmes flexibilités, à leur place et pour leur compte. La négociation oppose, comme souvent, les tenants d'une interprétation stricte à ceux d'une interprétation large, avec pour points de discorde les pays éligibles (fournisseurs et acheteurs), les maladies éligibles (maladies infectieuses seulement ou autres), les risques de détournement, de trafic, etc. Différentes tentatives de compromis, dont l'une provenant de l'Union européenne et tendant à faire participer l'Organisation mondiale de la santé à la décision, ont fait long feu. Ces blocages sur des sujets majeurs ont " diffusé " vers les autres, notamment le plus important d'entre eux en termes d'enjeux économiques : les services. Alors que les discussions, malgré des oppositions fortes, notamment sur l'ouverture de services publics comme la santé ou l'éducation, allaient progressant, plusieurs pays ont récemment fait savoir qu'en l'absence de progrès substantiels sur l'agriculture, il n'y avait pas lieu d'accélérer sur les services, pour lesquels les offres devaient être déposées le 31 mars, date limite elle aussi dépassée. Sur le fond, l'examen des multiples offres déposées ne fait pas apparaître beaucoup de nouveauté, les mêmes secteurs restant ouverts ou fermés. Tout au plus note-t-on une évolution récente des Etats-Unis vers une moindre ouverture en matière de services publics.
+Deux remarques en conclusion. De nombreuses propositions ont été faites depuis six mois : ce n'est donc pas la matière qui manque, mais la volonté politique qui fait défaut, pour trouver un compromis. Ensuite, tout focaliser sur l'unique sujet de l'agriculture est de bonne guerre mais ne mène à rien : il faut explorer des voies plus ambitieuses.
+En dépit de multiples déclarations rassurantes, il est douteux qu'une telle négociation puisse s'affranchir du contexte mondial. Il est, en revanche, difficile d'estimer le poids de ce contexte.
+Ainsi, la guerre du Golfe de 1991 a interrompu le cycle de l'Uruguay pendant près d'un an. Inversement, les attentats du 11 septembre 2001 et la réplique des Etats-Unis en Afghanistan, en fragilisant d'un coup les structures de coopération internationale, ajoutant à l'impératif d'éviter un second échec deux ans après celui de Seattle, ont été un élément décisif du succès de Doha. Le dernier conflit en Irak pourrait donc avoir des effets contraires : accroître la paralysie tant que la situation du Proche-Orient ne sera pas stabilisée, ou inciter au compromis pour éviter d'ajouter aux difficultés de l'heure.
+Il en va de même au plan économique. " La guerre n'arrête pas la mondialisation ", titrent certains journaux. Ce qui est à la fois vrai et faux. La mondialisation n'a pas eu besoin de la guerre pour ralentir : le commerce mondial stagne depuis 2000, les flux d'investissement baissent, et les voyages internationaux eux-mêmes ont diminué sans que l'on puisse faire la part des risques politiques ou de la conjoncture, continuellement déprimée depuis l'explosion de la bulle financière en mars 2000. Si la guerre du Golfe de 1991 a précédé l'une des plus importantes périodes de croissance mondiale, il est difficile d'apprécier a posteriori l'impact de cette croissance, tant sur la fin du cycle de l'Uruguay que sur le lancement du suivant.
+Est-il en effet plus facile de faire progresser un cycle de négociation dans une période de stagnation (le compromis pourrait être facilité par l'objectif commun de relance de la croissance par les échanges) ou dans une conjoncture élevée (le coût des concessions étant absorbé plus aisément) ? Les perspectives économiques immédiates ne sont pas encourageantes, mais les arguments ci-dessus peuvent aussi se retourner aisément. Des éléments fortuits (nouvelle crispation en Asie et en Chine à cause de l'épidémie du SRAS qui commence à s'y répandre) ou plus structurels (remise en cause du consensus sur les bienfaits de l'économie de marché après les scandales qui ont ébranlé plusieurs entreprises aux Etats-Unis, ou la faillite de l'Argentine) peuvent aller aussi bien dans le sens du blocage que de la relance de la négociation.
+Les facteurs internes à la négociation sont les plus importants : ils dépendent d'abord de l'objectif stratégique du cycle, ensuite d'éléments propres au déroulement des négociations. Comme son nom l'indique, le cycle de Doha est un cycle de développement. Il est incontestable que les PED ont une perception négative du cycle de l'Uruguay. Ce sentiment s'est en outre inscrit dans la critique générale du commerce comme moteur du développement, elle-même part du débat sur l'aide, l'annulation de la dette, la réduction de moitié de la pauvreté à l'échéance de 2015.
+Le nombre et le poids relatif des PED s'accroissant continuellement au sein de l'OMC, il est assuré que le cycle n'aboutira pas sans concessions commerciales de substance des pays développés dans les secteurs les plus sensibles que sont l'agriculture, le textile, les droits de douane, la propriété intellectuelle (dont le médicament), l'antidumping et les subventions. Or ces six sujets constituent, à peu de choses près, ce qu'il est convenu d'appeler le cycle " accès au marché seulement ", qu'appellent de leurs v?ux un grand nombre de pays : Etats-Unis, groupe de Cairns et une bonne partie des PED. Le risque est donc clair, pour l'Union européenne notamment, de voir resurgir l'idée d'un cycle étroit, donc court. Une autre inconnue demeure : celle du rôle de la Chine. Membre du club des (futurs) riches, ou champion des PED ? Probablement l'un ou l'autre, en fonction de ses intérêts : du côté des pauvres pour l'agriculture, le textile et l'antidumping ; du côté des riches pour la propriété intellectuelle, par exemple.
+Toute négociation possède une dynamique interne qui tient autant à des éléments de fond qu'à des facteurs circonstanciels : l'organisation, les relations avec les médias ou le rôle des organisations non gouvernementales (ONG) peuvent être essentiels dans l'échec ou le succès de la conférence, comme l'ont montré Seattle en 1999 ou Doha en 2001. Mais l'essentiel tient à des éléments objectifs. Comment se présentent ces données à trois mois de la réunion de Cancun ? La préparation paraît pour le moins difficile. Mais il est cependant trop tôt pour inférer du non-respect de plusieurs dates limites (mise en oeuvre, traitement spécial et différencié, accès au médicament, agriculture) un échec de la Conférence.
+L'heure de vérité sonnera avec l'élaboration du projet de déclaration des ministres, qui permettra de mesurer l'état des forces en présence, la volonté politique d'aboutir dans les principales capitales, et le fonctionnement du moteur transatlantique qui, s'il n'est plus suffisant, est absolument nécessaire pour la réussite de toute négociation à l'OMC.
+Or ce moteur obéit lui-même à des cycles, et sa dynamique ne peut se transmettre à tous ses partenaires que si ces derniers ont la conviction que les deux acteurs principaux veulent minimiser leurs différences et maximiser leurs points d'entente.
+Les différends commerciaux entre les Etats-Unis et l'Union européenne obéissent à des raisons techniques, mais surtout politiques. Techniquement, l'Organe de règlement des différends n'ajuste pas le rythme de ses décisions, en première instance comme en appel, sur celui du cycle de Doha. Mais il dépend des principaux intéressés de monter ces décisions en épingle ou d'en réduire l'impact. A ce jour, le nombre et l'importance des litiges entre les deux partenaires ne sont pas très différents de ce qu'ils étaient avant Doha. Celui concernant les FSC est de loin le plus important, ceux concernant les organismes génétiquement modifiés (OGM) ou l'aéronautique restent à l'état de menaces récurrentes ; la décision récente concernant les mesures protégeant la sidérurgie américaine est en appel.
+Maximiser les points d'entente (ou obtenir la neutralité bienveillante de l'autre) est plus difficile. De ce point de vue, la phase pré-Doha a été exemplaire : ouverture des Européens en matière agricole, des Etats-Unis en matière d'antidumping, neutralité sur investissement, concurrence et environnement. Aujourd'hui, les lignes de compromis sont moins évidentes mais existent, y compris sur les sujets les plus sensibles comme les mesures antidumping, l'agriculture ou les tarifs industriels. Nécessaire, l'entente euro-américaine n'est cependant plus suffisante en raison du poids grandissant des autres acteurs, PED notamment. Leur rôle, à Cancun et au-delà, continuera de s'affirmer, et des compromis devront être trouvés sur l'accès au médicament, la mise en oeuvre et le traitement spécial et différencié, mais aussi sur la question des " modalités " autorisant ou non le lancement de négo-ciations sur les quatre sujets de Singapour. Il serait surprenant à cet égard que l'Inde abandonne sans contreparties substantielles le levier que lui a donné le ministre qatari par son ultime déclaration à Doha en vue d'arracher le consensus. Un résultat positif sur le médicament, de réelles décisions en matière de mise en oeuvre et de traitement spécial et différencié, une reconnaissance au moins de principe d'une " spécificité développement " en matière agricole, sont un minimum en deçà duquel il est vain d'espérer l'adhésion des PED.
+Créer et entretenir la dynamique, telle est donc la question. Celle de Doha est retombée, celle de Cancun n'apparaît pas clairement. Les "mini-ministérielles" l'illustrent à l'évidence : outre qu'elles ont échoué, elles contribuent par leur multiplication même à irriter ceux qui, PED en tête, n'y sont pas conviés. De même, l'accession d'un nouveau grand pays (Russie) semble s'éloigner, alors que celle de la Chine et de Taiwan, pourtant sans lien direct avec Doha puisqu'il n'y avait à ce moment-là plus rien à négocier, avait entretenu une atmosphère positive.
+Ces trop nombreuses incertitudes expliquent les interrogations sur les chances de succès de la conférence de Cancun. D'ores et déjà, certains proposent de la reporter, ce qui, à n'en pas douter, serait un mauvais signal. Mais il n'est pas indispensable que la conférence de septembre soit la " revue à mi-parcours " annoncée. L'important est qu'elle ne soit pas un échec - au pire, un " non-événement ", comme le sont après tout beaucoup de réunions d'organisations internationales. On évitera donc de susciter des attentes excessives. De ce point de vue, le message du G-8, réuni à Evian, aura dû être pesé avec précaution. Mais si la dynamique autour du projet de déclaration ne s'enclenche pas vers le 15 juillet au plus tard, la situation deviendra difficile car chacun comprendra que, faute de compromis préalable sur certains sujets importants, tous viendront en discussion à Cancun. Le risque d'un ordre du jour " croulant sous son propre poids " ne peut être exclu, ce qui relancerait bien entendu les appels à un cycle raccourci.
+Dans l'hypothèse où Cancun ne débloquerait pas les points les plus difficiles, se poserait la question des étapes suivantes. Là aussi, les négociateurs sont pris dans un dilemme : s'accrocher à la date du 1er janvier 2005, fin théorique du cycle, devient peu crédible à mesure que les blocages se multiplient, mais parler d'un report accroît une démobilisation déjà grande.
+Les questions de calendrier sont essentielles dans tous les cas : 2004 sera marquée par deux échéances : l'intégration, au 1er mai, de dix nouveaux membres dans l'Union européenne (avec d'éventuelles conséquences sur le mandat et l'activité de la Commission), les élections aux Etats-Unis en novembre. Beaucoup estiment que ces deux circonstances sont peu propices à de grandes impulsions du côté du " moteur transatlantique ". L'horizon 2005 est plus dégagé, mais présente pour l'OMC le même profil que 1999 : changement de directeur général et réunion ministérielle. Les Etats membres chercheront sans doute à éviter de renouveler la désastreuse séquence d'événements qui a paralysé la préparation de Seattle pendant presque la moitié de 1999. Le risque est réel, la désignation du directeur général devenant maintenant un enjeu politique majeur en dépit d'un rôle juridiquement réduit. La bonne " fenêtre de tir " pour boucler le cycle deviendrait donc 2006, un an avant un nouveau cycle d'élections en Europe (dont la France en 2007).
+Ces perspectives ne sont pas forcément réjouissantes : un décalage de deux ans sur le calendrier initial ne serait certes pas dramatique en comparaison de la durée du précédent cycle. Il soulignera néanmoins les faiblesses d'une organisation dont la nouveauté aurait dû être un gage de dynamisme. Or, si l'on considère que la première tâche d'un forum de négociation comme l'OMC est de " produire " des accords commerciaux multilatéraux, force est de constater qu'à ce jour aucun grand accord n'est sorti de l'OMC, depuis huit ans qu'elle existe. Des voix ne manqueront pas de souligner ce fait, notamment au Congrès des Etats-Unis, toujours très vigilant sur la " pertinence " des organisations internationales.
+Même s'il ne faut pas exagérer la portée de ce type de critiques (ou les risques de voir les Etats-Unis se mettre en congé de l'OMC), il n'en demeure pas moins qu'elles ajoutent au crédit des solutions alternatives, dont les accords régionaux sont le principal exemple. Les Etats-Unis ont toujours joué sur les deux tableaux, poussant successivement ou simultanément les deux stratégies en fonction de leurs intérêts. On assiste en ce moment à un regain d'activité sur ce front (accords avec le Chili, négociations avec l'Amérique centrale et le Maroc, pour ne citer que les initiatives les plus récentes). L'Union européenne n'est pas en reste, et l'Asie, depuis le changement de position du Japon en 1998 et la montée en puissance de la Chine, devient l'un des gisements les plus actifs d'accords régionaux. Or, même si l'on affirme à l'envi que ces types d'accords, à condition d'être compatibles avec les principes de l'OMC, sont un marchepied vers le multilatéralisme pour de nombreux Etats, ils n'en constituent pas moins une menace, certes latente mais non moins réelle, pour le système multilatéral. Ils ne sont pratiquement jamais conformes aux principes de base de l'OMC (car ils ne couvrent pas l'essentiel des échanges) et créent des compartiments dans le commerce mondial qui peuvent dériver en blocs commerciaux hostiles en cas d'événement extérieur imprévu (forte récession, crise financière majeure). Il n'en est donc que plus impératif de contrôler leur prolifération et, à ce jour, il n'y a pas de meilleur antidote à cet égard que la réussite du cycle de Doha.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+La mondialisation est souvent perçue comme une force anonyme qui impose de l'extérieur des changements aux différents pays. L'ouverture croissante au commerce et aux flux de capitaux résulte pourtant de choix des gouvernements, des pays riches, mais aussi plus récemment des pays pauvres, qui ont cherché à bénéficier des opportunités de l'intégration au sein de plus vastes espaces économiques. La mondialisation appartient à la dynamique des économies modernes, où l'innovation et les besoins en matière de gestion des risques incitent les gouvernements à promouvoir l'extension du recours aux solutions de marché. Le bilan de deux décennies de mondialisation montre que ses effets sont filtrés par le contexte national, qui reflète lui-même les préférences collectives. Les politiques nationales conservent donc un rôle fondamental pour catalyser les effets positifs de la mondialisation, comme pour anticiper et corriger ses effets négatifs. C'est ce que montrent notamment l'analyse de la réduction de la pauvreté dans le monde et l'évolution des inégalités dans les pays industrialisés.
+Dès les années 1970, les multinationales ont cherché à mieux intégrer leurs activités à l'échelle mondiale. Elles sont ainsi devenues des partisans et des acteurs centraux de la mondialisation, cette intensification des échanges de biens, de services, de capitaux, de personnes et d'idées qui caractérise les deux dernières décennies. Les opposants à la "mondialisation libérale " partagent avec certains de ses partisans la perception d'un monde en voie d'intégration rapide au sein d'un vaste marché où les gouvernements ne pourraient plus mener de politiques nationales souveraines, notamment en matière de protection sociale. L'attitude des gouvernements eux-mêmes a varié selon les pays, mais certains ont utilisé la mondialisation comme un bouc émissaire face aux difficultés économiques, ce qui a renforcé l'idée selon laquelle ils seraient devenus impuissants.
+La désignation de la mondialisation comme bouc émissaire est une attitude qui s'est particulièrement développée en France, où les dirigeants ont favorisé l'ouverture de l'économie sans expliquer ce choix, voire en le cachant. Ils ont promu la poursuite de l'intégration européenne et déploré les orientations libérales de Bruxelles dans divers domaines, ouvert plus largement l'économie aux échanges internationaux et invoqué la concurrence étrangère pour expliquer la persistance d'un chômage élevé. La place prise par la taxe Tobin dans le débat public au cours des années 1990 illustre bien cette schizophrénie française. Certains dirigeants ont considéré qu'une telle taxe contribuerait à " maîtriser la globalisation financière ", tout en la jugeant irréaliste.
+La perception d'un rôle passif des gouvernements, qui subiraient l'ouverture aux échanges et ne pourraient plus mener des politiques économiques, sociales et culturelles nationales, ne résiste pas à l'analyse de la dynamique de la mondialisation et de ses effets. Cet article montre que l'ouverture aux échanges internationaux peut au contraire être interprétée comme un élargissement des possibilités offertes aux économies nationales et comme une réponse aux difficultés rencontrées par de nombreux pays dans les années 1970 et 1980. C'est d'ailleurs pourquoi les gouvernements des pays industrialisés et des pays en développement ont, progressivement et à des degrés variables, opté pour davantage d'ouverture.
+Le bilan de deux décennies de mondialisation, à travers l'évolution de la pauvreté dans le monde et la question des inégalités dans les pays riches, montre que les contextes nationaux filtrent les effets de la mondialisation. L'article souligne ainsi que les politiques publiques sont essentielles pour catalyser les effets positifs de la mondialisation, comme pour anticiper et corriger ses effets négatifs. Et la question de la gouvernance globale, certes fondamentale pour promouvoir une mondialisation de meilleure qualité, ne doit pas masquer le rôle des politiques nationales.
+La mondialisation est trop souvent perçue comme une force anonyme qui impose de l'extérieur des changements aux différents pays. L'ouverture croissante aux échanges résulte pourtant de choix de la part des gouvernements, qui ont cherché à bénéficier des opportunités de l'intégration au sein de plus vastes espaces économiques. L'ouverture aux échanges a progressé en fonction des politiques nationales, ce qui explique l'hétérogénéité des degrés d'ouverture des pays et des secteurs d'activité.
+Schématiquement, l'intégration des marchés de biens, de services et de capitaux résulte d'une dynamique de réduction de la distance économique, qui s'exprime par le coût de l'échange ou de l'organisation d'activités productives à l'échelle internationale. Celui-ci se compose de coûts " techniques ", de transport et de communication d'une part, et de coûts d'accès au marché, d'autre part, qui varient en fonction des réglementations. La réduction de la distance économique résulte donc à la fois des évolutions techniques et des évolutions réglementaires qui déterminent le degré d'ouverture des économies.
+Le processus de libéralisation commerciale multilatéral mis en place après la Seconde Guerre mondiale sous l'égide du GATT s'est d'abord concentré sur les barrières aux échanges internationaux, telles que les droits de douane ou les quotas d'importations. A mesure que ces barrières ont été réduites, la poursuite du processus d'intégration a rencontré les obstacles que représentaient les réglementations nationales des marchés (normes, règles prudentielles...). La question des réglementations nationales de l'exercice d'une activité est centrale dans les services, dont l'ouverture à la concurrence internationale n'a été abordée qu'à partir des années 1980.
+L'expérience de l'intégration européenne illustre clairement l'importance des réglementations nationales et souligne la variété des barrières à l'intégration "profonde" des économies. Dans les années 1980, l'Europe a ainsi conçu le projet du Marché unique pour achever l'intégration en éliminant les barrières à la circulation des biens, des services, des capitaux et des personnes qui persistaient au sein du Marché commun. Après l'adoption de quelque 200 textes permettant l'harmonisation ou la reconnaissance mutuelle des règles des Etats membres, le Marché unique a été proclamé le 1er janvier 1993; dix ans plus tard, certaines de ses composantes restent pourtant à mettre en oeuvre.
+Le projet du Marché unique illustre aussi l'interaction entre l'ouverture aux échanges et la déréglementation interne, poursuivie par de nombreux gouvernements depuis la fin des années 1970. Dans différents pays, la déréglementation a été engagée pour faire évoluer le cadre dans lequel les entreprises exerçaient leur activité dans les secteurs où les progrès technologiques bouleversaient les conditions de production et offraient de nouvelles opportunités. Le processus a ainsi touché, avec des calendriers divers selon les pays, les transports, les télécommunications et le secteur financier. Le projet de Marché unique, qui a combiné déréglementation et intégration à l'échelle européenne, a été suscité par les difficultés économiques que rencontraient les pays européens au début des années 1980. Ses promoteurs y voyaient un moyen d'accroître l'efficacité des économies européennes et de relancer une croissance languissante en stimulant la concurrence et l'innovation au sein d'un espace économique mieux intégré.
+L'histoire de l'intégration des marchés financiers souligne également le rôle des décisions des pouvoirs publics et les interactions entre politiques nationales et décisions d'ouverture. L'accroissement des flux internationaux de capitaux à la fin du XIXe siècle a coïncidé avec l'ère de l'étalon-or, et donc de changes fixes, qui impliquait le renoncement, pour de nombreux pays, à mettre la politique monétaire au service d'objectifs internes. A l'inverse, la sortie du système de Bretton Woods dans les années 1970 et l'abandon des changes fixes par de nombreux pays s'expliquent par leur volonté de retrouver une plus grande flexibilité, à travers le recours aux marchés financiers internationaux, et de maintenir leur capacité de mener des politiques monétaires actives, notamment pour combattre l'inflation. Dans les années 1980, certains gouvernements ont cherché à avoir un accès aux marchés financiers pour financer leur dette dans de meilleures conditions, ce qui a pesé en faveur de la libéralisation. Par la suite, les innovations financières et le développement de nouveaux types de titres ont été de puissants facteurs d'expansion des marchés financiers, de plus en plus utilisés par les entreprises et les particuliers. Dans la période actuelle, les besoins d'épargne de la population vieillissante des sociétés industrialisées justifient en partie le recours accru aux marchés financiers. Enfin, les crises bancaires, notamment au Japon, ont souligné l'importance des risques systémiques dans les pays où le financement des entreprises dépend trop fortement de l'endettement bancaire.
+Le choix de l'ouverture, au commerce comme aux flux de capitaux, s'explique ainsi dans le contexte du développement des économies modernes, où l'innovation et les besoins en matière de gestion des risques incitent les gouvernements à promouvoir l'extension du recours aux solutions de marché. Mondialisation et déréglementation appartiennent à une même dynamique, qui voit émerger l'économie du savoir. Il s'agit notamment d'exploiter les avancées spectaculaires en matière de coût de communication et de traitement de l'information, non seulement dans les industries manufacturières, mais aussi dans les services, qui représentent une part croissante de l'activité des économies modernes.
+Après la Seconde Guerre mondiale, le processus d'ouverture avait d'abord concerné les marchés des pays industrialisés, les pays en développement (PED) qui participaient aux négociations multilatérales étant autorisés à conserver des niveaux de protection plus élevés. Par ailleurs, de nombreux PED appliquèrent longtemps, diverses restrictions aux investissements directs étrangers. Après des décennies de scepticisme, voire d'hostilité, vis-à-vis des multinationales, les PED ont largement modifié leur attitude dans le cadre de la réorientation des politiques de développement engagée par de nombreux pays depuis les années 1980. Les multinationales sont désormais considérées comme des éléments des stratégies d'ouverture, qui doivent notamment favoriser les transferts de technologie.
+La figure 1 souligne que les pays riches ont été plus ouverts au commerce que les pays pauvres jusque dans les années 1980, mais que les seconds sont devenus plus ouverts dans les années 1990. L'ouverture des pays industrialisés a progressé dans la décennie des chocs pétroliers, durant laquelle la valeur des importations de matières premières a fortement augmenté. Le degré d'ouverture a ensuite régressé, avant d'atteindre un nouveau point haut au début des années 2000, notamment du fait de la croissance des échanges avec la Chine, les pays de la transition (pour l'Union européenne) et le Mexique (pour les Etats-Unis). L'ouverture des grands pays industrialisés reste cependant modérée, notamment si l'on exclut les échanges intrarégionaux pour l'Union européenne.
+Le processus de mondialisation s'est amplifié dans les années 1990 avec l'ouverture aux échanges des pays en transition et la révision des politiques des PED à l'égard des investissements étrangers. Ces politiques ont permis d'attirer des investissements étrangers et ont renforcé l'intégration de certains PED dans les réseaux internationaux de production et de distribution. Le cas de la Chine est emblématique de ces évolutions, mais d'autres pays ont aussi accru leur insertion dans les courants d'investissement et d'échanges.
+Le dynamisme des flux d'investissements directs à l'étranger (IDE) et le développement des multinationales caractérisent la période actuelle de mondialisation. Le tableau 1 souligne qu'il existe néanmoins une différence sensible entre la décennie 1980 et la décennie 1990 durant laquelle l'ouverture des PED aux investissements étrangers a augmenté plus fortement que celle des pays industrialisés. Il indique aussi que le degré d'ouverture aux investissements étrangers varie sensiblement d'un pays à l'autre. L'IDE vers les PED est concentré sur un petit nombre d'entre eux, au premier rang desquels la Chine, qui est devenue la première destination des flux d'IDE mondiaux en 2002, devant les Etats-Unis. Cette concentration reflète cependant en partie la taille économique relative de ces pays, comme le montre l'indicateur de performance (tableau 1).
+Au début du XXIe siècle, si les pays riches sont toujours les principaux acteurs des échanges internationaux, de nombreux pays pauvres ont décidé de s'ouvrir aux échanges commerciaux et aux investissements directs. Globalement, ceux-ci restent très protégés, même s'ils ont accru leur participation au processus multilatéral de libéralisation et divisé par deux leur protection tarifaire moyenne depuis les années 1980. Mais certains pays très pauvres, notamment en Afrique, restent encore à l'écart des échanges internationaux.
+Ainsi, la mondialisation a porté l'intégration des différents marchés à des niveaux historiquement élevés, mais le processus est fragmenté, incomplet et discontinu. Une conception monolithique de la mondialisation risque ainsi de masquer son ampleur et sa signification réelles.
+Non seulement l'ampleur de la mondialisation dépend en partie des décisions des gouvernements, mais ses effets sont " filtrés " par le contexte national, et en particulier par les institutions et les politiques économiques. En conséquence, les politiques nationales jouent un rôle fondamental dans l'influence, positive ou négative, que la mondialisation peut exercer sur une économie. Cette seconde partie illustre le rôle central des institutions et des politiques nationales à travers deux thèmes fondamentaux dans les débats sur la mondialisation : l'extrême pauvreté dans les PED, et les inégalités dans les pays riches.
+Depuis les débuts de l'industrialisation, la part de la population mondiale qui vit dans la pauvreté absolue diminue. A mesure que certains pays ont connu un processus de développement, cette part s'est réduite, mais l'écart s'est creusé entre les pays qui s'industrialisaient et les autres. L'accroissement de l'inégalité de revenu entre individus vivant dans des pays différents a ainsi été particulièrement rapide au cours du XIXe siècle et s'est poursuivi jusqu'aux années 1970. Depuis les années 1980, l'écart de revenu entre le groupe des pays industrialisés et les PED tend au contraire à se réduire. Le tableau 2 distingue plusieurs groupes de façon à expliquer l'assertion souvent répétée selon laquelle l'écart de revenus " entre les riches et les pauvres " s'accroîtrait. L'écart de revenu s'accroît entre deux groupes limités, les pays les plus riches et les pays les plus pauvres. En revanche, la croissance d'un certain nombre de pays pauvres depuis les années 1980 leur permet de réduire l'écart de revenu avec les pays industrialisés. Le cas de la Chine est particulièrement remarquable de ce point de vue, mais d'autres pays très peuplés, comme l'Indonésie ou l'Inde, enregistrent aussi une réduction de l'écart avec les pays riches. Le tableau distingue en outre le cas des Etats-Unis, pays riche qui a connu une période de croissance forte dans les années 1990 - et a accru l'écart avec de très nombreux pays, y compris européens.
+Depuis les années 1980, la réduction de l'inégalité internationale s'explique notamment par la diminution de la part de la population mondiale vivant dans l'extrême pauvreté. Si cette tendance fait consensus, l'évaluation du niveau de la pauvreté absolue varie selon les études. Selon la Banque mondiale, 25% de la population mondiale vivait avec moins de 1 dollar par jour à la fin des années 1990, alors que d'autres études estiment que la pauvreté absolue ne touchait que 10% à 15% de la population. L'objectif de développement du millénaire d'un taux de pauvreté inférieur à 15% serait ainsi déjà atteint, alors que, selon la Banque mondiale, il ne le sera qu'un peu avant 2015, date établie par l'Organisation des Nations unies. Malgré ces incertitudes statistiques, les différentes estimations indiquent que nous connaissons une réduction historique de la pauvreté dans le monde. A la fin du XXe siècle, cette réduction s'est accompagnée d'une amélioration des indicateurs de développement humain dans les pays pauvres, et notamment d'un accroissement de l'espérance de vie. Cette tendance est cependant menacée dans les pays d'Afrique les plus touchés par le sida.
+La période de mondialisation coïncide donc avec une réduction de la pauvreté absolue et de l'écart de revenu entre pays riches et certains pays en développement. Cette évolution favorable, souvent mal perçue, doit être soulignée, car elle signifie que de nouveaux pays s'engagent sur des trajectoires de développement et qu'il est possible de sortir de la pauvreté. La question centrale devient alors celle des politiques qui favorisent l'engagement d'un processus de croissance durable. De nombreuses analyses suggèrent que la participation aux échanges internationaux contribue à la croissance et à la réduction de la pauvreté. Certains pays africains pourraient ainsi souffrir de leur insertion insuffisante dans la mondialisation. L'analyse des interactions entre développement et croissance ne permet cependant pas de préconiser des solutions simples, comme un accroissement de l'ouverture, sans politiques d'accompagnement. En effet, seuls les pays qui remplissent certaines conditions en matière de formation ou de structures institutionnelles sont en mesure de tirer parti de l'ouverture au commerce et aux IDE. Par ailleurs, les multinationales tendent à investir dans des pays qui disposent déjà de certaines infrastructures et dont les institutions garantissent un bon fonctionnement des opé-rations productives. Leur souci de disposer d'une main-d'oeuvre certes bon marché, mais aussi productive, explique notamment qu'elles ne cherchent pas à éviter les pays qui respectent les droits fondamentaux des travailleurs.
+Depuis les années 1980, les inégalités internes ont augmenté dans certains PED et dans de nombreux pays industrialisés. Dans ces derniers, le progrès technique a été la cause principale de l'accroissement des écarts de revenus ; mais l'intensification de la concurrence que la mondialisation entraîne sur la plupart des marchés a amplifié le phénomène. Les deux tendances ont notamment incité les entreprises à renforcer leur capacité d'innovation, ce qui a accru la demande pour le travail qualifié au détriment du travail non qualifié.
+Les conséquences pour les travailleurs non qualifiés ont varié en fonction des caractéristiques du marché du travail d'une part, et des politiques de redistribution de l'autre. Aux Etats-Unis, les travailleurs les moins qualifiés ont subi une pression à la baisse de leurs rémunérations, alors qu'en Europe les réglementations du marché du travail ont protégé les salaires. Les travailleurs peu qualifiés et les jeunes sont, en revanche, particulièrement touchés par l'accroissement du chômage. A travers des mécanismes différents, la dynamique des économies contemporaines a engendré un accroissement des inégalités de marché entre les travailleurs. Cette tendance a été particulièrement marquée dans certains cas, comme aux Etats-Unis dans les années 1980, quand les entreprises connaissaient une période de restructuration drastique, notamment pour faire face à la concurrence japonaise.
+Les politiques de redistribution ont permis de contrecarrer la tendance à l'accroissement des inégalités de marché. Les comparaisons internationales soulignent le caractère plus ou moins redistributif des politiques nationales et la diversité des choix en matière d'instruments de redistribution (minima sociaux, fiscalité...). Dans certains pays européens et au Canada, les mécanismes de redistribution ont permis de compenser très largement l'accroissement des inégalités de marché. L'évolution des inégalités dans les pays industrialisés depuis une vingtaine d'années illustre donc la persistance des spécificités nationales à la fois en matière de fonctionnement des marchés du travail et de redistribution. Ces différences de politiques publiques répondent en partie à des préférences collectives nationales. Ainsi, de nombreux sondages montrent que les Américains, y compris les pauvres, sont moins sensibles aux inégalités que les Européens.
+Depuis la Seconde Guerre mondiale, le " capitalisme de la protection sociale " a facilité l'évolution des structures industrielles et l'approfondissement de la spécialisation internationale. A un niveau très général, il existe d'ailleurs une relation positive entre le degré d'ouverture des pays et l'importance des dépenses publiques. Dans la période récente, la redistribution a joué un rôle important pour améliorer le sort des " perdants " de la mondialisation que sont les personnels les moins qualifiés. Si cette stratégie semble ne plus fonctionner, ce n'est pas d'abord à cause des contraintes imposées par la mondialisation, mais, plus fondamentalement, parce que les risques que doit couvrir la protection sociale ont changé. L'économie du savoir dans laquelle le monde est entré demande plus de personnels qualifiés, mais génère aussi des emplois de service peu qualifiés et peu rémunérés. La rapidité des évolutions technologiques dans un contexte de concurrence accrue impose aussi un rythme de changement élevé aux entreprises et aux salariés. Par ailleurs, les évolutions sociologiques accroissent les risques de dislocation des familles, et l'on sait que les enfants pauvres vivent souvent dans des familles monoparentales dont le revenu repose sur la rémunération d'un seul adulte.
+Dans ce contexte, la lutte contre le chômage passe notamment par la promotion de la mobilité des personnels, y compris les moins qualifiés. Au-delà, il s'agit de promouvoir l'égal accès à diverses opportunités et l'assurance - pour ceux qui se retrouvent dans des emplois faiblement rémunérés - de pouvoir évoluer, plutôt que de poursuivre des efforts de redistribution des revenus au sens traditionnel. Ces évolutions impliquent des réformes dans le domaine de la formation, mais aussi en ce qui concerne le marché du travail ou les services publics, notamment pour améliorer l'accueil des jeunes enfants et l'accès à l'emploi des femmes.
+La mondialisation est un processus hétérogène, inégal selon les secteurs, et dont certains pays restent largement exclus. Il peut être mis au service de la croissance et du développement économique, à condition d'être encadré par des principes et des institutions de gouvernance globale, et aussi d'être promu par les gouvernements nationaux.
+Les réactions contre la mondialisation à la fin des années 1990 ont souligné le caractère incomplet des institutions de gouvernance globale (notamment en matière d'environnement), et le manque de transparence et d'ouverture des institutions économiques internationales. L'une des voies d'évolution consiste à accroître la transparence de ces institutions et la possibilité pour certains représentants de la société civile d'exprimer leurs préoccupations au cours des processus de décision. Cette évolution est désormais amorcée et doit être poursuivie. Au-delà, la gouvernance globale suppose à la fois de nouvelles institutions et une meilleure articulation entre certaines institutions existantes. Mais les politiques nationales sont tout aussi fondamentales pour soutenir le mouvement d'ouverture et promouvoir ses conséquences positives. La réflexion sur la gouvernance globale risquerait d'être une fuite en avant si elle se substituait à la réflexion sur les politiques nationales.
+L'un des enjeux de l'actuel cycle de négociations commerciales multilatérales est de mieux intégrer les PED dans les échanges en leur assurant un meilleur accès aux marchés des pays industrialisés, notamment pour les produits agricoles et textiles. L'ouverture des marchés des pays du Sud est aussi un enjeu important pour les échanges Nord-Sud et Sud-Sud. Or, les évolutions souhaitables ne se produiront pas si les politiques nationales rendent l'ouverture trop coûteuse pour certaines catégories, notamment les travailleurs les moins qualifiés dans les pays riches. Comme tout choix de politique économique, l'engagement dans la mondialisation a ses contraintes. Pour les pays industrialisés aujourd'hui, le défi est celui de l'accélération des réformes économiques et sociales. Ces réformes sont un moyen de tirer parti à la fois de la mondialisation et du progrès technologique, et de mieux répondre à l'évolution des aspirations individuelles dans les sociétés modernes. Le rythme et le détail des réformes souhaitables, qu'elles concernent le marché du travail, le système d'enseignement, la capacité d'innovation ou le gouvernement d'entreprise, dépendent des contextes nationaux. Les comparaisons nationales des institutions et des politiques publiques sont certes devenues systématiques dans le contexte de la mondialisation, mais elles n'amènent pas à recommander l'adoption des institutions et des pratiques américaines. La diversité des contextes nationaux et la richesse des enseignements des comparaisons internationales suggèrent ainsi qu'il est possible de réformer et de conserver une certaine diversité des systèmes capitalistes.
+La mondialisation rend certains facteurs de production, et notamment le capital, plus mobiles. Cette plus grande mobilité du capital, comme celle des cadres, n'a pas lancé une "course au moins-disant social ". Elle a en revanche accru la capacité de choix de certains acteurs économiques, qui comparent non seulement les taux d'imposition, mais aussi les offres nationales en matière de services publics, d'infrastructures ou de formation des personnels locaux. Dans cette mesure, la mondialisation tend à accroître l'écart entre les pays qui ont une bonne gestion publique et ceux qui souffrent de problèmes majeurs en la matière, quel que soit leur niveau de richesse. La mondialisation n'empêche pas les pays d'exprimer des préférences collectives, que ce soit en matière de protection sociale, de promotion de la création culturelle nationale ou de maintien des agriculteurs à la terre. Elle impose en revanche, comme le montrent les débats sur les politiques agricoles ou la diversité culturelle, une plus grande transparence et une plus grande rigueur dans l'élaboration des mesures qui visent à mettre en oeuvre ces choix.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Le Centre français sur les Etats-Unis (CFE)
+Article publié dans Commentaire No 100, Hiver 2002 - 2003
+Depuis la fin de la guerre froide, le débat entre spécialistes des relations transatlantiques s'est trop souvent contenté d'osciller entre les bons sentiments et la simplification. Il ne s'est pas suffisamment porté sur l'ampleur des changements de fond rendus inévitables par le changement de système international produit par l'effondrement du régime soviétique. La première tendance, parfois marquée par une frilosité nourrie par la crainte de remettre en cause l'édifice institutionnel issu de la guerre froide, s'est exprimée le plus souvent sous la forme de satisfecits donnés à l'Alliance atlantique pour ses progrès supposés en matière d'adaptation aux conditions de l'après-guerre froide, et parfois sous la forme plus dynamique de projets d'élargissement, géographique et fonctionnel de l'OTAN et de l'Union européenne. Les travaux de la Rand Corporation, et en particulier ceux de Larabbee, Asmus, Gompert et Kugler, avaient ainsi contribué en leur temps à lancer le débat sur l'élargissement de l'OTAN à trois pays qui a finalement abouti en 1999.
+Plus récemment, la discussion s'était portée sur un éloignement supposé des valeurs sociales entre les deux rives de l'Atlantique, auquel les événements du 11 septembre 2001 ont au moins provisoirement mis fin. Ce débat se poursuit, mais il est maintenant limité à la sphère de l'analyse sociale. En termes de politique étrangère, cette discussion sur la dérive des continents a pris la forme d'une opposition entre l'unilatéralisme de la politique américaine et le multilatéralisme de leurs partenaires européens.
+Le moindre mérite de l'article de Robert Kagan, dont Commentaire a publié la version française, n'est pas de sortir le débat de cette ornière. L'opposition entre multilatéralisme et unilatéralisme ne représente en effet qu'une conséquence, alors que les causes de la différence d'attitudes entre les États-Unis et l'Europe à l'égard du système international sont plus profondes. Outre que nulle politique aujourd'hui n'est purement unilatérale ou purement multilatérale, la divergence sur l'unilatéralisme et le multilatéralisme ne porte que sur les moyens employés pour mener une politique étrangère. Or il est clair que les Européens et les Américains ne divergeraient pas sur les moyens si leurs visions du système international, et des directions que celui-ci doit prendre à l'avenir, n'étaient pas différentes. Plutôt que de concentrer l'analyse sur les manifestations de cette divergence transatlantique, c'est-à-dire sur un symptôme, il fallait revenir aux causes de cette dérive, et le plus grand apport de Kagan est d'avoir placé le débat sur un terrain plus utile, celui des visions divergentes de la société internationale qui dominent les esprits de part et d'autre de l'Atlantique. Il y fallait un certain courage.
+Par voie de conséquence, l'article de Kagan a rendu une nouvelle vigueur au débat transatlantique. Aux États-Unis, les questions européennes étaient depuis quelques années considérées comme un peu ennuyeuses : l'Europe avait pour l'essentiel été débarrassée de ses problèmes de sécurité, et elle avait montré dans les Balkans qu'elle avait besoin des États-Unis pour les régler, même quand il s'agissait d'affaires régionales d'ampleur limitée. Le débat sur l'OTAN et sur la construction européenne, leurs rôles, leurs élargissements, leurs structures, suscitait chez beaucoup des bâillements d'ennui à peine dissimulés. Ajoutée à l'eurosclérose dont le Vieux Continent aurait été la victime, cette constatation faisait de l'Europe un objet d'étude et de réflexion peu intéressant. Le fait que les études européennes aux États-Unis aient beaucoup souffert sur le plan financier, parce qu'elles intéressent moins les fondations que pendant la guerre froide, s'explique en partie par le sentiment répandu qu'il n'y a pas grand-chose de neuf à dire à propos de l'Europe. Qu'un tel jugement sous-estime, parfois par le mépris, les changements notables intervenus en Europe depuis douze ans n'enlève rien au fait qu'il est largement répandu aux États-Unis. Sans les efforts du German Marshall Fund of the United States, les recherches sérieuses en matière européenne et transatlantique aux États-Unis se seraient probablement taries. Le débat transatlantique était en effet devenu pour beaucoup d'Américains influents un débat en trompe-l'?il, dissimulant les questions réelles sous les poncifs et les bons sentiments, et faisant la part trop belle à des considérations institutionnelles contraires à l'approche pragmatique qui doit présider, pour la plupart des Américains, à la solution des problèmes concrets.
+Robert Kagan rompt avec cette approche timorée et formaliste, sans pour autant tomber dans les excès ni dans l'analyse ni dans le diagnostic dont sont souvent coutumiers certains de ses amis néoconservateurs. Il ne s'agit pas pour lui de rédiger un tract unilatéraliste comme on en voit sortir fréquemment des think tanks de la droite néoconservatrice comme la Heritage Foundation ou l'American Enterprise Institute. De son fait, l'Europe redevient objet digne de discussions et d'études dans la " communauté de politique étrangère " américaine.
+À cette prise de conscience nécessaire dont il est la cause, correspond cependant une responsabilité. Sa thèse, par le succès qu'elle rencontre, peut en effet avoir une influence réelle sur le jugement porté sur l'Europe par beaucoup d'Américains. Précisément parce qu'elle a été " ciselée " de façon à être applicable aisément en apparence à de nombreuses situations concrètes, la vision de Kagan devrait être reprise et utilisée à toutes les sauces, y compris certaines dont le fumet sera trop fort ou trop peu subtil pour l'auteur lui-même, par les experts, les journalistes, les staffers du Congrès et jusque dans l'Administration. On en voit déjà les effets dans l'affaire irakienne, où beaucoup d'Américains ont cru pouvoir déceler une attitude " européenne " pacifiste dans les positions françaises, pourtant inspirées du souci réel du désarmement de Saddam Hussein et d'une disposition à utiliser la force en dernière extrémité, comme dans les positions allemandes.
+Les modes sont tellement puissantes dans le milieu politique américain au sens large du terme qu'il est inévitable que l'article de Kagan ait un effet allant probablement au-delà de ce que souhaitait l'auteur. Quant aux Européens, ils se complaisent si volontiers dans la lamentation sur les faiblesses de l'Europe qu'ils sont souvent prêts eux aussi à adopter la thèse de Kagan sans les nécessaires réserves. Il ne s'agit pas ici de lui faire grief des débordements éventuels dus au succès de ses idées, mais d'éviter que le débat ne se place sur un terrain artificiel sous l'effet de la facilité. De part et d'autre de l'Atlantique, cet article arrive à point nommé, mais son écho même en fait un élément à certains égards dangereux parce que simplificateur.
+C'est ici que le bât blesse. Le défaut principal de l'argument de Kagan est en effet qu'il grossit parfois le trait pour rendre sa démonstration plus frappante. Cela porte son propos à confiner parfois à la caricature. D'une part il décrit en effet les États-Unis tels qu'il souhaiterait peut-être qu'ils se comportent sur la scène internationale, faisant fi de développements qui ne donnent pas précisément à la politique américaine un tour " martial ". En second lieu, il manifeste une propension excessive, peut-être due au fait qu'il habite maintenant à Bruxelles et voit l'Europe à travers un prisme excessivement communautaire, à couvrir d'une teinte bruxelloise unique une réalité européenne beaucoup plus complexe et à de nombreux égards moins " vénusienne " que sa description ne le laisserait entendre. Dans les deux cas, l'interprétation de la nature de la relation avec la puissance internationale est beaucoup plus complexe que ce qu'indique Kagan.
+L'argument est incontestable selon lequel les différences d'attitudes entre Européens et Américains sont largement conditionnées par le contraste structurel entre les éléments de puissance détenus par les États-Unis et ceux dont disposent les pays européens. Il est même à vrai dire de simple bon sens. La primauté américaine dans la plupart des domaines qui confèrent la puissance internationale donne aux États-Unis une liberté d'action beaucoup plus grande sur la scène mondiale que celle dont peuvent jouir les Européens. Il n'est donc pas surprenant que les dirigeants américains soient les plus soucieux d'autonomie dans l'action et que leurs homologues européens souhaitent renforcer les mécanismes de contrôle qui permettent de canaliser la puissance internationale et au premier chef celle des États-Unis. Il est également certain que le jeu des institutions européennes, qui agissent elles-mêmes comme un mécanisme égalisateur entre " grands " et " petits " pays européens, outre qu'il est la conséquence d'une méfiance de principe à l'égard de l'exercice de la puissance, a pour effet de créer chez les Européens une préférence de principe pour un multilatéralisme qui est la conséquence normale et attendue des processus communautaires.
+Il faut cependant aller plus loin et se pencher sur certaines variables structurelles. La préférence des États-Unis pour la liberté d'action n'est ni surprenante ni condamnable. Il n'est pas douteux que les États-Unis ont en fait utilisé leur puissance de manière modérée : Kagan avait défini dans des écrits antérieurs la politique étrangère de son pays comme une " hégémonie bienveillante ", et cette formule recouvre une réalité. Pour des raisons constitutionnelles, les États-Unis ne peuvent exercer leur puissance internationale de façon dominatrice que pendant de brèves périodes. Toute tentative impériale ou volontariste se solde inévitablement par des chocs en retour réduisant la capacité du pouvoir exécutif à utiliser la pleine panoplie des moyens dont il pourrait disposer dans un ordre institutionnel moins équilibré. L'histoire américaine de la seconde moitié du XXIe siècle le démontre amplement.
+Un point au moins aussi important fait cependant défaut dans l'analyse de Kagan. Il s'agit des moyens dont disposent effectivement Européens et Américains face aux crises internationales, moyens qui dictent à beaucoup d'égards les comportements de ces partenaires. Vers la fin de son article, l'auteur rappelle le problème posé par la faiblesse relative des moyens militaires dont disposent les Européens, et en appelle à une augmentation de ceux-ci pour éviter le creusement des disparités entre leurs capacités guerrières et celles des États-Unis. Il cite à l'appui de cette observation trois Britanniques, dont l'actuel Secrétaire général de l'OTAN, tout en exprimant un doute quant à la capacité des Européens à aller dans ce sens, même de façon marginale. Le budget militaire de la France pour 2003 et la loi de programmation militaire 2003 - 2007 autorisent peut-être un moindre pessimisme, mais il est clair que le problème de la compatibilité des matériels militaires entre partenaires transatlantiques, et surtout celle de leurs concepts opérationnels, demande un effort plus soutenu des Européens dans ce domaine.
+Encore ne faut-il pas, comme le font certains Américains, faire des capacités militaires des forces américaines un point de référence pratique. Il est légitime de s'interroger sur la justification pour un seul pays de dépenser près de 50 % du produit militaire mondial, et d'accroître toutes ses catégories d'armements, y compris celles dont la probabilité d'utilisation est extrêmement aléatoire, soit que la menace qu'elles sont censées parer soit infinitésimale, soit que leur utilisation sur des champs de bataille concrets face à des adversaires peu sophistiqués rende le coût de leur perte éventuelle absolument prohibitif. C'est en regard d'une analyse des menaces potentielles que la validité d'un effort militaire doit être appréciée. De ce point de vue, l'attitude américaine actuelle n'est pas fortement convaincante. La question entre alliés consistera donc non seulement à encourager les Européens à dépenser mieux et davantage pour leur défense, nécessité incontestable aujourd'hui pour qui veut maintenir une Alliance atlantique efficace et équilibrée, mais aussi de rapprocher les points de vue des partenaires transatlantiques sur les menaces et les défis à leur sécurité, et sur la définition des réponses à y apporter. Ce travail de fond, qui devrait avoir lieu dans le cadre de l'Alliance ou plus efficacement entre grands alliés, n'est pas aujourd'hui réalisé de façon satisfaisante. Il s'agit pourtant d'une priorité pour maintenir une convergence de vues sur la sécurité internationale à l'intérieur de l'Alliance. Sur ce point, les réticences américaines sont au moins aussi fortes que celles de leurs partenaires européens parce qu'une consultation véritable sur ces points aurait pour effet de restreindre au moins marginalement l'autonomie de décision américaine. Sur un thème comme celui du Proche-Orient, ou sur le nation-building, il n'est guère surprenant que l'Administration américaine quelle qu'elle soit ne souhaite pas se trouver laminée entre le Congrès et l'opinion d'un côté et les alliés de l'autre. Pourtant la coopération transatlantique est à ce prix.
+Il existe pourtant un point encore plus problématique, car plus structurel et donc encore plus difficile à lever : celui des avantages comparatifs des alliés transatlantiques face aux problèmes internationaux. C'est à notre sens ce qui explique le mieux les motivations des uns et des autres dans les choix qu'ils ont opérés au cours des dernières années. Ce n'est pas seulement parce qu'ils sont les plus forts que les États-Unis ont choisi d'en revenir depuis la fin de la guerre froide à une conception traditionnelle de la puissance, mettant l'accent sur l'utilisation de la force militaire. Depuis le début du XXe siècle, comme l'indique Kagan, les Américains avaient tenté d'étendre à l'Europe une conception des relations internationales différente de celle qui prévalait alors en Europe, et selon laquelle la mise en oeuvre de politiques hostiles aux intérêts légitimes de sécurité de ses partenaires était en fait contraire à l'intérêt national, puisqu'il risquait de remettre en cause les fondements de l'ordre international et en premier lieu la paix. Ce " postnationalisme ", que les Américains qualifient d'" internationalisme " (et qui est connu en Europe sous le vocable de " wilsonisme ", du nom de celui qui tenta de l'imposer aux Européens), permet de transcender les oppositions brutales d'intérêts entre États. Il est frappant que cette attitude soit aujourd'hui qualifiée d'" européenne " par les observateurs américains, alors qu'il avait fallu rien moins que deux guerres mondiales pour qu'elle prévale sur le Vieux Continent.
+La raison pour laquelle les États-Unis s'en sont détachés, au moins en partie, au cours des dernières années tient largement au fait qu'ils dominent aujourd'hui le système international, où ils n'ont plus de contrepoids réel. Kagan a raison de souligner cet aspect des choses, encore qu'il aurait pu ajouter à quel point cela est contraire à la tradition américaine des checks and balances, expliquant ainsi les réticences d'une grande partie des Américains face à cet état de fait, et en particulier la réticence d'une majorité de l'opinion publique envers une intervention en Irak qui impliquerait les États-Unis sans un mandat des Nations unies ou en dehors d'une coalition internationale.
+Le document sur la stratégie de sécurité nationale adopté récemment par l'Administration Bush présente ainsi une interprétation cohérente de la vision étroite de l'intérêt national qui semble inspirer aujourd'hui les États-Unis. On a beaucoup glosé sur l'accent mis par le document sur la préemption. Certes, le fait de donner à l'anticipation des mouvements de l'adversaire un tour théorique est-il quelque peu hasardeux, mais il faut bien reconnaître que les contrôles qui s'exercent sur la conduite de la politique étrangère américaine rendent extrêmement improbable un recours systématique à la préemption. En outre, ce recours a parfois une légitimité, quand il s'agit de parer à une attaque non provoquée, ou à l'utilisation de moyens de destruction massive. Il est en revanche un aspect de la nouvelle doctrine qui, s'il a fait couler moins d'encre, est beaucoup plus symptomatique de l'attitude des États-Unis dans le système international du début du XXIe siècle : il s'agit de la volonté d'empêcher l'apparition de tout concurrent potentiel aux États-Unis sur le plan stratégique. Certes, le problème ne se pose pas concrètement aujourd'hui, et n'a guère de chances de se poser à vue humaine. Il est cependant surprenant que les États-Unis, pays qui s'est toujours défini comme partie prenante d'une communauté internationale d'États disposant des mêmes droits et des mêmes obligations, sanctionne en 2002 une vision qui introduit une inégalité radicale entre eux-mêmes et tous les autres. Traditionnellement méfiants à l'égard de tous les pouvoirs, fussent-ils américains, les États-Unis seraient-ils devenus un État-nation classique, sur le modèle des États européens du XIXe siècle ? Pour utiliser un vocabulaire plus chargé, mais traduisant cependant la réalité, les États-Unis de 2002 sont-ils devenus nationalistes ? Il y aurait quelque paradoxe à ce que l'État qui a cherché, et réussi au-delà de toute espérance, à vacciner l'Europe contre le mal nationaliste ait lui-même subi sa contagion. Il convient de poser cette question de manière directe, car la comparaison entre les États-Unis d'aujourd'hui et les grands États européens du XXIe siècle est féconde, même si elle n'est naturellement pas parfaite.
+Il est patent qu'existe une autre raison, au moins aussi forte, pour expliquer la concentration croissante de la puissance américaine sur sa dimension militaire. C'est dans ce domaine en effet que les États-Unis jouissent de l'avantage comparatif le plus grand par rapport à leurs partenaires et à leurs concurrents. Non seulement leur primauté dans le domaine militaire est incontestable et croissante, non seulement les chances qu'un concurrent apparaisse dans ce domaine sont extrêmement faibles, mais les États-Unis ne disposent dans aucun autre secteur de l'action internationale d'un avantage comparable. Ils sont puissants sur le plan économique mais l'Union européenne est à leur mesure, comme certaines puissances asiatiques le seront peut-être demain.
+Plus précisément, à la difficulté rencontrée par l'Europe pour engager les sommes nécessaires à son accès à un rôle significatif en matière militaire répondent les problèmes rencontrés par l'État fédéral américain pour mobiliser des moyens suffisants pour remplir les tâches internationales qui ne ressortissent pas à l'utilisation de la force militaire. Les chiffres parlent d'eux-mêmes. Tandis que les moyens militaires des États-Unis croissaient à grande vitesse après une réduction rapide de la fin de la guerre froide jusqu'en 1994, la diplomatie et les moyens non militaires à la disposition du gouvernement fédéral se réduisaient en termes réels d'une façon régulière et préoccupante. On se rappelle bien entendu la diminution unilatérale des contributions versées par les États-Unis aux divers budgets des Nations unies, que seule la solidarité marquée par l'ONU à l'égard des États-Unis dès le 11 septembre 2001 a permis de régler en partie. On sait aussi que tous les secrétaires d'État depuis le milieu des années 90 ont eu des raisons de se plaindre de l'affaiblissement des moyens de la diplomatie américaine. L'aide publique au développement avait été diminuée de manière drastique jusqu'au sommet de Monterey, et encore une grande partie de ce qu'il en restait était-elle attribuée à Israël. L'augmentation annoncée à la suite des attentats du 11 septembre 2001 lors de cette réunion reste d'ailleurs encore à traduire dans la réalité. Où que l'on regarde, les moyens de l'action internationale des États-Unis, quand ils ne se situent pas dans le domaine militaire, sont en diminution sur le long terme. Il n'est donc nullement surprenant que la politique des États-Unis valorise la dimension de la politique internationale où son avantage relatif est le plus grand. Toute la question est de savoir si, face aux grands problèmes du monde contemporain, et face aux crises auxquelles les partenaires transatlantiques ont et auront à mettre fin, les moyens militaires sont nécessairement les plus pertinents, surtout s'ils ne sont pas épaulés par des moyens civils suffisants, qui demandent patience et constance.
+Les exemples de l'insuffisance d'une approche principalement militaire abondent. Dans les Balkans, il est heureux que les États-Unis aient pris en 1995 l'initiative d'utiliser la force militaire pour permettre l'ouverture des pourparlers de Dayton. Incontestablement, l'approche européenne était demeurée trop timorée pour en imposer à Milosevic. En ce qui concerne le Kosovo, on peut considérer que la volonté américaine d'imposer une solution avec des moyens militaires a affaibli la communauté internationale en contournant le Conseil de sécurité des Nations unies et en rejetant la Russie dans une opposition de principe qu'elle n'aurait pas nécessairement maintenue si le processus de Rambouillet avait pu parvenir à sa conclusion. Encore faut-il admettre que, sans la menace américaine de recourir à la force, la communauté internationale et les Européens au premier chef auraient été privés d'un instrument essentiel de pression. Il n'est donc pas besoin d'opposer artificiellement une approche militaire et une approche civile. Il convient simplement de garder à l'esprit que la politique étrangère a aujourd'hui besoin d'inclure ces deux dimensions, ainsi qu'une capacité à définir en temps utile la politique à suivre. Dans les Balkans, la présence militaire européenne a excédé largement la présence américaine une fois les opérations initiales terminées. En Bosnie comme au Kosovo, les Européens forment maintenant l'essentiel des forces qui contribuent non seulement au maintien de la paix, mais également à la reconstruction et à la réconciliation. Dans ces deux domaines, économique et politique, la contribution européenne dépasse largement celle des États-Unis. La même chose est vraie en Afghanistan, où pourtant l'enjeu après le 11 septembre était et demeure vital pour les États-Unis et où l'expérience désastreuse de leur retrait à la fin des années 80 aurait dû les inciter à plus de patience.
+Le résultat de cet état de faits est que les États-Unis sont tentés de se cantonner à l'aspect militaire de la gestion des crises. Le Congrès est le plus souvent hostile au nation-building, car il répugne à la grande majorité des militaires américains. C'était cet état d'esprit que traduisait Condoleeza Rice quand elle affirmait en campagne présidentielle pendant l'été 2000 que les soldats américains ne devaient pas en être réduits à aider des enfants à traverser la rue dans les pays où ils séjournaient. Cette attitude, couplée à une forte résistance à financer les efforts de reconstruction civile, amène les dirigeants américains à se focaliser sur les tâches militaires, et à tenter de faire assumer les tâches civiles par leurs alliés. La leçon de la guerre américaine contre l'Irak en 1991, dont le financement a pour l'essentiel été assuré par des pays non combattants, a été retenue, et étendue à l'après-guerre.
+Les Européens sont naturellement les premiers alliés auxquels les Américains font appel dans ces situations, ne serait-ce que parce qu'ils rencontrent pour leur part un problème inverse de celui des États-Unis : autant il leur est difficile de financer un effort militaire, autant il leur est aisément loisible de contribuer, soit directement soit par l'entremise de l'Union européenne, à la reconstruction et à la remise sur pied de la société des pays où viennent de se dérouler des opérations de gestion de crise. Cette situation peut avoir des conséquences désastreuses en termes d'utilisation de leur puissance internationale : le spectacle des avions et des missiles israéliens financés par de l'aide américaine détruisant des installations civiles et policières palestiniennes largement financées par le contribuable européen fournit un exemple extrême et spectaculaire de l'impasse dans laquelle peut placer l'incapacité à influer sérieusement sur le cours des choses, tout en s'impliquant sur le plan matériel. L' évolution des événements dans les Balkans, où la situation est moins contrastée, donne aussi à réfléchir à plusieurs égards. En Bosnie comme au Kosovo, les fonds européens financent une situation qui a été largement le résultat de plans imposés par la force américaine, même s'il est juste d'ajouter que les plans de paix américains devaient beaucoup dans le cas de la Bosnie au plan Juppé et dans celui du Kosovo au quasi-accord de Rambouillet.
+Le problème posé par ces interventions est cependant celui de l'influence, ou si on préfère employer l'expression de Joseph Nye, du soft power autant que celui de la puissance brute, traduisible en termes de force militaire. Les Européens n'ont certes pas la gloire de figurer avec des mentions flatteuses sur leurs capacités militaires dans les bulletins de CNN, mais leur contribution à la remise sur pied de pays en guerre leur permet dans les meilleurs cas d'exercer une influence à long terme sur les sociétés de ces pays. Il s'agit ici de l'aide à la création d'États ou au moins de structures étatiques, dont l'Allemagne et d'autres en Europe centrale et orientale, l'Union européenne en Palestine et ailleurs, la France et le Royaume-Uni en Afrique, donnent aujourd'hui l'exemple. Il est probable que les États et les systèmes construits sur ces bases auront une tendance naturelle à se tourner vers l'Europe non seulement sur le plan interne, mais aussi sur les grands dossiers internationaux. Les Européens utilisent eux aussi leur avantage comparatif, avantage que leur concèdent les Américains.
+Il s'agit pour l'Union et pour ses États membres d'étendre le modèle " européen " sur le plan international, et d'assurer à celui-ci une légitimité d'autant plus grande que personne ne pourra le présenter comme l'effet d'une volonté de pouvoir. On retrouve là l'une des manifestations de l'influence dont les États-Unis étaient coutumiers jusqu'au milieu du Xxe siècle. Sans doute parce que Kagan préfère celles de la puissance classique à l'européenne, il semble les assimiler à un élément de faiblesse, mais la réalité ne colle pas exactement à cette affirmation. En fait, la concession que font les États-Unis, sous l'effet de leur politique intérieure, aux Européens de cette dimension de l'influence internationale a pour effet de diminuer leur propre influence. Comme l'écrit Joseph Nye dans un livre récent, l'utilisation de la force militaire, ou l'affirmation sans concession de sa puissance, ce que nous appellerions la mise en oeuvre d'un nationalisme traditionnel, peuvent en réalité diminuer l'influence réelle d'un pays en diminuant sa capacité à attirer vers lui les meilleurs esprits chez ses partenaires étrangers.
+Le fait pour les Européens de s'être spécialisés, certainement par défaut, dans cette dimension de la puissance internationale donne un surcroît de légitimité à leurs politiques étrangères, en particulier par contraste avec l'attitude des États-Unis. De là provient une plus grande capacité à créer des coalitions de circonstance sur les dossiers où les Américains sont isolés. L'environnement, les processus judiciaires internationaux, la lutte contre les inégalités dans le monde constituent des questions sur lesquelles les Européens n'ont pas nécessairement une attitude angélique ni même altruiste. Ils poursuivent des intérêts. Pourtant, il leur est fait crédit sur le plan international d'une posture " internationaliste " qui leur assure des soutiens ou à tout le moins une moindre opposition que ce n'eût été le cas s'ils avaient affirmé plus brutalement leurs positions. Croit-on par exemple qu'en matière agricole les Européens s'en tireraient à aussi bon compte dans leurs rapports avec le tiers monde s'ils n'avaient par ailleurs l'image d'un ensemble politico-économique conciliant ? Ne pas l'avoir noté représente, nous semble-t-il, l'une des faiblesses principales de la thèse de Kagan.
+D'un autre côté, Robert Kagan a parfaitement raison de penser que la création d'une entité nouvelle rassemblant des nations différentes, aux traditions et intérêts variés, rend difficile la traduction de la masse en puissance. Rapprocher des intérêts divers et parfois divergents tend à contraindre dans l'action, parce que les positions communes sont difficiles à atteindre, sont souvent le résultat de compromis diplomatiques plus formels que réels, et ne peuvent tenir que si chacun de leurs éléments est maintenu, ce qui ne facilite pas à proprement parler la souplesse dans les positions qui est inséparable de la réussite diplomatique. C'est pourquoi l'addition de capacités brutes n'équivaut pas à une puissance plus grande. Contrairement à ce que pensent et disent beaucoup de Français, plus grand ne veut pas nécessairement dire plus fort. Le processus d'élargissement de l'Union européenne en fournit une illustration, puisque chacune de ses étapes a conduit à une période de repli de l'Union sur le plan international, suivie il est vrai d'une réaction volontariste précisément destinée à éviter le délitement de la construction européenne. C'est la raison pour laquelle l'Europe-puissance est un slogan, une aspiration, plutôt qu'une réalité.
+Peut-être est-ce même une contradiction. Sur ce point, il convient d'aller plus loin que Kagan : ce sont les conceptions mêmes de ce que sont l'État et la société politique, et des fins qu'ils sont amenés à poursuivre, qui divergent entre pays européens. L' expérience historique du siècle écoulé est interprétée très différemment en Allemagne, en France et au Royaume-Uni. Pour faire court, on rappellera que les Allemands se méfient à la fois de l'État allemand centralisé, qui leur a apporté de grands maux, et de sa reproduction à l'échelle européenne. Plus que tout, ils se méfient de l'utilisation de la force militaire, dont il est raisonnable de dire qu'elle a entraîné pour l'Allemagne autant que pour ses voisins des conséquences désastreuses. Il n'est pas surprenant que les Allemands décrivent en majorité la Suisse comme le modèle qu'ils envisagent pour une Union européenne achevée. Pour les Français, l'État est au contraire l'expression de la nation, et la construction européenne est vue comme un moyen de magnifier l'influence française sur le plan international, tout en reproduisant les caractéristiques de l'État français au plan européen. D'où les hésitations françaises quant à l'expansion des compétences européennes, qui sont perçues sous une forme centralisée incompatible avec l'esprit d'un fédéralisme véritable et qui poussées à bout tendraient à abolir les prérogatives des États membres. La France entretient également une relation complexe à l'égard des alliances, perçues comme ayant échoué dans la première moitié du XXe siècle, ayant retenu la France dans ses tentatives de contenir la puissance allemande. Quant aux Britanniques, leur conception de la légitimité de l'utilisation de la force militaire les place aux antipodes de l'Allemagne, puisqu'ils peuvent légitimement lire l'histoire européenne contemporaine comme une justification pratique mais aussi morale de l'usage des forces armées. Leur lecture de la valeur des alliances quant à elle les place en désaccord direct avec les Français. Qu'on ajoute les problèmes spécifiques aux " petits " États, qui se méfient beaucoup d'un accord de leurs grands partenaires européens qui remettrait en cause leur faculté de défendre leurs intérêts propres, et l'image d'une " Europe-puissance ", ou même d'une Europe capable d'utiliser les instruments traditionnels de la puissance internationale, apparaît bien problématique. On en voit l'illustration dans le caractère largement déclaratoire de la politique européenne de sécurité et de défense, et de ses avatars antérieurs. C'est aussi la raison pour laquelle les Européens se spécialisent dans le soft power.
+Cependant, le trait ne doit pas être forcé. En premier lieu, parler d'Europe est toujours dangereux : les Britanniques et, dans une moindre mesure, les Français ont une conception plus traditionnelle de la puissance que beaucoup de leurs partenaires. Ils sont prêts à utiliser la force quand les autres moyens de recours sont épuisés. On le voit bien dans l'affaire du désarmement irakien où les positions britannique et française sont moins éloignées sur le fond qu'il n'y paraît, toutes deux soucieuses de renforcer le rôle du Conseil de sécurité des Nations unies, mais prêtes à faire entendre les armes si Saddam Hussein refuse de se conformer à ses obligations internationales. L'Espagne et l'Italie ont affirmé une attitude de principe assez proche. L'Allemagne a pris des positions très différentes, mais elle ne représente pas à elle seule l'Europe. Quand d'autres pays ont des problèmes bilatéraux à régler, telle l'Espagne lors de son différend avec le Maroc sur l'îlot de Persil pendant l'été 2002, il n'est pas rare qu'ils fassent entendre le langage de la force. La vision de l'Europe qu'a Kagan, de ce point de vue, est trop marquée par l'approche procédurière de l'Union européenne.
+Si l'Europe qu'il décrit est par trop marquée par Bruxelles, l'Amérique qu'il perçoit est quant à elle sans doute trop rêvée. Prend-il ses désirs pour des réalités ? Les États-Unis, même s'ils mettent moins de réserves à l'engagement armé que leurs partenaires européens, ne sont pas devenus une puissance sans limite. Ils demeurent même parfois curieusement pusillanimes. La campagne en Afghanistan en a fourni une illustration. Même en réponse à une attaque sanglante, de sang-froid et sans provocation comme celle du 11 septembre, les États-Unis ont manifesté une restriction tout " européenne " au sens de Kagan dans l'action militaire, quand il s'est agi de poursuivre les milices d'Al-Qaida dans les grottes de Tora Bora, puisque les troupes américaines n'ont pas engagé le combat et ont laissé l'essentiel des dirigeants et des forces terroristes s'échapper. Ce défaut d'engagement direct des forces qui caractérise la tactique militaire américaine dans les conflits récents s'explique sans doute par un désir compréhensible de ne pas exposer ses hommes au combat direct, mais il n'est pas l'expression d'un pays animé par l'esprit martial décrit par notre auteur comme animant l'Amérique. La dichotomie euro-américaine est sans doute beaucoup moins forte que celle que décrit Kagan. Et peut-être même inverse : on verrait mal les forces britanniques ou les forces françaises laisser dans des circonstances comparables s'échapper sans bataille les responsables d'attentats aussi meurtriers.
+Le vrai problème transatlantique tient surtout aux conceptions divergentes de l'action internationale qu'ont les partenaires américains et européens. Toute la question est de savoir ce qui est pertinent en matière de puissance internationale dans le monde d'aujourd'hui. Qu'elle est la vraie capacité à agir sur les événements : la puissance militaire ou la persuasion (soft power) ? Il existe des cas de plus en plus nombreux dans lesquels la force militaire est inutilisable, et donc impuissante. Cela est patent en matière de relations entre pays " occidentaux ", dans lesquelles on voit mal les États-Unis utiliser leurs armes. Celles-ci leur donnent dans ce cadre un prestige plus qu'une puissance. Mais c'est le cas de manière plus générale. Quand au début du mandat du président Bush un incident militaire se produisit en mer de Chine, l'Administration n'envisagea pas sérieusement de recourir à la force face à une puissance nucléaire : les " durs " eux-mêmes parlaient sanctions économiques et isolement diplomatique et non intervention militaire. Le nombre de cas où la force militaire joue aujourd'hui un rôle décisif est relativement réduit. Cela ne veut pas dire qu'il faille adopter une analyse angélique ou méprisante à l'égard de la pertinence des instruments militaires, comme c'est trop souvent le cas en Europe du Nord : l'expérience des Balkans montre leur pertinence. Encore faut-il que les instruments militaires soient adaptés aux situations concrètes : à quoi sert-il d'avoir des Apaches ou des B2 si leur engagement est rendu improbable par la crainte de les perdre ?
+L'important pour les partenaires transatlantiques est de se rapprocher sur ces points : avant de parler de faire de l'Europe une puissance, il s'agit de renforcer les moyens militaires de ses membres, et de se préoccuper prosaïquement des crises à régler. La conclusion à tirer de l'expérience balkanique, de ce point de vue, est que l'Europe aurait été mieux servie par une intervention ad hoc ou nationale quand Milosevic menaçait Dubrovnik que par d'ambitieux schémas institutionnels. Quant aux Américains, ils ne doivent pas devenir prisonniers de leurs moyens militaires : il leur faut se donner les moyens de contribuer à la solution des crises par d'autres moyens. S'ils laissent les Européens reconstruire après eux aux quatre coins du globe, ils feront de l'Europe ce qu'un observateur américain appelait récemment le centre moral du monde. Leur leadership n'en sera que plus contestable, et donc plus fragile car plus contesté.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+LE CENTRE FRANÇAIS SUR LES ÉTATS-UNIS (CFE)
+Préparé pour le Centre français sur les Etats-Unis
+L'Ifri est, en France, le principal centre indépendant de recherche, d'information et de débat sur les grandes questions internationales. Créé en 1979 par Thierry de Montbrial, l'Ifri est une association reconnue d'utilité publique (loi de 1901). Il n'est soumis à aucune tutelle administrative, définit librement ses activités et publie régulièrement ses travaux.
+Les opinions exprimées dans ce texte sont de la seule responsabilité de l?auteur.
+Le Centre français sur les Etats-Unis (CFE), créé au sein de l'Ifri en septembre 1999, a pour mission d'étudier les développements politiques, économiques et sociaux aux Etats-Unis, qui influencent l'image des Etats-Unis en France, ainsi que les relations européennes et transatlantiques. Il organise régulièrement des réunions rassemblant des décideurs des secteurs public et privé, et publie articles et Policy Papers sur des sujets pertinents pour l'étude des Etats-Unis et pour la relation franco-américaine.
+La Constitution des Etats-Unis répartit habilement les pouvoirs entre l'Exécutif et le Législatif, notamment en ce qui concerne l'engagement des forces armées sur des théâtres extérieurs. Ainsi, si l'Administration propose, le Congrès dispose et octroie ou non les pouvoirs de guerre au président. Ces prérogatives, limitées pendant la guerre froide par l'existence d'une menace majeure, ont été réaffirmées en 1973 avec l'adoption du War Powers Act, qui offre aux parlementaires un pouvoir de décision renforcé dans le déclenchement des conflits. Lors des différentes crises des années 1990, le Capitole a ainsi indiqué à la Maison-Blanche sa volonté de mettre en avant ses prérogatives, y compris quand les arguments justifiant l'intervention militaire étaient unanimement acceptés. La récente crise irakienne fut encore l'occasion de vifs débats institutionnels sur les pouvoirs de guerre, dans un climat politique marqué par l'après-11 septembre, et le renforcement du rôle de l'Exécutif. Les doutes exprimés récemment quant à la véracité des assertions de l'Administration Bush concernant les armes de destruction massive irakiennes sont susceptibles de relancer le débat sur les prérogatives de guerre des pouvoirs exécutif et législatif. Analysant les mécanismes des pouvoirs de guerre à Washington, cette étude se propose, à la lecture des engagements militaires récents, de mieux comprendre comment se projette la puissance américaine sur les théâtres extérieurs.
+The Constitution of the United States of America allocates adroitly the powers between the Executive and Congress concerning the dispatch of armed forces to foreign theatres. Therefore, if the Administration proposes, Congress considers, then allocates, or denies, war powers to the President. These prerogatives, which were limited during the Cold War because of the major threat, were reaffirmed in 1973 by the passing of the War Powers Act, which reinforced the capacity of congressmen to act in case of an outbreak of hostilities. During the different crises of the 1990s, Congress made clear its desire to assert its prerogatives, including when arguments in favour of military intervention had bipartisan support. The recent Iraqi crisis gave rise once again to heated institutional debates on war powers and the role of the Executive in a context which was still marked by September 11. Recent doubts over the veracity of statements of the Bush administration concerning Iraqi weapons of mass destruction are likely to set the debate on the martial prerogatives of the Executive and the Legislature raging once again. By analysing the mechanisms of war powers in Washington, this study proposes, by taking into account recent military action, to cast light on how US power is projected on foreign theatres.
+L'objectif de cette étude est double. Il s'agit de mesurer le rôle du Congrès des Etats-Unis en temps de guerre, que l'actualité récente de la question irakienne éclaire d'un jour nouveau, tout en dressant un tableau plus large qui s'appuie sur les crises majeures auxquelles Washington a fait face. Un tel travail devrait également permettre de rappeler la répartition des pouvoirs instituée par la Constitution, que les parlementaires ne manquent d'ailleurs jamais de rappeler. Il s'agit d'autre part, à la lumière des enseignements tirés du passé et du contexte actuel, d'évaluer les possibilités offertes à l'Administration Bush par les débats qui ont précédé la récente guerre en Irak, dont les parlementaires ont accepté le principe en septembre 2002, bien avant que les opérations ne commencent, en mars 2003. Cette étude permettra de mieux comprendre le rôle du Congrès en matière de politique étrangère, en particulier en ce qui concerne l'envoi de forces armées sur des théâtres extérieurs, qui, vu de l'étranger, en représente incontestablement l'aspect le plus significatif.
+Les pouvoirs de guerre, habilement répartis par les " pères fondateurs ", sont clairement définis dans la Constitution des Etats-Unis. Par ailleurs, en 1973, dans un climat général de détente, les membres du Congrès ont décidé, malgré le veto du président Richard Nixon, de voter le War Powers Act, qui donne plus de légitimité aux parlementaires dans les décisions prises en temps de guerre, en particulier dans le déclenchement des conflits.
+Mais la Constitution a également prévu de donner davantage de prérogatives au chef de l'Exécutif, qui est aussi le chef des armées, lorsqu'il s'agit de répondre à une menace de grande ampleur. En de telles circonstances, le président est le seul défenseur des institutions. En fait, ce sont surtout les garants de la Constitution, c'est-à-dire les parlementaires, qui ont accepté de limiter temporairement leurs pouvoirs pour faire face à une situation exceptionnelle, en privilégiant l'unité plutôt que le dialogue. Dans l'une de ses oeuvres majeures, Jean-Jacques Rousseau donne une définition du dictateur, investi de pouvoirs en cas de crise majeure : " Si le péril est tel que l'appareil des lois soit un obstacle à s'en garantir, alors on nomme un chef suprême, qui fasse taire toutes les lois et suspende un moment l'autorité souveraine. " C'est de ce modèle que les pères fondateurs se sont inspirés, et sur la base duquel est assuré le bon fonctionnement des institutions des Etats-Unis depuis plus de deux siècles.
+Depuis cette époque, toutefois, un certain nombre d'événements et d'initiatives ont quelque peu modifié les relations entre les pouvoirs exécutif et législatif en matière de politique étrangère. Du président ou du Congrès, il est parfois difficile de savoir qui a le dernier mot dans la prise de décision, et leurs choix peuvent s'inverser selon les circonstances. Les conséquences de cette double origine de la prise de décision ne sont pas les mêmes en temps de paix et en temps de guerre, quand les décisions doivent être prises rapidement et par un cercle restreint de dirigeants. De même, le processus de décision varie selon le niveau de la menace, ou plus exactement de la façon dont celle-ci est perçue. Durant la guerre froide, quand les intérêts des Etats-Unis pouvaient être rapidement menacés, le président avait la possibilité de prendre certaines initiatives dans l'urgence sans demander l'avis du Congrès, qui ne portait de jugement qu'a posteriori. Cette " présidence impériale " avait le mérite d'offrir une lecture simple de la politique étrangère, qui permettait une efficacité totale du processus décisionnel. C'est pourquoi " la plupart des professionnels de la politique étrangère estimaient que la concentration des pouvoirs dans les mains de l'Exécutif était une bonne chose ". Mais, progressivement, à partir de la fin de la guerre froide et de la disparition de la menace soviétique, les gouverneurs des Etats - et surtout les membres du Congrès - ont pris une place de plus en plus importante dans les décisions de politique étrangère, considérant qu'ils devaient être consultés en cas d'intervention extérieure.
+Bien que la question des pouvoirs de guerre n'ait jamais cessé d'être au coeur des débats de politique étrangère, elle connaît un regain d'importance avec l'intervention militaire contre l'Irak et la " croisade " antiterroriste engagée au lendemain des attentats du 11 septembre 2001. Les premières mesures proposées dans ce cadre ont été accueillies favorablement par une énorme majorité au Congrès, et souvent soutenues par autant de parlementaires démocrates que républicains. Ainsi, la loi sur la lutte antiterroriste, également appelée Patriot Act, a été adoptée par les sénateurs le 25 octobre 2001, en dépit d'un contenu parfois jugé attentatoire aux libertés civiles. Fait rare, un texte était adopté à peine six semaines après les attentats, dans un Sénat pourtant majoritairement démocrate, et sans susciter beaucoup de discussions. Les sénateurs ont également su taire leurs rivalités politiques pour critiquer les dysfonctionnements des services de renseignement, aussi bien lors des attentats du 11 septembre que dans le cadre des enquêtes sur le bio-terrorisme.
+Ce n'est donc qu'une fois la " phase deux " de la campagne antiterroriste engagée que les parlementaires ont réellement montré un certain scepticisme quant à l'opportunité de reconduire les pouvoirs exceptionnels accordés au président George W. Bush par le Patriot Act. Les divergences, qui avaient commencé à se manifester dès la campagne militaire en Afghanistan, ont pris une tout autre dimension avec les plans de guerre contre le régime de Saddam Hussein. Ainsi, même si les parlementaires ont soutenu, pour des raisons essentiellement politiques, le principe d'une campagne militaire en Irak, en octroyant, en septembre 2002, les pouvoirs de guerre au président George W. Bush, ils n'ont pas manqué de rappeler l'étendue de leurs prérogatives institutionnelles lors de multiples débats. Le 11 septembre, s'il a profondément bouleversé la perception de la sécurité aux Etats-Unis, n'a donc pas eu d'effet majeur sur la relation Exécutif/Législatif en ce qui concerne les pouvoirs de guerre. La position des parlementaires républicains en est la meilleure illustration : politiquement proches de l'Administration, ils sont favorables aux mesures de sécurité adoptées depuis les attentats de New York et de Washington, mais aussi particulièrement réactifs quand il s'agit de défendre leurs prérogatives constitutionnelles. Un tel constat permet de mieux appréhender les crises futures auxquelles les Etats-Unis devront faire face, et surtout de mieux décrypter les positions du Congrès.
+La question des pouvoirs de guerre n'est qu'une composante de la rivalité opposant l'Administration au Congrès, qui caractérise l'ensemble de la vie politique aux Etats-Unis. Dès lors que les conditions d'une intervention militaire sur un théâtre extérieur se trouvent remplies, les parlementaires mettent en avant les prérogatives qui leur sont offertes par la Constitution. Moins présents pendant la guerre froide, durant laquelle ils ont laissé au président une plus grande liberté d'action, les membres du Congrès sont revenus, depuis le début des années 1990, à une lecture plus fidèle des textes rédigés par les pères fondateurs, notamment à l'occasion de la guerre du Golfe (1990 - 1991). Il convient donc de s'attarder sur le principe constitutionnel de cette répartition des pouvoirs, puis sur la lecture qui en a été faite en fonction des circonstances et de la perception de la menace.
+La Constitution des Etats-Unis définit les pouvoirs du Congrès en matière de relations internationales par " la défense des intérêts nationaux, la régulation du commerce, la déclaration de guerre, et le soutien aux forces armées ". Ces prérogatives sont souvent rappelées par ceux qui défendent le rôle des parlementaires dans les affaires étrangères, en particulier depuis la fin de la guerre froide. De son côté, le président ne peut déclencher une guerre ni mener d'opérations militaires qu'avec l'accord de deux tiers des sénateurs, tout comme il ne peut, seul et sans l'aval du Congrès, nommer des ambassadeurs. En outre, le Congrès peut engager une procédure de destitution du président si celui-ci met en danger les intérêts de la nation. Ces pouvoirs sont d'autant plus déséquilibrés qu'il appartient également au Congrès de financer les différentes opérations, ce qui lui donne les moyens d'influencer considérablement la politique étrangère, voire de l'orienter dans une direction opposée à celle de l'Administration.
+En votant ou non le budget et les fonds accordés à des interventions extérieures, les parlementaires peuvent ainsi bloquer la politique étrangère de la Maison-Blanche chaque fois qu'ils considèrent qu'elle ne répond pas à leurs aspirations ou à celles des électeurs. Cet équilibre a été délibérément souhaité par les pères fondateurs. Rédigée il y a plus de deux siècles, la Constitution se présente avant tout comme un " garde-fou " et se veut la plus représentative possible des aspirations de la population.
+Fait intéressant, les présidents américains ont longtemps été sensibles à cette répartition des pouvoirs, qu'ils jugeaient totalement justifiée puisqu'elle permettait de servir au mieux la démocratie ; cela s'expliquait en grande partie à la fois par l'absence de menace extérieure pesant sur le pays et par la volonté de ne pas s'impliquer dans les questions internationales. Ainsi, Abraham Lincoln pouvait déclarer que " le texte de la Constitution donnant le pouvoir de guerre au Congrès était dicté, comme je l'ai compris, par l'impératif suivant : les rois ont toujours entraîné leurs peuples dans des guerres qui les ont appauvris, tout en prétendant généralement qu'elles étaient faites pour leur bien. Notre convention a compris qu'il s'agissait là de l'une des plus grandes formes d'oppression, et a fait en sorte qu'il ne fût pas dans le pouvoir d'un seul homme d'opprimer ainsi tous les autres ". Autre fait notable : c'est le Congrès qui décida, à l'occasion de la guerre contre l'Espagne, en 1898, de se lancer dans une opération militaire, ce qui eut pour effet de modifier en profondeur la politique étrangère du pays en mettant fin à un isolationnisme quasi continu depuis son indépendance. Ce fut aussi sous l'influence du Congrès que les Etats-Unis opérèrent un repli sur eux-mêmes après le traité de Versailles, ouvrant une ère de non-intervention qui ne prit fin qu'en 1941.
+Dans ses relations avec la Maison-Blanche, l'initiative du Congrès la plus significative pendant la guerre froide a été l'adoption, en 1973, du War Powers Act, dans un climat de détente caractérisé par les accords bilatéraux sur le désarmement, mais également par la guerre du Vietnam et le scandale du Watergate. Certains parlementaires souhaitaient limiter les pouvoirs du président afin d'éviter une escalade, comme sous Lyndon B. Johnson. D'autres, sensibles aux dérives du pouvoir présidentiel, illustrées par les problèmes du président Richard Nixon, ont simplement cherché à sanctionner l'Exécutif. A ce titre, il convient de noter que le consensus sur le War Powers Act, qui émanait pourtant du camp républicain, a largement dépassé le traditionnel clivage partisan, preuve qu'il s'agissait bien davantage d'une question de prérogatives institutionnelles que de l'expression d'idées politiques.
+Cette loi a pour objet de limiter les pouvoirs du président en cas de conflit armé, en faisant intervenir le Congrès de façon systématique dans la décision. Elle prévoit que le président, s'il veut engager le pays dans une opération militaire, doit au préalable obtenir l'accord du Congrès, soit à la suite d'une déclaration de guerre, soit en invoquant l'urgence nationale provoquée par une attaque contre le territoire du pays ou contre ses forces armées. Dans cette seconde hypothèse, le président doit, sous 48 heures, remettre un rapport aux présidents des deux Chambres pour rendre compte de ses actes, puis un autre six mois plus tard. Ces rapports sont délivrés aux parlementaires, qui jugent de la légitimité de l'opération et de sa poursuite. Les enseignements que l'on peut tirer de ce dispositif sont multiples. D'une part, dans un climat marqué par la détente entre les deux blocs et la diminution de certaines menaces - la loi faisait suite à la signature des accords SALT (Strategic Arms Limitation Talks) avec l'URSS -, les parlementaires souhaitaient contrôler les opérations extérieures en allant au-delà de que ce que leur permettait la Constitution. D'autre part, ce contrôle supposait une diminution du nombre d'interventions à l'étranger, qui seraient sélectionnées en fonction de leur importance. Ce dispositif concernait en priorité les opérations de faible intensité, dans lesquelles les intérêts des Etats-Unis n'étaient, en général, pas menacés de façon substantielle.
+Pendant les années 1980, le retour d'une certaine tension internationale a permis de concilier l'affirmation de l'autorité du président sur les questions stratégiques majeures avec le rôle accru du Congrès dans les interventions plus limitées. Celles-ci restent d'actualité après la fin de la guerre froide et offrent aux parlementaires la possibilité de bloquer les initiatives jugées inopportunes de la Maison-Blanche. De cette manière, les pouvoirs du président dans la conduite d'un conflit armé sont encore plus limités, le chef de l'Exécutif devant faire approuver ses initiatives par le Congrès. De nombreuses voix ont demandé la suppression de ce texte ou, au contraire, plaidé pour son maintien dans un environnement post-guerre froide.
+A la suite des opérations en Bosnie, en 1995, un certain nombre de parlementaires ont ainsi demandé que le Congrès exerce un contrôle plus étroit sur la politique étrangère du pays, exigeant notamment que toute opération extérieure souhaitée par le président obtienne l'accord explicite des parlementaires. Ces initiatives, approuvées par la majorité des parlementaires et souvent bipartisanes, illustrent une tendance au renforcement des pouvoirs du Congrès - et en particulier de ceux de la Chambre des représentants - en matière de décision de projection de forces ou d'engagement dans un conflit armé.
+La bonne conduite de la politique étrangère des Etats-Unis suppose une complémentarité des pouvoirs exécutif et législatif. Le président, en vertu des pouvoirs qui lui sont conférés par la Constitution, peut proposer une opération militaire et l'engagement des forces armées. De son côté, le Congrès a le pouvoir de juger et de décider si ces orientations doivent ou non être suivies. Ainsi, le président propose et le Congrès dispose. De cet équilibre, fragilisé en temps de cohabitation, dépend la cohérence des orientations du pays en matière de relations internationales. Cependant, la Constitution elle-même, en donnant des pouvoirs aux différents organes, ne répond pas totalement à la question de savoir qui détient la véritable autorité dans la prise de décision. En effet, les parlementaires ont le pouvoir de bloquer les propositions du président, influençant de cette façon les choix de politique étrangère. Dans certaines circonstances, le Congrès peut même orienter positivement les choix de l'Exécutif en faisant pression sur des dossiers qui lui tiennent à coeur. Ce fut le cas au cours des années 1980, quand les parlementaires imposèrent au président d'adopter des sanctions à l'égard de l'Afrique du Sud, en proposant, à la suite de rapports des commissions concernées, un certain nombre de résolutions auxquelles la Maison-Blanche ne put se soustraire. Ce fut également le cas pour les relations avec Cuba lors de l'adoption de la loi Helms-Burton sur les sanctions économiques et commerciales, en 1996.
+Dans l'ensemble, le Congrès dispose de prérogatives lui permettant, quand le cas se présente, de bloquer les initiatives présidentielles ou, à l'inverse, de les influencer, voire même de les forcer. En temps de guerre, ou sous la pression d'une menace pesant sur les intérêts vitaux du pays, un consensus bipartisan offre en revanche au chef de l'Exécutif de plus larges pouvoirs en matière de politique étrangère, ce qui lui permet de prendre des initiatives sans en aviser le Congrès au préalable. Certains experts remarquent que le président ne respecte que rarement le War Powers Act et ne laisse au Congrès l'appréciation d'une intervention qu'une fois celle-ci engagée. Ce renforcement du pouvoir présidentiel s'explique principalement par les lenteurs du processus législatif et l'inefficacité des débats partisans en cas de crise soudaine. C'est ainsi que le chef de la Maison-Blanche justifie le plus souvent l'engagement de forces armées, quand celui-ci n'a pas été décidé avec l'accord du Congrès, qui lui est normalement indispensable, par la lecture de la Constitution.
+La présidence " impériale ", héritée de la Seconde Guerre mondiale et maintenue pendant la guerre froide, a eu pour effet de neutraliser totalement les parlementaires dans le domaine des relations internationales. Ce fut le cas lors de la guerre de Corée. Le président Harry S. Truman n'a pas consulté les parlementaires pour engager le pays dans le conflit, et Dwight D. Eisenhower, son successeur, a habilement usé de son influence et des pouvoirs dont il disposait pour se retirer trois ans plus tard de la péninsule. Par la suite, la guerre froide a été marquée par une multitude d'actions initiées par l'Administration, sans que le Congrès ait la possibilité de faire valoir ses droits constitutionnels, et ce, jusqu'à la fin des années 1980 et l'arrivée au pouvoir de George H.W. Bush. Une telle attitude du président était légitimée par la menace que faisait peser l'Union soviétique, si bien que même les plus fervents défenseurs du War Powers Act, comme Jacob K. Javits, le sénateur républicain de New York qui avait été à l'origine du texte, ne discutèrent pas la décision du président Ronald W. Reagan d'envoyer, sans consultation préalable, des marines au Liban, en 1983. Avec autant d'admiration que de scepticisme, Michael Beschloss explique à ce propos que " le président était le centre du système solaire politique américain, le centre de la politique étrangère et intérieure, et la personne la plus puissante du gouvernement ".
+Certains experts estiment légitime de donner au président des pouvoirs plus importants en cas de crise majeure ou quand les intérêts du pays sont directement menacés. Dans de telles situations, les statuts sont exceptionnellement modifiés, et le président assume pleinement son rôle de chef des armées sans que le Congrès vienne s'interposer. D'ailleurs, même les pères fondateurs n'avaient pas hésité à offrir au président des pouvoirs renforcés pour répondre de façon plus efficace aux menaces que représentaient les deux grandes puissances de l'époque, le Royaume-Uni et la France. Les mêmes arguments justifièrent la " présidence impériale " de la Seconde Guerre mondiale, puis celle de la guerre froide, les Etats-Unis étant directement menacés par l'Union soviétique, notamment par le biais des armes nucléaires. David Calleo estime ainsi que, " depuis Franklin D. Roosevelt, les Etats-Unis ont connu un long cycle de déséquilibre constitutionnel au profit d'un président - un cycle qui s'est prolongé avec la guerre froide ". Ainsi, et même après le vote du War Powers Act, chacun était conscient que le président pouvait agir seul en cas de crise majeure.
+Ce consensus sur la légitimité de la toute puissance de l'Exécutif a permis de clarifier la politique étrangère pendant plusieurs décennies, qui sont marquées par les bonnes relations qui ont prévalu entre les Administrations successives et le Congrès. Dans le même temps, cela a eu pour effet d'affaiblir les commissions chargées des affaires internationales, tant à la Chambre des représentants qu'au Sénat. Un officiel de l'Administration de Ronald W. Reagan a même déclaré, à propos de la perte d'importance de ces commissions, que " l'une était morte dans le vin, et que l'autre s'était fragmentée en petits empires ". Cela s'expliquait notamment par le fait que les parlementaires privilégiaient d'autres commissions, grâce auxquelles ils pouvaient avoir une plus grande influence, de façon plus nette encore à la Chambre des représentants qu'au Sénat. Certes, quelques tentatives de reprise en main de la politique étrangère par le Congrès se sont manifestées, notamment en 1939, quand ce dernier s'est opposé à l'intervention militaire en Europe ; mais les parlementaires, jusqu'à la fin des années 1980, n'ont pas été en mesure d'opposer de résistance significative à l'Administration, celle-ci prenant seule les décisions importantes en temps de crise.
+En 1988, certains parlementaires, conscients que le War Powers Act pouvait être utilisé à des fins purement politiques, et donc menacer la sécurité des citoyens, ont proposé de le remplacer par un Use of Force Act, qui laissait au président la possibilité de venir en aide aux ressortissants des Etats-Unis mis en danger hors du territoire national. Cette requête répondait aussi bien aux nouvelles menaces émanant de groupes terroristes qui multipliaient les enlèvements et les prises d'otages, qu'aux conflits de faible intensité auxquels des Américains étaient directement exposés (République dominicaine, Panama, Grenade) : l'Administration, paralysée par des contraintes constitutionnelles, n'avait pu régler rapidement ces questions.
+Limité pendant la guerre froide, tant par la nécessité de se ranger derrière l'autorité du président que par l'absence d'une réelle expertise des questions extérieures, le Congrès, après la disparition de l'Union soviétique, a renoué avec une lecture plus fidèle de la Constitution. C'est ainsi que les parlementaires ont peu à peu rassemblé de véritables équipes d'experts et usé de leurs prérogatives à chaque occasion, aussi bien du fait des clivages politiques les opposant à la Maison-Blanche (la décennie 1990 a été marquée par une opposition partisane quasi permanente entre l'Exécutif et le Législatif) qu'en raison de l'absence de menace extérieure qui, selon les textes de Jean-Jacques Rousseau et des pères fondateurs, pouvaient justifier l'apathie du Congrès.
+La guerre du Golfe est souvent citée comme l'exemple d'un parfait succès de la machine de guerre des Etats-Unis, de leur habileté à réunir des coalitions ad hoc et de leur unité dans l'épreuve. Parallèlement à ces bons résultats, la crise du Golfe, qui a précédé l'intervention armée, a vu s'opposer au Congrès les partisans de l'intervention et les opposants à la guerre, plaçant souvent l'Administration de George H.W. Bush dans une position délicate, avant que les relations entre l'Exécutif et le Législatif se normalisent et que les opérations puissent commencer. Rapidement conscient que l'argument de l'invasion du Koweït, s'il permettait de légitimer l'adoption de résolutions au Conseil de sécurité des Nations unies, ne pouvait justifier l'utilisation de la force, ni l'envoi de plusieurs dizaines de milliers d'hommes dans la région, le président George H.W. Bush n'a eu de cesse de placer les questions relatives à la défense de l'Arabie Saoudite au centre des discussions. Par extension, la guerre contre l'Irak devenait peu à peu une croisade du " Bien " contre le " Mal ", dans laquelle les Etats-Unis ne défendaient pas uniquement des intérêts nationaux, mais l'équilibre du monde libre.
+Ainsi, dès l'invasion du Koweït, le Sénat, suivi de peu par la Chambre des représentants, s'est rangé derrière le président, lui demandant d'agir avec tous les moyens nécessaires pour obtenir le retrait des forces irakiennes. Comme l'expliquait à l'époque Yves Boyer, " cette harmonie entre l'Exécutif et le Législatif ne faisait que traduire le soutien massif de l'opinion publique, approuvant à 70 % cette action ". En réalité, il s'agissait plutôt d'une manoeuvre de la Maison-Blanche, exécutée en période de congés parlementaires de façon à éviter les critiques du Capitole, une politique active de communication devant permettre de s'assurer un soutien populaire. Dick Cheney, alors secrétaire à la Défense, reconnut d'ailleurs que " le fait que le Congrès soit en congé fut un avantage. Nous pouvions profiter du mois d'août pour faire ce que nous avions à faire, plutôt que de s'expliquer devant lui ". L'harmonie masquait un choix délibéré de l'Exécutif pour éviter que les débats institutionnels ne retardent l'adoption de résolutions et n'empêchent l'envoi de forces armées au Moyen-Orient.
+Mais l'euphorie du mois d'août fut de courte durée. Le Sénat ne tarda pas à inviter le président à venir se présenter devant le Congrès pour expliquer ses plans. L'argument de la défense du pays étant rapidement écarté, les parlementaires rappelèrent au chef de l'Exécutif que les pouvoirs de guerre étaient reconnus par la Constitution et que toute opération extérieure devait recevoir leur aval. En effet, si des pouvoirs exceptionnels peuvent être attribués au président en cas de situation d'urgence, il n'en va pas de même en cas d'envoi de troupes sur un théâtre extérieur dans le cadre d'une grande offensive, quelle qu'en soit d'ailleurs la justification. Et le fait que les deux Chambres étaient alors majoritairement démocrates n'a fait que renforcer la vigueur du Congrès face aux propositions de l'Exécutif républicain.
+Le président George H.W. Bush, conscient que le soutien du Congrès ne lui était pas acquis, en dépit de l'approbation constante de l'opinion publique au principe d'une intervention en Irak, a longtemps justifié le fait de ne pas se présenter devant les parlementaires en se prévalant des résolutions du Conseil de sécurité des Nations unies. Harry S. Truman avait fait de même en 1950 dans la guerre de Corée : il avait envoyé des troupes sans en informer le Congrès, en se fondant sur les résolutions de l'ONU. Mais le War Powers Act n'existait pas à cette époque, et le cas de la crise du Golfe est donc différent de celui de la guerre de Corée. Toutefois, en 1990 comme en 1950, le principe de l'intervention s'appuyait essentiellement sur les résolutions du Conseil de sécurité, qui devaient l'emporter sur les considération de politique intérieure, du moins aux yeux de l'Administration.
+Le 17 septembre 1990, interrogé sur la question des pouvoirs de guerre, Dick Cheney estimait que le War Powers Act pouvait être considéré comme inconstitutionnel, dans la mesure où il imposait des limites aux prérogatives constitutionnelles du président, notamment dans son rôle de chef des armées. De tels propos illustrent l'option qui fut choisie par l'Administration : adopter la même position que sous les Administrations Reagan et éviter autant que possible de se présenter devant des parlementaires hostiles, sans pour autant avoir le moindre argument permettant de justifier une telle attitude. Cet épisode met en évidence le fait que, de façon générale, le War Powers Act n'a jamais été reconnu comme constitutionnel par l'Exécutif, qui a toujours considéré qu'il octroyait un pouvoir abusif au Congrès. En ce sens, l'Administration de George H.W. Bush ne faisait que reprendre une rhétorique déjà utilisée précédemment, et qui a continué d'être employée par la suite.
+Le sénateur Sam Nunn (démocrate, Géorgie), alors président de la commission des Forces armées, fut le premier des parlementaires à s'élever contre la décision d'envoyer des troupes en Irak. Parmi les initiatives les plus marquantes, il invita plusieurs personnalités à témoigner et à lui apporter leur soutien contre la guerre. Ainsi se succédèrent au Capitole l'amiral William Crowe, le général David Jones, l'ancien secrétaire à la Défense James Schlesinger, l'ancien secrétaire à la Marine James Webb, et l'ancien directeur du National Security Council, William Odom. Chacun s'éleva contre la guerre, usant d'arguments aussi variés que l'inutilité d'une telle campagne, la mauvaise adaptation des forces armées à ce type d'opération, les risques de pertes humaines, les conséquences du conflit sur la stabilité de la région et du monde en général, et la nature des objectifs à long terme (ce point étant le plus intéressant, puisqu'il concerne les relations entre les pouvoirs exécutif et législatif en temps de guerre). Seul Henry A. Kissinger, également invité par Sam Nunn, ne partagea pas l'opinion des autres personnalités, considérant qu'il n'y avait pas d'autre option que d'engager les forces armées, et que les parlementaires devaient soutenir en bloc l'Administration.
+Les réactions du président aux critiques du Congrès montrèrent à la fois son agacement et son impuissance. Considérant qu'il était de son devoir de prendre des décisions rapidement, notamment du fait des otages détenus à Bagdad, il refusa néanmoins toute option consistant à intervenir sans consulter le Congrès, à défaut d'obtenir son accord. Comme il l'écrivait dans son journal, le 28 novembre 1990 :
+" Le débat fait rage à présent, et Sam Nunn, qui, selon moi, vise la présidence, essaie de voir jusqu'où il peut aller. Richard Gephardt "rompt" avec le président en disant : "Non au recours à la force, les sanctions doivent porter leurs fruits.'' Aucun d'eux ne semble se soucier du sort des otages ; aucun ne partage mon inquiétude pour notre ambassade... Quelle ironie de voir la droite isolationniste se ranger aux côtés de la (vieille) gauche incarnée par Kingman Brewster (qui exprimait le) syndrome du Vietnam ! Bob Kerrey, un vrai héros de la guerre du Vietnam, et John Glenn, un autre héros, répètent : "Pas de recours à la force, pas de recours à la force"."+
" (...) Notre rôle de leader mondial sera de nouveau réaffirmé, mais, si nous acceptons des compromis et que nous échouons, nous serons réduits à l'impuissance totale, et il n'est pas question que cela se produise. Peu importe que le Congrès vote ou non. Cela n'arrivera pas... et je tiens à impliquer le Congrès. Le grand débat continue à propos de la déclaration de guerre, mais l'important, c'est que nous avons besoin d'eux ; et je continuerai à les consulter. "+
Ce mépris de la Constitution, même justifié à certains égards, a eu pour effet de renforcer les rangs des opposants au principe de l'intervention, en radicalisant les positions des uns et des autres. Comme l'expliquait à l'époque Stanley Hoffmann, " la réticence de l'Exécutif à soumettre sa politique au contrôle des parlementaires, en vertu de la législation sur les pouvoirs de guerre, a suscité de fortes tensions ".
+Peu à peu, des élus républicains modérés se sont joints aux remarques de Sam Nunn, acceptant le principe d'une intervention, mais demandant à George H.W. Bush de se présenter devant le Congrès. Ainsi, William Cohen, alors sénateur républicain du Maine, estimait que " le président devait énoncer sa proposition et demander au Congrès s'il approuvait ou non, et jusqu'à quel point, ses objectifs politiques ". En d'autres termes, les parlementaires du propre camp du président souhaitaient que celui-ci respecte le War Powers Act, et ce, d'autant que le Grand Old Party (GOP, le Parti républicain) en avait été l'instigateur. D'autres élus républicains, comme le très influent Richard Lugar (sénateur de l'Indiana), se sont élevés contre la guerre en invoquant que le fardeau serait supporté essentiellement par les Etats-Unis. L'argument était de faire payer davantage aux alliés le coût de l'opération (notons au passage que ce sont des revendications que Richard Lugar a maintes fois répétées au cours de la décennie 1990, et qui ont été suivies par un nombre croissant de parlementaires). Ces demandes n'ont cependant pas été jugées recevables en 1990, le Congrès applaudissant au contraire la capacité de George Bush et de James Baker à former une coalition et à répartir le coût des opérations entre les alliés.
+Côté démocrate, l'opposition était encore plus radicale, certains sénateurs, comme Edward Kennedy (démocrate, Massachusetts), voulant à la fois empêcher George H.W. Bush d'agir seul et prendre part aux décisions politico-militaires. La presse libérale s'en est mêlée, le New York Times citant même à titre d'exemple Edouard Chevarnadze, alors ministre des Affaires étrangères de l'Union soviétique, qui jugeait que " toute utilisation des troupes soviétiques hors des frontières suppose une décision du parlement soviétique ". Fait étonnant, ce fut George Mitchell, alors leader de la majorité démocrate au Sénat, qui vint au secours de l'Administration de George H.W. Bush, expliquant que le moment était mal choisi pour demander au président de s'expliquer devant les parlementaires, avant d'inciter le Sénat, avec Robert Dole (républicain, Kansas), à adopter une résolution soutenant l'action du président (finalement adoptée le 2 octobre 1990, avec seulement 3 voix contre). Cela ne l'empêchera pas toutefois de remarquer quelques semaines plus tard, à quelques heures du début de la campagne, que " le président n'a pas consulté le Congrès sur cette décision ; il n'a pas cherché le soutien du peuple américain. Il l'a simplement fait ". Ce qui prouvait que, même en temps de crise, l'unité du pays restait fragile, et que la politique partisane demeurait au centre des discussions.
+Au fur et à mesure que l'échéance du 15 janvier 1991 approchait, les positions des uns et des autres se firent de plus en plus nettes, certains n'hésitant pas à évoquer l'impeachment si le président choisissait de ne pas se présenter au Capitole. George H.W. Bush s'inquiéta de la volonté du régime irakien de se doter d'armes de destruction massive, ce à quoi Al Gore, alors sénateur (démocrate, Tennessee), répliqua qu'il s'agissait d'une manoeuvre maladroite destinée à gagner le soutien du Congrès. Se sentant dans une situation de plus en plus délicate, le président comprit que la guerre était inévitable, et que son issue déterminerait son propre avenir politique. Il estimait en effet que la mauvaise conduite des opérations pouvait lui coûter cher, tandis qu'une victoire facile ne renforcerait pas nécessairement sa position face au Congrès et à ses adversaires politiques. Ainsi, comme il l'écrivait dans son journal, le 20 décembre 1990 :
+" Si la guerre est rapide, avec le moins de pertes possible, quoi que cela veuille dire, et que Saddam essuie une défaite fulgurante, je devrai en partager le mérite avec le Congrès et le monde entier. En revanche, si cela s'éternise, non seulement on va m'en tenir responsable, mais on va probablement entamer une procédure de destitution contre moi, comme l'a dit Dan Inouye. "+
Dernier acte avant le déclenchement des opérations militaires, et pas des moindres, James Baker rencontra Tareq Aziz, alors ministre des Affaires étrangères de l'Irak, à Genève, le 9 janvier 1991. Il lui remit une lettre de George H.W. Bush adressée à Saddam Hussein, enjoignant le dirigeant irakien de retirer ses troupes de Bagdad pour éviter une intervention armée. Cette lettre contenait également les phrases suivantes : " Les Etats-Unis ne toléreront pas l'usage d'armes chimiques ou biologiques, ni la destruction des sites pétroliers du Koweït. Le peuple américain réclamerait à ce moment-là la riposte la plus violente possible ", sous-entendu l'utilisation d'armes nucléaires contre le régime de Bagdad. En d'autres termes, le président brandissait la menace nucléaire - celle-ci, à l'inverse des pouvoirs de guerre, étant placée sous sa seule autorité - en justifiant sa fermeté par le soutien de l'opinion publique. De tels propos sont à replacer dans leur contexte, dans la mesure où George H.W. Bush n'avait pas encore obtenu le soutien officiel du Congrès, qui n'interviendra que trois jours plus tard.
+Le 12 janvier 1991, la Chambre des représentants devait s'exprimer au sujet de la résolution Michel-Solarz, qui approuvait le recours à la force pour atteindre les objectifs fixés par les Nations unies ; sa jumelle au Sénat était la résolution Dole-Warner. La première fut adoptée à 250 voix contre 183, et la seconde à 52 contre 47, soit la plus petite majorité jamais constatée lors d'une déclaration de guerre de toute l'histoire des Etats-Unis. Deux autres résolutions concurrentes avaient été proposées à la Chambre : la résolution Durbin-Bennett, qui rappelait que le Congrès pouvait seul prendre l'initiative de déclarer la guerre, et la résolution Gephardt-Hamilton, qui encourageait la poursuite des sanctions économiques et refusait la guerre. Toutes deux furent rejetées. Ainsi, il a fallu attendre la date butoir du 15 janvier 1991 pour que les opposants à la guerre voient leurs initiatives repoussées et que le Congrès apporte son soutien à l'Administration. Ces votes indiquent sans aucun doute que les parlementaires étaient conscients de la situation de blocage qu'aurait entraînée un refus à l'avant-veille des opérations, et du risque encouru pour la coalition dans son ensemble. Une fois les troupes prêtes à l'assaut, ce refus aurait en effet été mal ressenti, tant par l'opinion publique aux Etats-Unis que par la communauté internationale. George H.W. Bush a reconnu plus tard avoir alors compris que " la plupart des sénateurs et des parlementaires seraient obligés de nous soutenir si nous déclarions la guerre sans eux, mais qu'ils se trouveraient en mauvaise posture si je réclamais officiellement une déclaration de guerre ou bien une résolution de soutien au recours à la force ". Mais, finalement, comme l'expliquent Lawrence Freedman et Efraim Karsh, " la décision critique (de lancer l'offensive), comme tant d'autres pendant la crise, fut prise par un nombre relativement limité de personnes ".
+Certains experts considéraient, après la fin des hostilités, que le Sénat serait, à l'avenir, moins hostile à l'envoi de troupes à l'étranger que lors du vote du 12 janvier, et prédisaient un avenir radieux pour les futures Administrations, qui disposeraient d'un " mandat " offert par les parlementaires en matière de pouvoirs de guerre. Ce ne fut pas le cas. En fait, les débats décrits ici, s'ils n'ont pas eu pour effet de bloquer la décision de George H.W. Bush de s'engager dans une guerre contre l'Irak, ont eu des conséquences à plus long terme. C'est en effet à partir de la crise du Golfe que le Congrès a retrouvé une certaine légitimité en matière de pouvoirs de guerre, les parlementaires n'hésitant plus à faire valoir leurs prérogatives face à l'Exécutif. L'absence de menace, l'opposition politique quasi constante et l'héritage de l'expertise acquise alors (c'est pendant cette période que de véritables groupes d'experts vont se constituer au Congrès, ceux-ci se généralisant par la suite avec l'apport dans le camp républicain d'anciens membres des Administrations Reagan et Bush) en furent la cause. L'argument, présenté par Anthony Lake quelques années plus tôt, étant également que " le débat démocratique produit plus facilement que la doctrine des décisions importantes en matière de politique étrangère ".
+Pendant les huit années de présidence de Bill Clinton, et de façon encore plus nette après le double succès des Républicains aux élections de la mi-mandat en novembre 1995, le Congrès exprima son désaccord sur les questions relatives aux affaires étrangères, notamment en ce qui concerne l'envoi de forces armées sur des théâtres extérieurs. Mais le président et l'Administration furent confrontés à une opposition qui se montra bien plus sensible à la question de la répartition des pouvoirs qu'aux clivages politiques traditionnels. Ces débats, renouvelés à l'occasion des différentes crises auxquelles l'Administration Clinton fit face, nous permettent de mieux comprendre dans quelle mesure la fin de la guerre froide a bouleversé la relation Exécutif/Législatif dans le domaine des pouvoirs de guerre. Pour la première fois, en effet, le Congrès a été en mesure de bloquer les initiatives présidentielles, ne se contentant pas d'exprimer des réserves, mais faisant pleinement usage de ses prérogatives. C'est également pendant cette période que les réseaux d'influence du Congrès se sont considérablement renforcés, notamment par la montée en puissance des commissions chargées des questions internationales, ce qui marqua de façon durable le retour des parlementaires dans le processus d'élaboration de la politique étrangère.
+Depuis que les Etats-Unis sont devenus la seule superpuissance, les débats portant sur les relations internationales et les interventions à l'étranger se sont déplacés vers des considérations de politique intérieure, où le Congrès, et plus particulièrement la Chambre des représentants, se fait directement l'écho de " la voix de l'Amérique ". Pour conserver toute sa crédibilité et s'assurer une cote de popularité acceptable, le président doit se montrer sensible aux revendications de ses concitoyens, même si celles-ci vont parfois à l'encontre des engagements internationaux du pays ; mais il doit aussi prendre en considération les débats au Congrès, pour que les deux pouvoirs ne soient pas en opposition. Cela est d'autant plus perceptible en temps de gridlock (littéralement " gros embouteillage ", mais il s'agit plutôt ici d'une forme de cohabitation politique), quand le président et l'une des deux (voire les deux) Chambres ne défendent pas les mêmes options. Cependant, l'opposition entre le Capitole et la Maison-Blanche a largement dépassé, sous Bill Clinton, le simple clivage politique, répondant surtout à une différence d'appréciation de la Constitution.
+En prenant le contrôle de la Chambre des représentants à l'occasion des élections de 1994 (230 sièges sur 434), les Républicains retrouvaient la majorité pour la première fois depuis 1954, mettant ainsi fin à 40 ans de domination démocrate. Au Sénat, si le GOP a parfois gagné des élections législatives, les Républicains n'ont été majoritaires qu'à dix reprises depuis 1945. Au total, ils n'ont contrôlé simultanément les deux Chambres que six fois : entre 1947 et 1949, entre 1953 et 1955, et entre 1995 et juin 2001, soit seulement durant 10 années, contre 40 ans pour les Démocrates, et six ans de partage des pouvoirs. Enfin, jusqu'à l'élection de George H.W. Bush, les Républicains n'ont été qu'une seule fois à la tête des trois pouvoirs (Maison-Blanche, Sénat, Chambre des représentants) : c'était entre 1953 et 1955, sous la présidence de Dwight D. Eisenhower. Quant aux Démocrates, ils ont connu cette situation à dix reprises, soit durant 20 ans ; mais le président Bill Clinton n'en a bénéficié que pendant les deux premières années de son premier mandat, entre 1993 et 1995.
+En 1994, Louis Fisher signalait le souhait exprimé par Bill Clinton de poursuivre la politique de son prédécesseur de ne pas consulter systématiquement le Congrès en cas d'opérations militaires extérieures. Fortement contesté par ceux qui défendaient les initiatives de l'Exécutif, le War Powers Act a même été présenté comme un texte dépassé et devant être redéfini, non seulement à la lumière des difficultés rencontrées par George H.W. Bush en 1990, mais également en raison de la généralisation des crises de faible intensité. En effet, Washington a été confronté à un nombre croissant de conflits limités n'engageant que de loin ses intérêts, et pour lesquels la consultation du Congrès n'était pas forcément jugée nécessaire, les parlementaires se montrant assez peu sensibles au déroulement d'opérations engageant des forces limitées. Pourtant, c'est pendant cette période qu'ils ont mis en avant les prérogatives que leur offre la Constitution et qu'ils n'ont pas hésité à se prononcer sur toutes les initiatives de l'Administration en matière d'engagement des forces armées. Ainsi, à l'occasion de toutes les opérations extérieures auxquelles l'Administration Clinton a pris part, de nombreuses voix se sont élevées au Congrès pour contrer la position de l'Exécutif.
+Entre 1992 et 2000, l'Irak fut au centre des préoccupations des parlementaires, qui se sont intéressés aux différentes options recherchées par l'Administration et n'ont pas manqué de rappeler l'importance de la Constitution. Ce fut notamment le cas en 1996. John McCain estimait alors que " notre capacité à entreprendre des actions disproportionnées et efficaces, nécessaires en de telles circonstances, ne doit pas être mise en cause par les conséquences de notre échec à préserver l'unité de la coalition ". Ces débats se sont encore poursuivis, les parlementaires n'hésitant pas à proposer une résolution sur l'avenir du régime irakien, se donnant ainsi le premier rôle dans l'élaboration de la politique étrangère. Défendant cette résolution, Thomas Lantos (démocrate, Californie) précisait que son " objectif (...) était de montrer clairement et sans équivoque à Saddam Hussein et à son gouvernement que le Congrès soutient l'usage de la force militaire en cas de nécessité. Il ne doit y avoir aucun doute ni sur l'importance de la poursuite des inspections, comme le stipulent les décisions du Conseil de sécurité des Nations unies, ni sur la volonté du gouvernement des Etats-Unis, ni sur le soutien du peuple américain si une action militaire était nécessaire ".
+Cette montée en puissance du Congrès allait de pair avec de vives critiques à l'égard de l'Administration Clinton, certains parlementaires allant jusqu'à juger que sa politique vis-à-vis de l'Irak n'était pas clairement définie. Ainsi, le sénateur conservateur Charles Hagel (républicain, Nebraska) estimait que " notre défense nationale est garante de notre politique étrangère. Je ne sais pas si nous avons une politique de long terme en Irak, à part celle de maintenir les sanctions décidées par les Nations unies et d'imposer leurs résolutions, mais ceci ne constitue pas une politique étrangère. Si nous devons un jour conduire les Etats-Unis à la guerre, ce doit être pour imposer notre politique étrangère - faire seulement la guerre n'est pas suffisant. Nous devons imposer une politique d'ensemble et de long terme. Les raisons d'une entrée en guerre doivent reposer sur bien autre chose que la seule mise en oeuvre de sanctions à court terme ".
+C'est donc sous la présidence de Bill Clinton que le Congrès a retrouvé ses prérogatives en matière de politique étrangère, non seulement du fait de l'opposition partisane entre les pouvoirs exécutif et législatif et de l'absence de menace extérieure pesant sur le pays, mais également en raison de la montée en puissance de certaines institutions-clefs du Congrès - les commissions - et de ceux qui les président.
+Fil conducteur de la politique étrangère des Etats-Unis au même titre que la relation avec l'Irak, l'engagement dans les Balkans a révélé des divergences de vue entre les pouvoirs exécutif et législatif. Mais, plus qu'une opposition liée à des particularismes politiques, les crises successives en Bosnie et au Kosovo ont surtout souligné la volonté des parlementaires d'être consultés préalablement à toute intervention extérieure.
+En 1993, les débats sur la possibilité d'un engagement militaire en Bosnie se sont accompagnés de nombreuses critiques sur le coût des opérations, la nécessité d'engager les forces armées et la participation des alliés européens. Les parlementaires se sont interrogés sur les pouvoirs de guerre accordés au président Bill Clinton et sur la nécessité d'engager des forces armées sur un théâtre d'opérations n'impliquant pas directement les intérêts vitaux des Etats-Unis. Certains membres du Congrès se sont montrés sceptiques quant aux prétentions de la Maison-Blanche à jouer les " gendarmes du monde ". Ils estimaient que le pays, en intervenant de façon excessive à l'extérieur, risquait de gaspiller ses ressources et de dévoiler trop aisément ses forces à ses adversaires. Le sénateur John McCain (républicain, Arizona) pensait ainsi que, " si nous usons de nos forces et de notre prestige de façon inconsidérée, nous gaspillerons des ressources que nous n'avons pas ".
+Des remarques du même type ont été exprimées en 1995, notamment de la part d'élus démocrates, qui jugeaient que l'Administration avait prêté une trop grande attention aux aspirations de l'aile conservatrice du Congrès en décidant d'envoyer des troupes dans les Balkans. Le sénateur Byron Dorgan (démocrate, Dakota-du-Nord) estimait ainsi que " l'envoi de forces pose un énorme risque pour nos troupes et notre pays, pour un gain potentiellement très faible pour la Bosnie ". Pour sa part, et conscient de l'importance de la participation financière que supposait une intervention armée, le représentant Jerry F. Costello (démocrate, Illinois) considérait que la Bosnie concernait les Européens au premier chef et que ceux-ci devaient en assumer la principale responsabilité, écartant ainsi le principe d'un envoi de troupes américaines sur le terrain.
+Le débat sur les pouvoirs de guerre s'est encore élargi avec l'intervention des Etats-Unis en Bosnie, car celle-ci s'effectuait dans le cadre de l'OTAN. En effet, afin de soutenir des opérations menées sous l'égide des Nations unies ou de l'Alliance atlantique, Bill Clinton autorisa de multiples actions en Bosnie sans disposer de l'autorisation expresse du Congrès, et ce, en dépit des disputes permanentes entre le Capitole et le président sur les opérations à mener. La question se posait alors de savoir si une action entreprise au sein de l'OTAN pouvait être conduite indépendamment des exigences de la Constitution et du War Powers Act.
+L'article 11 du traité de l'Atlantique Nord répond à cette interrogation en consacrant le droit national des Etats : l'application du traité doit être conforme aux " règles constitutionnelles " des Etats parties, ce qui, de fait, confère un pouvoir au Congrès dans l'éventualité d'une guerre menée au nom de l'OTAN. Le War Powers Act précise également les conditions d'engagement des forces armées des Etats-Unis par rapport aux traités internationaux ou conventions. Ainsi, destinée à empêcher le recours à un traité (ou à une loi Military Appropriations Act ou même à une résolution des Nations unies) pour autoriser l'engagement de troupes, la section 8-a prévoit qu'aucune intervention militaire ne peut être fondée sur la base d'un traité - antérieur ou postérieur à 1973 - à moins qu'une clause spécifique ne l'y autorise expressément. Néanmoins, la section 8-b précise que les Etats-Unis peuvent participer - sans autorisation spécifique -, conjointement à un ou plusieurs alliés, aux opérations militaires de haut niveau décidées par les états-majors (" in the headquarters operations of high-level military commands ") établis avant 1973, comme celles de l'OTAN.
+Le 11 août 1992, soit encore sous l'Administration Bush, le Sénat vota la résolution S.Res.330, incitant le président à travailler à une résolution du Conseil de sécurité pour faciliter l'aide humanitaire à Sarajevo, mais précisant qu'aucune force militaire ne saurait être introduite sans objectif clair et précis. De son côté, la Chambre des représentants votait la résolution H.Res.554, qui incitait le Conseil de sécurité à prendre des mesures pour permettre l'assistance humanitaire, y compris le recours à la force. Le lendemain, le Conseil de sécurité votait la résolution 770, appelant les Etats membres à prendre " toutes les mesures nécessaires " pour faciliter l'acheminement de l'aide à Sarajevo.
+Le 28 février 1993, les Etats-Unis commencèrent à délivrer de l'aide humanitaire par avion, et, à partir du 12 avril, en application de la résolution du 31 mars (autorisant les Etats membres à prendre toutes les mesures nécessaires pour imposer l'interdiction de survol militaire de la Bosnie), ils effectuèrent des actions aériennes dans le cadre de l'OTAN. Celles-ci étaient destinées à imposer à la fois les sanctions et le respect de la zone de non-vol (no-fly zone) au dessus de la Bosnie. Au lieu de l'annoncer avant les opérations, ce n'est que le lendemain que le président rendit compte de la conformité au War Powers Act de la participation des Etats-Unis. De même, alors que le secrétaire d'Etat Waren Christopher annonçait, le 10 juin, l'envoi d'un effectif de 300 soldats en renfort d'une mission de maintien de la paix en Macédoine, en application de la résolution 795 du Conseil de sécurité (votée en 1992 et destinée à éviter l'extension de la crise bosniaque aux pays voisins), ce n'est qu'un mois plus tard (le 9 juillet) que le président déclara cette action conforme au War Powers Act.
+Dans la perspective d'un accord de paix, la Maison-Blanche envisagea de fournir la moitié des forces de l'OTAN (25 000 hommes sur 50 000). Certains parlementaires comme le sénateur Robert Dole (leader de l'opposition) ont alors exigé l'approbation du Congrès avant tout autre déploiement en Bosnie, ce qui poussa l'assistant du secrétaire d'Etat, Stephen Oxman, à garantir que l'Administration n'agirait pas sans le soutien des parlementaires en cas de mise en oeuvre de l'éventuel accord de paix. Afin de formaliser cet engagement, le Congrès vota une disposition introduite par les sénateurs Dole et Mitchell, qui stipulait que les fonds destinés à financer la participation de troupes américaines pour assurer l'accord de paix ne seraient pas alloués sans autorisation préalable du Capitole.
+Alors que le conflit bosniaque perdurait et que le président continuait de rendre compte des opérations seulement après que celles-ci avaient été engagées, la contestation parlementaire réclamant une plus grande implication du Congrès s'intensifia, en particulier au Sénat. Ainsi, le 12 mai, les sénateurs acceptèrent à une voix de majorité les amendements proposés respectivement par Robert Dole (approuvant la mission de la Force de protection des Nations unies (FORPRONU)) et George Mitchell (stipulant, entre autres, que les Etats-Unis ne pouvaient envoyer de soldats au sol sans l'accord du Congrès). Mais la Chambre des représentants ne suivit pas ce vote, qui resta donc sans effet. La section 8 100 du Defense Appropriations Act for FY 1995 (P.L. 103 - 335, signé le 30 septembre 1994) stipulait que les fonds octroyés par la présente loi ne devaient pas financer le déploiement des troupes chargées de mettre en oeuvre un accord de paix en Bosnie, à moins que le Congrès ne l'autorisât.
+Fin 1995, le débat sur les pouvoirs de guerre fit un retour sur le devant de la scène, après la décision présidentielle d'envoyer 20 000 hommes en Bosnie dans le cadre d'une mission de maintien de la paix de l'OTAN. Le Congrès vota nombre de projets de loi et de résolutions, notamment trois dans chaque Chambre pour le seul mois de décembre, mais ni le Sénat ni la Chambre ne parvinrent à se mettre d'accord sur les mesures à prendre. Cette absence de consensus permit au président de fournir l'année suivante (décembre 1996) des troupes au sol (8 500 hommes) pour participer à la Force de stabilisation (Stabilization Force, SFOR. A nouveau, ce manque de clarté s'expliquait en grande partie par l'opposition de certains élus démocrates (dont Joseph Lieberman et Joseph Biden) aux propositions de l'Administration, tandis que les Républicains y étaient plutôt favorables. En fait, les élus conservateurs pouvaient difficilement reprocher au président sa détermination après avoir longuement critiqué ses prises de position trop hésitantes. Ce fut le cas de Robert Dole, futur candidat républicain à l'élection présidentielle de 1996, qui ne put que rester silencieux sur cette question, sous peine de se contredire. Devant cette absence de débat partisan au Sénat, ce furent des élus républicains réputés plus modérés qui émirent des réserves, notamment John McCain, John Warner et William Cohen.
+Le dernier acte se joua le 18 mars 1998, quand le Congrès rejeta à une majorité de 225 voix contre 193 la contre-résolution (H.Con.Res 227, introduite par le républicain Tom Campbell) visant à retirer les troupes américaines de Bosnie. Ce vote serré illustrait nettement la gronde des parlementaires, peu disposés à voir le conflit s'intensifier et qui étaient prêts à contraindre Bill Clinton à aller à l'encontre de ses engagements. Cette situation marqua incontestablement un tournant dans la relation entre le Législatif et l'Exécutif en matière de pouvoirs de guerre, la Maison-Blanche se trouvant prise entre des engagements internationaux et des contraintes de politique intérieure.
+Avec l'intervention des Etats-Unis au Kosovo, le débat sur les pouvoirs de guerre franchit une nouvelle étape, certains parlementaires allant même jusqu'à recourir à la justice pour mettre le président en accusation. Est-il nécessaire de rappeler ici que cette nouvelle crise dans les Balkans prit place au moment de l'affaire Monica Lewinski, à l'occasion de laquelle le président Clinton fut la cible des parlementaires conservateurs, y compris dans le camp démocrate ? Cette affaire intervenait donc au plus mauvais moment pour un président déjà soumis à de fortes pressions internes. Cela n'empêcha pas certains parlementaires de lui reprocher d'utiliser des considérations de politique étrangère pour détourner l'attention des questions de politique intérieure auxquelles il était confronté.
+La controverse sur l'action au Kosovo s'amplifia le 26 mars 1999, lorsque Bill Clinton annonça que des frappes aériennes menées avec les alliés contre le gouvernement yougoslave avaient commencé deux jours plus tôt. Les parlementaires se montrèrent très partagés, refusant de désapprouver comme de soutenir la politique du président, ce qui eut pour effet d'affaiblir leur action. Ainsi, le 28 avril, si la Chambre des représentants se mit d'accord pour refuser de financer l'envoi de troupes au sol à moins d'obtenir une autorisation spécifique (H.R 1569), elle ne trouva pas de consensus sur les propositions de loi proposant le retrait des troupes des opérations engagées (H.Con.Res.82) ou une déclaration de guerre contre l'Etat yougoslave (H.J.Res.44). Le même jour, la Chambre des représentants rejeta - lors d'un vote exceptionnellement partagé (213 voix contre 213) - la résolution introduite par le Sénat, le 23 mars (S.con.Res.21), qui soutenait les frappes militaires aériennes contre la Yougoslavie.
+Deux jours plus tard, une petite fraction du Congrès entreprit d'intenter une action en justice contre le président. Sous la férule de Tom Campbell (républicain, Californie), 17 parlementaires saisirent ainsi la Cour fédérale du district de Columbia pour réclamer que Bill Clinton obtienne l'accord du Congrès avant de continuer la guerre aérienne ou d'entreprendre d'autres opérations militaires en Yougoslavie. Devant l'incapacité de s'accorder sur le principe de mesures bilatérales bloquant les opérations, ces parlementaires avaient décidé de porter devant la justice du pays la décision du président et de l'Administration.
+Le seul point sur lequel les parlementaires étaient clairs concernait le soutien aux forces armées et le 20 mai, date à laquelle le Congrès soumit à la signature présidentielle le projet de loi de finances supplémentaires d'urgence (H.R.1141) accordant des milliards pour financer l'opération au Kosovo, on s'attendit à une accalmie. Mais, le 25, comme cela faisait 60 jours que le président avait rendu compte au Congrès des opérations militaires menées au Kosovo, les parlementaires qui contestaient l'action présidentielle (le groupe des 18) signalèrent à la Cour que son comportement constituait une violation patente de l'esprit du War Powers Act. En effet, celui-ci autorise le retrait des forces du champ de bataille au bout de 60 jours si le Congrès, dans ce laps de temps, n'a pas autorisé la poursuite des actions ou si le président n'a pas réclamé un délai supplémentaire de 30 jours. Or le président n'avait pas cherché à obtenir ce délai supplémentaire, faisant valoir que le War Powers Act était constitutionnellement défaillant (defective). Cependant, le 8 juin 1999, arguant du manque de fondement légal de la plainte, le juge du district fédéral Paul L. Friedman rejeta l'accusation selon laquelle le président avait violé le War Powers Act ou la Constitution dans la conduite des opérations militaires en Yougoslavie. Loin de s'arrêter là, l'affaire prit une ampleur considérable. Après avoir fait appel devant la Cour compétente (celle du district de Columbia), qui accepta de recevoir l'appel mais confirma, le 18 février 2000, la décision de la cour précédente, Tom Campbell et 30 autres parlementaires saisirent la Cour suprême des Etats-Unis, le 18 mai. Celle-ci mit définitivement fin à l'affaire en refusant, le 2 octobre, de s'en saisir.
+L'autre dossier important concernant les forces engagées en 1993 est la Somalie. Là encore, plusieurs parlementaires se sont demandés s'il était dans l'intérêt du pays d'envoyer des troupes sur place, et surtout de maintenir une présence militaire dans la région, notamment après le cuisant échec de l'opération commando lancée sur Mogadiscio, qui entraîna la mort de 18 soldats américains. Le représentant Benjamin Gilman (républicain, New York) estimait que les " forces armées (des Etats-Unis) devaient rentrer à la maison le plus rapidement possible et être remplacées par des troupes des Nations unies provenant d'autres pays, afin de remplir la mission prévue initialement : nourrir ceux qui ont faim ". Pour sa part, le sénateur Clairborne Pell (démocrate, Rhode Island), qui souhaitait collaborer davantage avec l'Administration, menaçait celle-ci de mettre en avant les prérogatives définies par la Constitution si elle se refusait à consulter le Congrès : " Laissez-nous travailler main dans la main avec l'Administration afin de trouver une alternative viable à cette politique malmenée de toutes parts. "
+Le cas somalien a conduit les parlementaires à débattre d'une autre question relative aux pouvoirs de guerre : celle de savoir à partir de quand l'assistance humanitaire devait être soumise à une autorisation du Congrès. Dès la fin novembre 1992, le président avait proposé l'envoi de troupes pour permettre l'acheminement de l'aide humanitaire en Somalie ; le 3 décembre, cette proposition fut accueillie avec joie par le Conseil de sécurité, qui vota la résolution 794 autorisant le recours à tous les moyens nécessaires pour y rétablir une situation propice à l'assistance humanitaire. Mais, c'est avec la montée des violences dans ce pays (assassinats de soldats de l'ONU, incluant des Américains), et surtout après le fiasco de l'opération commando lancée contre le général Aidid, que les interrogations au Congrès prirent de l'ampleur. Ainsi, en septembre 1993, le Congrès adoptait plusieurs amendements au Defense Authorization Act for FY 1994. Ils réclamaient que le président, avant le 15 octobre 1993, consulte le Congrès sur sa politique en Somalie, notamment sur les objectifs de la mission confiée aux Etats-Unis, et précisaient qu'il devait obtenir son autorisation pour la poursuite du déploiement des forces. Le président se conforma à ces décisions en consultant, le 7 octobre, les représentants des deux parties sur la question somalienne pendant près de deux heures et en envoyant la semaine suivante (le 13 octobre) un rapport de 33 pages au Congrès sur les objectifs de la mission en Somalie. Le même jour, Bill Clinton déclara le retrait de la plupart des troupes avant le 31 mars 1994 ; le Defense Appropriations Act for FY 1994 y apporta une garantie en mettant fin au financement des opérations à compter de cette date, sous réserve que le président n'obtînt pas de nouvelle autorisation du Congrès.
+Le Congrès approuva l'emploi de forces militaires en Somalie dans un souci d'aide humanitaire et surtout afin d'assurer la protection du personnel et des bases américaines. Aussi cette autorisation fut-elle assortie de la condition sine qua non que les forces de combat des Etats-Unis restent sous le contrôle du commandement américain, sous la stricte autorité du président. Auparavant, quelques parlementaires avaient estimé que, si le Congrès ne permettait pas aux troupes de rester, elles devraient se retirer dans un délai de 60 à 90 jours. Mais le département d'Etat affirma que l'autorisation du Congrès, si elle était bienvenue, n'était pas nécessaire dans ce cas précis. Le 21 juillet 1993, le secrétaire adjoint Wendy Sherman répondit à une lettre envoyée conjointement par Benjamin Gilman et Jesse Helmes (membres des commissions des Affaires étrangères respectivement de la Chambre des représentants et du Sénat) qu'aucune Administration n'avait jamais considéré que des engagements militaires intermittents pussent être interrompus au motif de la section 5-b et que, selon l'Administration, le War Powers Act ne s'appliquait qu'aux engagements prolongés. Le 4 août 1993, Benjamin Gilman déclarait que l'on devrait se souvenir de cette date comme de celle de la mort du War Powers Act, car les troupes n'avaient pas été retirées alors que des combats avaient éclaté le 5 juin et que le Congrès avait décidé de se détourner de l'affaire.
+Le 22 octobre 1993, le même Benjamin Gilman présenta la résolution H.Con.Res.170 ordonnant au président, conformément à la section 5-c du War Powers Act, de retirer les troupes de Somalie avant le 31 janvier 1994, proposition qui fut adoptée par la Chambre des représentants, laquelle repoussa la date butoir au 31 mars 1994 ; mais le Sénat s'abstint de se prononcer sur cette mesure, qui resta, de fait, non contraignante. Toutefois, le Defense Appropriations Act for FY 1995 (P.L.103 - 335, signé le 30 septembre 1994) interdisait le financement d'une présence militaire en Somalie au-delà du 30 septembre 1994, sauf pour protéger le personnel américain. En conséquence, le 4 novembre 1994, le Conseil de sécurité décida de mettre fin à la mission des Nations unies en Somalie avant le 31 mars 1995, et les forces américaines achevèrent leur mission d'évacuation des troupes de l'ONU le 3 mars. Une fois de plus, ce fut donc l'arme du budget qui vint à bout de la détermination du président Bill Clinton et l'obligea à se plier aux exigences du Congrès.
+Les propositions d'intervention en Haïti, fin 1993 et surtout en 1994, furent à nouveau accueillies avec scepticisme par les parlementaires républicains, qui se montrent souvent réticents à l'envoi de troupes sur des théâtres extérieurs quand les intérêts vitaux des Etats-Unis ne sont pas directement menacés. Pour le représentant Douglas Bereuter (républicain, Nebraska), " une invasion mal définie, impopulaire et unilatérale ferait de la politique étrangère de Clinton non plus un simple mal de tête, mais une véritable migraine ". Le sénateur Strom Thurmond (républicain, Caroline-du-Sud) estimait pour sa part que, " même si la situation en Haïti intéresse les Etats-Unis, elle ne présente aucune nécessité stratégique, aucune urgence nationale, aucune menace militaire ou économique pour Washington ou pour le monde. Nos intérêts se portent sur le traitement humanitaire du peuple haïtien et la promotion de la démocratie dans cette partie du globe. Aussi pourquoi la plus puissante nation de la planète irait-elle envahir cette petite nation insulaire ? "
+Bill Clinton entreprit l'opération en Haïti (qui prévoyait au départ l'envoi d'une mission de négociation pour assurer le départ de la junte militaire, tout en ordonnant aux troupes de se préparer à une invasion si nécessaire) sans l'aval du Congrès, ce qui lui valut de nombreuses critiques. Celles-ci conduisirent, en octobre 1994, au vote de la résolution S.J.Res.229 (P.L.1032 - 423), stipulant que le président aurait dû demander l'autorisation du Congrès avant le déploiement et ordonnant le retrait des troupes le plus rapidement possible.
+Le 20 octobre 1993, la décision d'appliquer l'embargo, décrété le 3 juillet par le Conseil de sécurité conformément au War Powers Act, entraîna le mécontentement de membres du Congrès qui se plaignaient de ne pas avoir été consultés au préalable. Cette affaire intervenait deux jours après la proposition du sénateur Robert Dole d'amender le Defense Appropriation Bill (H.R.3116) de façon à requérir l'autorisation du Congrès pour tout déploiement militaire, naval ou aérien, en Haïti, à moins que le président n'ait au préalable émis des garanties (certifications). Après des négociations entre membres de l'Administration et du Congrès, l'amendement concrétisé par la section 8 147 (de la P.L.103 - 139) mentionna que le Congrès ne financerait pas d'opérations militaires en Haïti à moins que celles-ci ne soient (1) approuvées préalablement par le Congrès, (2) nécessaires à la protection ou à l'évacuation de citoyens américains, (3) la réponse à un cas d'urgence nationale, ou (4) que le président fixe auparavant certains critères au déploiement.
+Alors que l'embargo se durcissait (notamment avec la résolution 917 du Conseil de sécurité), que les pressions sur Haïti augmentaient et que la situation dans le pays se dégradait, Bill Clinton déclara ne pas exclure faire usage de la force. Beaucoup de parlementaires continuaient à affirmer que l'autorisation du Congrès était nécessaire en cas d'invasion. Le 24 mai 1994, la Chambre des représentants adopta un amendement au Defense Authorization Bill (H.R. 4301), selon lequel toute action militaire contre Haïti devrait être justifiée, dans une déclaration du président au Congrès, par la nécessité de protéger les citoyens ou intérêts américain. Mais, le 9 juin, cet amendement fut renversé par un nouveau vote de la Chambre des représentants (226 contre 195), et le Sénat rejeta à deux reprises une mesure exigeant l'autorisation du Congrès préalablement à toute action militaire des Etats-Unis. Par la résolution 940, souhaitée par Bill Clinton, le Conseil de sécurité de l'ONU autorisa alors qu'une force multinationale pût utiliser tous les moyens nécessaires pour rétablir l'ordre en Haïti, ce qui permettait l'intervention. Le président, conscient que le soutien des parlementaires ne lui était pas acquis, préférait s'en remettre aux Nations unies.
+Le 3 août, le Sénat adopta, à l'unanimité, un amendement au Department of Veterans Appropriation (H.R. 4624), selon lequel la résolution du Conseil de sécurité ne constituait pas une autorisation pour le déploiement de forces militaires en Haïti en vertu de la Constitution ou du War Powers Act. Mais cet amendement ne fut finalement pas retenu en commission. Le même jour, le président Bill Clinton déclara qu'il serait heureux d'avoir le soutien du Congrès, mais que celui-ci n'était pas nécessaire dès lors qu'il agissait sous couvert d'un mandat international.
+Le 19 septembre, la Chambre des représentants accepta la résolution H.Con.Res.290, qu prônait le retrait des forces américaines d'Haïti le plus tôt possible, tandis que le Sénat votait une mesure similaire (S.Res.259). Le 3 octobre, la commission des Affaires étrangères de la Chambre rendait compte de la résolution H.J.Res.416 autorisant l'emploi des forces en Haïti jusqu'au 1er mars 1995. Cette résolution - qui reconnaissait que le président aurait dû avertir le Congrès avant l'envoi de troupes, soutenait le retrait rapide des forces et exigeait un rapport mensuel sur la situation en Haïti - trouva un écho favorable au Sénat (avec la résolution S.J.Res.229 du 6 octobre). Elle fut votée par la Chambre des représentants le 7 octobre (S.J.Res.229) et signée par le président le 25 (P.L.103 - 423). Ainsi, dès le retour du président Aristide, le 15 octobre 1994, les Etats-Unis commencèrent à rapatrier leurs troupes, si bien qu'à la mi-avril 1996, il n'en restait qu'une partie (une unité de soutien de 300 à 500 hommes) pour mener à bien des opérations de reconstruction. Le 17 décembre 1997, le président Clinton ordonna au département de la Défense de maintenir des centaines de soldats pour un temps indéfini en Haïti. Mais, deux ans plus tard (en septembre 1999), le Congrès vota le FY 2000 DOD Authorization Bill (P.L. 106 - 65), qui ne permettait plus au Pentagone d'y maintenir une présence militaire au-delà du 31 mai 2000. Aussi les troupes furent-elles retirées, cette fois de façon définitive.
+L'approche commune des deux Chambres du Congrès à propos de Haïti se réduisit finalement à demander au président des rapports détaillés sur la mission des forces envoyées sur place. Cette attitude frustra longtemps les défenseurs des prérogatives du Congrès en matière de politique étrangère, qui considéraient que son action était devenue insignifiante et sans mesure avec son rôle réel.
+Au-delà des considérations politiques que nous avons étudiées, la montée en puissance du Congrès au cours de ces dernières années s'explique par la généralisation des travaux d'experts émanant des deux Chambres : auditions de spécialistes, rapports de grande qualité, débats sur tous les thèmes de la politique du pays. Comme l'explique Justin Vaïsse, au Capitole " une bureaucratie de 35 000 fonctionnaires travaille pour les parlementaires, lui apportant l'expertise et l'information nécessaire à sa remontée en puissance ". Ces spécialistes officient pour les commissions, chacune ayant une tâche clairement définie, et apportent à leurs membres tous les informations leur permettant de prendre des initiatives, en étant souvent mieux renseignés que les membres de l'Administration.
+En effet, la spécialisation des commissions leur apporte une grande crédibilité, surtout si on la compare avec celle des ministères, qui doivent se pencher sur plusieurs questions et demeurent des " généralistes ". En participant à ces commissions, les membres du Congrès deviennent ainsi de véritables experts dans certains domaines, en particulier lorsqu'ils restent plusieurs années à leur tête, comme c'est le cas au Sénat. En ce qui concerne la politique étrangère, certains observateurs faisaient remarquer, il y a quelques années, que les membres du Congrès n'avaient pas les compétences nécessaires et prenaient des initiatives qui n'étaient pas de leur ressort. C'est au cours des années 1990 que cette tendance s'est inversée ; et si, pendant longtemps, l'Administration a fait autorité en la matière, les commissions ont maintenant gagné en respectabilité, illustrant le retour du Congrès sur le devant de la scène.
+Aujourd'hui, en politique étrangère comme dans d'autres domaines, les commissions sont au coeur du Congrès, là où, autour d'un groupe restreint d'experts, toutes les options sont discutées et les décisions prises. Placées au centre de la vie politique des Etats-Unis, elles se dégagent remarquablement des querelles partisanes qui divisent le Capitole et s'imposent comme un forum d'idées diverses. En instaurant un dialogue bipartisan, elles apportent un nouveau souffle au pouvoir législatif, qui en sort renforcé. Par contraste, les deux Chambres sont restées des assemblées inefficaces, déchirées par les luttes de partis, et souvent incapables d'apporter des solutions concrètes.
+La création des commissions remonte aux origines de la démocratie aux Etats-Unis ; mais leur composition, leur fonctionnement et leur importance ont considérablement évolué. A l'origine, le nombre de parlementaires était limité ; leur implication dans les commissions n'était que temporaire et variait selon les besoins et les circonstances. Instruments du pouvoir législatif, les commissions servaient alors à renforcer l'autorité des membres du Congrès. La Chambre des représentants, qui compte un nombre plus important de parlementaires, a développé des commissions plus tôt que le Sénat, si bien qu'en 1810, dix commissions aidaient déjà les représentants dans leur travail. En 1816, le Sénat a rattrapé son retard, éliminant les commissions ad hoc au profit de structures permanentes.
+Dès lors, l'importance des commissions s'est accrue, et elles se sont peu à peu imposées comme une composante indispensable du Congrès. Pendant tout le XIXe siècle, leur nombre était relativement important, puis il s'est réduit de façon sensible pour en faciliter le fonctionnement. Aujourd'hui, la Chambre compte 19 commissions, et le Sénat, 17. Celles-ci sont directement rattachées à d'autres commissions, avec lesquelles elles partagent une partie des membres, qui divisent les tâches pour mieux traiter les différentes questions.
+Les commissions dévolues à la politique étrangère sont, dans les deux Chambres, celles des Forces armées, des Affaires internationales et, accessoirement, pour le vote du budget, celle des Finances. Tous les experts ès relations internationales s'y trouvent réunis, assurent le relais avec les médias, rédigent des rapports d'information, s'entourent de spécialistes indépendants et auditionnent les autorités militaires et les représentants de l'Exécutif sur ces questions. Plus encore au Sénat qu'à la Chambre, ces commissions sont devenues un examen de passage obligatoire pour toutes les initiatives de la Maison-Blanche.
+La présidence de chaque commission est assurée par le doyen du parti majoritaire, qui s'affirme comme le personnage principal, usant de son influence pour contester les initiatives présidentielles et orienter les débats de sa commission. Si les autres membres, par la pertinence de leurs travaux, leur expertise sur certaines questions ou les nouvelles idées qu'ils apportent, généralement par le biais des sous-commissions, peuvent s'imposer, c'est en général le président qui occupe le devant de la scène et devient l'intermédiaire incontournable entre la commission et le reste de la vie parlementaire. Le parti minoritaire dispose d'un représentant qui se fait l'écho des membres de son parti. Dans un système partisan, ce représentant ne peut qu'exprimer des opinions contraires à celles du président, qui ne sont généralement pas retenues. Cependant, avec l'accroissement du nombre d'initiatives bipartisanes, il est devenu, en quelque sorte, le bras droit du président et soutient parfois les initiatives de l'Exécutif en leur apportant l'approbation de la minorité. Ce personnage a donc pris, au fil des années, un rôle de plus en plus important dans le fonctionnement des commissions.
+Parmi les principaux problèmes posés par le système des commissions, l'âge des présidents est sans doute l'un des plus sensibles. En effet, la présidence de chaque commission est assurée par le doyen de la majorité parlementaire à la Chambre (nous verrons dans quelle mesure ce système a évolué à la Chambre des représentants), ce qui a l'avantage de placer des experts aguerris à la tête des commissions mais le désagrément de les y installer pour de nombreuses années. L'autre conséquence de ce système est l'inéquité de la répartition géographique des présidents de commission. Si la Chambre est à peu près équitable, le Sénat offre quant à lui deux postes pour chaque Etat, ce qui n'est représentatif ni de la population, ni de l'importance de l'Etat. Jusqu'à 2001, les deux sénateurs du Delaware, un Etat pourtant minuscule, étaient William Roth et Joseph Biden. L'un était président de la commission des Finances (aujourd'hui à la retraite), l'autre le chef de file des Démocrates à la commission des Affaires internationales (dont il fut président de juin 2001 à janvier 2003).
+L'âge des présidents des commissions peut également s'avérer néfaste pour le parti dont ils sont issus. En effet, après un grand nombre d'années passées à la tête de commissions où ils ont réussi à s'imposer comme de véritables piliers du Congrès, les présidents des commissions les plus importantes négligent volontiers le jeu des partis. Cela a pour effet de réduire encore davantage l'importance des querelles partisanes, mais aussi de créer des pôles autour de ces hommes d'influence, qui imposent leurs idées sans que leur parti puisse les contrôler. C'est ainsi que des initiatives, en totale contradiction avec les recommandations des partis, sont parfois prises au sein des commissions sous l'impulsion de leur président, ce qui peut bouleverser les orientations du Congrès. Le débat politique aux Etats-Unis s'en trouve plus difficilement prévisible.
+Le système actuel du Congrès met en avant à la fois certaines personnalités et les commissions concernées par les débats de politique étrangère. La représentativité des parlementaires fait leur force, mais elle ne profite malheureusement pas toujours aux intérêts de la nation. En effet, les revendications de l'électorat ne sont pas du tout les mêmes selon les Etats et les membres du Congrès, en reprenant ces opinions de façon trop systématique, s'éloignent souvent considérablement des considérations nationales, les abandonnant à l'Administration. Selon Stanley Sloan, Mary Locke et Casimir Yost, plutôt que de juger le président sur ses ambitions de fédérer l'ensemble des idées exprimées par le pays, les parlementaires devraient s'efforcer, eux aussi, de respecter des standards sur les questions extérieures, afin de ne pas prendre de directions trop opposées. En effet, une trop grande disparité des opinions au Congrès diminue l'influence du pouvoir législatif en matière de politique étrangère et réduit le crédit des élus, experts en relations internationales mais insensibles aux vrais enjeux et qui se contentent trop souvent de ne répondre qu'aux considérations purement électorales. Sans pour autant s'éloigner de leurs fiefs électoraux, les membres du Congrès devraient donc prêter plus d'attention aux affaires étrangères avant de juger les options choisies par la Maison-Blanche.
+La généralisation des initiatives bipartisanes a eu comme effet immédiat de bloquer les initiatives présidentielles plus facilement encore que par le passé. Le poids des résolutions proposées à la fois par des Républicains et des Démocrates leur permet de bénéficier d'une certaine crédibilité et de s'imposer. Cependant, avec des groupes d'observation composés de parlementaires de différentes tendances et faisant appel à des experts indépendants, les commissions peuvent proposer des solutions en toute objectivité, qui ne heurtent pas systématiquement la Maison-Blanche, mais viennent au contraire apporter des éclaircissements ou des critiques constructives sur les options de l'Administration. En outre, il est manifeste que les plus grands succès du Congrès au cours de ces dernières années ont été le fait d'initiatives bipartisanes, qui sont devenues un instrument essentiel du pouvoir législatif. En se rapprochant des ministères, et donc de l'Administration, les opinions exprimées par les initiatives bipartisanes consolident la politique étrangère du pays, en proposant une meilleure communication entre les deux pouvoirs, essentielle pour mieux répondre aux impératifs extérieurs. Il semble ainsi avéré que le rapprochement avec le département d'Etat, le secrétariat à la Défense et le National Security Council, sous forme d'un partenariat entre parlementaires de diverses tendances, sont les conditions par lesquelles le Congrès retrouvera sa crédibilité en matière de politique étrangère. Mais une telle perspective demande des efforts aussi bien de la part du Congrès que de l'Administration.
+La généralisation des initiatives bipartisanes a pour effet bénéfique de faire évoluer le débat entre le Capitole et la Maison-Blanche vers un plus grand partenariat, qui défend en priorité les intérêts du pays. Il s'agit, pour le président, d'un moyen de s'assurer dans certains cas le support des membres du Congrès, comme ce fut le cas lors de la crise du Kosovo. En effet, malgré la majorité républicaine dans les deux Chambres, le Sénat et la Chambre des représentants ont voté en faveur de l'intervention, laissant de côté les querelles de parti. Cependant, il peut également s'agir d'une arme à double tranchant pour le chef de l'Exécutif, car les résolutions partisanes, du fait de leur autorité et de la représentativité qu'elles assurent aux opinions du Congrès, sont difficilement discutables et doivent être prises en compte pour définir les orientations de la politique étrangère.
+L'autorité du Congrès, sa crédibilité et son influence sur la Maison-Blanche sont sensiblement renforcées par les initiatives bipartisanes, qui illustrent parfaitement la montée en puissance du pouvoir législatif ainsi que la nécessité de trouver un dialogue entre les deux pouvoirs, en vue de définir une politique étrangère cohérente et représentative de l'opinion publique, comme ce doit aussi être le cas pour les questions de politique intérieure. Bill Clinton a éprouvé quelques difficultés à établir ce dialogue avec ses opposants politiques, et ce, malgré son habileté politique et la présence, lors de son second mandat, d'un Républicain à la tête du Pentagone (William Cohen). Plus encore qu'à une querelle opposant Républicains et Démocrates, les divergences de vues répondent donc davantage à des logiques institutionnelles.
+Fortement critiqué pendant les premiers mois de son mandat pour son manque d'intérêt pour les questions internationales, George W. Bush se retrouve, depuis le 11 septembre 2001, dans une situation qui semble totalement à l'opposé de ce profil tant décrié. C'est même lui qui se montre favorable aujourd'hui à un renforcement de l'interventionnisme des Etats-Unis dans ce qu'il a appelé la " croisade " antiterroriste, celle-ci s'étant accompagnée d'un certain nombre de réformes et de mesures, toutes acceptées par le Congrès.
+Il convient de distinguer ici les mesures qui ont été adoptées pour renforcer la sécurité du territoire et les débats concernant l'engagement des Etats-Unis sur des théâtres extérieurs. Dans les deux cas, si l'on en croit les sondages, ces décisions ont été largement soutenues par l'opinion publique et le Congrès s'est montré à la fois bienveillant et incapable de contrer les initiatives de l'Administration. Toutefois, certains parlementaires n'ont pas manqué de rappeler les limites, à la fois dans la durée et dans l'importance, des mesures proposées, affirmant qu'ils ne soutiendraient pas de façon aveugle des réformes en profondeur au nom d'une " présidence impériale " retrouvée.
+Les premières mesures qui ont été adoptées après les attentats de New York et de Washington concernaient le renforcement de la sécurité dans les aéroports et le traitement des étrangers sur le territoire. Elles ont marqué le début d'une campagne de plus grande ampleur dont les orientations ne sont pas toutes connues, mais qui ont pour objectif de renforcer la sécurité intérieure.
+Les débats sur le recrutement d'agents fédéraux chargés d'assurer la sécurité dans les aéroports, tel qu'il a été proposé à la fin du mois d'octobre 2001, a rapidement divisé Républicains et Démocrates à la Chambre des représentants, chacun profitant de l'occasion pour défendre des valeurs partisanes. Ainsi, ce sont surtout les Républicains, et parmi eux la branche conservatrice, qui se sont montrés les plus hostiles au fait que la " bureaucratie fédérale " (c'est ainsi qu'ils la nomment) était appelée à se substituer aux entreprises privées chargées de la sécurité des compagnies aériennes. Ils estimaient que cette proposition accroissait le rôle des pouvoirs publics, comme le souhaitaient les Démocrates, mais reconnaissaient la nécessité de renforcer la sécurité. John Warner (républicain, Virginie) a noté à ce propos que cette mesure pourrait être effective pendant trois ans, mais qu'ensuite les compagnies aériennes devraient pouvoir de nouveau faire appel à des agences de sécurité privées.
+Les Démocrates se sont montrés favorables à cette mesure, tout en déplorant qu'elle s'accompagne de certaines restrictions en matière de droit du travail, puisque les employés n'ont pas le droit de grève et peuvent être licenciés s'ils n'accomplissent pas efficacement leur travail. En accord sur le principe du renforcement de la sécurité aérienne, Démocrates et Républicains se sont opposés sur la façon de le mettre en place, les uns voulant faire appel à des agents fédéraux, les autres demandant un accroissement de l'aide aux compagnies privées.
+Les propositions de l'Administration en matière de sécurité dans les aéroports ont ainsi eu pour effet de diviser les membres du Congrès, et les deux Chambres n'ont pu s'opposer de façon efficace (car bipartisane) au pouvoir exécutif, quand bien même elles l'auraient souhaité. En conséquence, nous assistons aujourd'hui à une remontée en puissance du pouvoir fédéral sur les questions intérieures, comparable à ce qui s'était produit entre 1917 et 1980, avant deux décennies de stagnation. Certains considèrent même que le 11 septembre marque le début d'une nouvelle ère de l'Etat fédéral dont les prérogatives continueront nécessairement de s'accroître dans les prochaines années.
+Depuis le 11 septembre, les problèmes de sécurité intérieure sont étroitement liés aux questions de politique étrangère. Le 26 novembre 2001, à l'occasion d'une réception donnée à la Maison-Blanche en l'honneur de la libération des deux Américaines détenues à Kaboul, George W. Bush a souligné la volonté des Etats-Unis de lutter contre le terrorisme dans le monde entier : " L'Afghanistan ne constitue que le début. Quiconque abrite un terroriste est lui-même un terroriste. Quiconque aide financièrement un terroriste est un terroriste. Quiconque met au point des armes de destruction massive destinées à terroriser des Etats devra rendre des comptes. "
+Le 3 octobre 2001, dans le cadre de la coordination des moyens de lutte antiterroriste, le sénateur républicain du Maine, Olympia Snowe, a proposé un texte relatif à la participation de toutes les ambassades des Etats-Unis à la détection des groupes terroristes, par le biais de commissions spécialisées dans chaque ambassade. Jesse Helmes (républicain, Caroline-du-Nord), ancien président de la commission des Affaires internationales du Sénat, a apporté son soutien à ce texte une semaine plus tard et il est à présent placé sous l'autorité de ladite commission, présidée par Joseph Biden.
+Par ailleurs, un projet de loi sur les visas accordés aux étudiants étrangers a été proposé au Sénat, par des élus tant républicains que démocrates, et apparaît à bien des égards comme moins restrictif que ne le craignaient certains responsables universitaires. Il prévoit entre autres choses que :
+A contrario, ce texte n'est ni restrictif en ce qui concerne le nombre d'étudiants pouvant obtenir des visas, ni sélectif en ce qui concerne leur origine. Sur ces deux points, les parlementaires ont été sensibles au fait que les étudiants étrangers constituent un atout pour les universités du pays, répondant ainsi aux attentes des universitaires. En effet, selon un rapport communiqué le 13 novembre 2001 par l'Institute of International Education, 547 867 étudiants étrangers étaient inscrits dans une université aux Etats-Unis en 2000 - 2001, 13 % d'entre eux étant issus de pays à forte majorité musulmane.
+Depuis le 11 septembre 2001, fidèle à sa déclaration de " guerre " contre le terrorisme, George W. Bush a entrepris de renforcer les pouvoirs présidentiels en matière de politique étrangère, à un niveau nettement plus important que ses prédécesseurs, y compris Franklin D. Roosevelt. Ces pouvoirs renforcés se justifient en temps de guerre, comme le rappelait récemment Ari Fleischer. Ainsi, les prérogatives du Congrès, élargies sous les trois Administrations précédentes pour des raisons liées à l'environnement international et au cadre institutionnel, semblent s'être fortement affaiblies. Assumant pleinement son rôle de chef des armées, le président s'est lancé dans une guerre contre un adversaire à sa mesure (Al-Qaida), mais aussi dans une bataille politique contre ceux qui n'hésitent pas, au nom de la Constitution, à contester son autorité. Concernant les questions de surveillance et de renseignement, par exemple, l'Administration Bush a été critiquée par les parlementaires, qui refusent de laisser l'Exécutif prendre des décisions sans concertation de façon systématique, comme l'Attorney General John Ashcroft le demandait, renforçant ainsi le pouvoir de la Maison-Blanche.
+Paradoxalement, c'est dans l'aile conservatrice des Républicains que les critiques de la conduite des opérations en Afghanistan se sont fait entendre, notamment en ce qui concerne les buts et le financement de la campagne militaire. Ce sont d'ailleurs souvent les Républicains qui manifestent leur désaccord quand des pouvoirs de guerre trop importants sont octroyés au chef de l'Exécutif. A l'inverse, les Démocrates ont largement soutenu la riposte armée contre le régime des Talibans, soupçonné d'apporter une aide importante à Al-Qaida. De même, les Démocrates ont accueilli favorablement les initiatives diplomatiques de l'Administration. De ce fait, la majorité sénatoriale voit d'un bon oeil le rapprochement avec Moscou (sur lequel les Républicains se montrent beaucoup plus méfiants), le dialogue avec Pékin et la concertation avec les alliés, sans oublier les partenaires du monde arabo-musulman. Ce renversement des rôles traduit le profond consensus sur la nécessité de mener une lutte sur tous les fronts contre Al-Qaida.
+Les parlementaires du camp démocrate n'ont pas manqué de rappeler que le président Bush, plutôt que de précipiter la riposte contre des installations terroristes connues, a pu rassembler une coalition internationale jetant les bases de la lutte antiterroriste, grâce notamment aux initiatives de Colin Powell. Les craintes de voir les Etats-Unis se lancer dans des opérations à la hâte et sans concertation se sont révélées infondées dès lors que la Maison-Blanche s'est engagée dans la lutte contre Al-Qaida en faisant appel aux services de renseignement de plusieurs Etats. Walter Russell Mead remarque sur ce point que le multilatéralisme proposé par l'Administration Bush dans la riposte militaire en Afghanistan et la lutte antiterroriste ne peut en aucun cas être assimilé au wilsonisme. Il s'agit plutôt d'un unilatéralisme suivi par des Etats qui partagent les mêmes convictions (Europe), qui n'ont pas de raison de critiquer l'attitude des Etats-Unis, ou qui pourraient en tirer profit (Russie et Chine). Il est vrai qu'après le 11 septembre, la communauté internationale a approuvé de façon générale les initiatives de Washington, mais sans être invitée pour autant à en discuter la forme.
+Au fur et à mesure que la campagne militaire en Afghanistan a progressé, certains intellectuels démocrates ont cependant dénoncé l'influence des " faucons " qui, au sein de l'Administration, défendent les opérations militaires, particulièrement au Congrès, et le rôle joué par les lobbies économiques dans la définition de la politique étrangère. Même en temps de guerre, selon eux, les intérêts prennent le dessus sur le sentiment patriotique originel et l'argent continue d'influencer les décisions politiques.
+Par ailleurs, certains Démocrates, relayés en cela par la presse, n'ont pas manqué de faire un rapprochement entre la riposte en Afghanistan et la gestion de la crise du Kosovo par le président Clinton, en 1999. A cette époque, le gouverneur George W. Bush reprochait à l'Administration de ne pas utiliser tous les moyens possibles pour atteindre les objectifs fixés. Or, Ivo Daalder et Michael O'Hanlon remarquent que le nombre de sorties aériennes en Afghanistan est de très loin inférieur à celui constaté au Kosovo. De même, les objectifs politiques n'ont pas été clairement définis, en dehors de ce que l'Administration a appelé la " croisade " antiterroriste. Dans une lettre adressée au président Bush, le 6 décembre 2001, le représentant Tammy Baldwin (démocrate, Wisconsin) estimait qu'il se sentait concerné, avec ses confrères, " par ceux qui cherchaient, dans l'Administration et au Congrès, à étendre la campagne militaire au-delà de l'Afghanistan ", considérant que " sans une présentation claire et sans équivoque de la responsabilité d'autres nations dans les attentats du 11 septembre, il était inapproprié d'étendre le conflit ". C'est pourquoi le soutien apporté à Bush par les Démocrates a commencé à diminuer quand l'Administration a décidé d'aller au-delà de la campagne antiterroriste en visant le régime irakien. A l'inverse, les Républicains les plus conservateurs ont revu leur jugement critique, considérant que la question irakienne, en suspens depuis plus de 10 ans, pouvait enfin trouver une issue.
+Après une restructuration en profondeur des mesures de sécurité intérieure, l'Administration s'est lancée dans une campagne militaire en Afghanistan et a annoncé très rapidement, après la fin des opérations en Asie centrale, que la cible suivante de ce que le président Bush a appelé la " lutte sans fin " serait l'Irak. L'objectif, qui ralliait un large consensus dans les camps tant républicain que démocrate, consistait à renverser le régime de Saddam Hussein, même si d'autres arguments ont été mis en avant pour justifier un déploiement militaire. Malgré une vive opposition internationale, la guerre a été déclenchée en mars 2003, sans l'aval des Nations unies, les Etats-Unis assumant la quasi-intégralité des opérations militaires, soutenus par le Royaume-Uni et l'Australie sur le terrain et par un total de 48 Etats favorables à la cause défendue par la Maison-Blanche.
+Au Congrès, la perspective d'une campagne militaire à grande échelle a définitivement tourné la page de l'" union sacrée ", perceptible après le 11 septembre 2001, et qui avait permis à la campagne afghane de se dérouler sans encombre. Une fois terminée cette période d'absence totale de débat politique, les parlementaires ont repris leur rôle de contrepouvoir de l'Exécutif, annonçant clairement qu'aucune campagne militaire en Irak ne pouvait être décidée sans leur accord. Ainsi, avant de convaincre la communauté internationale, l'effort de l'Administration Bush a consisté à plaider le bien-fondé d'un déploiement militaire devant les membres du Congrès.
+Dans les semaines qui ont suivi les attentats du 11 septembre, tandis que se préparait l'offensive militaire contre le régime des Talibans, l'Irak a été désigné comme la prochaine cible possible de la " croisade " contre le terrorisme lancée par George W. Bush. Le 20 septembre, celui-ci recevait une lettre ouverte signée par plusieurs dizaines d'officiels, mettant l'accent sur la nécessité de " châtier " Saddam Hussein afin d'éradiquer les sources du terrorisme international. Les autorités se sont depuis lors efforcées de rassembler des éléments permettant d'établir un lien entre le régime de Saddam Hussein et le terrorisme. Ces éléments sont :
+ +Ces éléments se sont renforcés dans la mesure où Bagdad refusait, depuis 1998, d'ouvrir son territoire aux inspecteurs des Nations unies. Par ailleurs, les soupçons selon lesquels le régime cherchait à se procurer des armes de destruction massive constituaient un argument avancé par les conservateurs aux Etats-Unis et repris par les membres de l'Administration Bush. Depuis quelques années, les thèses des conservateurs sur la capacité de l'Irak à reconstituer un arsenal d'armes de destruction massive ont été alimentées par plusieurs ouvrages " grand public ", dont ceux de Khidhir Hamza, chef des services de recherches nucléaires irakiennes jusqu'en 1995, de Richard Butler, ancien chef de la Commission spéciale des Nations unies (UNSCOM) aujourd'hui au Council on Foreign Relations à New York, et de Scott Ritter, ancien inspecteur de l'UNSCOM. Ce dernier, opposé toutefois à une campagne militaire en Irak, proposait une description minutieuse de l'arsenal irakien d'armes de destruction massive et de missiles balistiques. Enfin, l'abondante littérature sur le terrorisme et la prolifération des armes de destruction massive, mise en avant depuis le 11 septembre, et surtout les attaques à l'anthrax, placèrent généralement l'Irak au centre de la menace. Plus récemment, trois personnalités importantes dans l'entourage du président Bush, Donald Rumsfeld, Dick Cheney et Condoleezza Rice, n'ont pas manqué d'accuser l'Iran, l'Irak et la Syrie d'être à l'origine des multiples attentats commis en Israël, invoquant le lien présumé entre le régime de Bagdad et les réseaux du terrorisme international. L'ensemble de ces considérations ont fait de l'Irak la cible suivante de la campagne antiterroriste menée par l'Administration. Enfin, en publiant un rapport accablant sur la volonté de Bagdad de reconstituer un arsenal d'armes de destruction massive et de l'utiliser dans un avenir proche, les autorités britanniques ont apporté leur contribution aux accusations, revenant largement sur la mauvaise volonté affichée par Saddam Hussein depuis plus de 10 ans.
+La plupart des experts européens considérèrent rapidement que les frappes des Etats-Unis contre l'Irak étaient inévitables, à moins que le régime ne cède et que Saddam Hussein ne quitte le pouvoir, ce qui semblait évidemment peu envisageable. L'un des premiers efforts consista à s'assurer le soutien de l'opinion publique. Selon un sondage publié par le Washington Post fin 2002, 64 % des personnes interrogées étaient ainsi favorables à des frappes contre l'Irak.
+Par ailleurs, plusieurs membres de l'Administration - dont le secrétaire adjoint à la Défense, Paul Wolfowitz -, plaidèrent en faveur d'une extension des opérations militaires en Irak. Une intervention sur le sol irakien nécessitait des moyens nettement plus importants que la guerre en Afghanistan, et les alliés de Washington, tant dans la région qu'ailleurs, semblaient peu réceptifs à la perspective de reconstituer la coalition de 1991. En effet, les alliés ne partageaient plus, pour la grande majorité d'entre eux, la position des Etats-Unis vis-à-vis des sanctions imposées à l'Irak depuis 10 ans. Ils furent relayés en cela par certains think tanks et centres d'expertise américains.
+Par ailleurs, une guerre contre l'Irak pouvait se faire selon trois scénarios. Le premier consistait à renouveler l'expérience de 1991 (sans doute avec une coalition amoindrie) ; il nécessitait des mois de préparation et posait de réels problèmes de politique intérieure aux Etats-Unis. Le deuxième scénario consistait à répéter l'expérience de décembre 1998, à savoir des frappes contre des cibles précises en Irak. Une telle option était plus facile à mettre en oeuvre et ne posait pas trop de problèmes en termes d'aval du Congrès. Mais les résultats n'avaient pas été très concluants en 1998 et n'avaient pas permis, en tout état de cause, d'atteindre les objectifs affichés, à savoir le renversement du régime de Saddam Hussein.
+Le troisième scénario consistait à envoyer sur place plusieurs commandos de services spéciaux chargés de liquider le dictateur irakien. Là encore, il n'y avait guère de difficulté pour obtenir l'accord du Congrès, mais le succès d'une telle mission était plus que discutable, notamment au vu des résultats médiocres obtenus par les forces spéciales en Somalie ou, plus récemment, en Afghanistan. De fait, la première option semblait être la seule permettant de poursuivre l'effort de 1991, en poussant cette fois les armées jusqu'à Bagdad pour liquider Saddam Hussein, comme le souhaitait l'Administration. Ce fut l'option retenue. Mais l'objectif principal était d'assurer un succès rapide et à moindre coût, à la fois pour profiter du large soutien de l'opinion publique aux Etats-Unis et pour éviter de laisser le temps au régime irakien de s'organiser. Kenneth Pollack, ancien directeur des affaires du Golfe au National Security Council, remarquait à ce propos que, les capacités de résistance de l'Irak étant nettement supérieures à celles des Talibans, la préparation de l'intervention ne devait pas prendre de retard, même s'il se montrait par ailleurs sceptique quant à sa pertinence et aux résultats pouvant être obtenus.
+Les limites d'une telle option étaient avant tout d'ordre externe. En effet, il fut très difficile, et même impossible, de reconstituer une coalition du type de celle de 1990. La tournée de Dick Cheney dans les pays arabes, en mars 2002, répondait nettement à l'objectif de rassembler un tel soutien, mais celui-ci était difficilement justifiable. En 1990, le régime de Saddam Hussein s'était rendu coupable de l'invasion du Koweït et il avait été unanimement condamné par les autres Etats de la région. Depuis, les voisins de l'Irak se montraient sceptiques quant à la poursuite des sanctions, qui avaient été plus nuisibles à la population qu'au régime et avaient refusé de soutenir les frappes de décembre 1998. Par ailleurs, si les alliés des Etats-Unis souhaitaient condamner et combattre l'Irak il y a 10 ans, ils n'avaient jamais affiché la volonté de détruire le régime de Saddam Hussein. Ainsi, la Turquie, l'un des plus fidèles soutiens à Washington dans la région, voyait d'un mauvais oeil la dislocation de l'Etat irakien, qui pouvait entraîner la création d'un Kurdistan indépendant. De façon générale, les alliés de 1991 dans la région n'acceptaient de participer à une campagne militaire que si celle-ci était mandatée par l'ONU.
+Au Conseil de sécurité, le consensus a éclaté après le renvoi des inspecteurs de l'UNSCOM par Bagdad, en 1998, et la décision conjointe des Etats-Unis et du Royaume-Uni de frapper l'Irak en représailles. De fait, les objectifs de Washington ne furent pas compris, et encore moins partagés, par les autres membres du Conseil de sécurité. Comme le demandait, en mars 2002, Philippe Droz Vincent, " s'agit-il de faire appliquer les résolutions de l'ONU, de renverser Saddam Hussein ou de mettre sous tutelle un Irak potentiellement hégémonique dans la région ? " Les mêmes critiques se sont fait entendre de la part des alliés européens des Etats-Unis, qui estimèrent pour certains d'entre eux, malgré leurs divisions, que la campagne proposée contre l'Irak ne répondait qu'à une volonté de vengeance de l'Administration Bush et d'hégémonie dans la région.
+Toutefois, les proches de George W. Bush ont démenti les soupçons selon lesquels la Maison-Blanche accepterait de se plier au calendrier du Conseil de sécurité des Nations unies. Très vite, ils n'écartèrent pas la possibilité de frapper quand ils le jugeraient nécessaire, que ce soit avant ou après la décision de l'ONU concernant les sanctions et les missions d'inspection sur le sol irakien. " Le président a dit que nous ne pouvions attendre d'avoir la preuve que quelqu'un utilise des armes de destruction massive contre les Etats-Unis pour faire quelque chose afin de l'en empêcher ", déclarait ainsi Paul Wolfowitz dans une interview sur CNN, le 21 mars 2002. Dès lors, et malgré les efforts diplomatiques en vue de convaincre Paris, Moscou et Pékin, Washington annonçait pouvoir se passer d'un mandat de l'ONU.
+Maintes fois critiquée depuis quelques mois pour son unilatéralisme, notamment en Europe, l'Administration Bush a envisagé d'intervenir sans l'appui de ses alliés - ou de la majorité d'entre eux -, prenant exemple sur l'opération menée conjointement avec les Britanniques en 1998 contre l'Irak et sur la campagne en Afghanistan. La puissance logistique, organisationnelle et destructrice de l'armée des Etats-Unis le leur permet en effet. Au cours des 10 dernières années, l'évolution du matériel leur a permis de fournir des résultats plus rapides et plus significatifs. L'opération " Tempête du désert " de 1991 avait exigé 110 000 sorties aériennes, contre seulement 6 500 en Afghanistan, le différentiel, même notable, des capacités de résistance des adversaires ne pouvant expliquer à lui seul un tel décalage. De même, la campagne du Kosovo a été faite exclusivement depuis les airs, grâce notamment à un matériel hautement sophistiqué. Cette évolution sensible de son arsenal militaire offre à Washington un avantage nettement plus décisif qu'en 1991, d'autant que les forces armées irakiennes n'ont pu, en seulement 10 ans, reconstituer un arsenal conséquent, et ne disposaient, à la veille du conflit, que de capacités assez limitées. Dès lors, une campagne rapide était envisageable et Washington pouvait faire l'économie d'une coalition à la fois difficile à organiser et fort contraignante à bien des égards, en comparaison de son faible apport. De nombreux experts aux Etats-Unis, considérant qu'une coalition briderait les capacités militaires du pays, trouvèrent là des arguments pour justifier une intervention unilatérale.
+L'exemple de l'Afghanistan joua un rôle important dans le soutien apporté à une attaque de grande ampleur contre l'Irak. En effet, alors que les résultats obtenus dans ce pays étaient présentés comme significatifs par l'Administration (à savoir un régime stable et une prospérité plus notable qu'au temps des Talibans), celle-ci plaida rapidement en faveur d'une intervention contre Bagdad, avec comme argument qu'une telle campagne apporterait la stabilité dans la région. A l'inverse, comme l'expliquait Thomas Friedman, si le nouveau régime afghan ne parvenait pas à s'imposer sur l'ensemble du territoire et à faire l'unité du pays, il serait d'autant plus difficile à Washington de " proposer " une poursuite de la campagne contre l'Irak. Invité à l'Institut français des relations internationales, le 28 mars 2002, Steve Szabo, de la Johns Hopkins University (Washington, D.C.), a noté que la Maison-Blanche ne prévoyait pas une intervention aussi longue et importante que celle de 1991, notamment du fait de l'affaiblissement des forces irakiennes (n'oublions pas qu'en 1990, l'Administration Bush qualifiait l'armée de Saddam Hussein de " quatrième armée au monde "). Il s'agissait donc d'une quick war, c'est-à-dire d'une intervention rapide engageant moins de forces. S'il convenait, comme Steve Szabo, de rester mesuré quant à ces perspectives, force est de constater que ces arguments répondaient également à la volonté de ne pas se présenter devant le Congrès pour déclencher des hostilités, en considérant que celles-ci n'engageraient que des moyens relativement limités et ne dépasseraient pas 60 jours. Mais, à prendre de tels risques, l'Administration s'exposait, en cas de résultats peu probants, à des critiques qu'il lui aurait fallu assumer seule, car les parlementaires n'auraient pas manqué l'occasion de rappeler qu'ils n'avaient pas été consultés.
+C'est en effet au niveau de la politique intérieure que les contraintes les plus vives, mais aussi les plus neutralisantes, se sont manifestées. Comme nous l'avons vu, le Congrès a le pouvoir de limiter, voire d'interdire, des opérations militaires extérieures. Par ailleurs, si le principe de l'engagement militaire a été discuté depuis le 11 septembre, la perspective d'une intervention en Irak a fait apparaître de véritables fractures au sein du Congrès. Déplorant l'absence de bonne volonté de la part de ses membres, Paul Reynolds notait que " le Congrès avait refusé d'être contraint d'étendre les pouvoirs des agences d'investigation, comme John Ashcroft l'avait demandé. Les parlementaires ont approuvé les mesures d'urgence, comme celle étendant le droit de surveillance d'un téléphone à tous ceux appartenant à la même personne. Ils se sont cependant interrogés sur les mesures de fond, comme le droit de garder quelqu'un à vue indéfiniment, bien que le FBI ait déjà adopté de telles méthodes, à travers le service de l'immigration, pour interroger des personnes. Le Congrès était encore une fois aveuglé par la Constitution ".
+Unie jusqu'alors dans la lutte contre le terrorisme, la classe politique aux Etats-Unis a commencé à se diviser à la suite du discours sur l'état de l'Union du 29 janvier 2002, dans lequel le président George W. Bush a avancé sa thèse d'un " axe du Mal ", inaugurant ce qu'il convient d'appeler la " phase 2 " de la campagne antiterroriste. Le 11 mars 2002, à l'occasion de la célébration des six mois des attentats, il annonçait, de façon encore plus nette, que la seconde étape de la guerre antiterroriste avait débuté : " Nous n'enverrons pas de soldats américains sur tous les champs de bataille, mais les Etats-Unis prépareront activement les autres pays à d'éventuelles batailles. " Vivement critiqué à l'étranger, un tel discours a reçu un écho favorable aux Etats-Unis, Pascal Riché estimant que " l'unilatéralisme de l'Administration Bush s'accordait parfaitement avec l'isolationnisme, qui séduit traditionnellement l'électorat républicain ".
+Prenant la place tenue par George Mitchell en 1990, le leader du camp démocrate à la Chambre des représentants, Richard Gephardt, souvent cité comme candidat potentiel aux primaires démocrates de 2004, a exposé la " réponse " officielle de son parti au discours sur l'état de l'Union. Mettant l'accent sur la nécessité de rester unis dans la lutte contre le terrorisme, il a rappelé que les Démocrates ne soutiendraient pas de façon aveugle toutes les initiatives de l'Administration, notamment dans le domaine des réformes sociales, cherchant ainsi d'autres terrains que la sécurité extérieure pour affirmer leurs différences. Thomas Daschle, leader de la majorité démocrate au Sénat, a lui aussi rappelé le besoin d'unité nationale, sans omettre cependant les points de divergence. Ainsi, comme l'expliquait Eric Lesser, tous deux " se sont livrés à l'exercice impossible consistant à mettre de côté l'esprit partisan en étant à 100 % avec le président dans la guerre contre le terrorisme et à tenter, dans le même temps, des critiques sur sa politique économique et sociale ".
+Côté républicain, Trent Lott, leader du GOP au Sénat, et Dennis Hastert, leader de la majorité à la Chambre, ont tous deux rappelé que les électeurs s'attendaient à une coopération parfaite entre les deux partis au Congrès, réduisant indiscutablement la marge de manoeuvre des Démocrates. Par ailleurs, Bob Stump, président de la commission des Forces armées à la Chambre, a mis l'accent sur la nécessité de débloquer les fonds nécessaires pour renforcer le budget de la Défense, lançant ainsi un appel aux Démocrates. Ce soutien massif et sans équivoque est à mettre en parallèle avec la résolution H.J.RES.27, proposée par la Chambre le 6 mars 2001, et dans laquelle Ronald Paul (républicain, Texas), John Doolittle (républicain, Californie), Pete Stark (démocrate, Californie), Roscoe Bartlett (républicain, Maryland), Virgil Goode (démocrate, Virginie), Barbara Lee (démocrate, Californie) et Barbara Cubin (républicain, Wyoming) rappelaient le rôle du Congrès dans le déclenchement des conflits. Un an plus tard, seul Pete Stark se montrait encore sceptique quant aux propositions de l'Administration Bush, mais il est resté fort isolé à la Chambre.
+C'est donc une fois de plus le Sénat qui s'est montré le plus actif dans ses réactions aux projets de guerre de l'Administration. Dès le 29 janvier 2002, Joseph Biden (démocrate, Delaware), alors président de la commission des Affaires étrangères, calmait ses collègues en précisant que les propositions de l'Exécutif restaient vagues et qu'il fallait attendre un réel plan budgétaire pour en discuter. Dans les semaines qui ont suivi, plusieurs élus se sont exprimés pour rappeler que le Congrès pouvait seul décider d'envoyer des troupes sur des théâtres extérieurs.
+Le 11 février, Russel Feingold (démocrate, Wisconsin) écrivait dans le Washington Times que " le président devait également respecter les termes de la résolution sur les pouvoirs de guerre ". En effet, " en vertu de notre Constitution et de la résolution sur les pouvoirs de guerre, le président et le Congrès doivent d'abord se mettre d'accord sur une telle extension de nos engagements militaires ". Le sénateur n'a pas hésité à rappeler que la répartition des pouvoirs avait été souhaitée dès les origines de la démocratie aux Etats-Unis, et qu'il serait par conséquent dommageable de la remettre en question (les arguments étaient sensiblement proches de ceux énoncés en 1990) :
+" En divisant le pouvoir de faire la guerre, les rédacteurs de la Constitution ont signifié que l'unité nationale était essentielle à tout effort de guerre, et que cette unité pouvait se trouver renforcée en répartissant l'autorité entre les deux pouvoirs démocratiques du gouvernement. Cette division du pouvoir de déclarer la guerre nous force à rechercher un consensus national avant de mettre des Américains en danger. "+
Le sénateur Patrick Leahy (démocrate, Vermont), qui présidait la sous-commission des Opérations à l'étranger au sein de la commission des Attributions budgétaires, a poussé plus loin cette idée dans le domaine budgétaire. Il affirma qu'il appartenait aux parlementaires de chercher à concentrer les efforts sur les " zones grises ", afin d'éviter les déséquilibres, offrant une lecture totalement opposée à celle de l'Administration Bush. Ainsi, selon lui, " le Congrès, qui tient les cordons de la bourse, devrait s'assurer qu'une part de l'augmentation budgétaire proposée est consacrée à la lutte contre la pauvreté ".
+Mais c'est surtout depuis le mois de mars 2002 que les oppositions les plus vives à la perspective d'une intervention en Irak se font entendre. Le sénateur Robert Byrd (démocrate, Virginie occidentale) a mis en avant les prérogatives des parlementaires en temps de guerre, notamment celle consistant à exiger que le chef de l'Exécutif vienne expliquer sa stratégie au Capitole. Selon lui, " le Congrès a non seulement le droit, mais aussi le devoir d'examiner d'un oeil critique la politique du président. Demander des explications, ce n'est pas accuser ou condamner. Demander des explications, c'est rechercher la vérité ". Il s'agissait ici d'une critique qui concernait davantage les pouvoirs de guerre que la stratégie de l'Administration elle-même. Thomas Daschle a repris les mêmes thèmes dans un article publié dans le Washington Post, en mettant l'accent sur le budget nécessaire à une intervention : " Le Congrès a l'obligation constitutionnelle de demander où et comment ces fonds vont être utilisés. " Si les remarques énoncées par les deux sénateurs sortaient du cadre partisan, les réactions qui ont suivi ont été, en revanche, nettement plus politisées, soulignant le besoin d'unité du pays dans une guerre qui n'est pas comme les autres. L'éditorialiste du Washington Post, Charles Krauthammer, a ainsi pu écrire : " La guerre contre l'islam radical est une nécessité. Les guerres nécessaires n'ont pas de stratégie de sortie. Elles doivent être gagnées. "
+Les prises de position contre une guerre en Irak ont également eu pour effet de diviser le camp démocrate au Sénat, certains considérant, à l'instar de Mitchell en 1990, que le moment était mal choisi pour s'opposer au président, et plaidant donc en faveur de l'unité nationale. Joseph Lieberman (démocrate, Connecticut), colistier malheureux d'Al Gore lors de l'élection de 2000, a adopté une position éloignée de ses confrères démocrates, plaidant au contraire, comme il l'avait déjà fait lors de la crise du Golfe en 1990, pour un soutien aux initiatives présidentielles.
+Parallèlement aux propositions de frappes contre l'Irak, d'autres voix se sont élevées pour réclamer un règlement du cas irakien devant la justice internationale, prenant exemple sur le cas de Slobodan Milosevic, jugé à La Haye. En accusant Saddam Hussein de crimes contre l'humanité, les autorités américaines renforcèrent la légitimité de l'opposition interne (comme ce fut le cas en Yougoslavie) et espérèrent même qu'un règlement se ferait sans recours à la force, ce qui semblait pour le moins peu évident.
+De façon générale, c'est la doctrine Bush concernant la croisade contre le terrorisme et l'utilisation de la force pour dissuader les adversaires qui fit l'objet de critiques de plus en plus franches. Dans l'entourage du président, les arguments en faveur du renforcement des prérogatives de l'Exécutif n'étaient pas jugées essentielles dans la seule perspective du règlement d'une crise ; elles s'imposaient également dans le bon fonctionnement d'une politique étrangère. Dans un entretien en date du 21 février 1997, Colin Powell, pourtant considéré comme l'un des modérés de l'Administration, estimait ainsi que " la menace militaire fonctionne uniquement quand les dirigeants américains ont réellement décidé de se préparer à utiliser la force ". Pour le secrétaire d'Etat, il convenait de faire en sorte que les adversaires des Etats-Unis se sentent perpétuellement menacés, et il fallait pour cela concentrer les pouvoirs de guerre entre les mains d'un nombre limité de personnes, ce qui est loin de conforter les prérogatives des membres du Congrès.
+Le 19 septembre 2002, après avoir présenté à l'Assemblée générale des Nations unies sa position sur la situation en Irak, George W. Bush s'est adressé au Congrès pour lui demander un vote l'autorisant à faire usage de la force, afin de " faire appliquer les résolutions susmentionnées du Conseil de sécurité des Nations unies, de défendre les intérêts de sécurité nationale des Etats-Unis contre les menaces émanant de l'Irak, et de restaurer la paix internationale et la sécurité dans la région ". Secondé par Donald Rumsfeld et Colin Powell, le président a justifié la nécessité de ce vote, dans un souci d'unité, pour faire face de façon plus crédible à la " menace que fait planer le régime de Saddam Hussein ". Cette initiative a été saluée par les parlementaires, qui y ont vu une volonté d'ouverture en direction du pouvoir législatif, et une reconnaissance de leurs prérogatives.
+Plusieurs parlementaires démocrates se sont cependant élevés contre cette proposition de la Maison-Blanche. Constatant un décalage de plus en plus perceptible entre les orientations politiques et l'opinion publique du pays, Dennis Kucinich (démocrate, Ohio), meneur du groupe opposé à la proposition, a souligné que " (ses) administrés (étaient) choqués de voir la direction que (prenait) l'Amérique ". De son côté, Russel Feingold estimait que " l'Administration (demandait) la lune sans nous donner d'informations sérieuses ". De même, plusieurs élus démocrates se méfiaient d'un amendement qui donnait au président tout pouvoir pour gérer la sécurité et la paix de la région. Pourtant, la plupart des élus démocrates, à commencer par les dirigeants du Parti, estimaient être capables de travailler de concert avec l'Administration pour mettre au point une résolution sur l'Irak soutenue par le plus grand nombre. L'objectif était d'atteindre rapidement un compromis sur les termes du texte et un vote à la Chambre et au Sénat. Nancy Pelosi (démocrate, Californie) espérait que les deux camps pourraient travailler ensemble en ce sens. Mais elle avertit l'Administration qu'elle-même et les autres parlementaires démocrates souhaitaient des réponses concrètes sur le coût d'une offensive en Irak en termes d'opération militaire, d'occupation, d'économie et de guerre totale contre le terrorisme. Le représentant John Spratt (démocrate, Caroline-du-Sud), de la commission des Finances au Congrès, estima ce coût à 93 milliards de dollars, sans compter les opérations de maintien de paix et les efforts de reconstruction qui pourraient suivre.
+Cependant, le camp démocrate restait divisé entre ceux qui estimaient qu'une campagne était nécessaire et qu'il convenait de soutenir l'Exécutif (Joseph Lieberman et John Edwards au Sénat), et ceux qui préféraient se concentrer sur les dossiers de politique intérieure pour attaquer l'Administration. Ce fut le cas de Thomas Daschle, qui exprima son soutien à l'idée d'une campagne militaire en Irak, ce qui lui laissait le champ libre pour critiquer l'Administration sur d'autres dossiers. Dans une intervention remarquée au Sénat, le 25 septembre 2002, le leader de la majorité démocrate apporta ainsi son soutien à la campagne militaire, tout en accusant la Maison-Blanche d'utiliser la menace irakienne à des fins électorales. En soutenant l'initiative de l'Exécutif, il se mettait à l'abri de critiques politiciennes, ce qui lui permit de condamner l'instrumentalisation qui, selon lui, était faite de la crise. Ainsi, si les parlementaires furent généralement en accord avec l'Administration sur la nécessité de régler le cas irakien, les critiques reposaient sur l'absence de débat sur les autres points sensibles, la Maison-Blanche étant accusée de faire la distinction entre les Républicains, soucieux des questions de sécurité, et les Démocrates, supposés s'en désintéresser.
+Le 23 septembre 2002, le représentant Alcee Hastings (démocrate, Floride) introduisit au Congrès un projet de résolution (H.J. RES. 110) autorisant le président à faire usage de la force en Irak. Mais ce texte comprenait un certain nombre de conditions que l'Exécutif devait remplir, et sans lesquelles les parlementaires pouvaient émettre des réserves. Parmi ces conditions figuraient alors :
+ +Barbara Lee, seule membre du Congrès qui vota, après les attentats du 11 septembre, contre une résolution autorisant l'usage de la force contre les terroristes, a reconnu que cette résolution serait probablement adoptée par une grande majorité parlementaire. Ce qui ne l'empêcha pas de proposer sa propre résolution : les Etats-Unis devaient, selon elle, s'atteler à résoudre le problème irakien à travers les Nations unies, grâce à des inspections, des négociations et autres moyens pacifiques. Elle rejoignait en cela les propositions avancées par certains partenaires européens des Etats-Unis, en particulier la France.
+Enfin, Robert Byrd, qui bénéficiait alors de sa position de président pro-tempore du Sénat (en l'absence du président, il était chargé d'assurer l'intérim), rappela que les engagements de l'Administration n'étaient pas recevables, la preuve que l'Irak posait une réelle menace n'ayant pas été encore apportée. De même, il condamna vivement l'idée selon laquelle les critiques adressées à l'Exécutif étaient un acte d'antipatriotisme. En cela, il resta fidèle à la position qu'il avait affichée tout au long de l'année 2002. Selon lui, la Maison-Blanche cherchait à obtenir des pouvoirs de guerre dépassant de loin ceux dont elle disposait, ce qui pouvait lui permettre de se lancer dans d'autres opérations futures sans consultation préalable du Congrès. Il se positionna ainsi indiscutablement comme le chef de file de ceux qui se montraient méfiants au Sénat.
+De leur côté, plusieurs républicains, dont le chef de la majorité à la Chambre des représentants, Dick Armey (Texas), mirent en garde l'Administration contre les dangers d'entraîner le pays dans une guerre en Irak. Mais les parlementaires du GOP devaient apporter leur soutien de façon quasi unanime à la résolution finale, au nom de valeurs d'unité en temps de crise, ralliant derrière eux de nombreux démocrates.
+C'est finalement le 10 octobre 2002 que les deux Chambres ont autorisé le président Bush à déclencher des opérations militaires contre l'Irak, par 296 voix contre 133 à la Chambre des représentants, et 77 voix contre 23 au Sénat. Le succès de ce vote s'explique par la prise de position des leaders démocrates en faveur de la résolution, notamment Richard Gephardt (à la Chambre) qui en était l'auteur ; mais il convient de relativiser ce plébiscite, car plus de la moitié des représentants démocrates votèrent contre. Au vu des éléments évoqués plus haut, ce vote n'était pas une surprise, et, s'il est venu conforter l'Administration dans ses positions à l'égard de l'Irak, il n'illustre pas pour autant un regain d'influence de l'Exécutif sur les questions de politique étrangère, et apparaît plus conjoncturel qu'autre chose. En tout état de cause, le soutien des parlementaires a eu pour effet de clarifier la position des Etats-Unis, la Maison-Blanche disposant d'un véritable mandat interne dans sa lutte contre le régime de Saddam Hussein.
+Dans sa version finale, la résolution donnait au président Bush tous les pouvoirs qu'il avait réclamés. Cependant, si elle l'autorisait à agir indépendamment des Nations unies, elle tenait compte des inquiétudes de certains parlementaires en encourageant le président à épuiser d'abord tous les recours diplomatiques, et exigeait de lui qu'il remette au Congrès, tous les 60 jours, un rapport au sujet de toute action unilatérale qui aurait été entreprise.
+L'issue des débats est devenue évidente lorsqu'une version modifiée de la résolution, soutenue par la plupart des démocrates, a été battue par un vote de 270 voix contre 155 en début de journée. Cette version exigeait que le président Bush demande au Congrès de se prononcer une seconde fois sur le recours à la force lorsqu'il aurait conclu que les démarches diplomatiques par le biais de l'ONU n'avaient pas abouti. Le représentant John Spratt (républicain, Caroline du sud), qui avait parrainé la version modifiée, déclara : " En l'absence d'une action multilatérale, ce sera les Etats-Unis contre l'Irak et, pour certains, les Etats-Unis contre le monde arabe et musulman. " Et Jay Inslee (démocrate, Washington) de renchérir : " A mon avis, frapper un tyran et créer 10 000 terroristes ne constitue pas une victoire. " En d'autres termes, de nombreux parlementaires attendaient l'Administration Bush au tournant et étaient prêts à multiplier leurs critiques si l'intervention militaire en Irak n'était pas un succès. En fait, il a fallu attendre la fin des opérations en Irak, et surtout le triple attentat suicide de Riyad, pour que l'unité nationale, généralement perceptible en temps de guerre, recommence à se diluer, et que les critiques les plus vives concernant la lutte antiterroriste menée par l'Administration se fassent à nouveau entendre au Congrès.
+En s'attardant sur quelques exemples précis, en particulier depuis la fin de la guerre froide, cette étude permet de mieux comprendre le rôle du Congrès en matière de pouvoirs de guerre, et dans quelle mesure les engagements extérieurs des Etats-Unis font systématiquement l'objet de débats institutionnels opposant le Législatif à l'Exécutif. Ces divergences sont d'autant plus marquées quand le Capitole est politiquement opposé à la Maison-Blanche, comme ce fut souvent le cas depuis 1994. Mais la domination de toutes les institutions par un seul parti n'empêche pas les parlementaires de défendre des prérogatives qu'ils placent à un niveau supérieur aux traditionnelles querelles politiques. Ainsi, ce n'est pas parce que le président bénéficie d'une majorité dans les deux Chambres du Congrès qu'il se retrouve dans une situation plus favorable.
+Un tel constat est indispensable dans le contexte actuel. A l'occasion des élections de la mi-mandat organisées le 5 novembre 2002, en effet, les Américains ont voté pour désigner l'ensemble des 435 représentants (mandat de deux ans), 34 sénateurs sur 100 (mandat de six ans) et 38 gouverneurs d'Etat sur 50 (mandat de quatre ans). Après la défection de Jim Jeffords en juin 2001, les Démocrates étaient majoritaires au Sénat, ce qui leur permettait d'y contrôler les commissions et de faire pression sur certains dossiers présentés par l'Administration Bush, comme la ratification du protocole de Kyoto et le bouclier antimissile. Par ailleurs, cette opposition partisane était souvent perçue, de l'extérieur, comme une certaine forme de cohabitation. Or, si cela est exact sur les dossiers de politique intérieure, il n'en est rien en ce qui concerne les questions internationales.
+Pour la première fois depuis les élections de 1934, à la suite desquelles le crédit de Franklin D. Roosevelt en tant que président avait été renforcé, aucun président des Etats-Unis n'avait vu son parti politique progresser au cours des élections de la mi-mandat consécutives à son élection. En ce sens, le succès du Parti républicain est une victoire historique : comme entre janvier et juin 2001, le parti de George W. Bush contrôle désormais l'Exécutif, les deux Chambres du Congrès et la majorité des Etats.
+Cette victoire est-elle due au soutien de l'opinion publique à son président ? George W. Bush était encore crédité, 14 mois après les attentats de New York et de Washington, de plus de 60 % d'opinions favorables, ce qui constitue un record au bout de deux ans de présence à la Maison-Blanche. Mais la victoire des candidats républicains s'explique bien davantage par des campagnes de terrain que par une stratégie d'ensemble à la tête de laquelle se serait porté le président. Enfin, la campagne électorale a été marquée par l'importance des financements, ceux-ci ayant été majoritairement le fait d'initiatives locales. Mais le seul point sur lequel cette élection apparaît comme une victoire personnelle de George W. Bush est qu'il a lui-même choisi la plupart des nouveaux candidats, et que ceux-ci ont connu des résultats largement positifs. Ainsi, parler d'un vote de soutien au président semble caricatural, mais il s'agit indiscutablement d'une victoire personnelle du chef de l'Exécutif, et Thomas Daschle n'hésite pas à expliquer la défaite de son camp par la campagne menée par George W. Bush, justifiant ainsi les mauvais résultats des Démocrates.
+De même, il est difficile de voir dans cette élection une réelle victoire du camp républicain, la campagne ayant peu porté sur des questions partisanes, mais plutôt une défaite des Démocrates, qui n'ont pas été en mesure de proposer une alternative, ni de mettre en avant leurs différences de vues, sur les questions tant internes qu'externes. En tout état de cause, le résultat de ces élections a renforcé la position de l'Administration et mis entre parenthèses la constante opposition partisane qui existait entre le Sénat et la Maison-Blanche depuis 1994 (à l'exception de la période de janvier à juin 2001, quand les Républicains étaient majoritaires dans les deux Chambres). Jusqu'aux élections de novembre 2002, l'Administration Bush pourrait être exempte de toute critique dans sa gestion des affaires internationales, notamment au Moyen-Orient, même si la plupart de ces questions font l'objet d'un fort consensus entre les différentes composantes politiques du Congrès. Par ailleurs, dans le contexte actuel, les Démocrates ont tout intérêt à privilégier les questions intérieures dans leurs critiques adressées à l'Administration, laissant ainsi de côté les problèmes internationaux, à l'instar de Bill Clinton qui, en 1992, s'était concentré sur l'économie et les problèmes sociaux et avait totalement délaissé les affaires étrangères. Dans ces conditions, les résultats des élections de novembre 2002 devraient avoir pour effet de laisser le champ libre aux Républicains sur les questions internationales dans les deux prochaines années.
+C'est donc à l'intérieur du Parti républicain que les tendances lourdes en matière de politique étrangère vont se dégager. Il convient donc d'analyser à la fois les différents mouvements au sein du GOP et les relations de ce parti avec l'Administration, et aussi dans quelle mesure certaines conceptions recevront un écho plus ou moins favorable, et seront ainsi susceptibles, ou non, de participer pleinement à la formulation de la politique étrangère du pays. Parmi les personnalités les plus influentes se trouvent les nouveaux présidents des commissions des Relations internationales et des Forces armées au Sénat, Richard Lugar (républicain, Indiana) et John Warner (républicain, Virginie), tous deux réputés pour leurs prises de positions conservatrices. Plus que des divergences opposant Républicains et Démocrates, les futurs débats sur les questions internationales mettront en évidence les désaccords existant au sein du GOP entre des parlementaires conservateurs et d'autres plus " centristes ", à l'instar de ceux opposant les " faucons " et les " colombes " au sein de l'Administration. Ils permettront aussi de mesurer clairement l'importance des prérogatives constitutionnelles, que les parlementaires républicains ne manqueront pas de mettre en avant à l'occasion des futurs engagements de l'Administration Bush sur la scène internationale.
+Si la victoire des Républicains a ainsi des effets importants sur les questions intérieures, le Congrès se rangeant derrière les propositions de lois de l'Administration, il n'en sera pas forcément de même en ce qui concerne les affaires internationales, et l'équipe de George W. Bush devra faire face, sur ce point, à la fois à l'aile droite du Parti républicain et aux initiatives bipartisanes derrière lesquelles pourraient se ranger des parlementaires plus " centristes ", susceptibles de s'associer aux Démocrates en certaines circonstances. Il sera indispensable pour l'Exécutif de savoir compter habilement sur ces différentes tendances.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Au début de la campagne d'Afghanistan, le gouvernement américain a acheté en exclusivité toutes les images de la zone en guerre prise par le satellite à haute résolution Ikonos. Cette procédure était plus facile à adopter que l'interdiction de photographier, initialement prévue. Même si les agences de renseignement se sont montrées réticentes à distribuer l'imagerie commerciale auprès des forces armées, l'objectif initial de contrôle de l'information a été atteint.
+Mais cette procédure ne peut fonctionner avec des producteurs d'imagerie plus nombreux. Contrôler la diffusion de l'imagerie apparaît comme une tâche de plus en plus illusoire.
+Sous l'égide d'un NSC devenu récemment plus actif, l'administration doit mettre en forme une nouvelle approche du problème. Elle doit accepter la possible diffusion de l'imagerie spatiale. Les solutions explorées passent par la préparation de réponses à l'utilisation de l'imagerie par l'ennemi, que ce soit lors d'opérations militaires ou en prévention d'attaques terroristes, et un dialogue très en amont avec les producteurs privés américains et étrangers.
+Ce nouveau rapport du Centre français sur les Etats-Unis fait suite au policy paper sur " Le Contrôle de l'imagerie satellitaire, un dilemme américain ", publié en septembre 2001, puis mis à jour dans une version en anglais en mars 2002.
+L'objectif initial du présent rapport était de présenter les résultats d'une étude menée par le National Security Council (NSC) sur le contrôle de la diffusion de l'imagerie commerciale par le gouvernement américain. Lancée au printemps 2001, cette étude devait s'achever en début d'année 2002.
+Malheureusement, certaines difficultés structurelles et conjoncturelles sont apparues et cette étude officielle n'a pas encore vu le jour. Le groupe de réflexion chargé de l 'étude était une sous-commission particulière du Policy Coordinating Committee sur l'espace (PCC-space) créé par le NSC. Dans les faits, les efforts du NSC en matière spatiale n'ont pas été suffisants. L'autorité au sein des sous-groupes n'était pas clairement attribuée au NSC. Ed Bolton, Director for Space au NSC sous l'autorité de Frank Miller, n'était pas de rang suffisant pour imposer des compromis aux différentes agences réunies dans le PCC-Space. Surtout, les événements du 11 septembre ont axé les priorités du gouvernement sur l'action et non sur la réflexion.
+La campagne d'Afghanistan a entraîné des innovations importantes dans les mécanismes de contrôle de la diffusion de l'imagerie. Mais aucune réflexion d'ensemble n'est intervenue et la situation est pour l'instant confuse. Des changements de personnel à la Maison Blanche vont entraîner un recadrage dans les mois qui viennent.
+A l'automne 2001, seule la compagnie Space Imaging proposait des images à haute résolution sur le marché commercial. Opérationnel depuis fin 1999, son satellite Ikonos produit des images à un mètre de résolution en mode panchromatique et à 4 mètres de résolution en mode multispectral.
+Au moment d'entamer l'opération Enduring Freedom en Afghanistan, l'administration Bush a voulu s'assurer que ces images ne pouvaient tomber entre des mains hostiles, susceptibles d'en faire un usage militaire. A ce niveau de détail, les images pouvaient montrer par exemple la mise en place de bases au sol américaines sur le territoire afghan, le déplacement des troupes américaines sur le terrain, le degré de visibilité des infrastructures Talibanes, etc...
+Quoique moins facilement avouable car touchant à la censure, il était aussi important pour l'administration de contrôler l'usage de l'imagerie par les médias. Fin septembre 2001, Space Imaging était déjà en pourparler avec CNN pour vendre à la chaîne d'information télévisée des images des opérations. Le gouvernement ne pouvait courir le risque de voir sa politique commentée ou contestée avec des images, dont la charge émotionnelle est souvent importante.
+Depuis l'adoption de la directive PPD-23 en 1994, l'administration disposait d'un mécanisme pour interdire la diffusion d'imagerie commerciale par les entreprises privées, en cas de crise. Selon la directive, " le secrétaire au commerce peut décider de limiter les opérations d'un satellite commercial, soit lorsque le secrétaire à la défense estime que la sécurité nationale est en jeu, soit lorsque le secrétaire d'Etat estime que des obligations internationales et/ou des politiques étrangères pourraient être compromises ".
+L'opérateur du satellite doit alors limiter la prise de vue au-dessus du territoire concerné ou restreindre la distribution des images. Qui plus est, les communications entre le satellite et ses stations de réception doivent rester accessibles au gouvernement.
+Cette procédure dite de shutter control faisait l'objet de critiques de la part des médias. Notamment, la formulation des conditions dans lesquelles le shutter control pouvait être déclenché était beaucoup trop floue. Selon la jurisprudence relative au Premier amendement à la Constitution, qui garantit la liberté de la presse, il faut " un danger clair et présent " ou " une menace sérieuse et imminente pour la sécurité nationale " pour justifier une quelconque censure. Depuis 1994, des associations de journalistes avaient signalé leur intention d'intenter un procès au gouvernement dès la première utilisation du shutter control, pour en obtenir la reformulation.
+Les producteurs d'imagerie spatiale déploraient aussi le choix du mécanisme de shutter control. En cas d'application, les entreprises étrangères resteraient libres de vendre leurs images des zones en crise et opéreraient sur un marché d'où la concurrence américaine aurait disparu.
+Pour éviter toute complication, le gouvernement a donc adopté une autre solution pour empêcher la diffusion de l'imagerie commerciale. Un accord commercial a été conclu entre la compagnie Space Imaging et l'agence de renseignement responsable de l 'imagerie (la National Imagery and Mapping Agency, NIMA), accordant à cette dernière une exclusivité sur les images prises de l'Afghanistan.
+Rendu public le 18 octobre, l'accord a été signé le 5 octobre pour une durée de un mois. Pour 1,9 millions de dollars, Space Imaging s'engage à ne plus vendre d'images de 'Afghanistan et de la région (Pakistan, Ouzbékistan) à d'autres clients que la NIMA. Chaque kilomètre carré imagé est facturé 20 dollars et les commandes ne peuvent porter sur moins de 10.000 km à la fois. L'accord a été renouvelé le 5 novembre pour un second mois.
+Après le 5 décembre, l'accord n'a pas été renouvelé. La NIMA, redevenue un client comme les autres, a poursuivi ses commandes sans clause d'exclusivité.
+Pour le gouvernement, l'accord de buy-to-deny présentait un certain nombre d'avantages par rapport au shutter control. Tout d'abord, l'entreprise d'imagerie concernée ne pouvait plus se plaindre d'un manque à gagner, comme dans le cas d'un shutter control interdisant la production. Au contraire, elle a obtenu en deux mois une somme que l'on peut estimer à 13.2 millions de dollars.
+L'association Reporter Sans Frontières et l'association américaine Radio-Television News Directors Association (RTNDA) se sont plaintes pour leur part de la mesure adoptée. Dans des lettres adressées à Donald Rumsfeld, et aux responsables de la NIMA, elles ont comparé le buy-to-deny à de la censure. Elles n'ont toutefois pas intenté de procès, probablement parce que leurs chances de l'emporter étaient très minces dans le contexte de l'opération Enduring Freedom.
+D'un point de vue pratique, l'accord de buy-to-deny était aussi plus facile à mettre en place que le shutter control. Ce dernier implique au moins deux secrétaires : le Secrétaire au commerce prend la décision sur la demande du Secrétaire à la défense ou du Secrétaire d'Etat. C'est une décision politique qui implique la responsabilité du gouvernement. La décision du buy-to-deny est en revanche une décision commerciale et les négociations ont été discrètement menées par la NIMA.
+Enfin, le gouvernement a souligné la grande utilité des images Ikonos pour les forces armées et les agences de renseignement américaines. Celles-ci peuvent les utiliser pour établir la cartographie du territoire, dans le cadre de missions opérationnelles, ainsi que pour communiquer plus facilement avec les forces alliées. Les images commerciales ne sont pas classifiées et peuvent être utilisées sans problème lors de briefings interalliés.
+Ce que la presse a rapidement appelé l'accord de buy-to-deny (" acheter pour empêcher l'utilisation "), la NIMA l'appelle pour sa part l'accord de assured access, c'est-à-dire " d'accès assuré ".
+L'accord initial semblait inclure une clause d'exclusivité à perpétuité sur les images achetées. Il semble néanmoins que les images soient déjà déclassifiées et versées aux archives de la compagnie. Clients et chercheurs peuvent désormais consulter la liste des images commandées par la NIMA à l'automne dernier. Steven Livingstone, professeur à la School of Media and Public Affairs de l'Université George Washington a analysé les images commandées par la NIMA pendant les deux mois couverts par l'accord.
+Du 5 octobre au 5 décembre, un total de 470 000 km carrés d'imagerie a été acheté par la NIMA. Il s'avère que les images de l'Afghanistan achetées par la NIMA correspondent bien aux zones de front sur le territoire. Semaine après semaine, elles suivent les mêmes évolutions géographiques que les opérations armées.
+Selon les conclusions de l'étude, il est possible que la NIMA ait utilisé les images Ikonos pour dresser des cartes précises et à jour des régions en cause. L'administration ne disposait pas de cartes de tout le territoire afghan et il fallait rapidement pallier ce manque. La situation était la même en 1990, lors des préparatifs de l'opération Desert Storm. Le Pentagone avait alors acheté des images Spot pour établir des cartes du sud de 'Irak. La NIMA a accompli cette mission en interne. Lors de sa création en 1996, elle a l accueilli les quelques 7000 employés de la Defense Mapping Agency (DMA) et l'une de ses missions est la cartographie.
+Mais l'utilisation de ces images par les forces armées pour des missions opérationnelles semble avoir été plus difficile. La presse s'est fait l'écho de difficultés dans l'exploitation effective des images et notamment dans leur transmission aux forces sur le terrain.
+Conformément à l'accord conclu avec la NIMA, les images de la zone en guerre prises par le satellite Ikonos ne pouvaient être transmises à la station de réception installée par Space Imaging dans les Emirats Arabes Unis (à Abou Dhabi). Elles devaient être reçues et traitées dans les installations de la compagnie sur le territoire américain. Elles étaient donc reçues dans le Colorado (Denver) et en Alaska (Fairbanks). Elles étaient ensuite envoyées par e-mail et par courrier spécial à la base aérienne de Bolling, à Washington, DC. Elles y étaient archivées par la NIMA, sans doute après leur exploitation pour la cartographie.
+Dans un premier temps, le personnel de l'Air Force désireux d'utiliser les images Space Imaging devait se rendre sur la base de Bolling, copier les images sur des CD ou des disques durs d'ordinateurs portables, puis envoyer ces données par avion en Arabie Saoudite, où elles étaient réceptionnées sur la base de l'U.S. Air Force Prince Sultan. Elles pouvaient alors être distribuées aux soldats de l'Air Force dans une quinzaine de sites du théâtre d'opération.
+Les livraisons de Bolling vers la base Prince Sultan étaient effectuées une fois par semaine au début du conflit. C'est à ce moment-là qu'elles ont acquis le surnom de Pony Express, du nom des courriers reçus par les pionniers du far West, au XIXème siècle. Elles ont ensuite été envoyées plus facilement par satellite, notamment grâce au Global Broadcast Service.
+Il semble probable que la NIMA a eu des difficultés à distribuer ce type de renseignement. Il n'y avait pas de procédure en place pour organiser la distribution ; les agents, qui manquent encore d'habitude face à ces produits différents, entretiennent une certaine méfiance envers une source d'approvisionnement qu'ils ne contrôlent pas totalement.
+Au-delà de ces difficultés, certains responsables de l'Air Force et de Space Imaging ont évoqué à mots couverts la mauvaise volonté de la NIMA. L'agence de renseignement est avant tout soucieuse de maintenir des programmes d'observation " nationaux " importants dans les décennies à venir. Or, plus les besoins servis par les entreprises commerciales seront importants, plus les futurs programmes de satellites du NRO pourront être réduits. La NIMA a donc intérêt à restreindre l'accès des forces armées à 'imagerie commerciale, afin qu'elles ne prennent pas l'habitude d'utiliser ces nouveaux l produits. Elle veut éviter que les crédits destinés à l'acquisition de systèmes militaires soient consacrés à l'achat de produits commerciaux.
+Le rapport Rumsfeld de janvier 2001 évalue à 50% les besoins en renseignement de la NIMA qui pourraient être couverts par de l'imagerie à 50 cm de résolution. Le satellite QuickBird de l'entreprise DigitalGlobe, opérationnel au printemps 2002, annonce une résolution de 61 cm en mode panchromatique. La firme Space Imaging a reçu en décembre 2000 une licence pour construire son prochain satellite avec une résolution de 50 cm. L'offre croissante d'imagerie à haute résolution forcera sans doute la NIMA à s'adapter.
+Au-delà de la communauté du renseignement et des forces armées américaines, les agences fédérales civiles font également usage d'imagerie spatiale pour mener à bien leur mission. Dans le cadre d'une étude réalisée en 2001 pour le Sénat, le Congressional Research Service a tenté d'évaluer l'ampleur de leur recours à l'imagerie.
+Sur un total de 19 agences ou ministères interrogés, quinze font usage de données issues de l'observation de la Terre, avec un usage très important pour onze d'entre elles. Parmi les sources d'approvisionnement citées figurent les systèmes gouvernementaux civils (Nasa, NOAA, USGS), les systèmes commerciaux américains (Space Imaging, OrbView), et les systèmes étrangers institutionnels et commerciaux (Spot, IRS, ERS, Radarsat). Les systèmes militaires américains sont plus rarement utilisés, pour des raisons de classification. Les agences fédérales civiles sont des utilisatrices potentiellement importantes de l'imagerie commerciale.
+Les budgets qu'elles consacrent à l'achat d'imagerie commerciale sont difficiles à appréhender. Pour certaines agences comme USAID, ou le Département d'Etat, les budgets n'ont pu être reconstitués, car les fonds sont éparpillés entre les différents utilisateurs et les types de dépense (software, personnel, images). D'autres agences, comme le Département de l'énergie, ont un accès gratuit aux images de la Nasa et de la NOAA. Ces deux dernières agences présentent à l'inverse des budgets surdimensionnés, qui recouvrent la maintenance des systèmes de données, des infrastructures et des stations-sol et certaines missions opérationnelles.
+Certains autres budgets semblent plus prometteurs : le Département de l'agriculture, par exemple, a dépensé 38.3 millions en imagerie en 2000 et le Département des transports (incluant les Coast Guard) en a acheté pour 8 millions en 2001. Mais d'autres chiffres sont trompeurs. Au sein du Département de la justice, l'Immigration and Naturalisation Service (INS) a acquis pour 35 millions de dollars d'imagerie en 2001 et a requis 55 millions pour 2002, mais il semble que ces sommes soient consacrées à l'achat d'imagerie aérienne (voir détail page suivante).
+Le total des budgets consacrés par les agences civiles à l'achat d'imagerie spatiale commerciale semble donc peu élevé pour l'instant. Le rapport du Sénat mentionne quelques moyens d'augmenter le recours à ce type de produit dans l'avenir. Il recommande par exemple la mise en place de centres de commande d'imagerie uniques au sein de chaque l'administration, afin d'obtenir des prix et des services meilleurs de la part des fournisseurs ; des investissements communs dans le software et dans la formation à l'interprétation des images ; la possibilité d'acquérir une licence d'exploitation des images valable pour l'administration entière, afin que les agences fédérales puissent se communiquer les images entre elles.
+Plus l'usage de l'imagerie commerciale se répandra dans l'administration, plus il sera difficile pour la NIMA et le NRO de justifier la non-utilisation de ces données.
+L'accord d'octobre 2001 est une innovation judicieuse. Il n'est pas sûr qu'il pourra être renouvelé dans le futur. Le nombre de fournisseurs américains et étrangers d'imagerie doit s'accroître dans les prochaines années. La NIMA ne peut adopter comme mécanisme de sécurité l'achat toutes les images dangereuses.
+Pendant la campagne d'Afghanistan, seul le satellite Ikonos 2 produisait des images à haute résolution, avec des images optiques à 1 mètre et des images multispectrales à 4 mètres. Lors d'une prochaine crise internationale, la NIMA pourrait avoir à acheter la production du satellite QuickBird 2 de DigitalGlobe, (opérationnel au printemps 2002, résolutions de 61 cm en mode panchromatique et 2,44 mètres en mode multispectral), du satellite OrbView 3 d'Orbimage (lancement prévu en 2003, résolutions de un mètre en mode panchromatique et 4 mètres en mode multispectral) et d' Ikonos 3 (lancement prévu en 2004, 50 cm de résolution en mode panchromatique). L'achat de toutes les images produites serait sans doute coûteux et aléatoire.
+Quant aux entreprises étrangères, quel que soient leur nombre et la résolution de leurs images, il est peu probable qu'elles acceptent les propositions d'achat exclusif d'une agence de renseignement américaine comme la NIMA.
+Le buy-to-deny a été une solution de court terme. De l'aveu des responsables de 'actuelle administration, il n'est pas non plus pensable de revenir au shutter control. L'administration doit donc maintenant s'attacher à trouver un nouveau mécanisme de contrôle.
+Les premiers mois de l'administration Bush ont vu un désengagement de la Maison Blanche sur les questions spatiales, attribuées au Pentagone. Le National Security Council (NSC) a nommé une seule personne en charge de ces questions. Edward Bolton, lieutenant-général de l'armée de l'Air, résumait sa mission en soulignant que l'espace n'était pas la priorité du gouvernement Bush, que ce soit avant ou après le 11 septembre. Les groupes de travail dépendants du PCC-Space n'ont pas été très dynamiques. Certains n'ont pas été réunis une seule fois.
+En avril 2002, Gil Klinger a remplacé Ed Bolton au poste de Director for Space. Gil Klinger est un responsable de niveau plus élevé. Il a été Deputy Under Secretary of Defense for Space lors de la création de cette fonction en 1994. Ce poste a été supprimé en 1998 et remplacé par un Assistant Secretary of Defense for Space (qui chapeaute un " Directorat pour l'espace "). Gil Klinger a alors été nommé Director for Policy au National Reconnaissance Office, poste qu'il a conservé jusqu'en 2002.
+Gil Klinger est doté d'une forte personnalité. Il a été appelé à la Maison Blanche par le Senior Director for Defense and Arms Control Frank Miller, pour reprendre en main le dossier espace. Parmi les thèmes dont il doit s'occuper en premier figurent le contrôle de l 'imagerie, mais aussi le marché des lanceurs, le contrôle des exportations et le dialogue avec les pays étrangers.
+Il compte réaffirmer l'autorité de la Maison Blanche face aux autres entités administratives. L'OSTP, la NOAA, le bureau des exportations (BXA) et les autres agences qui participent aux groupes de travail du PCC-Space devront sans doute à nouveau accepter l'autorité du NSC. Sous la conduite plus énergique de Gil Klinger, les groupes de réflexion pourront s'attaquer au problème des risques liés à la diffusion d'imagerie commerciale à haute résolution.
+Autoriser la distribution de l'imagerie à un mètre de résolution sur le marché est un risque que l'administration a pris consciemment en 1994. Les concurrents étrangers semblaient se diriger de toute manière vers la production de ce type d'imagerie et les Etats-Unis souhaitaient prendre les devants. Il faut maintenant gérer les risques associés à 'ouverture de cette " boîte de Pandore ".
+Kevin O'Connell, senior analyst sur les questions d'imagerie spatiale à la Rand Corporation, a une opinion tranchée sur la question. Selon lui, il est inutile de s'acharner à contrôler la diffusion de l'imagerie commerciale en cas de crise, car 'apparition de fournisseurs étrangers rendra ces tentatives de plus en plus illusoires. Tout en précisant qu'il faut conserver les possibilités juridiques de restrictions, Kevin O'Connell propose de faire porter les efforts sur la sécurisation en aval.
+La Maison Blanche rejoint Kevin O'Connell dans l'idée que le contrôle par l 'administration américaine ne restera plus étanche très longtemps. Elle souhaite concentrer ses efforts sur la réponse à apporter aux situations où l'ennemi dispose d'imagerie métrique. Elle n'abandonne pas totalement l'idée du contrôle, mais le situe dans une perspective en amont plus globale.
+A un stade très peu abouti de la réflexion des responsables, quelques éléments concrets sont mentionnés pour une nouvelle approche du problème.
+Acceptant l'idée que l'ennemi ou la presse disposeront d'imagerie à haute résolution lors de futures opérations, le gouvernement doit mettre au point des réponses appropriées.
+Pour préparer la défense des troupes lors d'opérations extérieures, le Département de la Défense devra organiser des exercices militaires spécifiques. Des scénarios dans lesquels l'ennemi disposera, lui aussi, d'imagerie à un mètre de résolution, montreront à quels dangers supplémentaires les troupes sont exposées et quelles solutions peuvent être apportées.
+L'idée de prendre de vitesse les forces ennemies dans l'obtention et l'exploitation de l'imagerie figurera sans aucun doute dans les enseignements tirés de ces exercices. L'imagerie doit parvenir plus vite aux forces américaines qu'aux forces ennemies. Elle doit aussi être mieux interprétée. Lors d'une opération de type Enduring Freedom, il faudrait par exemple que le satellite Ikonos transmette directement les données à la station de réception SpaceImaging située dans les Emirats Arabes Unis, que les meilleurs logiciels et photo-interprètes l'interprètent rapidement, et que les informations soient aussitôt envoyées aux troupes sur le terrain. Le délai total ne devrait pas excéder 24 heures.
+Il est probable que les forces ennemies ne pourraient obtenir l'imagerie aussi rapidement et ne sauraient pas l'exploiter aussi bien. La diffusion d'imagerie auprès d'elles serait moins dangereuse dans ces conditions.
+L'Office of Homeland Security, à la Maison Blanche doit coordonner la réflexion en ce qui concerne la sécurité intérieure. La préparation consistera à voir quelle information opérationnelle l'imagerie métrique peut apporter pour préparer une action hostile sur le territoire américain. Il faudra par exemple recenser les cibles potentielles aux Etats-Unis : aéroports, centrales nucléaires, bases militaires, réservoirs d'eau potable... Leur sécurisation passe par le camouflage et/ou le renforcement des structures, la révision des droits d'accès aux installations, la restriction des droits de survol et une mise en alerte des forces aériennes.
+L'accès des médias aux images est un autre problème. La presse ou les ONG vérificatrices (comme par exemple GlobalSecurity.com, dirigée par John Pike) peuvent questionner la politique du gouvernement sur la base d'images accusatrices. La prévention de ce risque très spécifique est délicate. Le gouvernement américain peut soit engager un dialogue avec les médias américains, soit exercer un droit de censure et de saisie. Mais cette seconde défense est illusoire. La transmission de l'information est devenue aujourd'hui trop rapide pour que les autorités fédérales puissent agir à temps ; l 'internet et les médias étrangers restent quant à eux difficilement contrôlables.
+Pour l'instant, le manque de fournisseurs d'imagerie métrique et la loyauté des médias américains fournissent un garde-fou. Mais il n'y a pas de solution claire au problème qui risque de se poser dans l'avenir.
+L'administration doit étudier une nouvelle méthode de contrôle de la diffusion de l 'imagerie. Celle-ci ne passera plus par l'interdiction de produire ou l'acquisition de droits d'exclusivité. Il lui faut sans doute exercer une influence très en amont sur la production.
+Les entreprises survivent à l'heure actuelle grâce aux achats institutionnels. Mais ceux-ci sont trop limités pour permettre aux entreprises de décoller. Compte-tenu des besoins en imagerie qui peuvent être couverts par ces entreprises et leurs systèmes, le gouvernement semble envisager d'accroître sensiblement le volume de ses achats, afin de mener ces entreprises à une sorte de prospérité.
+La direction de la NIMA a mentionné une nouvelle Commercial Imagery Strategy (dite CIS 2001), qui remplacerait la CIS de 1998. Elle mettrait en place une " nouvelle alliance stratégique " fondée sur plusieurs éléments : la planification à l'avance des achats d'imagerie commerciale par la NIMA, pour permettre aux entreprises d'investir dans leurs systèmes futurs ; le transfert d'exigences de plus en plus raffinées, notamment le traitement de l'information, vers le secteur privé. Le NRO serait soulagé d'une partie de ses missions en résolution métrique et basse.
+Il faut pour cela que la NIMA obtienne des fonds très importants du Congrès. L'application des CIS précédentes a montré que les parlementaires américains ne votaient toujours les budgets demandés pour l'achat d'imagerie commerciale par les agences de renseignement. Pour que la nouvelle architecture fonctionne, il faut aussi que le personnel de la NIMA accepte d'utiliser et de diffuser effectivement l'imagerie commerciale auprès de l'ensemble des forces. L'expérience de l'opération Enduring Freedom a montré que certains officiers de renseignement préfèrent conserver les financements pour leurs propres systèmes et résistent à l'évolution en cours.
+A terme, l'application de la CIS 2001 signifierait que les entreprises d'imagerie commerciale américaines seraient très fortement intégrées dans l'architecture de renseignement fédérale. Il leur deviendrait difficile de désobéir aux souhaits du gouvernement en cas de crise. Le gouvernement bénéficierait d'un droit d'exclusivité implicite.
+S'il parvient à se mettre en place, un tel système serait l'objet de critiques : l 'exclusivité gouvernementale irait à l'encontre des principes de l'ONU de 1986, selon lesquels un pays observé par un système commercial doit pouvoir acheter les images en question. Ce serait aussi la fin durable des efforts des entreprises pour se développer sur un marché civil et privé. Les entreprises américaines n'auraient plus de commercial que le nom et constitueraient en réalité un système para-public.
+Le Département d'Etat aura la responsabilité d'entamer des discussions avec les pays qui possèdent des systèmes commerciaux. Selon la Maison Blanche, l'harmonisation des méthodes de contrôle semble un objectif très ambitieux à ce stade : la plupart des pays producteurs n'ont pas encore de système de contrôle particulier.
+Les images vendues par les entreprises non-américaines restent de résolution plus grossière et présentent pour l'instant moins de danger en termes de sécurité. Lors de la campagne d'Afghanistan, par exemple, Spot Image a reçu peu de commandes de la presse, car les images disponibles (Spot 1, 2 et 4, résolution de 10 mètres en mode panchromatique) n'étaient finalement pas assez parlantes pour le public.
+C'est pour cette raison que l'entreprise française se contente actuellement de respecter les décisions de l'ONU. Il peut s'agir d'embargos, comme celui qui s'applique à l'Irak, mais surtout des résolutions plus spécifiques de 1986 sur l'imagerie. En accord avec ces résolutions, Spot Image garantit l'accès des pays observés aux photographies prises, dans des délais et pour un prix raisonnable. Le gouvernement français n'a pas adopté pour l'instant de mécanisme de contrôle plus strict.
+Mais les satellites commerciaux non-américains progressent eux aussi vers des résolutions plus fines, aux alentours de deux mètres. Le satellite israélien Eros s'approche de la résolution métrique avec une résolution de 1,8 mètres. Spot 5, qui vient d'être lancé, présente une résolution de 2,5 mètres. Rocsat pour la Corée et Alos pour le Japon, dont les lancements sont prévus pour 2003 et 2004 respectivement, auront tous les deux une résolution proche de 2 mètres en mode panchromatique. La compagnie russe SovinformSpoutnik semble posséder actuellement un système opérationnel d'une résolution de 2 mètres. L'Inde prévoit le lancement du satellite de cartographie IRS-P5 pour 2002 - 2003. L'intérêt de l'imagerie à deux mètres reste plus limitée pour des utilisateurs hostiles ou pour les médias.
+Si son système de satellites à résolution métrique Pléiades est déployé dans la seconde partie de la décennie, Spot Image proposera alors des images potentiellement plus dangereuses. Les débats interministériels déjà entamés en France devront alors aboutir à l'adoption d'une politique de contrôle plus stricte.
+La coordination de ces futurs mécanismes de contrôle avec ceux qui existeront aux Etats-Unis reste à inventer. Dans les situations de crise internationale post-guerre froide, la France, de même que la Russie et Israël, sont le plus souvent dans le même camp que les Etats-Unis. Un dialogue informatif et préparatoire doit être dès à présent entamé. Le Département d'Etat fera connaître ses positions et ses vulnérabilités, puis appréhendera la manière dont les administrations étrangères envisagent d'éventuels contrôles.
+Une partie de ce dialogue portera sur la réforme possible des procédures de contrôle des exportations de matériel sensible américain. Les restrictions ne doivent plus être simplement fondées sur la résolution des images, mais pourraient prendre en compte les alliés destinataires des exportations et la nature des technologies considérées.
+Il devrait être possible de négocier une harmonisation des attitudes des pays alliés en cas de crise. Ceci ne sera pas forcément vrai pour des pays comme la Chine ou l'Inde. Le contrôle des systèmes commerciaux étrangers doit donc aussi pouvoir reposer, en fin de compte, et selon la gravité du danger ressenti par les Etats-Unis, sur des systèmes militaires.
+En conclusion, l'évolution qui se dessine semble constituer une certaine reformulation du concept d' information dominance. Ce concept élaboré dans les années 1990 a été largement adopté par le Pentagone sous l'administration Clinton. Il prévoit la maîtrise de l'information, notamment spatiale et commerciale, dans un but de domination militaire :
+" Information dominance may be defined as superiority in the generation, manipulation, and use of information sufficient to afford its possessors military dominance. "
+Un élément important de l'information dominance est la possibilité d'entraver l'accès de l'ennemi à l'information.
+Au lendemain de l'opération Enduring Freedom, l'administration Bush repense son approche. Elle doit accepter la possible diffusion de l'imagerie spatiale. Les solutions explorées passent par un dialogue très en amont avec les producteurs américains et étrangers, une utilisation de l'imagerie meilleure et plus rapide que l'ennemi pendant les crises, la préparation dès à présent des ripostes à la diffusion de l'imagerie.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Le Centre français sur les Etats-Unis (CFE)
+www.cfe-ifri.org
+La quasi-totalité des Etats - seuls l'Alabama, le Michigan, New York, et le Texas ont des dates différentes - ont eu à boucler leur budget pour l'année fiscale 2003 - 2004 le 30 juin dernier, révélant ainsi l'ampleur de la crise budgétaire qui les frappe. Le constat de crise est généralisé depuis le printemps 2003 : les différents think tanks ont tous leur avis sur la question - le Cato critiquant l'interventionnisme fédéral, la Brookings dénonçant les irresponsables coupes budgétaires étatiques, et Heritage le manque de responsabilité fiscale des dirigeants -. Ces derniers, ainsi que les lobbies intergouvernementaux (National Governors' Association, National Association of States' Legislatures en particulier), s'emploient à développer les éléments d'une rhétorique récurrente depuis le début des années quatre-vingt-dix, et selon laquelle la crise actuelle est a) la pire depuis longtemps b) totalement imprévisible c) imputable pour l'essentiel à la politique fédérale . La situation est d'autant plus difficile que tous les Etats - sauf le Vermont - sont contraints par leur constitution d'assurer un budget équilibré.
+Plus généralement, les difficultés budgétaires actuelles peuvent être aisément interprétées comme une manifestation des impasses d'un fédéralisme dit " coopératif " où les pressions contradictoires et les accusations mutuelles entre les différents niveaux de gouvernement (fédéral, fédéré, local, municipal) sont quasi-permanentes . C'est d'ailleurs là un thème qui revient fréquemment dans le débat actuel, que ce soit à la droite ou à la gauche de l'échiquier politique, et qui prend la forme d'un appel au " tri " (sorting out) des fonctions gouvernementales. Les conservateurs vont ainsi défendre un transfert plus net de fonctions vers les Etats fédérés, alors que leurs homologues libéraux (au sens américain) considèrent que l'Etat fédéral doit assumer ses fonctions nationales. Derrière la rhétorique, il va de soi que l'équilibre financier des Etats pose de façon aiguë le problème des relations intergouvernementales. Des Présidents comme Ronald Reagan ou Richard Nixon, en leur temps, l'avaient parfaitement compris et tenté de le mettre en oeuvre avec des programmes dits de " Nouveau Fédéralisme " (New Federalism) dont l'objectif le plus direct était d'alléger la charge financière de l'Etat fédéral en transférant aux Etats fédérés un nombre plus important de responsabilités. De nos jours, comme il y a vingt ans, l'argument " fédéral " est fortement lié aux questions budgétaires, alors qu'il est souvent présenté comme en engagement politique, voire idéologique.
+Au lieu de mettre l'accent sur les débats en cours concernant la question du fédéralisme, nous voudrions fournir un éclairage des principaux éléments budgétaires du problème. Malgré la diversité des situations étatiques - le Wyoming ne connaît par exemple aucune crise financière alors que la Californie, elle, voit une crise politique et institutionnelle se greffer à ses problèmes budgétaires -, les principales causes de la crise sont aisément identifiables. Il est ainsi possible de mettre en lumière des évolutions importantes du fédéralisme américain. Il semble à peu près acquis que le pari conservateur de ces dernières années, celui de la " dévolution " (devolution), est en passe d'être gagné. Dans une large mesure, l'actuelle crise budgétaire des Etats fédérés est le produit du succès de la stratégie conservatrice de " Nouveau Fédéralisme ".
+Dans un éditorial récent du Washington Post, un Sénateur démocrate de Caroline de Sud expliquait que l'administration Bush avait réussi à masquer la gravité de la situation budgétaire de l'Etat fédéral . Le constat d'un certain oubli médiatique s'impose encore plus pour les Etats fédérés. En écho à la situation fédérale, les Etats sont bien en proie à une crise budgétaire particulièrement aiguë. Hormis les spécialistes de la question, cette crise ne semble pourtant pas intéresser l'opinion publique américaine, et encore moins les observateurs étrangers. Le caractère récurrent de la crise budgétaire des Etats est sans doute une part de l'explication - au début de la décennie quatre-vingt-dix, la situation était assez similaire -, tout comme la quasi-certitude d'une aide de l'Etat fédéral. Pourtant, le problème est bien réel et il est presque certain que ses conséquences immédiates vont lui donner rapidement une visibilité politique. Les hausses d'impôts, en particulier, touchent directement les électeurs, et le lancement de la campagne présidentielle à partir des primaires de l'hiver 2004 va mécaniquement contribuer à faire de la crise budgétaire étatique un enjeu politique : les candidats démocrates ne peuvent pas laisser passer une telle occasion de critiquer la politique économique du Président, et celui-ci devra forcément le prendre en compte.
+L'ampleur du gouffre budgétaire devant lequel se trouvent les Etats est nettement plus préoccupante qu'au début de la précédent crise. La récession avait officiellement touchée le pays en juillet 1990 . Dès le milieu de l'année fiscale 1991, trente Etats faisaient face à un déficit cumulé de 15 milliards de dollars. La solution adoptée avait été une augmentation substantielle des impôts étatiques, d'environ 27 milliards de dollars entre l'année fiscale 1989 et celle de 1992. A l'époque, la hausse draconienne des impôts avait aussi résulté du manque d'économie des Etats, et pas simplement de la mauvais situation d'ensemble. Ainsi, la plupart des Etats essaient maintenant de mettre de l'argent de côté soit dans le fond général, soit dans un fond spécifique dit de stabilisation (on mentionne souvent ce dernier sous l'expression de " rainy day fund ") . Lors de la récession de juillet 1990, les Etats avaient, en moyenne, 4.7% de leur budget en réserve dans l'un de ces deux fonds, soit 12 milliards de dollars ; or ceci s'est révélé largement insuffisant, d'où le recours aux impôts. A partir de 1993, avec le redécollage de l'économie américaine, les Etats avaient finalement réussi à émerger de leurs problèmes budgétaires, et en avaient profité pour revenir sur les augmentations d'impôts : entre 1994 et 2001, 43 Etats ont baissé les impôts pour un montant de plus de 40 milliards de dollars.
+Le ralentissement économique actuel a débuté à la fin de l'année 2000 en touchant d'abord des zones industrielles autour des Grands Lacs et des ports du Sud ; les attentats du 11 septembre 2001 ont encore fragilisé la situation. Cette fois, ce sont donc les Etats du Sud (Alabama, Arkansas, Kentucky, Missouri, les Carolines, Tennessee, et la Virginie) ainsi que ceux du Midwest (Indiana, Michigan, Ohio) qui ont connu les premières difficultés à partir du printemps 2001. Les responsables étatiques avaient aussi tenté de pallier d'éventuels problèmes budgétaires à venir en augmentant les réserves budgétaires : en 1999, elles se montaient ainsi à 8,5 % du budget des Etats. Mais pourtant, la situation est sans commune mesure avec celle du début des années quatre-vingt-dix. Les experts considèrent que les Etats auraient dû doubler leurs réserves (de 8,5 % à 18,6 % selon le Center on Budget and Policy Priorities) pour faire face à la force de la crise actuelle. Ainsi, le CBPP estime qu'à présent plus de la moitié des Etats ont des revenus inférieurs à ce qui était initialement prévu en 2002, de sorte que 45 d'entre eux ont un déficit budgétaire pour l'année fiscale 2003 d'un montant de 25 milliards de dollars, chiffre qui devrait se monter, selon les estimations, à 68, voire 85 milliards de dollars pour l'année 2004 .
+Une large part des remous budgétaires actuels trouve son explication dans la configuration des prélèvements étatiques. En effet, il semblerait que le système fiscal existant amplifie rapidement - soit à la hausse, soit à la baisse - les évolutions économiques nationales. Il faut donc se tourner vers la composition des revenus et des dépenses des Etats.
+La masse budgétaire des Etats est considérable, y compris par rapport au budget de l'Etat fédéral. C'est une donnée peu réalisée par les lecteurs européens, mais les Etats fédérés étant, au sein du système fédéral, des entités souveraines dans le domaine de compétence que leur réserve la Constitution, ils ont à leur disposition un appareil fiscal substantiel. En 1997, le total des revenus étatique atteignait 815 milliards de dollars. Les Etats ont collecté en propre 584 milliards de dollars, et l'Etat fédéral a fourni les 231 milliards de dollars restants, par le biais de financements catégoriels ou " en bloc " (categorical grant - block grant), c'est-à-dire soit en finançant des programmes spécifiques - dits " catégoriels " - soit en attribuant une somme générale à un domaine dont la gestion courante est laissée aux Etats fédérés .
+Cette masse budgétaire des Etats se décompose classiquement en revenus (prélèvements) et en dépenses. Au niveau des prélèvements, l'impôt sur le revenu (income tax) et l'impôt sur la consommation (sales tax) occupent les premières places, puisqu'ils représentent chacun environ 18% du revenu total des Etats. Les rentrées de l'impôt sur la consommation augmentent relativement peu. Elles ont été dépassées par le montant de l'impôt sur le revenu perçu par les Etats au cours de la décennie quatre-vingt-dix. L'impôt sur la consommation a en effet été érodé par toute une série d'exemptions accordées à différents produits, par exemple aux ventes effectuées sur Internet, mais ces réductions varient considérablement d'un Etat à l'autre, produisant, en fin de compte, une situation extrêmement complexe, voire confuse . Troisième grande catégorie, les soutiens de l'Etat fédéral. Plus de la moitié de ces " aides intergouvernementales " sont des financements destinés à des programmes d'assistance sociales (public welfare) tels le récent Temporary Aid to Needy Families (TANF) qui, depuis 1996, remplace le programme AFDC (Aid To Families With Dependent Children). Ces aides représentent la part la plus importante des revenus des Etats -un peu plus de 28% en 1997 - de sorte qu'aucun Etat ne pourrait boucler son budget sans l'aide de l'Etat fédéral. Dans ces conditions, l'élément fondamental pour l'équilibre budgétaire des Etats est bien la décision fédérale ! La crise actuelle des Etats a lieu au moment où l'Etat fédéral relance sa stratégie de désengagement financier entamée depuis les années quatre-vingt. Il ne s'agit pas bien sûr d'une simple coïncidence : au vu de la masse des aides fédérales, c'est là l'élément déterminant des difficultés étatiques. A côté de ces trois grandes sources de revenu, il convient de mentionner l'impôt sur les entreprises (corporate tax) qui, en 1997, représentait un peu moins de 4% du revenu étatique total.
+Derrière ces chiffres globaux, les Etats varient considérablement dans la composition de leur revenu. Ainsi, neuf d'entre eux imposent peu ou pas d'impôt sur le revenu (le New Hampshire et le Tennessee dans la première catégorie, alors que l'Alaska, la Floride, le Nevada, le Dakota du Sud, le Texas, l'Etat de Washington, et le Wyoming n'ont pas du tout d'impôt sur le revenu). Le Massachusetts et l'Oregon, à l'inverse, ont un impôt sur le revenu qui constitue 30% de leur revenu total. La même ambivalence se relève au niveau de l'impôt sur la consommation. Cinq Etats ne disposent pas d'un tel impôt (l'Alaska, le Delaware, le Montana, le New Hampshire, et l'Oregon), alors qu'en même temps, la Floride, le Nevada et l'Etat de Washington voient cette taxe représenter entre 35 et 40% de leurs revenus .
+Au niveau des dépenses budgétaires, on peut aussi identifier quelques postes qui ressortent de façon disproportionnée dans le budget général, et il convient également de souligner la grande hétérogénéité des Etats en la matière. L'éducation primaire et secondaire (elementary and secondary education) représentait 160 milliards (soit 20%) des dépenses des Etats en 1997. Le second poste, celui de l'assistance sociale (public welfare), représentait, à la même date, 16% des dépenses, et était essentiellement lié à Medicaid, le programme fédéral d'assistance aux défavorisés. Le troisième poste, surclassé par le précédent depuis le début des années quatre-vingt-dix, est celui de l'enseignement supérieur (higher education), totalisant 12% des dépenses. Viennent ensuite les hôpitaux, les autoroutes, et d'autres programmes de santé mineurs. La composition des dépenses varie considérablement d'un Etat à l'autre, ce qui rend compte de profondes différences historiques et sociales.
+Il est en effet possible, en première approche, de diviser les Etats en deux catégories générales : institutionnellement, on distingue le plus souvent deux groupes d'Etats, mais cette différence n'est pas purement formelle. Elle a des influences importantes quant aux politiques publiques mises en oeuvre par les Etats. Le premier groupe, dit " jacksonien ", est composé d'Etats où les Exécutifs sont faibles et où l'interventionnisme des pouvoirs publics est limité; il s'agit surtout d'Etats du Sud. Le second groupe, dit " progressiste ", est composé d'Etats du Midwest, de la Nouvelle-Angleterre, de la Californie et de New York. Le pouvoir exécutif y est puissant, et l'activisme des pouvoirs publics (notamment en matière sociale) est réel. Il va de soi que les Etats appartenant à la seconde catégorie ont un système de prélèvement relativement familier à un Européen : un impôt sur le revenu élevé destiné à financer un activisme public réel. Tendanciellement, il semblerait que les Etats dits " Progressistes " peuvent donc faire face plus aisément aux fluctuations économiques nationales. Le poids de l'impôt sur le revenu dans le budget de ces Etats agit très certainement comme une forme de stabilisateur, assurant une base fiscale solide. Mais pourtant, le développement de leur système fiscal ne les met pas à l'abri d'importants problèmes budgétaires qui, là encore, sont connus en Europe : comment concilier rigueur de gestion et le développement d'une politique sociale réelle? Si les Etats " progressistes " sont donc plus susceptibles de pouvoir faire face aux problèmes de conjoncture, le développement de leurs politiques sociales pose aussi le problème de gestion des conséquences de la crise économique - chômage en tout premier lieu -. Ainsi, à la différence des Etats " Jacksoniens ", ceux qui ont une tradition activiste plus prononcée ne doivent pas seulement gérer des problèmes au niveau de leurs recettes, mais également au niveau de leurs dépenses. Quant aux Etats " Jacksoniens ", ils ont leurs propres problèmes. La dépendance plus forte vis-à-vis de l'impôt sur la consommation accroît radicalement les risques de fluctuations majeures des recettes fiscales en fonction de l'état de l'économie. En cas de récession économique, la chute de la consommation influe directement sur le niveau des prélèvements étatiques. En fin de compte, l'organisation fiscale de ces Etats les rend particulièrement sensible à la situation économique.
+Dans la littérature concernant la fiscalité étatique, les fragilités du système budgétaire sont systématiquement mises en avant. Plus récemment, les représentants du lobby intergouvernemental ont souligné que la source la plus immédiate de fragilité réside dans le type de croissance économique enregistré au cours des années quatre-vingt-dix. Les ménages ont vu leurs revenus boursiers considérablement augmenter, de sorte que les rentrées fiscales des Etats ont, elles aussi, connu une forte croissance. La tendance s'est immédiatement renversée avec le ralentissement économique, ce qui a largement amputé les prévisions budgétaires des Etats fédérés .
+Ces tendances conjoncturelles, régulièrement soulignées, sont très certainement un facteur important dans le déclenchement de la crise budgétaire actuelle. Mais elles sont loin d'être les seules à jouer. Les défauts structurels sont déterminants, que ce soit au niveau du fonctionnement fiscal des Etats que de leur rapport avec l'autorité fédérale. Le problème peut se résumer aisément : le coût des services demandés aux Etats croît beaucoup plus que ce que permet leur base fiscale. Cette dernière est en effet beaucoup trop instable, en particulier au vu des évolutions les plus récentes. Mais ces faiblesses fiscales sont induites par la configuration même du système fédéral. Les Etats ont une marge de manoeuvre relativement limitée pour réformer leur système : tendanciellement, le système fédéral rend tout changement d'ampleur de la fiscalité étatique difficile.
+La part croissance de l'impôt sur le revenu dans le budget des Etats a une conséquence particulièrement néfaste, celle d'accroître encore un peu plus la sensibilité des budgets aux cycles de l'économie. En effet, à la différence de ce qui se fait en Europe, l'impôt des Etats fédérés est fondamentalement proportionnel et non pas progressif . C'est pourquoi les impôts fédérés sur le revenu tendent à augmenter plus que la croissance ; de la même façon, ils sont beaucoup plus sensibles à toute baisse. Il n'y a en fait que peu d'Etats - ceux dits " Progressistes " - qui ont un impôt sur le revenu pouvant jouer le rôle d'acteur contre-cyclique qu'on lui connaît en Europe. Dans ces conditions de forte " volatilité ", la seule option qui reste ouverte aux Etats consiste à augmenter leur impôt sur le revenu ou à le rendre plus progressif. Dans les deux cas, le risque est le même pour chaque Etat, celui de trop augmenter le montant des prélèvements, et de devenir moins " attractif " que l'Etat voisin. Cet effet de " nivellement " mutuel (race to the bottom), très largement induit par la structure fédérale du pays, se retrouve au niveau de l'impôt sur la consommation. En effet, certains Etats n'imposent pas certains biens de consommation courante (vêtements, produits alimentaires) ou alors excluent les services de toute imposition, l'objectif étant de favoriser la croissance économique. Mais ces Etats se placent alors dans une situation où ils sont particulièrement sensibles aux baisses d'activité économique, même si, en règle générale, l'impôt sur la consommation reste moins élastique que l'impôt sur le revenu des Etats. Le faible nombre de tranches rend cet outil particulièrement sensible aux fluctuations de l'économie : la diminution du nombre de contribuables dans les tranches élevées fait mécaniquement baisser le produit de l'impôt d'une façon disproportionnée ! Enfin, à l'instar des deux impôts précédents, l'impôt sur les sociétés subit lui aussi une pression à la baisse due à la mise en concurrence des Etats fédérés .
+Les insuffisances des techniques budgétaires des Etats fédérés ne sont donc pas seules responsables des difficultés présentes. Loin s'en faut. Les problèmes actuels se comprennent en référence au contexte institutionnel plus global, celui de la structure fédérale d'ensemble. La question de la " concurrence " fiscale entre les Etats l'indique déjà clairement. Mais le constat est encore plus frappant dans le cadre du renouveau des relations entre les Etats fédérés et l'Etat fédéral. Les tentatives conservatrices de création d'un " Nouveau Fédéralisme " transférant des responsabilités aux Etats portent leurs fruits, quarante ans après les premières initiatives en la matière. Il semble que suite à l'accumulation de réformes en apparence mineures, les relations intergouvernementales commencent à se redéployer en empruntant un nouveau " chemin " institutionnel .
+Jusqu'à présent, l'essentiel des efforts de " Nouveau Fédéralisme " conservateur s'est appliqué aux politiques sociales. On se souvient ainsi que dès le début des années quatre-vingt, le Président Reagan avait proposé un vaste " échange " (swap) de fonctions entre l'Etat fédéral et les Etats fédérés. Dans son Discours sur l'Etat de l'Union de janvier 1982, Reagan avait suggéré de prendre totalement en charge au niveau fédéral le programme national d'assurance maladie pour les plus pauvres (Medicaid) en échange d'une gestion complète d'autres programmes (AFDC - Aid to Families with Dependent Children -, les coupons d'alimentation - Food Stamps - et 61 programmes plus mineurs) par les Etats. Au total, le Président proposait, en huit ans, de transférer des responsabilités aux Etats pour un total de plus de 57 milliards de dollars, essentiellement dans les domaines des services sociaux, des transports, et de l'éducation. La nouvelle charge financière serait allégée par l'Etat fédéral jusqu'en 1991, avec la création d'un fond spécial de transition. A partir de cette date néanmoins, les Etats fédérés auraient dû eux-mêmes effectuer les ajustements budgétaires nécessaires. Ces derniers ont rapidement rejeté le projet par crainte du surcoût budgétaire qu'il allait très certainement entraîner.
+Depuis lors, les équipes conservatrices au pouvoir ont adopté une politique plus modérée dans ses ambitions. Mais l'essentiel du " modèle " de 1982 est demeuré. L'Etat fédéral a constamment cherché à transférer ses charges financières vers les Etats fédérés dans le domaine de la politique sociale. Ainsi, le transfert de responsabilités (devolution) vers les Etats fédérés a été une caractéristique des vingt dernières années. Elle a été menée essentiellement par une réorientation budgétaire - et incrémentale - de l'Etat fédéral. Celui-ci a réglé ses problèmes budgétaires en transférant une part de plus en plus importante de ses fonctions traditionnelles de politique sociale aux Etats fédérés . Les exemples illustrant cette tendance sont légions. Il suffit ici de mentionner le dernier avatar, la loi de 1996 (Personal Responsibility and Work Opportunity Reconciliation Act, PL 104 - 193) réformant l'aide sociale en transférant le programme AFDC aux Etats et qui, ce faisant, a considérablement allégé les finances fédérales. Avant le vote de cette loi, l'AFDC était déjà largement délégué aux Etats fédérés dans sa gestion. Depuis lors, sous l'appellation de TANF, il est entièrement de leur responsabilité, dans la mesure où il incombe aux Etats de définir les critères d'admissibilité des prestataires, sans supervision fédérale . L'Etat fédéral se contente de distribuer des financements " en bloc " (block grants), en sa basant sur la somme que les Etats consacraient au programme avant l'adoption de la réforme. Le rôle de l'Etat fédéral est donc, en apparence, relativement limité si on le compare avec son action antérieure. En revanche, il l'est beaucoup moins si l'on prend en considération toute une série de nouvelles obligations d'obédience conservatrices, crées par la loi, et qui, au final, donnent à l'Etat fédéral une forte capacité de coercition. En effet, si Washington ne fixe plus les critères d'admissibilité et s'il réduit bien son financement, il peut cependant imposer des règles très strictes, notamment en ce qui concerne l'incitation au travail (workfare). Les Etats se retrouvent donc placés sous l'obligation de mener à bien des programmes difficiles et coûteux, sans que l'Etat fédéral ne prévoit de les financer. Du point de vue étatique, la loi de 1996 se résume donc comme une vaste obligation fédérale conservatrice dépourvue de tout financement approprié.
+Ce sont les nouveaux " unfunded mandates " imposés par les conservateurs qui placent les Etats en difficulté budgétaire au moindre retournement de la situation économique. Le constat est particulièrement flagrant dans le cas de la politique sociale où une crise économique, même légère, risque de créer une pression insupportable sur les budgets fédérés avec l'augmentation des demandes d'aide sociale . Mais pourtant, le transfert de compétences sans financement approprié tend à se généraliser. Ainsi, les responsables étatiques actuels dénoncent fréquemment la loi sur l'éducation signée par le Président en janvier 2002, le No Child Left Behind Act (PL 107 - 110). Cette loi institue une série de requis fédéraux en termes d'apprentissage de la lecture, et constitue de ce fait une nouvelle exigence faite aux autorités fédérées, sans que les financements nationaux suivent : le Congrès avait initialement prévu une enveloppe de 29 milliards de dollars, alors que les estimations actuelles chiffrent le montant du coût total à 35 milliards de dollars. Néanmoins, l'exemple le plus massif est celui de la lutte contre le terrorisme entamée depuis septembre 2001. Les Etats sont amenés à prendre en charge quantité de missions nouvelles pour répondre aux exigences du tout nouveau Ministère de la Sécurité du Territoire (Homeland Security) . La surveillance d'un territoire aussi vaste que celui des Etats-Unis ne peut se faire sans le secours des Etats fédérés qui, ainsi, se retrouvent en première ligne de l'effort national contre la menace terroriste. Les " premiers secours " (first responders) appelés à jouer un grand rôle en cas d'attaque terroriste sont de responsabilité locale ou étatique (pompiers, police, services médicaux), et nécessitent un effort financier tout particulier dans lequel l'Etat fédéral ne s'implique volontairement pas. Les autorités fédérales s'en tiennent à une action de coordination ou investissent complètement d'autres secteurs (comme la sécurité aérienne par exemple). Ces nouveaux requis - le plus ancien remonte au milieu des années quatre-vingt-dix - alourdissent considérablement les budgets fédérés, déjà aux prises avec des difficultés plus traditionnelles, comme l'escalade des coûts du programme d'assistance aux plus pauvres, Medicaid. Celui-ci représente dorénavant plus de 20% des budgets des Etats, et, étant donnée la démographie, sa part continue à augmenter.
+En fin de compte, il semble que les succès budgétaires fédéraux de la fin des années quatre-vingt-dix soient essentiellement dus à la tactique de transfert des compétences. Ces transferts ont pour contrepartie une extension des compétences étatiques, sans que les moyens financiers suivent. En effet, dans le meilleurs des cas, l'Etat fédéral associe ces transferts à des financements " en bloc " (block grants), rompant ainsi avec la tradition des financements joints (matching funds). Entre 1999 et 2000, les dépenses étatiques ont ainsi augmenté deux fois plus vite que les dépenses intérieures de l'Etat fédéral. Dans ces conditions, les Etats doivent prendre le risque d'augmenter les impôts ou d'en créer de nouveaux. C'est la première difficulté qui est apparue dès les années quatre-vingt-dix, pourtant par ailleurs une période de forte croissance économique. Avec le ralentissement actuel et la chute des revenus étatiques, la situation est encore plus contrainte. Les Etats ont moins de possibilités financières, alors qu'on attend plus d'eux, en particulier en matière sociale.
+Dans un tel cadre, il est clair que les Etats vont devoir réajuster leur équilibre budgétaire. Leur premier mouvement a été de se tourner vers l'Etat fédéral pour un soutien. Malgré l'opposition des cercles conservateurs de Washington - Heritage est ainsi particulièrement opposée à toute forme d'assistance - le Président Bush a promulgué une loi d'aide financière. Le Jobs and Growth Tax Relief Reconciliation Act (PL 108 - 27), signé en mai 2003, transfert 20 milliards de dollars aux Etats. Mais les autorités fédérales ne semblent pas aller au-delà de ce premier effort. L'autre solution qui s'impose consiste alors en des coupes budgétaires sévères. Au-delà des mesures les plus immédiates - puiser dans les réserves, utiliser des fonds non-attribués, ou même mettre un terme aux procédure contre les entreprises de tabac dans l'espoir d'obtenir plus vite un dédommagement - ce sont bien les dépenses programmées qui sont revues à la baisse. Tous les services étatiques sont affectés d'une façon ou d'une autre. L'entretien des parcs naturels ou des sites historiques voit son budget baissé, tout comme la police, les pompiers ou les écoles; quant aux universités d'Etat, elles voient leur coût augmenter dans une vingtaine d'Etats (le Massachusetts a ainsi augmenté les droits d'inscription de 24% en 2002). Des employés de la fonction publique étatique sont licenciés dans des Etats comme le Connecticut, la Californie, le Colorado, le Massachusetts, l'Oregon, la Caroline du Sud, l'Utah, et la Virginie : depuis juin 2002, le nombre d'employés étatiques a baissé de 91000 (se stabilisant à environ 5 millions de personnes), tandis que le nombre d'employés municipaux ou locaux, lui, restait stable à 13.8 millions de personnes. Certains Gouverneurs sont même allés jusqu'à baisser leur propre salaire, comme en Caroline du Sud et dans l'Oregon. Dans le Rhode Island, un " audit " étatique a été lancé sous l'autorité du Gouverneur.
+Mais au-delà de ces mesures qui, pour certaines sont uniquement des effets d'annonce, ce sont les programmes sociaux qui sont politiquement et socialement les plus aisés à diminuer en temps de crise, alors que, paradoxalement, ils sont les plus directement concernés. En 2002 et 2003, les Etats ont d'ores et déjà diminué les fonds destinés à Medicaid, certains programmes scolaires, les aides à la formation professionnelle et au logement. Mais c'est bien Medicaid qui constitue la cible essentielle, son coût étant en croissance constante. L'augmentation du nombre de bénéficiaires - partiellement liée à la crise économique - et la hausse du prix de certains médicaments accentuent la pression sur les budgets des Etats. Les dépenses étatiques liées à Medicaid ont ainsi augmentées de 12% en 2001, en 2002, et en 2003. Les Etats ont donc utilisés toute une panoplie d'instruments pour limiter cette croissance : 49 Etats ont d'ores et déjà annoncé des réformes, telles que limiter le remboursement des médicaments ou augmenter le ticket modérateur (45 Etats s'y sont engagés), renforcer les critères d'admissibilité (pour 27 Etats), réduire le niveau des prestations tels que les soins dentaires (ce qui concerne 25 Etats). Mais pour l'instant, ces décisions n'ont eu que des effets limités, ce qui explique que 50% de l'enveloppe budgétaire votée au niveau fédéral en mai soient destinés à Medicaid .
+En tous les cas, il s'agit là une constante dans l'attitude des autorités étatiques : rechercher la solution politiquement la moins risquée, autrement dit, celle qui limite les coûts électoraux. Ainsi, dans un premier temps, diminuer le taux de croissance des dépenses est systématiquement préféré à une baisse brutale de ces mêmes dépenses. Pour la même raison, l'endettement est une solution de court terme qui est fréquemment employée. Depuis janvier 2003, les Etats ont déjà emprunté 230 milliards de dollars, ce qui va partiellement servir à combler les déficits. Mais actuellement, devant l'ampleur du problème, les autorités étatiques ne peuvent échapper à la solution la plus douloureuse politiquement, le niveau des revenus. Autrement dit, les Etats doivent maintenant se résoudre à augmenter les prélèvements . Après 7 ans de coupes budgétaires ininterrompues au niveau des Etats, le changement est brutal, et est en porte-à-faux par rapport au discours national impulsé par l'équipe Bush sur la nécessité de baisser les impôts. Les Etats ont augmenté soit leur impôt sur le revenu (New York, Massachusetts, Californie, Oregon, New Jersey), soit leur impôt sur la consommation (Tennessee, Kansas, Nebraska, et la Caroline du Nord). A la fin de l'année civile 2002, les augmentations des impôts étatiques ont atteint le montant total de 6 milliards de dollars, soit l'augmentation la plus importante depuis 1993. En effet, en 2001, l'augmentation totale n'avait représenté qu'un montant de 1.8 milliards de dollars. Par contre, lors de la crise budgétaire du début des années quatre-vingt-dix, l'augmentation avait représenté près de 15 milliards de dollars en une seule année. 29 Etats ont choisi d'augmenter les revenus, avec l'Etat de New York comme champion toute catégorie - alors qu'en janvier dernier le Gouverneur Pataki s'était engagé à éviter toute hausse des impôts - suivi de près par le Massachusetts. De façon assez classique, les Etats ont privilégié les hausses les moins visibles, c'est-à-dire les moins coûteuses électoralement . C'est la raison pour laquelle l'outil favori des responsables étatiques reste plus que jamais l'augmentation de l'impôt sur le tabac. 19 Etats ont augmenté cet impôt, notamment la Pennsylvanie et l'Indiana qui l'ont plus que triplé. Les revenus étatiques générés par le tabac ont ainsi augmenté de plus de 2 milliards de dollars pour l'année fiscale 2003. Par contre, les augmentations de l'impôt sur le revenu ont été relativement modestes : le Massachusetts n'a prélevé que 360 millions de dollars supplémentaires pour l'année fiscale 2003, à comparer avec les 3 milliards de déficit enregistrés. L'impôt sur la consommation a été utilisé beaucoup plus souvent, car il est notoirement moins douloureux que l'impôt sur le revenu. Pour l'année civile 2002, le montant total des augmentations à ce niveau a atteint 1.2 milliards de dollars. L'impôt sur les sociétés, lui, n'a été manipulé que par deux Etats, la Californie et le New Jersey; mais ces augmentations ont été relativement importantes, générant 2 milliards de dollars de revenus supplémentaires pour ces deux Etats. La crainte de voir les entreprises se délocaliser joue vraisemblablement pour expliquer que seuls deux Etats aient eu recours à cet impôt.
+Dans l'immédiat, les Etats ont donc provisoirement réussi à faire face leurs difficultés. Seule la Californie demeure dans une situation des plus problématiques. Pour la 17ème fois au cours des 25 dernières années, la Californie n'a pas réussi à se doter d'un budget pour l'année 2003 - 2004. Elle fonctionne donc sur un accord provisoire adopté in extremis en juillet dernier, et qui devrait arriver à échéance dès la rentrée. Mais pour les autres Etats aussi la situation est difficile. En fin de compte, aucun des problèmes n'est véritablement réglé. Les décisions prises jusqu'à présent sont toutes ponctuelles, et n'ouvrent pas sur une véritable réforme qui serait pourtant nécessaire. Le débat est néanmoins en cours. L'administration Bush a ainsi pris la décision de soumettre une réforme de Medicaid qui donnerait aux Etats une plus grande flexibilité dans la gestion du programme, en échange d'une limite (cap) au montant que l'Etat fédéral envoie aux Etats fédérés. L'équipe Bush pourrait donc paradoxalement saisir l'occasion de la crise budgétaire étatique pour poursuivre le désengagement financier de l'Etat fédéral dans le domaine des politiques sociales entamé depuis les années quatre-vingt. Quant aux Etats, ils sont eux-mêmes plus conscients de la nécessité de faire évoluer leur système fiscal. Ainsi, une réflexion s'organise autour de la nécessité d'intégrer les services (et non plus seulement les produits) dans l'assiette de l'impôt sur la consommation, et d'y réintégrer les exemptions accordées dans les années quatre-vingt-dix. En étendant l'imposition, il serait sans doute aussi possible de baisser le taux de cet impôt. Cela mettrait le système fiscal des Etats en adéquation avec une économie de service, fort différente de l'économie industrielle des années cinquante, lorsque l'impôt sur la consommation a été généralisé au niveau étatique. Une autre piste de réflexion touche aux dépenses. Certains Etats (comme la Caroline du Sud ou le Colorado) ont mis en place des indicateurs (regroupant la croissance de la population, l'inflation, voire le revenu individuel) qui servent de référent pour augmenter les dépenses. Toute augmentation supplémentaire nécessite ainsi une décision politique.
+Malgré les récents votes budgétaires, les Etats sont encore dans une situation des plus précaires. Si la crise actuelle sert jamais de révélateur, le manque de coordination entre Etats constitue un handicap lourd. En tous les cas, la crise actuelle permet de relativiser les baisses d'impôt au niveau fédéral, tant vantées par l'équipe actuelle. Leur vote n'a été possible que suite à un désengagement réel de l'Etat fédéral qui laisse ses partenaires fédérés confrontés à des charges nouvelles, notamment en termes de politique sociale, sans financement. Déjà fragilisés par le contexte économique d'ensemble et leur propre faiblesse institutionnelle, les Etats sont ainsi placés en position très difficile. Actuellement, les Etats qui ont une tradition d'activisme public restent les plus menacés : par exemple le Minnesota, New York, le Connecticut, et enfin la Californie, où la crise budgétaire se double d'une crise politique grave.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Le Centre français sur les Etats-Unis (CFE)
+www.cfe-ifri.org
+Outre ses conséquences internationales, la guerre contre le terrorisme a des effets tout aussi évidents sur la scène politique américaine. Maintenant que l'attention des médias se concentre sur la question irakienne, il paraît opportun de tenter une synthèse sur l'état du combat anti-terroriste aux Etats-Unis même. Dès le vote du USA Patriot Act en octobre 2001, le débat a été lancé : dans quelle mesure la lutte anti-terroriste doit-elle limiter les libertés ? Comment concilier protection des droits individuels et assurer la sécurité de la population en cas de crise ?
+Le sujet semble être ancien aux Etats-Unis : il se manifeste dès 1798 et les Alien and Sedition Acts, jusqu'à la lutte contre la subversion communiste pendant la Guerre Froide, sans oublier les mesures d'exception prises lors de la Guerre de Sécession ou pendant les deux conflits mondiaux. Malgré cet héritage historique, il reste que les Etats-Unis ont une expérience largement différente de celle des Etats européens en matière de lutte anti-terroriste. La France, la Grande-Bretagne, ou encore l'Espagne sont tous, à des degrés divers, touchés par des mouvements terroristes parfois depuis la fin des années soixante, sans parler des héritages historiques respectifs. A l'inverse, les Etats-Unis ont développé, sous l'impulsion de certains présidents de la Cour Suprême (Chief Justices), particulièrement volontaires, un cadre légal extrêmement cohérent de protection des libertés. L' incorporation des protections de la Déclaration des Droits (Bill of Rights) fédérale menée sous Earl Warren (1953 - 1969) et largement poursuivie par son successeur, Warren Burger (1969 - 1986), protège maintenant tous les aspects de la liberté individuelle . C'est pourquoi il semble peu pertinent d'établir un parallèle historique ferme entre la situation actuelle et les précédents des guerres mondiales ou de la Guerre de Sécession, sans parler de la période révolutionnaire ! L'intensité actuelle du débat tient à la confrontation, sans réel équivalent historique, entre un cadre légal de protection des libertés très développé, d'une part et, d'autre part, un relatif manque d'expérience dans le cadre de la lutte anti-terroriste.
+L'objectif n'est pas ici de définir un équilibre satisfaisant aux requis de la sécurité d'une part, et de la liberté de l'autre. Aussi, il ne sera pas question de prendre parti, ni même de trancher le débat. Il semble plus pertinent de rendre compte des risques contenus dans les évolutions en cours. Disons-le d'emblée, la mise en oeuvre de mesures anti-terroristes ne contient pas de possibilités sérieuses de débordement autoritaire. Fédéralisme et séparation des pouvoirs garantissent un équilibre qui semble empêcher tout dérapage d'ampleur. La politique actuelle, largement présidentielle, devrait, comme toujours, être l'objet de compromis, que ce soit au niveau de la décision ou de l'application. Néanmoins, l'alignement idéologique réel entre les trois pouvoirs nationaux, la Présidence, la Cour Suprême et, depuis novembre dernier, le Congrès, crée une configuration partisane rare, qui pourrait d'autant plus limiter les pratiques de compromis que la population américaine soutient dans son ensemble les mesures coercitives appliquées par l'équipe Bush .
+Avec le vote du USA Patriot Act (PL 107 - 56) dès octobre 2001, Bush et ses conseillers ont considérablement renforcé les textes déjà existant concernant la lutte contre le terrorisme ou le recueil de renseignements et ce au moins jusqu'à la durée légale de la loi (2005). La définition du " terrorisme " est considérablement étendue, et permet de faciliter l'encadrement d'un grand nombre d'activités . La précédent loi anti-terroriste, votée sous Clinton en mars 1996 (Antiterrorism Law and Effective Death Penalty Act, PL 104 - 132), est considérablement renforcée, et de nouveaux pouvoirs sont attribués au Congrès. Les quelques limitations existantes en matière de surveillance sont, elles, très largement amoindries. Par exemple, le FISA (Foreign Intelligence Surveillance Act, PL 95 - 511) de 1978, n'autorisait les écoutes téléphoniques par le FBI que dans les cas de personnes suspectées d'être des agents d'une puissance étrangère, et au terme d'une procédure assez lourde (établissement d'une " cause probable "). Dorénavant, ceci n'est plus nécessaire, et ce pour l'ensemble des demandes émanant du FBI. La loi donne aussi au pouvoir exécutif d'importantes prérogatives en matière de mise sur écoute (téléphone, Internet) et de relations entre les suspects d'activités terroristes et leurs avocats. Les fouilles secrètes d'appartement, la consultation de fichiers d'entreprise ou d'université sont facilitées. Au total, plus de 15 lois touchant à la sécurité publique sont modifiées par la réforme de 2001, et, dans l'ensemble, les possibilités de mise sous surveillance de la vie privée d'étrangers ou de citoyens sont considérablement étendues. Outre cet assouplissement des critères et des limitations en vigueur jusqu'à présent, le Patriot Act modifie également certaines compétences des tribunaux, et permet, lorsque la sécurité nationale est en jeu, de détenir les étrangers, parfois pour des durées illimitées, alors même qu'aucune charge précise ne pèse contre eux. Le texte en lui-même, malgré les oppositions de groupes de libertés civiles - et d'une trentaine de municipalités qui ont voté des résolutions contre le texte - n'a pas suscité de véritables mouvements d'opposition de masse, et ce d'autant moins qu'il a été accepté par le Congrès avec des majorités impressionnantes (356 Représentants à la Chambre, et 98 Sénateurs !) .
+Ce sont par contre les décrets d'application qui semblent plus problématiques pour certaines franges de l'opinion publique. Par exemple, le décret du Ministère de la Justice autorisant l'écoute et l'enregistrement de conversations entre les avocats et leurs clients placés en détention préventive lorsqu'ils sont soupçonnés d'activités terroristes, dès le mois suivant. Ou alors les quelques 500 entretiens menés par le FBI avec des personnes d'origine arabe, suite à un autre décret du Ministère de la Justice pris le 15 novembre 2001. Mais ce sont surtout les mesures du décret présidentiel du 13 novembre 2001 qui ont causé - et causent encore - le plus de débat. Aux termes de ce décret, les citoyens étrangers soupçonnés de terrorisme passent devant des tribunaux militaires spéciaux . Depuis les attentats, plus de 1200 étrangers ont ainsi été arrêtés pour des motifs divers, et placés, grâce à la loi d'octobre et aux décrets de novembre, dans un flou juridique total quant à la cause de leur arrestation ou la durée de leur incarcération. Par ailleurs, jusqu'à présent, leur identité a été gardée secrète, et l'assistance d'un avocat leur a été refusée, ce que le Ministère de la Justice a confirmé comme étant la politique officielle le 27 novembre 2001. Ces prisonniers sont donc gardés dans l'incertitude juridique la plus grande, et, même si un bon nombre d'entre eux ont été relâchés - les estimations actuelles ne parlent plus que de 200 à 600 prisonniers - la situation de ceux qui restent ne s'améliore pas. En août 2002, un Juge fédéral de Washington, Gladys Kessler, a demandé la publication des noms, jusqu'à présent en pure perte : le Ministère de la Justice a fait appel de la décision. La situation s'est d'ores et déjà reproduite : d'autres juges ont contesté les dérives du pouvoir exécutif, mais là aussi, les résultats semblent minces .
+La fragilité légale de la lutte contre le terrorisme, en interne, est encore plus flagrante à l'extérieur du territoire. Les prisonniers faits en Afghanistan sont déclarés " ennemis combattants " (enemy combattant), une catégorie inconnue du droit international. Ils ont été transférés sur la base (américaine depuis 1903) de Guantanamo dès février 2002. Le Secrétaire à la Défense, Donald Rumsfeld, a officiellement reconnu que les prisonniers de Guantanamo sont là pour une durée illimitée. Ils n'ont bien sûr pas d'avocats, et, selon le décret présidentiel de novembre 2001, il serait possible de juger ces hommes par des tribunaux militaires d'exception. Jusqu'à présent, seule la Croix Rouge Internationale (CICR) a pu leur rendre visite. Les conventions de Genève ne sont donc que très partiellement appliquées, constat établi par un rapport d'Amnesty International en mars 2002. Les libertés que s'autorisent les autorités américaines sont encore plus claires au niveau de la collaboration internationale : certains observateurs soulignent que les Etats-Unis utiliseraient ainsi les règles d'extradition pour faciliter les interrogatoires. Ainsi, une personne arrêtée en Indonésie peut, sur demande des Etats-Unis, être transférée en Egypte, pour subir un interrogatoire plus " adapté ". Les chiffres sur cette pratique ne sont pas connus. Sur ce terrain, les oppositions à l'attitude gouvernementale sont assez clairsemées : peu de gens semblent vouloir revenir sur le statut fait aux prisonniers capturés en Afghanistan. Jusqu'à présent, seul un Juge fédéral de la Quatrième Cour d'Appel (Circuit Court), pourtant conservateur de réputation, John H. Wilkinson, a contesté la capacité légale du gouvernement à désigner de sa seule autorité les " ennemis combattants " . Mais par contre, dès que cette politique implique des citoyens américains, la situation devient plus délicate pour l'Etat fédéral. En d'autres termes, lorsque les conditions de détention des non-Américains s'étendent aux citoyens Américains eux-mêmes, alors il y a un réel débat, qui, sans forcément mobiliser l'opinion, pousse au moins les autorités à tenter de justifier leur attitude. Depuis la mise en oeuvre de ces textes, cela s'est produit à plusieurs reprises. Ainsi, au printemps 2002, avec Yaser Esam Hamdi, fait prisonnier en Afghanistan et envoyé à Guantanamo jusqu'à ce qu'on découvre sa véritable nationalité (il est né à Baton Rouge, en Louisiane), emprisonné dans la base de Norfolk (Virginie), ou encore avec Jose Padilla, membre d'un gang de Chicago, récemment converti à l'Islam, et accusé d'avoir voulu fabriquer une " bombe sale ", qui, lui, est resté en prison à Chicago : tous deux ont été désignés comme " enemy combattants ", et placés en détention sans charge criminelle . Les autorités semblent vouloir maintenant éviter les procès au civil qu'il s'agisse de citoyens américains ou pas : les bizarreries de la procédure à l'encontre de Zacharias Moussaoui, arrêté peu avant les attentats du 11 septembre et dont le procès suit donc une procédure " classique ", ou encore la défense de John Walker Lindh, ont, tous deux, convaincu les autorités de la nécessité d'opérer un changement .
+L'année 2002 n'a pas manqué de renforcer ces initiatives sécuritaires. Dès le mois de janvier, et avec le soutien du Président, J. Ashcroft, Ministre de la Justice, a tenté de lancer son projet TIP (Terrorism Information and Prevention System), dont l'idée principale était d'encourager les Américains à rapporter toute activité " suspecte " en téléphonant à un numéro vert. Ce " système d'information et de prévention terroriste ", partie intégrante du " White House Citizen Corps Program " et destiné à s'appliquer initialement dans 10 villes, a soulevé un tel tollé qu'Ashcroft a dû battre en retraite . Même Dick Armey, un des " durs " de la Chambre des Représentants, était réticent !
+La formule de remplacement a été trouvée dès février : au lieu d'une collaboration " active " des citoyens, la solution est plus " passive ", dans la mesure où il s'agit tout simplement de pouvoir croiser les différents fichiers existants sur un individu. Les autorités ont créé au sein du Pentagone, et toujours avec le soutien du Ministre de la Justice, un " Awareness Office " (Bureau de la Vigilance Informatique, à la devise évocatrice de " Scienta est Potenta "). Ce nouvel organisme est chargé de mettre en oeuvre le projet " Total Information Awareness " (TIA), qui devrait permettre de piocher les informations pertinentes dans les bases de données de la vie courante pour repérer des projets terroristes en préparation. Les données concernées sont les fichiers informatiques des cartes de crédit, le numéro de sécurité sociale, les permis de conduire, et les comptes bancaires. Mais la liste n'est pas exhaustive. La police peut obtenir les comptes-rendus de n'importe quel commerçant sur n'importe quelle personne, par exemple les informations médicales dans les hôpitaux, les dossiers universitaires, et même les listes de livres achetés ou empruntés dans les librairies et les bibliothèques. Concrètement, cela signifie qu'afin de repérer quelques individus, il sera nécessaire d'aller vérifier des informations sur des millions d'autres. Le budget initial prévu est de 10 millions de dollars pour l'année 2003, et il est sans doute destiné à s'accroître rapidement. La personne chargée de présenter ce projet et de le superviser est l'ancien Amiral John Poindexter, Conseiller à la Sécurité Nationale (" National Security Adviser ") sous Reagan, et qui, en 1990, avait été condamné dans le cadre de l'Irangate pour avoir menti au Congrès ; il n'a finalement échappé à ses 6 mois de prison qu'en appel, par une décision de 1991. Au vu de ce parcours, le signal envoyé à l'opinion publique est pour le moins ambiguë, et, en tous les cas, renoue avec cette impression dominante à propos de l'administration Bush, celle d'un retour vers les années Reagan. L'initiative en elle-même est pour le moins malheureuse : elle a suscité une réaction certaine au sein de l'opinion publique qui, pour la première fois depuis le lancement de la lutte anti-terroriste, dépasse les groupes de protection des libertés civiles . Dans ce contexte, d'autres initiatives de l'équipe Bush ont été très mal perçues par le public. Ainsi, le 15 novembre 2002 a marqué le début officiel de la mise en oeuvre d'un programme d'enregistrement des ressortissants provenant de pays suspectés d'activités terroristes et vivant aux Etats-Unis. Ceci concerne les ressortissants d'Iran, d'Irak, de Libye, du Soudan, de la Syrie, y compris dans les cas de double passeport. Dans les faits, les hommes de plus de 16 ans doivent s'adresser à un représentant de l'immigration ou des douanes (la date limite officielle était la mi-décembre 2002). Ils doivent alors présenter leurs documents de voyage, donner des preuves de résidence, passer un entretien, donner leurs empreintes et se faire photographier, et enfin, ils doivent se signaler aux autorités tous les ans. Ce programme a pris un certain retard dans sa mise en oeuvre, notamment à cause des critiques publiques contre cette forme de discrimination. Par contre, d'autres mesures adoptées en 2002, sont nettement moins controversées, étant les conséquences directes de ce qui a été décidé au moment des attentats. Le fameux Ministère de la Protection du Territoire (Homeland Security) a été créé suite au vote final du Sénat par 90 voix contre 9 en novembre dernier, permettant ainsi le passage du Homeland Security Act (PL 107 - 296). Cette vaste administration, dont le premier titulaire est Tom Ridge, est entrée en fonction au début mars, et regroupe 22 services, employant au total 170000 personnes. Mais cette nouvelle structure n'empêche pas que l'ensemble des moyens administratifs du gouvernement soit mobilisé dans la lutte anti-terroriste. Ainsi par exemple du Ministère du Trésor. C'est en effet le directeur de la cellule anti-terroriste du Trésor américain, David Aufhauser, qui coordonne l'action de lutte financière contre les réseaux terroristes. Sous son égide, les Etats-Unis ont ainsi gelé les avoirs de 251 individus et personnes morales, et environ 121 millions de dollars. Enfin, en décembre 2002 cette fois, les autorités ont lancé un programme national de vaccination contre la variole, en réponse à la peur bactériologique de l'automne 2001. Près de 500000 responsables des services d'urgence en cas d'attaque chimique (" emergency workers ") devraient être vaccinés d'ici au printemps 2003, mais ce programme est particulièrement lent à mettre en place, essentiellement pour des raisons financières et de prise en charge.
+La surveillance en interne se double aussi d'une surveillance renforcée des frontières. Les autorités se sont ainsi préoccupées de renforcer la sécurité des quelque 300 ports américains. Sur les 50000 containers qui arrivent chaque jour dans le pays, plus du tiers arrivent par voie maritime, et seuls 2% d'entre eux sont physiquement inspectés. En janvier 2002, l'Etat fédéral a ainsi décidé de lancer le programme " Container Security Initiative ", demandant à certains des grands ports internationaux de renforcer leur surveillance sur les containers à destination des Etats-Unis. La collaboration mise en place est surtout canadienne avec Halifax, Montréal, et Vancouver, puis européenne, avec Rotterdam (Hollande), Antwerp (Belgique), Le Havre (France), et en Allemagne, Brême et Hambourg ; enfin, Singapour participe aussi à cette initiative.
+Cet activisme a un coût, d'autant plus important qu'il conduit à rénover, renforcer un grand nombre d'installations ou de services. Ainsi, une enquête réalisée par le Cabinet Deloitte Consulting estime entre 100 et 140 milliards de dollars les dépenses destinées à améliorer la sécurité intérieure en 2003. Ces sommes, importantes, comprennent à la fois les dépenses des Etats et celles de l'Etat fédéral. L'essentiel va financer l'incorporation de nombreuses technologies dans les dispositifs de surveillance existant, ou encore ceux à créer. Le service des douanes (Customs Service) commence à recevoir des scanners géants, à un million de dollars pièce, pour inspecter électroniquement les containers qui arrivent dans le pays par bateau ou par avion. De même l'Etat fédéral vient d'attribuer 380 millions de dollars au service de l'immigration (Immigration and Naturalization Service) pour installer un système informatique sophistiqué qui permettra de savoir immédiatement si l'un des 400 millions de citoyens non-américains qui arrivent chaque année sur le sol des Etats-Unis reste plus longtemps que ne l'autorise son visa. Le National Infrastructure Protection Center (NIPC), l'organisme regroupant tous les spécialistes Internet du FBI scrutant en permanence le réseau, a vu son budget presque doubler, pour atteindre 125 millions de dollars .
+Enfin, dernier aspect de la lutte tous azimuts entamée contre le terrorisme, une volonté de clarifier les manquements des services de renseignement avant le 11 septembre. En novembre 2002, sur initiative de la Présidence, une Commission d'enquête se met en place, comprenant 10 membres (5 républicains, et 5 démocrates) pour enquêter sur les dysfonctionnements. D'abord pressenti comme Président de cette commission, Henry Kissinger a dû renoncer pour des raisons de conflit d'intérêts avec ses activités privées (Kissinger Associates), et c'est un ancien Gouverneur républicain du New Jersey, Thomas Kean, qui est nommé en définitive ; il revient à Lee Hamilton, ancien Représentant démocrate, d'en être le vice-président . Les accusations contre les services de renseignement américains se sont en effet multipliées ces derniers mois, rendant nécessaire une étape supplémentaire dans l'enquête. Au printemps 2002, Colleen Rowley, directrice d'un des 56 bureaux régionaux du FBI, celui du Minnesota, a lancé les premières accusations. Elle les a appuyés sur le rapport d'un agent, Kenneth Williams (basé à Phénix, Arizona), qui enquêtait sur les musulmans suivant des cours de pilotage à Prescott en juillet 2001. Il n'aurait pas été tenu compte de ses informations au niveau national. De même, Aukai Collins, lui aussi basé à Phénix (un " indic " infiltrant les milieux musulmans), aurait alerté ses services centraux sur les agissements de Hani Hanjour, l'un des terroristes du Boeing qui s'est écrasé sur le Pentagone. Le Président n'était pas au courant de ces rapports.... Par contre, John Ashcroft, le Ministre de la Justice, et le directeur du FBI à l'époque (Thomas Pickard) eux, l'étaient bien, d'où les accusations de flottement des services de renseignement . Accusations qui sont d'autant plus pertinentes que le mystère reste toujours aussi épais en ce qui concerne l'attaque du bacille du charbon peu après les attentats du World Trade Center. L'enquête est très lente, et d'autant plus, pour certains, que les suspects se trouvent être des scientifiques travaillant pour l'Etat fédéral. En effet, à cause de la jeunesse (et de la qualité du bacille), l'attention du FBI s'est rapidement orientée vers un scientifique américain, le Dr Steven J. Hatfill, employé à Fort Derthick (Maryland) de 1997 à 1999, et également vers les activités d'un autre site, à Dugway Proving Ground (Utah). Depuis que les premiers soupçons ont été formulés au cours de l'année dernière, rien ne semble plus avoir évolué.
+Les commentaires abondent sur l'orientation générale des initiatives de l'équipe Bush. Non seulement dans la presse, mais également au sein des centres de recherche proches du pouvoir, qui publient rapport sur rapport tentant d'évaluer l'actuelle politique du gouvernement. Les orientations sont le plus souvent critiques, que ce soit pour dénoncer carrément les atteintes aux libertés individuelles, ou encore, plus modestement, pour souligner les incohérences administratives, la lourdeur, du formidable arsenal de mesures prises depuis septembre 2001 .
+Autrement dit, l'attention des observateurs américains est déjà largement concentrée sur les modalités de la mise en oeuvre de la lutte anti-terroriste. C'est pourquoi, il nous semble plus intéressant ici de prendre un peu de recul et de souligner les conséquences largement négatives, selon nous, de la configuration politique actuelle. Comme nous l'avons dit en introduction à cette brève présentation, le fractionnement du pouvoir caractéristique du système politique américaine a, historiquement, empêché tout débordement autoritaire, et ce même au cours de crises graves. Que ce soit en 1798, avec les Résolutions du Kentucky et de la Virginie contre les Alien and Sedition Acts, ou alors au cours des deux guerres mondiales, où les mesures exceptionnelles prises par la Présidence ont toujours été encadrées et placées sous la surveillance de la Cour Suprême, même si celle-ci a soutenu les mesures présidentielles jusqu'à la fin des hostilités. Dans le premier cas il s'agissait d'Etats fédérés en opposition avec l'Etat fédéral, et dans le second, de la division du pouvoir en action. Autrement dit, les mécanismes de " correction " destinés à protéger la liberté des citoyens et placés au coeur du système politique par les Pères Fondateurs ont joué leur rôle historique. Seule la suspension de l'Habeas Corpus par Lincoln lors de la Guerre de Sécession s'est faite sans véritable contre-pouvoir : mais il est vrai que la guerre elle-même portait sur la nature du système politique qui, dès lors, pendant le conflit, ne fonctionnait plus véritablement .
+La situation actuelle présente des caractéristiques largement différentes. Contrairement à l'épisode de 1798, les Etats fédérés ne semblent plus être un contrepoids efficace à l'action de l'Etat fédéral. Malgré toute la rhétorique conservatrice actuelle autour de la dénonciation du " Big Government ", les équipes conservatrices au pouvoir contribuent toutes, à leur façon, au renforcement du poids de l'Etat fédéral. Ainsi, les possibilités de critique venant des échelons inférieurs du système fédéral sont-elles limitées. Jusqu'à présent, seules les villes ont véritablement critiqué les mesures anti-terroristes - un grand nombre d'entre elles ont aussi pris officiellement position contre la guerre en Irak - et ces protestations sont restées totalement sans conséquences. Par rapport aux mesures d'exception adoptées pendant les deux conflits mondiaux, là aussi, la situation actuelle est sensiblement différente. Personne ne peut dire quand la " guerre contre le terrorisme " prendra véritablement fin. A l'inverse, les restrictions imposées par un conflit armé international sont censées prendre fin à un moment précis, celui de la défaite de l'adversaire. Or l'avertissement du Président Bush quant à la durée de la guerre contre le terrorisme semble, de ce point de vue, assez inquiétant. Une guerre où on ne peut véritablement situer l'adversaire, qui se recompose en permanence, et qui est dépourvu d'attaches territoriales véritables est évidemment destinées à durer, tout comme les mesures d'exception qui l'accompagnent.
+Mais c'est surtout l'actuelle configuration institutionnelle et partisane qui semble poser problème. L'alignement entre les trois pouvoirs, au niveau fédéral, est exceptionnel dans l'histoire politique moderne du pays. Et ceci pourrait avoir des conséquences certaines dans la façon dont se mène la lutte anti-terroriste. Depuis 1945, la règle de fonctionnement de la vie politique américaine semble être celle du " divided government ", à bien des égards proche de la cohabitation dans le cadre français. Tout particulièrement depuis la fin des années soixante, le Congrès et la Présidence ont été d'orientation idéologique largement opposées, entraînant fréquemment un blocage de la prise de décision nationale : on parle alors de phénomène de " gridlock " . Néanmoins, cette situation a comme avantage d'imposer une modération des vues des uns et des autres, forçant ainsi à l'institution de compromis généralisés. Or depuis novembre 2002 et les dernières élections de mi-mandat (midterms), le Président Bush est dans une situation exceptionnelle d'alignement total des trois pouvoirs. La majorité du Congrès lui est acquise et la Cour Suprême, sous la Présidence de William Rehnquist, est clairement d'obédience conservatrice. Cette conjonction, déjà rare en elle-même, est renforcée par l'important soutien populaire dont bénéficie le Président. Son action internationale, couplée à la fermeté de ses positions, lui garantissent une popularité certaine sur le thème de la lutte anti-terroriste, ce dont témoigne l'ensemble des sondages les plus récents .
+Dans ces conditions, le Président est en position de faire adopter - ou en tous les cas de proposer - des mesures qui, il y a quelques années, n'auraient même pas été envisageables. Le projet TIP, par exemple, semble sortir tout droit de l'imagination d'Orwell et n'aurait pas manqué d'attirer des flots de dénonciation sur le thème du retour de " Big Brother ". Or les dénonciations qu'il a suscité ont été extrêmement modestes au vu de l'enjeu. Quant à l'essentiel des mesures qui ont été adoptées dans le cadre de la lutte anti-terroriste, elles sont toutes votées par le Congrès avec des majorités pour le moins inespérée. Qu'on se souvienne des négociations tortueuses de Clinton avec le 104ème Congrès, ou encore de Reagan pendant ces deux mandats, voire enfin de Kennedy et du Sénat contrôlé par les Démocrates sudistes, et l'on mesure alors à quel point le Président Bush est dans une position inespérée pour un titulaire de l'exécutif. Ainsi, le USA Patriot Act a été voté à une quasi-unanimité au Sénat - seul le Sénateur Russ Feingold (un démocrate du Wisconsin) - s'y est opposé et une majorité de 356 Représentants à la Chambre ; de plus, le soutien pour Bush dans son action contre l'Irak est écrasant : 226 contre 133 à la Chambre des Représentants (10 octobre 2002), et 77 cote 23 au Sénat (11 octobre 2002).
+Ceci est d'autant plus porteur d'incertitudes que les mesures présidentielles n'entament pas sa crédibilité - bien au contraire - et que la Cour Suprême actuelle n'est pas portée le moins du monde à remettre en cause cette évolution, et ce pour une série de raisons. D'abord, en règle générale, la Cour est certainement une des institutions nationales les plus à l'écoute des évolutions de l'opinion publique, et ce contrairement à ce que voudrait une interprétation étroite de la difficulté contre-majoritaire. Etant potentiellement soumise à une critique de type majoritaire, elle se doit de faire preuve d'une grande prudence, et tenter de refléter dans une certaine mesure les opinions dominantes, sous peine d'entamer sa légitimité. Comme l'avait classiquement expliqué le Juge Benjamin Cardozo lors des Storrs Lectures à Yale en 1921, les Juges de la Cour Suprême " ne demeurent pas coupés de leur environnement (...) sur des hauteurs glacées et distantes ; nous ne contribuerions pas à avancer la cause de la vérité si nous agissions et raisonnions comme si c'était le cas " . Dans le cas qui nous occupe, les Juges seront sans doute d'autant plus favorables à un suivi de l'opinion qu'ils partagent, dans leur majorité, les options sécuritaires actuelles. Ainsi, dans une décision de 1996 - Felker v. Turpin - la Cour a pris le parti de l'Etat fédéral en soutenant la loi anti-terroriste de 1996, Antiterrorism and effective Death Penalty Act (PL 104 - 132) : la Cour a ainsi donné son accord à la limitation des possibilités d'appel des prisonniers . Les informations qui circulent semblent également indiquer une certaine réticence de la Cour pour prendre en considération les critiques formulées contre le Patriot Act. L'action en justice conduite par l'ACLU (American Civil Liberties Union) selon une procédure assez inhabituelle vient d'être rejetée par la Cour, obligeant ainsi l'ACLU a attendre les résultats d'un recours plus conforme. Cela rejoint tout à fait ce que les observateurs ont déjà remarqué depuis longtemps, à savoir à quel point la Cour tente de revenir très largement sur certaines des décisions les plus connues en matière de libertés civiles. Autrement dit, depuis 1986, il y a un recul de la tendance à la nationalisation des droits, par réaction à " l'activisme " libéral des décennies précédentes. Un indicateur de cette tendance est tout simplement la baisse du nombre de cas traités par la Cour Suprême : du milieu des années 80 au milieu des années 90, la Cour est passée d'un chiffre annuel de 150 à 75 environ. Mais la " dénationalisation " des libertés civiles est sensible à bien d'autres niveaux. Par exemple, la Cour va renvoyer aux Etats le traitement de la peine de mort, ou bien encore, cette fois en ce qui concerne l'avortement, la Cour ajoute des contraintes, des limites qui, toutes, peuvent être imposées au niveau des Etats (Webster v. Reproductive Health service, Planned Parenthood v. Casey en 1992), rognant de fait le droit national garanti par Roe. La tactique de la majorité conservatrice de la Cour est donc toujours la même : confier de plus en plus de responsabilités aux Etats. Et cette tendance générale risque de se poursuivre dans la mesure où le Président Bush a, potentiellement, plusieurs occasions de sélectionner des candidats pour la Cour Suprême . Parmi les noms qui reviennent le plus souvent comme candidats potentiels, J. Michael Luttig est un des plus fréquemment cité. Il siège à la quatrième Cour d'Appel (US Court of Appeals of the Fourth Circuit), où il a la réputation d'être un des Juges les plus à droite, alors que cette Cour, du fait des sélections opérées dans les années quatre-vingt est déjà une des plus conservatrices du pays. D'autres possibilités restent cependant ouvertes. Ainsi la pression serait sûrement très forte pour accorder la préférence à un candidat conservateur d'origine hispanique, afin de développer la " diversité " dans le judiciaire, selon les termes, connus, de l'arrêt Bakke (1978). Seul Emilio M. Garzia, siégeant actuellement à la 11ème Cour d'Appel fédérale semble être un candidat possible : en effet, son opposition reconnue à la décision Roe v. Wade en fait un atout tactique important pour Bush dans ses négociations avec la frange religieuse du Parti républicain. Une telle évolution à droite de la Cour Suprême ne ferait que renforcer la tendance déjà existante au soutien sans faille du Judiciaire vis-à-vis des mesures les plus strictes de la lutte anti-terroriste. L'ultime rempart aux débordements de l'Exécutif se trouverait alors neutralisé.
+Au final, la lutte anti-terroriste prend place dans un contexte partisan et institutionnel extrêmement rare qui pourrait, surtout si la guerre contre le terrorisme et celle qui se mène en Irak se prolongent, entraîner un certain recul des libertés publiques. La question est de savoir pour combien de temps, et à quel point ? Certes, historiquement, le système institutionnel américain a parfaitement su dépasser les moments de " crispation " sécuritaire et de lutte contre la subversion. Mais la situation actuelle est particulière à plus d'un titre. Outre l'alignement institutionnel et partisan, la nature même du conflit où les Etats-Unis sont entraînés est source de risques. C'est probablement de la société civile elle-même - notamment par le biais d'associations comme l'ACLU - qu'émergera un contrepoids, soit par le biais d'actions judiciaires, qui déjà se multiplient, soit, plus radicalement, en changeant les équipes au pouvoir. Les précédents historiques - à commencer par celui du propre père de George W. Bush - ne poussent pas à envisager un soutien électoral réel issu d'un mouvement de " ralliement au drapeau " en cas de crise.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+La crise provoquée par l'intervention armée contre l'Irak pour le contraindre à respecter les termes de la résolution 1441 du Conseil de sécurité avant que la mission des inspecteurs de l'United Nations Monitoring, Verification and Inspection Commission (UNMOVIC) soit achevée a ébranlé les fondations du système international et mis en évidence les " fractures " de l'Europe. En l'occurrence, des analystes n'ont pas hésité à voir dans la stratégie mise en oeuvre par les Etats-Unis une violation des normes inscrites dans la charte de San Francisco et, dans leur penchant pour l'unilatéralisme, une contestation radicale de la responsabilité qui incombe à l'Organisation des Nations unies (ONU) pour le maintien et le rétablissement de la paix. L'Organisation du traité de l'Atlantique Nord (OTAN), dont la fonction initiale était la défense collective contre la menace soviétique et qui est demeurée, après l'effondrement de l'ordre bipolaire, l'une des principales organisations de sécurité dans " l'espace euro-atlantique " serait, elle aussi, vouée au dépérissement, les Américains préférant créer des alliances ad hoc pour défendre leurs intérêts et lutter contre le terrorisme (coalition of the willings) plutôt que de voir leur liberté d'action entravée par les contraintes d'une décision collective. Enfin, la construction d'une Europe de la défense serait compromise non seulement en raison de l'opposition de l'Administration de George W. Bush à la réalisation de ce projet, mais également du fait des divisions des Européens et de l'allégeance atlantique de la plupart des pays d'Europe centrale et orientale qui seront admis dans l'Union européenne (UE) en mai 2004.
+Il ne saurait être question de vérifier le bien-fondé de ces jugements, ni de nous livrer à des spéculations sur la légalité de la guerre contre l'Irak ou de mesurer son impact sur la configuration du système international et les équilibres au Moyen-Orient. Notre propos est plus modeste et se bornera à l'examen des conséquences de cette crise sur l'organisation de la sécurité en Europe et l'avenir des relations transatlantiques. Il convient en effet de se demander si les divergences entre Européens qui se sont manifestées à cette occasion annoncent une mutation radicale de la politique européenne de sécurité et de défense (PESD), sinon son abandon pur et simple, ou s'il ne s'agit que d'une crise passagère qui ne met pas en question les options fondamentales prises par l'UE après la guerre du Kosovo et entérinées par le Conseil d'Helsinki en décembre 1999. On sait que ce projet a suscité d'emblée des réserves de la part des Etats-Unis et que le président Bush ne lui a pas ménagé ses critiques lors de son premier voyage en Europe, en juin 2001 ; dans ses interventions au siège de l'OTAN et au Conseil européen de Göteborg (Suède), il reprocha notamment aux Européens l'insuffisance de leur effort de défense et dénonça leur prétention à mener une politique indépendante alors qu'ils n'en avaient pas les moyens. Le fait est que la plupart des Etats européens n'étaient pas prêts à faire les sacrifices nécessaires pour réduire l'écart entre leurs capacités militaires et celles des Etats-Unis et que la PESD restait un objectif lointain.
+Quelques mois plus tard, les attentats terroristes de New York et de Washington créaient une situation nouvelle et donnaient lieu à l'expression d'une solidarité sans faille des Européens avec les Etats-Unis. L'article 5 du traité de l'Atlantique Nord fut invoqué à cette occasion et les actes terroristes perpétrés le 11 septembre 2001 sur le territoire américain furent qualifiés " d'attaque armée ". Mais, par un curieux paradoxe, la lutte contre les réseaux Al-Qaida et le régime des Talibans qui leur offrait un refuge en Afghanistan a été menée en dehors du cadre de l'Alliance et les Etats-Unis ont tenu pour quantité négligeable le concours de leurs alliés européens, à l'exception de celui du Royaume-Uni, qui a été associé dès l'origine à l'opération militaire baptisée " Liberté immuable " (Enduring Freeedom). D'aucuns ont interprété cette attitude comme la confirmation de la tendance à l'unilatéralisme américain et y ont vu le signe avant-coureur du dépérissement de la fonction militaire de l'alliance. D'autres, au contraire, ont souligné l'utilité de l'OTAN comme cadre de concertation des politiques de sécurité des Etats membres et considèrent son élargissement comme un moyen de projeter de la stabilité dans les régions où les tensions ethniques et les contentieux hérités de la guerre froide pourraient dégénérer en conflits ouverts. Ces deux tendances ont été confirmées par l'évolution ultérieure de l'OTAN, qui n'a joué aucun rôle dans la guerre contre l'Irak mais a accueilli sept nouveaux Etats qui faisaient partie de l'organisation du Pacte de Varsovie, voire de l'Union soviétique, comme les trois Etats baltes. La décision a été prise lors de la réunion au sommet du Conseil atlantique à Prague (20 - 21 novembre 2002) sans soulever d'objections majeures de la part de la Russie et le Sénat américain l'a approuvée à l'unanimité le 8 mai 2003.
+Enfin, s'il est entendu que la PESD doit s'inscrire dans le cadre de l'Alliance et favoriser le développement des relations transatlantiques, il ne semble pas que les Etats-Unis adhèrent sans réserve à un projet dont la réalisation pourrait conférer à l'UE des moyens de décision et d'action autonomes. Ce qui leur importe avant tout est l'accroissement de l'effort de défense des Européens et une répartition plus équitable des charges militaires au sein de l'Alliance (burden sharing). Quant à la force de réaction rapide dont la création a été décidée par le Conseil européen d'Helsinki (décembre 1999) et qui devrait être opérationnelle à la fin de l'année 2003, elle restera encore longtemps tributaire des moyens de l'OTAN et ne pourra être engagée efficacement que si l'on parvient à remédier aux carences dont elle souffre, plus particulièrement dans les domaines suivants : transport à longue distance, communications par satellites, observation spatiale, munitions guidées avec précision.
+Or, le fléchissement des dépenses militaires dans la plupart des Etats membres de l'UE ne laisse pas présager un redressement de la situation à court et à moyen terme et, si cette tendance n'est pas inversée, on peut craindre que l'interopérabilité des forces alliées ne soit plus assurée dès lors qu'il s'agira de mener des actions communes pour le maintien et le rétablissement de la paix dans le nouveau contexte international. En outre, la coopération européenne pour la production d'armements piétine ou subit des vicissitudes en raison de la faible intégration des industries qui travaillent pour la défense, et les engagements pris en vue de préserver les moyens de recherche et technologie (R&T) existant sur notre continent resteront lettre morte si leur financement n'est pas garanti. Enfin, les controverses sur les modalités d'accès de l'UE à des capacités prédéterminées de l'OTAN ont mis en lumière les sources de conflits avec les alliés non membres de l'UE.
+Ainsi, la Turquie, qui est particulièrement vulnérable aux nouveaux risques du fait de sa situation géographique, a manifesté l'intention d'être associée à un stade précoce à la préparation et à la mise en oeuvre des opérations de gestion des crises et d'imposition de la paix qui seraient conduites par l'UE. Cette prétention a été jugée exorbitante par les Etats membres, qui y voyaient une atteinte à leur liberté d'action, mais la Turquie pouvait faire valoir qu'elle bénéficiait naguère du statut de membre associé de l'Union de l'Europe occidentale (UEO) et qu'il serait convenable de lui conférer des droits équivalents vis-à-vis de l'UE après la décision de fusion de ces deux organisations. Au terme de négociations laborieuses, on est parvenu à s'entendre en décembre 2001 sur une formule de compromis grâce à la médiation des Etats-Unis et du Royaume-Uni, mais la Grèce continuait d'émettre des objections, ce qui rendait problématique l'accès garanti de l'UE aux moyens de l'OTAN. En définitive, cette hypothèque a été levée en décembre 2002 et l'UE a pu prendre, en mars 2003, la relève de l'OTAN pour la conduite de l'opération " Concordia ", dont l'objet est la surveillance de l'accord d'Ohrid qui avait mis un terme aux affrontements interethniques en Macédoine.
+Si l'obstruction turque a défrayé la chronique de la défense européenne au cours des deux dernières années, on ne saurait faire abstraction de l'attitude tout aussi distante à l'égard de la PESD des trois nouveaux membres de l'OTAN - la Pologne, la Hongrie et la République tchèque -, qui redoutent d'être marginalisés dans le processus de décision de l'UE et privilégient l'organisation de la sécurité dans le cadre atlantique. Ce penchant s'est manifesté avec éclat lors de la guerre anglo-américaine contre l'Irak à laquelle ils ont apporté leur concours, et la Pologne a fait preuve, en l'occurrence, d'un excès de zèle qui s'est traduit par le choix d'un avion américain - le F-16 - pour équiper son armée de l'air et l'obtention d'une zone d'occupation en Irak dans le cadre de l'administration provisoire de ce pays après la chute du régime de Saddam Hussein. Il convient donc de faire le point sur les acquis de la PESD en rappelant que les questions débattues aujourd'hui correspondent à des préoccupations anciennes et que le processus se poursuit en dépit des vicissitudes de la politique impériale des Etats-Unis et des clivages qui sont apparus au sein de l'UE entre les " atlantistes " et les tenants d'une " Europe européenne ".
+La défense européenne est un thème récurrent dans les relations transatlantiques depuis les années 1950, et elle a été une source de malentendus après l'inflexion de la stratégie américaine qui tendait à substituer la riposte graduée (flexible response) à la menace du recours immédiat à l'arme nucléaire (massive retaliation) pour garantir la sécurité de l'Europe occidentale. Lorsque les Européens émettaient des doutes sur les vertus dissuasives de cette nouvelle posture et tentaient de faire valoir leurs intérêts de sécurité spécifiques au sein de l'Alliance, ils se heurtaient généralement aux objections des dirigeants américains, qui leur reprochaient d'affaiblir l'OTAN par des actions divergentes. Certes, les aspirations à une " défense européenne de l'Europe " étaient surtout le fait des Français, et le général de Gaulle avait donné le ton à la fois par son mémorandum de septembre 1958 relatif à la création d'un " directoire " au sein de l'Alliance et par les plans Fouchet (1960 - 1961) qui tendaient à favoriser l'affirmation d'une identité européenne dans le cadre des communautés instituées par les traités de Rome de 1957. Ces projets se heurtèrent à des oppositions très vives et furent rejetés par les partenaires de la France. Mais la question resurgit dix ans plus tard après la signature du premier accord soviéto-américain sur la limitation des armements stratégiques (SALT-I), en mai 1972.
+La stabilisation de l'équilibre sur lequel reposait la dissuasion réciproque et les dispositions prises ultérieurement par les deux protagonistes pour ne pas être entraînés dans un conflit suicidaire par le comportement de tierces puissances (accord sur la prévention de la guerre nucléaire du 22 juin 1973) avaient fait naître des doutes sur la solidité de la garantie offerte par les Etats-Unis et avaient incité le gouvernement français à faire de l'UEO un cadre de réflexion sur les perspectives d'une défense européenne. Le ministre de la Défense, Michel Debré, et le ministre des Affaires étrangères, Michel Jobert, firent des suggestions à cet égard dans leurs interventions devant l'Assemblée de l'UEO, respectivement en 1972 et 1973, mais leurs appels ne furent pas entendus. Une dernière tentative pour réveiller la " Belle au bois dormant " du palais d'Iéna fut faite dans le contexte de la crise des " euromissiles ", provoquée par le déploiement des fusées soviétiques SS-20 et la décision de l'OTAN de relever le défi en modernisant ses armes nucléaires de théâtre. En octobre 1984, le Conseil des ministres de l'UEO décida de réactiver cette organisation, en précisant que la concertation des politiques de sécurité des Etats membres et la définition éventuelle d'une position commune en matière de défense n'auraient pas pour objet de battre en brèche l'OTAN mais de rééquilibrer les relations transatlantiques. En dépit de ces précautions rhétoriques et de l'adoption, en 1987, de la plate-forme de La Haye, qui postulait une plus grande autonomie des Européens dans le domaine de la défense, les choses restèrent en l'état. L'identité européenne en matière de sécurité et de défense n'avait pu s'affirmer en raison de la persistance de l'antagonisme Est-Ouest et du sentiment dominant en Occident que l'OTAN était la seule parade efficace contre une attaque armée venant de l'Est et le garant de l'engagement des Etats-Unis sur le continent.
+Il en ira autrement après l'effondrement de l'ordre bipolaire et la conclusion du traité de Maastricht (7 février 1992) qui consacrait dans son titre V le principe d'une politique étrangère et de sécurité commune (PESC) et ouvrait les perspectives d'une " défense commune " (art. J.4.1). A cet égard, la coopération franco-allemande a joué un rôle moteur, mais il ne faut pas se dissimuler que les relations spéciales qui s'étaient développées entre Paris et Bonn depuis la signature du traité de l'Elysée du 22 janvier 1963 ont souvent été perçues comme l'expression d'une politique tendant à consacrer leur primauté dans les conseils européens. Il n'est donc pas surprenant que les initiatives prises par le chancelier Kohl et le président Mitterrand en vue de doter l'UE de capacités militaires propres aient été accueillies froidement et que l'annonce, en octobre 1991, de la création d'un corps franco-allemand susceptible de se muer en une force européenne autonome ait suscité des critiques ouvertes de la part de pays comme les Pays-Bas, le Portugal et le Royaume-Uni. Les Etats-Unis eux-mêmes ont pris position dans cette querelle et, dans son discours d'ouverture à la réunion au sommet du Conseil atlantique de Rome, le 7 novembre 1991, le président Bush avait laissé percer son irritation et n'avait pas hésité à brandir la menace d'un désengagement américain si les Européens ne voulaient en faire qu'à leur tête. Comme nul ne songeait à rompre le lien transatlantique, on parvint à s'accorder sur une formule de compromis qui tentait de concilier les obligations découlant du traité de Washington avec les exigences d'une participation accrue des Européens à la défense commune et à des opérations de maintien et d'imposition de la paix en dehors de la zone couverte par l'OTAN. Au demeurant, l'initiative franco-allemande tendait moins à la création d'une organisation militaire intégrée selon le modèle de la Communauté européenne de défense (CED) qu'au rééquilibrage des relations euro-américaines dans le cadre d'une Alliance rénovée.
+Ultérieurement, les Etats-Unis ne virent plus d'objections à l'affirmation d'une identité européenne en matière de sécurité et de défense (IESD) et admirent que l'UEO, qui avait vocation à devenir le " bras armé " de l'UE, et l'OTAN, qui conservait ses prérogatives traditionnelles, étaient complémentaires à certains égards. Ces convergences se reflètent dans la déclaration des chefs d'Etat et de gouvernement adoptée à l'issue de la réunion du Conseil atlantique de Bruxelles, le 11 janvier 1994. Tous les Etats membres apportent leur " plein appui au développement d'une identité européenne de sécurité et de défense ", qui pourrait conduire à terme, comme le prévoyait le traité de Maastricht, à " une défense commune compatible avec celle de l'Alliance atlantique " ; ils soutiennent " le renforcement du pilier européen de l'Alliance " et se félicitent de " la coopération étroite et croissante entre l'OTAN et l'UEO " ; enfin, ils appuient " le développement de capacités séparables mais non séparées " qui pourraient être mises à la disposition de l'UEO ou de l'OTAN pour leur permettre de " conduire avec plus d'efficacité et de souplesse leurs missions, y compris le maintien de la paix ". C'est ainsi que s'imposa le concept de " groupes de forces interarmées multinationales " (GFIM), groupes qui pourraient être mis à la disposition de l'UEO pour remplir des missions de paix auxquelles les Américains ne souhaiteraient pas s'associer ou pour faciliter des " opérations dictées par les circonstances, y compris les opérations auxquelles participeraient les pays extérieurs à l'Alliance ". Dès lors, les Etats-Unis ne virent plus d'objection de principe à l'expression d'une volonté plus affirmée des Européens de prendre en charge leur défense et d'assumer des responsabilités accrues pour le maintien et le rétablissement de la paix et de la sécurité internationales. A condition toutefois que ces actions fassent l'objet d'une concertation étroite entre les alliés et se déroulent avec l'aval de l'OTAN.
+Au cours des années suivantes, les progrès sur la voie d'une politique européenne de sécurité et de défense (PESD) ont été assez lents et, à la veille du sommet franco-britannique de Saint-Malo (4 décembre 1998), le constat auquel on pouvait procéder ne prêtait pas à l'optimisme : la PESC était en " panne ", le concept des GFIM n'avait pu être appliqué et la seule structure militaire cohérente dans l'espace euro-atlantique était l'OTAN. Il fallut attendre le revirement de la politique européenne du Royaume-Uni à l'automne 1998 et la prise de conscience par les Européens de leurs carences dans le domaine des technologies de pointe pendant la " guerre du Kosovo " pour que des mesures significatives soient prises en vue de la mise en oeuvre d'une PESD.
+En application des lignes directrices du Conseil européen de Cologne (3 - 4 juin 1999), les Etats membres de l'UE ont manifesté la volonté de se doter d'une " capacité d'action autonome s'appuyant sur des capacités militaires crédibles ainsi que des instances et des procédures de décision appropriées ". Six mois plus tard, à l'issue du Conseil européen d'Helsinki (10 - 11 décembre 1999), ils se fixaient comme objectif global " d'être en mesure, d'ici l'an 2003, de déployer dans un délai de 60 jours et de soutenir pendant au moins une année des forces militaires pouvant atteindre 50 000 à 60 000 hommes, capables d'effectuer l'ensemble des missions de Petersberg " ; il était également prévu de créer de nouveaux organes et de nouvelles structures politiques pour permettre à l'UE d'assurer l'orientation politique et la direction stratégique nécessaires à ces opérations ; enfin, des mesures seraient prises pour assurer " une consultation, une coopération et une transparence pleines et entières entre l'UE et l'OTAN " et pour permettre à des Etats européens membres de l'OTAN qui n'appartiennent pas à l'UE et à d'autres Etats concernés de contribuer à la gestion militaire d'une crise sous la direction de l'UE.
+Lors de la conférence d'engagement de capacités militaires qui s'est tenue à Bruxelles le 20 novembre 2000, les Etats membres de l'UE ont dressé un " catalogue de forces " correspondant à l'objectif global défini à Helsinki, tout en relevant que certaines capacités ont besoin d'être améliorées, notamment dans le domaine dit " stratégique " : renseignements, transport aérien et naval, états-majors pour commander et contrôler les forces, défense contre les missiles, armes de précision, soutien logistique, outils de simulation, etc.. Le mois suivant, le Conseil européen de Nice (7 - 9 décembre 2000) décidait la création des organes permanents politiques et militaires suivants : Comité politique et de sécurité (COPS), Comité militaire de l'Union européenne (CMUE) et Etat-major de l'Union européenne (EMUE) et définissait leur composition, leurs compétences et leur fonctionnement.
+Par ailleurs, pour éviter des duplications inutiles, il était prévu que l'UE pourrait recourir aux moyens et aux capacités de l'OTAN, et le paragraphe 10 du communiqué final du Conseil atlantique de Washington (24 avril 1999) visait notamment " la garantie d'accès à des capacités de planification de l'OTAN, la présomption de disponibilité au profit de l'UE de moyens communs désignés à l'avance et l'identification d'une série d'options de commandement européen pour renforcer le rôle de l'adjoint au SACEUR " (Supreme Allied Commander Europe). Or, du fait des rivalités gréco-turques, cette question n'a été tranchée qu'à la fin de l'année 2002, à la veille de la prise en charge par l'UE de l'opération " Concordia " en Macédoine. En revanche, la planification d'une opération européenne qui ne serait pas tributaire des moyens de l'OTAN soulève moins de difficultés puisqu'elle serait confiée à un état-major de niveau stratégique d'un pays membre de l'UE. A cet égard, on laisse entendre que le niveau opératif pourrait être représenté par l'état-major interarmées britannique ou par le poste de commandant des forces interarmées françaises. Enfin, des dispositions ont été prises pour organiser la participation aux missions de Petersberg des pays alliés non membres de l'UE, étant entendu que les relations que celle-ci entretiendrait avec les pays associés à ce type d'opérations seraient placées sous le signe de " la consultation, de la coopération et de la transparence totales ".
+En 2001, le processus de la PESD était bien engagé et certains estimaient que, si le rythme initial était maintenu, l'UE atteindrait le but qu'elle s'était fixé (headline goal) dans les délais prévus. D'autres se montraient plus circonspects et doutaient que l'échéance de 2003 pût être respectée pour la constitution d'une force de réaction rapide capable de conduire l'ensemble des opérations visées par la déclaration de Petersberg. C'est que tous les Etats membres de l'UE n'adhéraient pas au projet d'une " Europe puissance " et n'étaient pas disposés à consentir les sacrifices nécessaires à sa réalisation. En outre, une PESD n'a de signification que si elle repose sur des capacités de décision et d'action autonomes qui feraient de l'UE un véritable partenaire des Etats-Unis. Or, les dirigeants américains ne l'entendaient pas de cette oreille et s'accommodaient difficilement d'une évolution qui se traduirait par une mise en question de leur primauté au sein de l'Alliance. De nombreux Etats européens leur emboîtaient le pas et redoutaient que les " dissonances transatlantiques " ne renforcent les courants favorables au désengagement américain et n'affaiblissent la communauté de sécurité que constitue l'OTAN.
+La question centrale est donc celle de la fonction qui incombe à l'Alliance dans le nouveau contexte international et de sa compatibilité avec la mise en oeuvre d'une PESD. A cet égard, les opinions sont partagées, les uns considérant que l'Europe de la défense ne peut s'affirmer que si elle s'émancipe de la tutelle américaine, alors que d'autres ne conçoivent pas qu'elle puisse se réaliser contre les Etats-Unis ni sans leur concours. La France est en faveur de l'inscription de la politique de défense européenne dans le cadre de l'Alliance, mais d'une Alliance rénovée où le partage du fardeau se traduirait également par un partage des responsabilités. Pour dissiper toute équivoque à cet égard, le président de la République avait souligné dans son discours du 8 juin 2001, devant l'Institut des hautes études de défense nationale (IHEDN), que " l'Europe de la défense renforce l'OTAN par l'affirmation d'un partenariat d'autant plus solide qu'il sera mieux équilibré " et le ministre des Affaires étrangères, Hubert Védrine, s'était exprimé en termes similaires dans un entretien avec le quotidien Le Monde (13 juin 2001) en laissant entendre que " la défense européenne n'est pas seulement bonne pour l'Europe, mais aussi pour l'Alliance ".
+Depuis lors, les incertitudes sur l'avenir de la PESD n'ont pas été dissipées et la crise provoquée par la politique américaine vis-à-vis de l'Irak n'a fait qu'exacerber les contradictions au sein de l'UE. Dans un article publié dans la revue Policy Review, et dont de larges extraits ont été reproduits dans la presse européenne, un ancien haut fonctionnaire du département d'Etat, Robert Kagan a exalté la puissance militaire américaine, mise au service d'une " civilisation de liberté et d'un ordre du monde libéral " et dénoncé l'incapacité des Européens à parer les menaces des " Etats voyous ", du terrorisme et de la prolifération des armes de destruction massive autrement que par des moyens diplomatiques. La cause la plus importante des divergences entre l'Europe et les Etats-Unis résiderait dans la vision irénique des relations internationales de celle-là et dans la volonté de ceux-ci d'user de la force pour garantir l'ordre dans le monde anarchique décrit par Hobbes. On peut discuter cette thèse, mais elle contient une part de vérité, comme l'a souligné Hubert Védrine dans un entretien avec la revue Enjeux (novembre 2002). A ses yeux, " les Français sont les seuls à vouloir une Europe puissance alors que nos partenaires imaginent plutôt une grande Suisse ". Mais il n'exclut pas que les prétentions de l'hyperpuissance américaine provoquent un choc salutaire et que les Européens " piqués au vif décident qu'ils ont eux aussi une responsabilité pour l'équilibre, l'équité et la sécurité du monde ". Jusqu'à présent, les ambitions affichées par les Etats membres de l'UE sont modestes puisqu'ils ne visent que l'acquisition des moyens civils et militaires nécessaires pour l'accomplissement des missions de Petersberg, et il est entendu que la défense collective incombera en toute hypothèse à l'OTAN. Il n'en reste pas moins que la question de l'assistance mutuelle visée par l'article V du traité de Bruxelles, modifié en 1954, reste posée et qu'il faut réfléchir à la fonction qui serait assignée à l'arme nucléaire dans la perspective d'une défense européenne digne de ce nom. Par ailleurs, les forces de réaction rapide en voie de constitution n'ont de signification que si elles sont au service d'une politique cohérente. Or, on peut craindre qu'à la minute de vérité les Etats membres fassent éclater leurs divergences et que l'outil militaire auquel ils ont consacré tous leurs soins ne remplisse pas son office faute d'un consensus sur le but politique poursuivi. Enfin, on ne peut faire abstraction de l'impact des attentats du 11 septembre 2001 sur la configuration de la future politique européenne en matière de sécurité, puisque de nouvelles menaces ont surgi et que la participation à la lutte contre le terrorisme exigera sans doute une réorientation des choix antérieurs, l'élargissement du champ d'action des forces de projection et l'affectation de ressources supplémentaires à la recherche et au développement d'armes de haute technologie.
+Depuis l'effondrement de l'ordre bipolaire, l'OTAN a élargi le champ de ses compétences et prête son concours aux organisations internationales pour leur permettre de remplir leurs missions de paix. De son côté, l'UE a manifesté la volonté d'apporter sa contribution propre à des actions collectives menées sous l'égide des Nations unies en prenant appui éventuellement sur les capacités de l'OTAN (NATO assets) dans les domaines où ses carences sont manifestes. Or, l'insertion de la PESD dans le cadre de l'Alliance soulève des problèmes épineux, et l'insuffisance de l'effort de défense des Européens risque de compromettre la réalisation de l'objectif global défini à Helsinki en décembre 1999. Ainsi, la fonction traditionnelle de l'OTAN - la défense collective contre une attaque armée - a été maintenue, mais on s'est également soucié de trouver des parades aux " défis du changement ", et le concept stratégique adopté par les chefs d'Etat et de gouvernement des 16 Etats membres réunis à Rome les 7 et 8 novembre 1991 rappelle que les intérêts de sécurité de l'Alliance peuvent être mis en cause par d'autres risques qu'une attaque armée de type classique. Sont notamment visés " la prolifération des armes de destruction massive, la rupture des approvisionnements en ressources vitales ou des actes de terrorisme et de sabotage " (§ 13). Huit ans plus tard, ce concept a été affiné lors de la conférence au sommet de Washington (23 - 24 avril 1999), et les " actes relevant du terrorisme, du sabotage et du crime organisé " (§ 24) figurent au premier rang des nouveaux risques. Après les attentats du 11 septembre, cette préoccupation est devenue dominante et on ne saurait exclure que l'Alliance assume à l'avenir des responsabilités accrues dans la lutte contre le terrorisme. Toutefois, les alliés n'ont pas en la matière des vues concordantes et, depuis plus d'un an, les controverses vont bon train, les Européens étant indisposés par le ton manichéen du président des Etats-Unis et le " simplisme " des méthodes préconisées pour briser " l'axe du Mal ", tandis que les Américains leur reprochent une méconnaissance de la gravité du péril et l'insuffisance des moyens mis en oeuvre pour le combattre.
+Sans vouloir prendre parti dans cette querelle, il convient de rappeler que les Européens ne sont pas restés passifs dans la gestion des crises de l'après-guerre froide et dans la lutte contre le terrorisme. Le 8 octobre 2001, cinq avions AWACS de l'OTAN et leurs équipages, comprenant des personnels d'une dizaine de pays européens, ont été envoyés aux Etats-Unis, et des avions AWACS français ont pris la relève, notamment pour assurer la surveillance de l'espace aérien de Bosnie-Herzégovine. En outre, la force navale permanente en Méditerranée qui compte huit frégates et un bâtiment de soutien logistique a appareillé pour la Méditerranée orientale le 9 octobre. Ces unités ont été rejointes par la force navale permanente de l'Atlantique. Enfin, les opérations militaires américaines contre le réseau Al-Qaida et le régime des Talibans ont été appuyées par tous les membres de l'Alliance, soit par l'envoi d'unités spéciales pour briser les dernières poches de résistance, soit par la fourniture d'une aide humanitaire au peuple afghan. Par ailleurs, l'Alliance a considérablement intensifié son action contre les dangers du terrorisme liés à l'emploi d'armes de destruction massive (ADM), et la dimension proprement européenne n'a pas été absente de cette démarche puisque des rencontres au niveau des ambassadeurs et des ministres des Affaires étrangères ont permis de renforcer les consultations et la coopération entre le Conseil de l'Atlantique Nord et le Comité politique et de sécurité de l'UE.
+Or, l'importance de la contribution des Européens aux missions de paix qui se sont multipliées depuis la fin de la " guerre froide " est souvent méconnue aux Etats-Unis et Javier Solana, le Haut Représentant pour la PESC, a éprouvé le besoin de faire une mise au point la veille de la conférence au sommet de l'UE et des Etats-Unis du 3 mai 2002. Tout en rendant hommage au partenariat euro-américain, il a souligné la part prise par l'UE dans la promotion de " la stabilité, de la prospérité et de la démocratie " chez ses voisins et dans le monde. En Afghanistan, les Européens contribuent en liaison étroite avec les Etats-Unis à créer les conditions d'un avenir meilleur ; dans les Balkans ils assument des responsabilités majeures dans la gestion des crises en Macédoine, en Serbie-Monténegro et au Kosovo. Sur les 58 000 hommes déployés dans cette région, 38 000 sont des Européens, et l'UE est le principal donateur des pays de l'Europe du Sud-Est avec une contribution de 23 milliards d'euros au cours des dix dernières années.
+De son côté, William Wallace, professeur à la London School of Economics, a rappelé aux décideurs américains que, loin de pratiquer l'appeasement, les Européens ont apporté au cours des dix dernières années une contribution significative à l'imposition de la paix dans des zones instables et au relèvement de pays ravagés par des guerres civiles. Au printemps 2002, ils avaient déployé 7 000 hommes en Afghanistan, soit des effectifs supérieurs à ceux des troupes américaines (5 500) ; ils assument l'essentiel des charges relatives à la consolidation de la paix en Bosnie et au Kosovo ; enfin, ils contribuent à hauteur de 40 % aux fonds d'aide des Nations unies et à hauteur de 45 % au financement des opérations de maintien de la paix.
+Ce constat permet de corriger les outrances des jugements portés outre-Atlantique sur la passivité des Européens face aux nouveaux risques, mais il ne permet pas d'accréditer la thèse de progrès significatifs sur la voie d'une PESD, ni de préjuger de la conversion de l'OTAN en une alliance globale contre le terrorisme. C'est que les Etats-Unis préfèrent agir seuls ou dans le cadre de coalitions ad hoc pour riposter aux agressions dont ils sont l'objet, et l'OTAN aurait surtout pour vocation de favoriser par des élargissements successifs l'émergence d'une Europe " une et libre " (whole and free) et de fournir aux Américains un réservoir de forces où ils puiseraient en fonction de leurs besoins et des affinités qu'ils entretiendraient avec certains alliés. Cependant, on est conscient de la nécessité d'adapter l'OTAN aux nouvelles tâches qui lui incombent et, au printemps 2002, des discussions se sont engagées à Bruxelles au niveau des experts sur les trois composantes principales de la stratégie de sécurité de l'OTAN, à savoir la dissuasion, la défense et l'intervention extérieure. A s'en tenir aux informations parues dans la presse, l'accent serait mis sur la prévention de toute attaque menée avec des armes de destruction massive et le renforcement des capacités défensives pour s'en prémunir en cas d'échec de la dissuasion. Par ailleurs, le centre de gravité de la stratégie de l'Alliance se déplacerait en direction de la Méditerranée et du Moyen-Orient, où se situent les principaux foyers de crise et où certains Etats nourrissent l'ambition de se doter d'armes nucléaires, biologiques et chimiques, s'ils n'en sont pas déjà pourvus. Dans ce contexte, il serait nécessaire d'apurer le contentieux entre la Grèce et la Turquie, d'autant que ces deux pays seraient prêts à compenser le retrait partiel des troupes américaines stationnées dans les Balkans si celles-ci étaient requises ailleurs ; en outre, ils auraient engagé une négociation avec l'Iran en vue de l'intégrer dans cette nouvelle constellation stratégique et d'en faire un facteur de stabilisation de la région du Golfe. D'autres observateurs font état de projets concernant la formation d'unités spécialisées susceptibles d'être engagées contre des camps d'entraînement de terroristes, la création de centres pour l'évaluation des menaces et l'échange de données sur les moyens disponibles pour se protéger contre le bio-terrorisme.
+Les Etats-Unis souhaiteraient rallier les Européens à cette conception extensive des tâches de l'Alliance, mais ceux-ci se montrent réticents non seulement parce qu'ils ne partagent pas les vues de Washington sur le choix des moyens pour lutter contre le terrorisme, mais encore en raison de leurs déficiences dans le domaine de la projection des forces et du combat de grande intensité. Ce sont ces facteurs objectifs qui ont empêché les Européens de participer à la première phase de l'opération " Liberté immuable " en Afghanistan et, en l'absence d'un effort de défense accru, leur contribution à la lutte militaire contre le terrorisme ne pourra qu'être limitée.
+L'insuffisance de l'effort de défense des Européens est un thème rebattu, et l'on ne cesse de souligner l'écart entre les dépenses militaires des Etats-Unis et celles de leurs alliés du Vieux Continent. Ainsi, les dépenses des Européens représentent environ 60 % des dépenses américaines, mais le produit final de ces investissements est très inférieur aux résultats obtenus outre-Atlantique. Par ailleurs, le budget militaire américain croît d'une manière exponentielle et représente plus de 3 % du PIB, alors que les budgets européens sont en décroissance réelle de 22 % depuis 1990. A l'exception du Royaume-Uni et de la France qui s'efforcent de tenir le cap, les autres pays européens ont des taux inférieurs à 2 % et les " lanternes rouges " sont l'Allemagne (1,4 %) et l'Espagne (1,2 %). Ces dérives ne sont pas de bon augure pour l'avenir de la PESD, et la plupart des observateurs estiment que la force de réaction rapide en voie de constitution a peu de chances d'être opérationnelle en 2003. Pendant la conférence sur l'amélioration des capacités militaires de l'UE, qui s'est tenue à Bruxelles le 19 novembre 2001, on a relevé que, sur les 54 lacunes identifiées l'année précédente, dix seulement avaient été comblées et il ne semble pas que des progrès significatifs aient été accomplis sur cette voie depuis lors.
+La contraction des budgets de la défense interdit la participation de l'UE à des actions communes de l'envergure de celle qui a été menée en Afghanistan et compromet l'interopérabilité des forces américaines et européennes ; on comprend donc les remontrances des dirigeants américains qui ne souhaitent pas voir se creuser l'écart entre eux et leurs alliés et assister passivement au dépérissement de l'une des " meilleures alliances de l'histoire ". En tout cas, l'Europe ne peut plus " jouer dans la cour des Grands " si elle ne modifie pas radicalement sa politique de défense. Les chiffres publiés dans des revues spécialisées, ou mis en avant par des professionnels de l'armement, permettent de prendre la mesure du défi américain, qui ne pourra être relevé que si les Européens définissent au préalable leurs besoins spécifiques et prennent les mesures appropriées pour les satisfaire sans vouloir imiter les Etats-Unis en tous points. En 2000, les budgets cumulés de la France, de l'Allemagne, de l'Espagne et de l'Italie ont représenté un montant de 67 milliards d'euros contre 285 milliards d'euros aux Etats-Unis. Ce constat n'est pas nouveau puisque les Etats-Unis, pendant la dernière décennie, ont investi dans la défense 2000 milliards d'euros de plus que l'Europe. Ces écarts résultent de priorités différentes : en Europe, les mesures sociales absorbent une partie importante des crédits publics et ne laissent qu'une place marginale à la défense alors que les attentats du 11 septembre 2001 ont incité le gouvernement américain à accroître son budget militaire de 50 milliards de dollars, ce qui représente une augmentation de 15 % par rapport à l'exercice en cours.
+L'écart est encore plus grand dans le secteur de la recherche et du développement militaire où les Etats-Unis dépensent aujourd'hui l'équivalent du budget national de la France. Si l'on tient compte des programmes occultes (black programs), les dépenses réelles pour la recherche militaire sont de 15 à 20 fois supérieures aux montants européens cumulés. Les Européens ne pourront combler cet écart que s'ils dépensent davantage car la recherche dans l'aéronautique et dans les communications requiert des moyens importants pour les études en amont, la fabrication de prototypes et les essais en condition opérationnelle. Ce n'est qu'à ce prix qu'ils pourront mettre en oeuvre un système informatisé pour la gestion du champ de bataille comparable à celui dont dispose l'état-major américain. Contrairement à une idée reçue, on ne se réjouit pas à Washington de la faiblesse des alliés européens et l'on souhaiterait qu'ils puissent se doter des équipements nécessaires pour participer à des opérations communes destinées à frapper l'ennemi à l'intérieur de ses frontières, là où il est le plus vulnérable. Certes cet objectif peut être atteint par le biais d'une coopération transatlantique, mais celle-ci se heurte à des limites en raison des précautions prises outre-Atlantique pour contenir les risques de prolifération des technologies sensibles et des contraintes imposées par le tuteur américain sur les exportations d'armements. Seul un financement suffisant de la recherche en Europe permettrait de contourner ces obstacles et de mettre en oeuvre une force militaire capable de participer à des opérations de guerre.
+Deux économistes proches du président de la Commission européenne ont abouti à des conclusions analogues après avoir fait observer que les critiques formulées à l'encontre de l'unilatéralisme américain resteront vaines aussi longtemps que l'Europe ne disposera pas d'une réelle capacité militaire et d'une technologie de pointe. Or l'Europe manque des deux, faute d'investissements. Ils rappellent que les Etats-Unis à eux seuls dépensent plus pour la défense que l'ensemble de leurs alliés européens et il est probable que cette tendance ne fera que s'accentuer dans les années à venir. Les dépenses militaires ne contribuent pas seulement à l'équipement des forces armées en matériels performants : une fraction non négligeable (10 % à 15 %) est affectée au financement de la recherche et du développement (R&D) dans les secteurs de pointe. L'Europe a du retard dans ce domaine et sa retenue en matière de défense ne fait que creuser l'écart avec les Etats-Unis, comme l'atteste la répartition des brevets dans le monde : à la fin des années 1990, 56 % étaient accordés à des demandeurs américains contre 11 % aux Européens. Par ailleurs, ils estiment que la stagnation des économies européennes résulte directement du retard en matière d'innovation et indirectement du faible taux d'investissement dans la R&D militaire.
+A cet égard, les incertitudes quant à l'avenir de l'avion de transport militaire européen sont révélatrices des problèmes auxquels sont confrontées les industries d'armement européennes. Face à la concurrence d'un appareil proposé par les firmes Boeing et Lockheed Martin, les pays de l'UE sont divisés : certains, comme l'Italie, sont tentés par l'option américaine alors que d'autres, dont la France et l'Allemagne, penchent pour l'avion construit par Airbus. L'enjeu est de taille et il est essentiel que les Européens fassent l'effort nécessaire pour financer ce projet et s'assurer qu'une part importante du budget soit affectée à la R&D afin de consolider la base technologique d'une industrie qui s'est signalée dans le passé par des " réussites de pointe européennes ". C'est pour faciliter la réalisation de cet investissement que les ministres de la Défense des Quinze ont suggéré que les augmentations des dépenses militaires soient exclues des contraintes imposées par le pacte de stabilité et de croissance de l'euro. Il n'en reste pas moins que l'accroissement de l'effort de défense impliquerait une diminution des autres postes budgétaires et sans doute une mise en question de l'Etat-providence, ce à quoi la plupart des Etats européens ne consentiront pas de gaîté de coeur.
+Toutefois, des progrès ont été enregistrés sur la voie de l'Europe de l'armement et les premières réalisations ont été le fait des industriels du secteur de la défense, soucieux de mettre en place des groupes d'une taille suffisante pour affronter la concurrence mondiale. A cet égard, la création de deux groupes européens dans le domaine de l'industrie aérospatiale - BAE Systems et EADS - est une novation, et il convient de souligner la singularité des industries d'armement où les intérêts nationaux demeurent très puissants et où se combinent la concurrence et le partenariat. Ainsi, les coopérations européennes, voire une certaine forme d'intégration avec le projet d'avion de transport militaire A 400 M, se sont inscrites dans le cadre d'une politique d'intégration transatlantique croissante. Cette tendance se renforcera sans doute à la faveur de l'augmentation du budget de la défense des Etats-Unis car le marché américain, qui représente 55 % du marché aérospatial mondial, est incontournable pour les groupes européens.
+La création, le 17 janvier 2002, de l'Organisation conjointe pour la coopération en matière d'armement (OCCAR) peut être considérée comme l'amorce d'un processus tendant à créer un marché européen de l'armement, à rationaliser la pratique de la coopération et à réduire les coûts des programmes. Les quatre membres fondateurs - Allemagne, France, Italie et Royaume-Uni - représentent à eux seuls 90 % de la production européenne d'armements et l'OCCAR gère déjà sept programmes d'un montant de 800 millions d'euros, auquel pourrait s'ajouter la commande de l'avion de transport militaire Airbus représentant quelque 18 milliards d'euros. Par ailleurs, la France a proposé d'inscrire des projets de R&T dans le cadre d'une stratégie européenne cohérente dans le domaine des avions de combat futurs. Cette initiative faisait suite à l'adoption, en juillet 2000, par six pays européens - Allemagne, Espagne, France, Italie, Royaume-Uni et Suède -, d'un accord-cadre en vue de favoriser les progrès de l'Europe de l'armement. Elle a abouti à la signature, le 19 novembre 2001, d'une déclaration qui autorise le lancement d'une étude conjointe visant à déterminer les capacités militaires requises à l'horizon 2020 et à identifier les systèmes et les technologies correspondant à ces besoins. Elle invite également à un regroupement des forces financières et industrielles concernées par ces projets. Ce programme de R&T ambitieux, baptisé European Technology Acquisition Program (ETAP), a été entériné par les autorités compétentes des six Etats participants.
+Enfin, des suggestions ont été faites pour remédier aux déficits technologiques de l'UE, l'objectif étant le maintien d'une base technologique sur l'ensemble des domaines-clefs de la défense ; il ne s'agirait pas de pratiquer le mimétisme avec les Etats-Unis mais de déterminer des secteurs prioritaires en fonction des besoins requis par des missions spécifiques. La France s'est engagée dans cette voie et sa démarche prospective pourrait servir de modèle à l'Europe, à condition que l'on parvienne à s'entendre sur une politique commune en matière de R&T et qu'on soit disposé à y affecter des ressources minimales. Ce point de vue est partagé par certains experts allemands qui sont, eux aussi, convaincus que l'Europe est capable de relever le défi technologique par une harmonisation des politiques européennes d'acquisition des armements dans le cadre de l'initiative des capacités de défense adoptée par le Conseil atlantique de Washington en avril 1999. L'adoption à Prague, en novembre 2002, d'un programme de développement des capacités militaires (Prague Capabilities Commitment) et la création d'une force de réaction de l'OTAN (NATO Response Force), susceptible de mener dès le 1er octobre 2004 des combats de haute intensité sur des théâtres lointains, pourraient accélérer le processus de modernisation des forces de réaction européennes et améliorer leur interopérabilité avec les forces américaines. En tout cas, c'est en empruntant cette voie que le nouveau commandant des forces alliées en Europe, le général James Jones, espère rétablir le crédit de l'Alliance et créer les conditions d'un rapprochement entre la France et les Etats-Unis.
+Avant même que n'éclate la crise de l'Irak et que les Européens ne se divisent sur la manière dont les Etats-Unis envisageaient de la régler, des doutes avaient surgi sur leur capacité de mettre en oeuvre une politique de sécurité et de défense cohérente. Certes, les chefs d'Etat et de gouvernement des Quinze avaient affirmé, à l'issue du Conseil européen de Laeken (15 décembre 2001), que " l'UE est désormais capable de conduire des opérations de gestion de crise " et que le développement de ses capacités lui " permettra d'assumer progressivement des opérations de plus en plus complexes ". Mais, dans le rapport de la présidence, la formulation était plus prudente. On y laissait entendre que " l'Union devra être capable de conduire, d'ici 2003, l'ensemble des tâches de Petersberg " tout en reconnaissant que des efforts supplémentaires devront être faits pour " conduire de façon optimale les opérations les plus complexes ". Au plan des capacités civiles, la situation était plus satisfaisante dans la mesure où les Etats avaient confirmé leurs engagements de fournir jusqu'à 5 000 policiers pour la mise en oeuvre du plan d'action de police adopté à Göteborg en juin 2001. En tout cas, au début de l'année 2002, le ton n'était pas à l'optimisme et le général finlandais Gustav Hägglund, président du CMUE, a émis des doutes sur l'opérationnalité de la PESD lors d'une déposition devant la commission des Affaires étrangères et de la Défense du Parlement européen. Selon lui, l'UE disposait à cette date de 90 % des capacités correspondant à l'objectif global (headline goal) ; mais il lui serait difficile de mener des opérations de type militaire dans le cadre des missions de Petersberg. En dépit des progrès accomplis, dix ans s'écouleraient avant que certaines lacunes soient comblées, notamment dans le transport des troupes puisque l'Airbus A400 M ne sera disponible qu'entre 2008 et 2011, dans la meilleure des hypothèses. Il est également convenu que des déficits importants se situaient au plan du renseignement et qu'on ne pouvait envoyer des soldats dans un environnement hostile si l'on ne disposait pas d'informations fiables. Enfin, il a abondé dans le sens de la vice-présidente du Parlement, Catherine Lalumière, qui avait déploré une certaine confusion dans la répartition des tâches entre le CMUE, le COPS et le secrétaire général et mis en cause le " flottement " de la chaîne de commandement.
+Ce jugement sévère a été corroboré par les ministres de la Défense des Quinze lors d'une réunion informelle qui s'est tenue à Saragosse, les 22 et 23 mars 2002. Au terme d'un examen sans complaisance de la situation existante, ils ont constaté que le plan d'action européen pour le renforcement des capacités militaires (ECAP) n'avait pas été appliqué avec rigueur et que les lacunes identifiées l'année précédente restaient béantes. A moins d'une augmentation des budgets militaires, l'objectif global ne serait pas atteint à la date convenue et la PESD ne serait pleinement opérationnelle qu'en 2012. Certes, un accord est intervenu à Saragosse sur le financement du futur Airbus militaire, mais toutes les incertitudes relatives à ce projet ne sont pas levées et un rapport interne du Conseil constate qu'on ne progresse guère sur la voie d'une véritable politique de l'armement, qui relève largement du domaine de la rhétorique ou de l'utopie. Dans ce contexte, la proposition du ministre espagnol Federico Trillo d'étendre la compétence de la PESD à la lutte contre le terrorisme pratiqué avec des armes de destruction massive ne pouvait avoir qu'une valeur symbolique. Au demeurant, les ministres se sont bornés à renvoyer la question à un groupe d'études et à recommander une coopération plus étroite entre les services de renseignements et d'observation aérienne. Quant au secrétaire général de l'OTAN et au Haut Représentant de l'UE pour la PESC, ils ont participé à cette réunion et renouvelé leurs admonestations sur l'insuffisance des crédits militaires par rapport aux ambitions affichées par l'UE.
+C'est pour faire sortir le débat de l'impasse et démontrer la capacité de l'UE d'agir dans des cas concrets que Javier Solana a proposé de lui confier la gestion de la force de police internationale (International Police Task Force ou IPTF), déployée en Bosnie sous l'égide des Nations unies, et dont le mandat expire à la fin de l'année 2002. Parmi les missions de l'UE liées à la gestion des crises figure notamment la formation et l'appui des forces chargées du maintien de l'ordre dans les zones en cours de pacification et le Haut Représentant pour la PESC a jugé que les circonstances étaient propices pour mettre à l'épreuve la PESD qui, jusqu'alors, se bornait à créer des institutions et se complaisait dans des débats théoriques ou des exercices d'état-major. Désormais, on enverrait sur le terrain près de 500 policiers pour consolider les acquis de Dayton et accompagner les réformes de la police et de la justice en Bosnie. L'entreprise n'était pas sans risques car des tensions, voire des affrontements, pouvaient surgir à l'occasion des élections d'octobre 2002, de la dégradation de la situation économique et de la lutte contre la criminalité organisée. Après l'examen du dossier par les ministres des Affaires étrangères, cette mission a obtenu en mars 2002 l'aval du " Conseil pour l'imposition de la paix " (Peace Implementation Council ou PIC) en Bosnie et du Conseil de sécurité des Nations unies. Il s'agira essentiellement d'une mission de conseil, de surveillance et d'inspection des cadres supérieurs et moyens des forces de police locales ; les fonctions exécutives exercées partiellement par l'International Police Task Force (IPTF) n'incomberont pas à l'UE, et pas davantage la création d'unités armées pour le maintien de l'ordre qui relèvera toujours de la Stabilization Force in Bosnia and Herzegovina (SFOR). On évalue à près de 14 millions d'euros le coût de la mise en place de cette mission de police et, à partir du 1er janvier 2003, ses dépenses de fonctionnement s'élèveront annuellement à 38 millions d'euros. Le 15 janvier 2003, la mission de police européenne est entrée en fonction pour une durée de trois ans ; elle est placée sous l'autorité du Haut Représentant de l'ONU pour la Bosnie-Herzégovine, Paddy Ashdown, et sous la direction opérationnelle du commissaire de police danois, M. Frederiksen. L'UE démontrait ainsi pour la première fois qu'elle était prête à s'engager activement sur le terrain et à associer à sa démarche non seulement des pays candidats mais encore des Etats extérieurs comme la Russie, le Canada et la Suisse.
+Javier Solana avait également envisagé que l'UE prenne en charge l'opération conduite par l'OTAN en Macédoine et baptisée " Renard roux " (Amber Fox). Il s'agissait d'une mission temporaire qui avait été décidée en septembre 2001 à la suite du désarmement des milices albanaises (Essential Harvest) et qui avait pour objet de garantir la sécurité des observateurs de l'UE et de l'OSCE chargés de superviser la paix d'Ohrid et de veiller au retour de l'ordre public dans les localités à majorité albanophone. Le mandat de cette mission qui mobilisait 700 hommes, pour la plupart européens - les principaux contingents étaient fournis par l'Italie, la France et l'Allemagne -, avait été reconduit à plusieurs reprises à la demande des autorités de Skopje. Le Conseil européen de Barcelone (15 - 16 mars 2002) avait approuvé la relève de l'OTAN par l'UE mais, comme l'opération Amber Fox s'articulait aux activités de la Kosovo Force (KFOR), il fut entendu qu'elle serait conduite en liaison étroite avec l'Alliance et sous le commandement de l'adjoint du SACEUR, qui était alternativement un général allemand ou britannique. L'opération de maintien de la paix en Macédoine, rebaptisée " Concordia ", a été prise en charge par l'UE le 31 mars 2003 ; elle est de dimension modeste puisqu'elle ne mobilise que 345 hommes, placés sous le commandement suprême de l'adjoint au SACEUR et sous le commandement opératif d'un général français ; enfin, la continuité l'emporte sur le changement puisque l'OTAN et l'UE agissent en partenaires et que leur coopération étroite est considérée comme la condition du succès d'une politique de stabilisation dans les Balkans. Le même modèle pourrait s'appliquer à la relève de la SFOR et la France et le Royaume-Uni ont d'ores et déjà fait des propositions à cet effet. Si cette initiative se concrétisait, elle constituerait la première manifestation militairement significative de la PESD puisqu'il ne s'agirait plus seulement de déployer quelques centaines d'hommes mais de prendre en charge une force de 12 000 hommes, et le succès de cette mission " renforcerait la crédibilité de l'Union dans la région et au-delà ".
+La mutation du système international provoquée par l'effondrement de l'ordre bipolaire a fait prendre conscience aux Européens de la nécessité de s'impliquer davantage dans l'organisation de leur sécurité. Mais elle a également mis en évidence la difficulté qu'ils éprouvent à s'affirmer comme une puissance politique et militaire sur la scène mondiale. Les obstacles qui empêchent la mise en oeuvre d'une authentique PESD n'ont pas été surmontés et, de l'aveu même des porte-parole autorisés de l'UE, le bilan de ce qui avait été accompli au début de l'année 2002 a été jugé décevant. On a privilégié une approche institutionnelle pour masquer l'absence d'une volonté politique ferme et les ressources financières affectées à la réalisation du headline goal restent manifestement insuffisantes. Les attentats du 11 septembre 2001 auraient pu provoquer un sursaut mais les ministres de la Défense n'en ont pas tiré les conséquences lors de la conférence sur l'amélioration des capacités militaires qui s'est tenue à Bruxelles deux mois plus tard. Cette négligence est d'autant plus fâcheuse que le Conseil européen de Laeken a pris acte de la dimension mondiale du terrorisme et assigné à l'UE le rôle d'une " puissance qui part résolument en guerre contre toute violence, toute terreur, tout fanatisme, mais qui ne ferme pas les yeux sur les injustices criantes qui existent dans le monde et (...) veut ancrer la mondialisation dans la solidarité et le développement durable ". Certes, l'Europe a d'ores et déjà apporté sa contribution spécifique à la lutte contre le terrorisme grâce à la variété des instruments dont elle dispose au plan de l'infiltration des réseaux et du tarissement de leurs sources de financement. Toutefois, elle ne pourra soutenir l'ambition qu'elle affiche dans ce domaine que si elle est prête à en payer le prix et à se doter des capacités civiles et militaires lui permettant de s'affirmer comme un acteur stratégique à part entière.
+A cet égard, la crise provoquée par la guerre contre l'Irak pourrait avoir des effets bénéfiques et servir d'aiguillon au développement de la PESD. Ainsi, le processus de la coopération entre Européens en matière de défense n'a pas été interrompu et le dialogue s'est poursuivi entre le Royaume-Uni et la France en dépit de leurs divergences sur l'interprétation de la résolution 1441 du Conseil de sécurité et sur le bien-fondé d'une action armée pour renverser le régime de Saddam Hussein. Le 4 février 2003 s'est tenu au Touquet le 25e sommet franco-britannique et, à l'issue de cette rencontre, les deux parties ont annoncé qu'elles prendraient des mesures pour accroître l'interopérabilité de leurs groupes aéronavals et favoriser la création d'une Agence intergouvernementale de développement et d'acquisition des " capacités nécessaires pour les missions actuelles et futures de la PESD ". Les autres membres de l'UE étaient invités à se joindre à eux pour améliorer les capacités de réaction rapide et promouvoir le " principe de solidarité et d'assistance mutuelle face aux risques de toute nature et notamment du terrorisme ". Ultérieurement, les dirigeants français et anglais ont multiplié les déclarations conciliantes et souligné les convergences de leurs politiques en ce qui concerne le rôle des Nations unies dans l'administration de l'Irak, la relance des négociations en vue d'un règlement de paix israélo-palestinien et la construction d'une Europe de la défense. De part et d'autre, on souhaitait surmonter les difficultés actuelles et retrouver la voie de l'unité européenne et de la réaffirmation de la solidarité atlantique.
+Depuis la victoire des forces de la coalition en Irak, l'UE tente de définir une position commune sur le rôle qui incomberait aux organisations internationales dans l'administration et la reconstruction du pays, mais la déclaration adoptée au sommet d'Athènes (16 - 17 avril 2003) se borne à énoncer des principes et il s'agit de la compléter par un document plus substantiel. La présidence et la Commission ont fait des propositions à cet effet aux ministres des Affaires étrangères lors de leur réunion informelle à Rhodes et Castellorizo (2 - 3 mai 2003), et il appartiendra au Conseil européen de Salonique (25 juin) de se prononcer en la matière. Par ailleurs, le Haut Représentant pour la PESC, Javier Solana, a été chargé de rédiger un document sur la " doctrine stratégique " de l'Union, qui serait fondé sur une analyse compréhensive des menaces et prévoirait des actions communes avec les Etats-Unis pour lutter contre la faim, la pauvreté et le sous-développement, mais aussi pour conjurer les risques liés à la dissémination des armes de destruction massive. Enfin, les quatre Etats hostiles à l'intervention armée contre l'Irak - l'Allemagne, la Belgique, la France et le Luxembourg - ont présenté les conclusions de la conférence de Bruxelles du 29 avril, qui avait pour objet la relance de la défense européenne. Ils ont souligné le caractère ouvert de leur démarche et rappelé qu'elle visait la création d'un " pilier européen au sein de l'OTAN ". La plupart des mesures préconisées tendaient à favoriser la " coopération renforcée entre les Etats qui sont prêts à aller plus rapidement et plus loin en direction d'une Union européenne de sécurité et de défense ". Sept initiatives concrètes seraient mises en oeuvre pour renforcer " l'efficacité des capacités militaires et éviter les duplications inutiles par le rapprochement des outils de défense nationaux ". L'objectif poursuivi était de garantir l'interopérabilité des forces qui pouvaient être engagées aussi bien pour des opérations européennes et des opérations de l'OTAN que pour des opérations conduites par l'UE pour le compte de l'ONU. Aux yeux des quatre, " le partenariat atlantique demeurait une priorité stratégique fondamentale pour l'Europe " et les divergences de vues apparues pendant la guerre contre l'Irak ne devraient pas affecter durablement la qualité des relations transatlantiques. Il reste à se demander si les Etats-Unis partagent ces vues et consentiront à une répartition des tâches entre partenaires égaux au sein d'une Alliance rénovée et capable de relever collectivement les défis du XXIe siècle.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Politique étrangère 3/2001
+Tandis que le processus de mondialisation semble gagner à la fois en force et en ampleur dans l'ensemble des pays industrialisés et la quasi-totalité des pays en développement, le débat démocratique en a fait l'un de ses enjeux principaux, sans que les opinions publiques soient toujours écoutées ou même entendues en la matière. C'est ainsi qu'en France comme aux États-Unis, de récents sondages d'opinion montrent qu'un même clivage existe entre une certaine élite dirigeante, globalement favorable à la mondialisation, et l'ensemble des citoyens, dont la perception est, sinon toujours négative, du moins beaucoup plus nuancée. Par ailleurs, un autre clivage se dessine au sein de ce groupe entre les catégories relativement favorisées et les catégories relativement défavorisées. Et la mondialisation, si elle n'est pas la cause de tous les maux dont souffrent celles-ci, cristallise une large part de leurs frustrations, nourrissant la crise de la démocratie représentative qui s'affirme de façon larvée dans les pays industrialisés.
+L'accélération du processus de mondialisation depuis la fin de la guerre froide, liée en particulier à l'ouverture économique et à la libéralisation des échanges dans la plupart des régions du globe ainsi qu'à la diffusion des nouvelles technologies de l'information, notamment d'Internet, est devenue l'un des principaux enjeux du débat démocratique dans un grand nombre de pays. Ce débat est influencé par l'émergence de mouvements contestataires qui dénoncent ce processus avec vigueur, en particulier lors de réunions d'institutions internationales ou régionales, voire de rencontres plus informelles comme le Forum économique mondial de Davos, censées symboliser la mondialisation.
+Cependant, ce débat entre " pro " et " anti " apparaît souvent manichéen et simplificateur, et surtout frustrant. En effet, les " anti " affirment être les représentants d'une opinion de plus en plus préoccupée par ce qu'ils considèrent être les effets négatifs de la mondialisation. Les " pro ", plus ou moins enthousiastes, tendent à nier la légitimité et la représentativité de ces groupes à parler au nom de cette opinion en expliquant notamment que la représentation légitime est d'abord politique. C'est notamment la position du premier ministre Lionel Jospin. Chaque camp tend donc à s'exprimer au nom d'une hypothétique opinion publique sur le thème de la mondialisation. Qu'en est-il au juste ?
+L'objet de cet article n'est pas de trancher le débat sur l'existence ou non d'une opinion publique, ni de proposer une représentation exacte de ce que les Américains et les Français pensent de la mondialisation. Il vise plutôt à évaluer les perceptions de la mondialisation aux États-Unis et en France en s'appuyant principalement sur une interprétation des grandes tendances révélées par les sondages d'opinion effectués dans ces pays sur le thème de la mondialisation ou certains de ses aspects. Les données pour les États-Unis sont répertoriées dans deux études menées par des chercheurs de l'Institute for International Economics (IIE), Kenneth F. Scheve et Matthew J. Slaughter, et par un centre de recherche spécialisé dans les études d'opinion, le Program on International Policy Attitudes (PIPA). Il n'existe pas d'étude similaire pour la France. Les résultats présentés ici s'appuient donc sur l'interprétation de nombreux sondages sur la mondialisation réalisés dans ce pays.
+Or, l'analyse des nombreuses enquêtes d'opinion menées par les instituts de sondage aux États-Unis et en France sur le thème de la mondialisation permet d'aboutir à trois conclusions : d'abord, ce processus fait l'objet de véritables préoccupations ; on observe également un clivage de plus en plus net entre les élites et l'opinion, en particulier sur ce sujet ; enfin, une " dualisation " des perceptions apparaît au sein des sociétés sur le thème plus général de l'ouverture avec une catégorie relativement importante en nombre qui se sent de plus en plus exclue économiquement, culturellement et politiquement.
+En apparence, les États-Unis et la France semblent représenter les pôles opposés de la perception du processus actuel de mondialisation au sein des pays industrialisés. La France est souvent décrite comme le pays de la contestation de la mondialisation, le pays de José Bové, d'ATTAC (l'Association pour une taxation des transactions financières pour l'aide aux citoyens) et de l'exception culturelle, et celui dont le gouvernement est le seul à avoir envoyé des ministres au Forum social mondial alternatif de Porto Alegre, en janvier 2001. Les États-Unis apparaissent, au contraire, comme l'emblème de la mondialisation, le pays de McDonald's, de Coca-Cola, d'Hollywood, de Microsoft, de Wall Street, des fonds de pension, du capitalisme débridé et des inégalités criantes. Pourtant, la réalité est beaucoup plus complexe : les Français ne sont pas des " globalophobes " et les Américains ne sont pas des partisans enthousiastes de la mondialisation.
+D'un certain point de vue, cette vision des États-Unis et de la France face à la mondialisation contient une part de vérité. Tout d'abord, il faut noter que ce phénomène est vu de manière différente dans les deux pays. Aux États-Unis, la mondialisation est plutôt appréhendée sous l'angle de la libéralisation des échanges, les études menées par les instituts de sondage tendant à se focaliser sur ce thème. En France, la mondialisation est davantage perçue dans sa dimension financière - la libéralisation des mouvements de capitaux, le rôle des fonds de pension et d'investissement dans le financement des entreprises, la corporate governance et le rôle des actionnaires dans le fonctionnement de celles-ci - et dans ses effets sur l'identité nationale et culturelle. Les questions relatives à la mondialisation dans les sondages français tendent donc plutôt à traiter de ces enjeux.
+En outre, les perceptions de part et d'autre de l'Atlantique divergent sur un certain nombre de thèmes étroitement associés à la mondialisation, sur la base de différences de culture politique et économique assez nettes. Ce qui est considéré comme allant de soi par les uns -la fonction des marchés financiers et des actionnaires pour les Américains, le rôle de l'État, les exceptions culturelle et agricole pour les Français - est perçu comme une incongruité par les autres. La différence la plus notable entre les deux pays, visible aussi dans les résultats des sondages, concerne le rôle respectif de l'État et des entreprises. Les Américains tendent, en effet, à rejeter ce qu'ils appellent le big government, à savoir un État fédéral intervenant fortement sur le plan économique et social, tandis que l'influence des entreprises (big business) ne semble pas être le support d'une inquiétude particulière. En France, au contraire, ce sont les entreprises et les marchés financiers qui font l'objet d'une suspicion, tandis que l'État est vu comme un élément protecteur et régulateur.
+Cependant, au-delà de ces perceptions différenciées entre les deux pays, les enquêtes menées aux États-Unis et en France tendent à montrer une vision concordante sur trois types de réactions à la mondialisation : l'évaluation du phénomène, ses conséquences économiques, et ses conséquences sociales et culturelles. L'opinion révélée par les sondages apparaît extrêmement partagée sur l'évaluation générale de la mondialisation ou de certaines de ses dimensions. Elle est plutôt positive en ce qui concerne les conséquences économiques globales du processus. En revanche, elle est plutôt négative à propos de ses effets sociaux.
+Les opinions telles qu'elles se dessinent dans les sondages de part et d'autre de l'Atlantique apparaissent relativement divisées quant à l'évaluation de la mondialisation au sens général du terme. Ainsi, en ce qui concerne l'Alena, symbole de ce processus aux États-Unis, entre 40 % et 45 % des personnes interrogées ces dernières années dans divers sondages pensent qu'il s'agit d'une bonne chose pour le pays, tandis que 30 % à 35 % soutiennent le contraire. En France, différentes enquêtes tendent également à montrer un point de vue très partagé sur le sentiment qu'inspire le terme même de mondialisation, indépendamment de ses conséquences économiques ou sociales : par exemple, un sondage Ipsos de mai 2000 indique que 48 % des personnes interrogées estiment qu'il s'agit de quelque chose de positif, contre 47 % qui ont une opinion inverse.
+Aux États-Unis comme en France, les personnes sondées tendent tout de même à considérer la mondialisation comme un phénomène positif pour l'économie dans son ensemble. Outre-Atlantique, celle-ci est globalement perçue comme ayant des effets positifs pour le pays, les entreprises et les catégories aisées de la population. Une majorité d'Américains interrogés reconnaît les bénéfices d'une libéralisation des échanges, notamment en termes de prix, de concurrence ou de croissance économique, et souhaite que le gouvernement des États-Unis favorise la promotion de la mondialisation ou des échanges internationaux de manière active ou, au moins, n'en entrave pas le cours actuel. Ils s'opposent donc majoritairement à toute forme de protectionnisme. Cette perception favorable du libre-échange semble être constante aux États-Unis. Les chiffres de 1994, en plein débat sur l'Alena et sur le GATT, donnent des résultats identiques. Un sondage réalisé par Gallup en 1953 montrait déjà qu'à l'époque, 54 % des Américains interrogés soutenaient une politique de libre-échange.
+En France, la mondialisation est perçue majoritairement comme un facteur positif pour le pays, favorisant la croissance de l'économie française et la compétitivité des entreprises. Par exemple, un sondage réalisé en 1998 montrait que 58 % des personnes interrogées considéraient la mondialisation comme un élément positif pour le pays et 59 % pour la compétitivité des entreprises. En septembre 1999, c'est-à-dire en pleine " affaire Michelin ", 57 % des personnes interrogées pensaient tout de même que la mondialisation favorisait la croissance de l'économie française. Les sondages montrent cependant qu'Américains et Français sont une majorité à avoir une vision négative des conséquences sociales de la mondialisation, tant sur l'évolution de l'emploi, des salaires ou des inégalités de revenus. Les personnes interrogées tendent également à considérer que ses effets négatifs dépassent ses effets positifs, notamment pour les salariés.
+Les Américains sondés soulignent majoritairement les conséquences négatives de la mondialisation et de la libéralisation des échanges sur l'évolution de l'emploi, des salaires, des inégalités, et donc sur la situation des salariés en général. Pour un grand nombre d'entre eux, la mondialisation n'a pas vraiment d'effets positifs pour eux-mêmes et pour les salariés en général. Ainsi, 52 % des personnes interrogées affirment que l'économie globale sera préjudiciable pour l'Américain moyen, tandis que 43 % pensent qu'elle lui sera bénéfique. Les résultats sont du même ordre en ce qui concerne leur perception des conséquences de la croissance des échanges internationaux. Si 61 % d'entre eux affirment que celle-ci est positive pour les entreprises américaines, ils sont seulement 31 % à prétendre que c'est le cas pour eux-mêmes et 25 % pour les salariés. De même, 56 % des personnes interrogées pensent que cette croissance a accru les inégalités entre riches et pauvres aux États-Unis. Les Américains interrogés tendent, en outre, à exprimer une méfiance particulière envers les accords commerciaux signés par les États-Unis avec des pays à bas salaires, en particulier l'Alena avec le Mexique. Au total, une courte majorité des Américains interrogés par les instituts de sondage pense que l'évolution des échanges n'a pas de bénéfices nets notables, et que les avantages en termes de prix ou de croissance ne compensent pas les pertes d'emploi. Globalement, ceux-ci préfèrent donc majoritairement s'opposer à toute libéralisation supplémentaire des échanges, des investissements et de l'immigration.
+En France, un sondage réalisé en 1999 montrait que la mondialisation économique et financière y était perçue comme une source d'aggravation des inégalités sociales (65 %) et une menace pour l'identité française (56 %). Dans un sondage plus ancien, 72 % des personnes interrogées s'estimaient être personnellement méfiantes face à ce processus en raison de ses conséquences sur la situation des salariés ou sur le système de protection sociale. Pour les Français sondés, la mondialisation a également des conséquences inégales sur les catégories sociales. De leur point de vue, elle semble favoriser les chefs d'entreprise (63 %), les cadres supérieurs (66 %) et surtout les actionnaires (69 %), démontrant ainsi la forte dimension financière associée à la mondialisation en France, et constituer une menace pour les salariés (60 %), les ouvriers et les employés (64 %) ainsi que les agriculteurs (79 %).
+La méfiance des individus à l'égard des gouvernants, des experts ou plus largement des élites dirigeantes est un phénomène largement connu et mesurable, tant dans les réponses données dans les sondages que lors de consultations électorales à travers un vote protestataire ou l'abstention. Or, le thème de la mondialisation semble aggraver celle-ci en suscitant et, surtout, en approfondissant au sein des sociétés des sentiments d'insécurité, d'incompréhension, de dépossession et d'impuissance. En effet, les quelques enquêtes mettant en parallèle le point de vue des élites ou des experts et celui du public montrent qu'il existe un net décalage entre leurs perceptions, leurs préoccupations et leurs priorités à propos de la mondialisation. L'élite, représentée par exemple par des leaders d'opinion, semble en avoir une vision très positive, bien meilleure que l'ensemble de l'opinion.
+Ainsi, dans le rapport relatif à l'opinion publique américaine sur la politique étrangère, publié tous les quatre ans par le Chicago Council on Foreign Relations, une distinction est réalisée entre le public et des élites dirigeantes, qui sont des personnes occupant des positions importantes et ayant une connaissance des affaires internationales. Or, en ce qui concerne la mondialisation, le rapport de 1999 indique que 87 % des élites dirigeantes considèrent ce phénomène comme une bonne chose pour les États-Unis, contre 54 % pour l'opinion ; 12 % seulement des premiers pensent qu'il s'agit d'une mauvaise chose, contre 20 % pour les seconds.
+Le décalage réside bien entendu dans le fait qu'une grande partie du public se sent directement affectée ou menacée par certains des effets attribués à la mondialisation, alors que les experts tendent plutôt à en nier l'existence. La divergence d'opinion la plus notable de ce point de vue concerne naturellement les conséquences sur l'emploi. Un sondage de 1996 montrait ainsi des visions totalement opposées sur ce thème entre économistes et opinion outre-Atlantique. Celui-ci portait sur le sujet très sensible de la perception des conséquences des accords commerciaux entre les États-Unis et les autres pays en matière de création ou de destruction d'emplois. 54 % des personnes interrogées affirmaient que ces accords avaient détruit des emplois, les économistes interrogés étant seulement 5 % à suivre cette analyse ; 17 % des premières pensaient qu'ils avaient favorisé une création d'emplois, contre 50 % des seconds ; enfin 27 % des premières, contre 42 % des seconds, soutenaient que ces accords n'avaient pas réellement de conséquences en matière d'emploi.
+Enfin, sur la base de ces préoccupations différentes, les priorités des élites et du reste de la population ne semblent pas être réellement convergentes. Dans l'enquête menée par le Chicago Council on Foreign Relations, la protection de l'emploi des salariés américains figure, aux côtés de la lutte contre la prolifération des armes nucléaires, le trafic de drogue et le terrorisme international, parmi les quatre objectifs fondamentaux donnés par le public à la politique étrangère américaine. 80 % des Américains " moyens " interrogés estiment qu'il s'agit là d'un objectif très important pour la politique américaine. Ils le classent même au troisième rang des priorités. Quant aux leaders interrogés, ils ne sont que 45 % à partager ce point de vue et le classent au neuvième rang des priorités. Ce clivage est peut-être l'élément le plus inquiétant pour l'avenir des sociétés du monde indus-trialisé. Les réactions aux annonces de suppressions d'emploi par des entreprises bénéficiaires et l'incompréhension dont celles-ci font l'objet est l'exemple même de cette divergence actuelle de priorités entre salariés et dirigeants d'entreprises ou investisseurs, voire entre citoyens et gouvernants.
+Bien entendu, ces divergences de perceptions proviennent en grande partie d'une différence d'expertise mais aussi d'accès à l'information et de compréhension de celle-ci. Ainsi, dans le sondage publié dans le rapport du Chicago Council on Foreign Relations sur la perception de la mondialisation, le taux de personnes qui ne se prononcent pas est de 11 % pour l'opinion et de 1 % pour les leaders. On peut donc supposer que ces derniers sont mieux informés, même si la différence n'est pas vraiment nette. Cela ne disqualifie pas pour autant le point de vue du grand public. En l'occurrence, l'enjeu n'est pas de savoir qui a tort ou qui a raison, mais de comprendre les raisons pour lesquelles ce dernier manifeste de telles réticences face à la mondialisation et d'essayer de prendre en compte ses sentiments et ses craintes.
+L'insécurité économique est l'une des conséquences supposées de la mondialisation qui apparaît de la manière la plus nette à la lecture des sondages d'opinion, en particulier au sein des catégories défavorisées. Cette insécurité est ressentie notamment en raison des menaces de pertes d'emploi dans des entreprises du secteur industriel conférant un certain nombre d'avantages sociaux (existence de syndicats, assurances santé, etc.), liées aux délocalisations d'unités de production en direction des pays du Sud, par exemple dans les maquiladoras au Mexique pour les entreprises américaines, ou aux menaces de fermeture d'usines, y compris par des entreprises bénéficiaires, et ceci souvent au profit d'emplois aux conditions plus précaires dans le secteur des services. Elle affecte tout particulièrement les salariés les moins qualifiés et les plus âgés. Ce thème a été largement débattu, notamment sur la base d'un article publié par Ethan Kapstein sur le sort des salariés dans l'économie mondiale.
+Plus fondamentalement, on assiste à une sorte de rupture d'" un contrat social non écrit " qui caractérisait la démocratie industrielle par lequel " de grandes institutions - les grandes entreprises, les syndicats, l'État - offraient une sécurité (aux individus) (...) en échange de leur allégeance. Les individus faisaient confiance à ces grandes organisations pour assurer leur bien-être économique et personnel par la régulation (fine tuning) de l'économie, l'accroissement du niveau de vie, la protection de la santé et de la dignité des salariés, la réglementation des entreprises dans l'intérêt du public ". Aujourd'hui, notamment dans le sillage de la mondialisation, ce n'est plus le cas, et ce sont en particulier les travailleurs non qualifiés qui sont les plus touchés par cette rupture du " contrat " de sécurité.
+Un sondage publié aux États-Unis semble être très révélateur de ce sentiment d'insécurité. Il montre qu'une majorité d'Américains considèrent que la création d'emplois bien rémunérés liée à la libéralisation des échanges ne compense pas les difficultés rencontrées par ceux qui ont perdu leur emploi. 56 % des personnes interrogées sont ainsi d'accord avec la proposition suivante : " Même si les emplois créés par la libéralisation des échanges ont des rémunérations élevées, cela ne compense pas malgré tout les difficultés des personnes ayant perdu leur emploi. " En revanche, 40 % sont d'accord avec la proposition selon laquelle " c'est mieux d'avoir des emplois bien rémunérés, et (que) les personnes ayant perdu leur emploi peuvent en trouver d'autres ". Même si le nombre de personnes ayant choisi la seconde proposition est relativement important (et sans doute plus élevé que ce que l'on pourrait imaginer en France, par exemple), on pressent bien leur inquiétude et leur crainte de ne pas retrouver un emploi aussi bien rémunéré et bénéficiant d'avantages sociaux comme dans l'industrie.
+Les difficultés des instances représentatives traditionnelles ou des gouvernements à répondre à ce sentiment d'insécurité, aggravé par le processus de mondialisation, semblent conduire à des sentiments d'incompréhension et de dépossession qui apparaissent particulièrement vifs au sein des catégories défavorisées socialement et culturellement. Ces sentiments se fondent sur l'impression que les principales préoccupations des individus ne sont pas réellement prises en compte, y compris par les mouvements et les gouvernements progressistes, que les grandes décisions se font plus ou moins sans leur avis et sans leur aval, et que, désormais, l'État n'a plus réellement la capacité d'influer sur l'évolution de la mondialisation, notamment face au pouvoir croissant des investisseurs institutionnels, en particulier les fonds de pension, et des entreprises multinationales. Une enquête Ipsos réalisée en 1999 montre, par exemple, que le sentiment de dépossession est largement répandu en Europe : 59 % des Européens interrogés affirment avoir le sentiment que les changements de la société se font sans eux. Il est partagé par les personnes interrogées dans les principaux pays européens, et c'est en France que ces chiffres sont les plus élevés : 70 %, contre 27 %, qui soutiennent que les changements se font avec eux.
+Le thème de la mondialisation semble constituer en la matière un facteur aggravant. Les sondages tendent ainsi à indiquer que les individus interrogés souhaiteraient que leur gouvernement ou les institutions internationales prennent davantage en compte leurs préoccupations sous la forme d'un respect des normes sociales ou environnementales; mais, parallèlement, ils tendent à ne pas leur faire confiance pour cela et à penser qu'ils prennent plutôt en compte l'intérêt des grandes entreprises. C'est l'une des critiques les plus avancées par les mouvements contestataires de la mondialisation. C'est ce que montre également un sondage réalisé aux États-Unis. Les Américains sondés considèrent ainsi, à une grande majorité, que le gouvernement fédéral ne prend pas assez en compte leurs propres besoins : 73% d'entre eux pensent que c'est le cas pour ce qui les concerne, 72% pour ce qui concerne les salariés et 68% pour l'opinion en général. En même temps, 54% affirment que le gouvernement prend trop en compte l'intérêt des entreprises multinationales, et 65% pensent que l'intérêt des entreprises préside aux décisions de l'Organisation mondiale du commerce (OMC), plutôt que celui du monde dans son ensemble .
+En outre, les résultats relativement serrés de consultations électorales ou de sondages d'opinion sur des thèmes liés à la mondialisation et à l'ouverture des frontières (Maastricht, Alena) ne peuvent bien entendu que frustrer le nombre important de personnes qui se sont opposées à ces textes et qui les voient tout de même appliqués, d'autant plus que celles-ci se situent généralement dans des catégories défavorisées de la population.
+Le retentissement de groupes contestataires comme Global Trade Watch aux États-Unis ou ATTAC en France semble être en grande partie lié à cette volonté de reprendre possession d'une démocratie qui serait " niée " par l'influence prépondérante des marchés financiers et des multinationales. Le rejet croissant des hommes politiques, des partis et des institutions publiques dans la plupart des pays indus-trialisés et, en particulier, la montée de l'abstention et du vote protestataire dans les catégories défavorisées constituent autant de symptômes de ces sentiments. On sait, par exemple, que dans les années 1990, notamment lors des élections présidentielles de 1995, les ouvriers français ont plus largement voté en faveur des candidats du Front national que de ceux du Parti socialiste.
+Ce sentiment de dépossession conduit enfin à un sentiment d'impuissance, exprimé notamment par les catégories les plus vulnérables de la société. Il se manifeste, en particulier, par la vision selon laquelle le processus actuel de mondialisation est largement irréversible et que les individus et l'État sont dans l'obligation de s'y conformer. Paradoxalement, ce sentiment semble être surtout partagé par ceux qui s'y opposent. Ainsi, aux États-Unis, parmi les personnes interrogées et souhaitant que le processus de mondialisation soit arrêté ou inversé, 49% affirment que le gouvernement américain n'a pas les capacités de le faire. Ce sentiment assez généralisé semble être également le corollaire d'une sorte de "discours de l'impuissance", notamment face à la montée du chômage ou de la criminalité, qui fut exprimé par les responsables politiques et économiques, au moins depuis la crise pétro-lière des années 1970; un discours qui mit en exergue les contraintes externes (du choc pétrolier à la compétition économique mondiale en passant par l'évolution du dollar ou de la demande américaine), l'absence de véritable alternative aux politiques menées et, surtout, le manque de sens global attribué à ces politiques.
+Or, cette défiance envers les institutions publiques et les entreprises ne tend plus à se traduire par un retrait dans la sphère privée de la part des individus mais, bien plutôt, par une certaine forme d'engagement collectif, dont les manifestations de Seattle ou de Millau et le succès rapide d'un mouvement comme ATTAC ont été, dans une certaine mesure, le symptôme. Ces individus, dont le niveau moyen d'éducation s'est élevé et dont l'accès à l'information s'est amélioré, notamment par le biais d'Internet, tendent à exiger de plus en plus de transparence dans le processus de décision des principales institutions et des entreprises et d'avoir une influence sur leur prise de décision, en particulier sur la base de préoccupations d'ordre éthique. C'est ce qui explique en partie le succès des groupes contestataires de la mondialisation et, plus largement, celui des organisations non gouvernementales.
+Les sondages d'opinion tendent ainsi à montrer qu'en France, les personnes interrogées attachent de plus en plus d'importance à la vie associative et au rôle des citoyens dans la société, et qu'ils font confiance en priorité à ces derniers pour préparer l'avenir qu'ils souhaitent. À cet égard, un sondage CSA de septembre 2000 indique que, parmi les évolutions plutôt positives pour l'avenir, 84 % des personnes interrogées citent la vie associative, 72 % le développement d'Internet et 71 % l'intervention des citoyens dans la société. A contrario, le rôle des hommes politiques au plan national est cité parmi les évolutions plutôt négatives pour l'avenir par 58 % d'entre eux. C'est donc d'abord aux citoyens qu'ils font le plus confiance pour préparer un futur conforme à leur vue, devant les chefs d'entreprise (30 %), les élus (28 %) et les associatifs (23 %).
+Les enquêtes d'opinion de part et d'autre de l'Atlantique tendent à révéler la division de plus en plus nette des points de vue sur la mondialisation et, plus largement, sur l'ouverture économique et culturelle. On observe même la formation de deux groupes dont les éléments discriminants sont le niveau social et culturel, mais aussi les valeurs.
+Aux États-Unis, Kenneth F. Scheve et Matthew J. Slaughter ont montré que les perceptions des Américains sont partagées sur les échanges, les investissements directs étrangers (IDE) ou l'immigration, c'est-à-dire sur l'ouverture aux biens, aux capitaux et aux hommes en provenance de l'étranger. Le facteur discriminant le plus important réside, selon eux, dans le niveau de qualification des personnes interrogées qui se définit par le niveau d'éducation et de rémunération, et non, par exemple, dans le fait pour celles-ci de travailler dans des secteurs exposés à la concurrence internationale ou d'habiter dans une région à forte proportion de population d'origine étrangère. Schématiquement, les individus les moins qualifiés, se montrent plutôt opposés à une ouverture plus grande des frontières aux produits, aux capitaux et aux personnes, tandis que les plus qualifiés s'y montrent plutôt favorables. Ainsi, en ce qui concerne le soutien aux barrières commerciales, il existerait une différence de 25 à 35 % entre les personnes ayant fréquenté le système scolaire pendant onze années et celles l'ayant fréquenté pendant seize ans.
+En France, aucune étude similaire de cette ampleur n'a été entreprise. Cependant, les données accumulées tendent à corroborer l'analyse des chercheurs américains. Ainsi, le sondage BVA de septembre 1999 sur l'impact de la mondialisation montre que les catégories qui y sont favorables sont majoritairement citadines (elles vivent dans des villes de plus de 100 000 habitants et dans la région parisienne), ont un niveau de rémunération relativement élevé (60 % d'entre elles ont un revenu net mensuel d'au moins 10 000 francs) et sont relativement plus jeunes (71 % ont moins de cinquante ans). Les catégories ayant une opinion négative de la mondialisation, quant à elles, vivent plutôt dans des communes de petite taille (environ 60 % vivent dans des communes de moins de 100 000 habitants), disposent de revenus relativement faibles (55 % ont un revenu net mensuel de moins de 10000 francs) et sont plutôt âgées (51 % ont plus de cinquante ans). On peut remarquer que ces résultats sont relativement proches de ceux observés précédemment sur la construction européenne. Le référendum de Maastricht avait déjà révélé un net clivage social et culturel : 80 % des cadres supérieurs et 61 % des cadres moyens avaient voté " oui ", contre 63 % des agriculteurs, 61 % des ouvriers et 58 % des employés, favorables au " non ". En outre, 70 % des diplômés de l'enseignement supérieur et 53 % des titulaires du baccalauréat avaient approuvé le traité ; 61 % des diplômés d'un BEPC/CAP et 54 % des sans diplômes l'ayant rejeté.
+Les enquêtes, notamment celles menées par la Commission (Eurobaromètre) à l'échelle européenne, soulignent le même clivage entre soutien et rejet de l'Europe selon le niveau d'études et de revenu. Ainsi l'Eurobaromètre publié en avril 2001 montre-t-il une différence de soutien notable entre les Européens interrogés ayant quitté l'école à quinze ans (41 %) et ceux ayant arrêté les études à temps plein à l'âge de vingt ans ou plus (62 %). Cette différence est du même ordre sur le plan social : les cadres sont 63 % à soutenir l'UE, tandis que les travailleurs manuels, les personnes au foyer et les chômeurs sont seulement 44 %. Les données publiées depuis le début des années 1980 montrent que ces clivages sont plutôt constants. Les résultats des sondages sont identiques en France en ce qui concerne le soutien ou le rejet de l'Europe par les Français.
+En fait, au-delà des thèmes de la mondialisation et de la construction européenne, c'est bien la question de l'ouverture économique et culturelle du pays, et celle des valeurs que celle-ci véhicule, qui semble faire l'objet d'opinions contrastées dans les sondages. Les enquêtes tendent à montrer, par exemple, que la perception de la construction européenne est plus ou moins liée à une représentation plus globale du monde fondée sur l'ouverture ou la fermeture, tant en ce qui concerne les valeurs, l'étranger ou la vision du monde. Ainsi, les personnes opposées à l'Europe se montrent plutôt favorables à des valeurs autoritaires. Elles privilégient l'appartenance nationale et développent une vision assez pessimiste du monde. Les pro-Européens, au contraire, défendent plutôt des valeurs libérales, apparaissent plus ouverts et ont une vision assez optimiste du monde. On peut légitimement supposer que cette représentation globale influe également sur la perception de la mondialisation.
+Ces préoccupations face à la mondialisation, ce clivage entre élites et opinion et cet écart, au sein de cette dernière, entre, d'une part, des catégories relativement plus favorisées, optimistes et ouvertes, et, d'autre part, des catégories relativement plus défavorisées, pessimistes et fermées, sont à prendre en compte de manière sérieuse par les instances représentatives traditionnelles et par les gouvernements. Certes, la mondialisation n'est pas la cause de l'ensemble de ces phénomènes. Cependant, elle tend à les aggraver et à cristalliser la plupart des frustrations. De ce point de vue, elle a des conséquences certaines sur la démocratie représentative dans les pays industrialisés et constitue, d'une certaine manière, un risque, dans la mesure où de nouveaux groupes contestataires ou mouvements politiques, quelquefois radicaux et populistes, sont susceptibles d'exploiter ces frustrations. Leur retentissement actuel réside en effet, en grande partie, sur la concomitance de leurs critiques et des préoccupations manifestées par les opinions publiques face à la mondialisation, telles qu'elles sont perceptibles dans les sondages, notamment lors d'événements particuliers, par exemple l'annonce de fermetures d'usine (comme ce fut le cas au printemps 2001 avec les décisions du groupe Danone et de Marks & Spencer).
+La prise en compte des intérêts et des souhaits des catégories défavorisées apparaît dès lors comme l'un des enjeux clefs, tout particulièrement pour les mouvements progressistes. Le débat au sein de la majorité plurielle en France, dans la perspective des élections présidentielles et législatives de 2002, ou au sein du parti démocrate durant la dernière campagne présidentielle aux États-Unis en sont, ou en ont été, les révélateurs.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Politique étrangère 3/2001
+Les relations entre mondialisation et démocratie sont pour le moins ambiguës, d'autant qu'elles donnent souvent lieu à des analyses réduisant la seconde à la seule « démocratie de marché ». La démocratie a en effet deux dimensions : elle est à la fois procédure et culture. La mondialisation favorise sans doute le développement d'une démocratie mondiale en tant que procédure : élections libres et alternance politique sont devenues le modèle politique de référence. Mais ce mode de gouvernement n'est qu'une dimension de la démocratie, une condition nécessaire mais pas suffisante, car une véritable culture démocratique se construit sur le « temps long » et ne peut se limiter aux procédures électorales. À cet égard, le « temps mondial » pense la démocratie comme un phénomène anhistorique, un « espace de services à la carte » mis à disposition de chaque individu. La mondialisation tend ainsi à réduire la démocratie à une revendication exigible immédiatement, qui délégitime l'idée de la démocratie comme construction collective d'une nation, lente, singulière et complexe.
+La recherche d'une corrélation entre mondialisation et démocratie n'est pas très aisée. Naturellement, si l'on pose le problème - en termes normatifs ou idéologiques, le débat s'éclaire de lui-même. On peut en effet identifier toute une série d'éléments qui militent en faveur d'une corrélation positive entre mondialisation et démocratie, surtout si l'on se place dans le contexte politique mondial de la fin de la guerre froide.
+Inversement, il est tout aussi aisé de repérer des facteurs qui tendent à dévitaliser la démocratie en raison de la mondialisation du capital qui fait fi des espaces publics nationaux, du déséquilibre croissant entre l'économique et le politique à l'avantage du premier, de la démultiplication des dérèglements sociaux engendrés par la mondialisation, etc. On pense naturellement au développement des mafias, au blanchiment d'argent, aux trafics d'organes, de médicaments ou d'enfants. On pense également à tous ces emplois supprimés sur la base de considérations économiques globales sans que les personnes concernées soient toujours consultées.
+Certes, on pourra arguer du fait que ces différents dérèglements n'ont, d'une certaine manière, rien à voir avec la démocratie, puisque ceux-ci existent aussi dans les pays non démocratiques. De surcroît, il est difficile, par exemple, d'attribuer un licenciement économique à un déficit démocratique, sauf à assimiler la démocratie à l'idée de justice. Pourtant, cette relation de causalité n'est pas non plus totalement incongrue si l'on admet que la mondialisation entretient un sentiment de dépossession chez les individus, qui, directement ou indirectement, perdent confiance dans la démocratie en tant que lieu d'expression de choix et de préférences. De surcroît, les pays riches ont beaucoup plaidé, depuis la fin de la guerre froide, en faveur d'une interaction entre démocratie et marché : c'est la fameuse démocratie de marché. Or, dans ce cas, il devient tentant de mêler dans son appréciation les facteurs qui relèvent du marché et ceux qui sont imputables à la démocratie. En outre, l'imaginaire consumériste gagne le champ du politique et de sa représentation. La démocratie est de plus en plus identifiée à un marché où les élections tiennent lieu d'acte d'achat.
+Ceci étant, ces jugements de valeur, si importants soient-ils, ne nous aident pas à progresser. D'une part, parce qu'ils se situent sur un registre normatif, voire moral. D'autre part, parce que le catalogue des articulations positives (la mondialisation favorise la démocratie) peut largement être compensé par un catalogue tout aussi fourni d'articulations négatives (la mondialisation détruit la démocratie). Pour sortir du dilemme, deux approches sont alors possibles. La première, de nature quantitative, consisterait à mesurer les corrélations concrètes, par pays, entre mondialisation et démocratie. On pourrait par exemple croiser le degré d'ouverture des économies avec l'existence d'élections libres et concurrentielles. À notre connaissance, ce travail n'a jamais été effectué. Mais on peut compter sur le dévouement des " quantitativistes " pour se livrer à un tel exercice. En réalité, les études les plus nombreuses de ce type de corrélation ont généralement porté sur le lien entre démocratie et développement. Mais les conclusions tirées de ces études sont loin d'être univoques.
+Les études de Sirowy et Inkeles publiées en 1991 concluent à l'idée d'une corrélation négative entre développement et démocratie. Empiriquement, ce constat ne paraît pas aberrant. Il suffit pour cela de se tourner vers l'Asie du Sud-Est et de voir qu'en Corée, à Taiwan ou à Singapour, le décollage économique s'est effectué sous la double contrainte de la guerre froide et de l'autoritarisme. Au demeurant, l'autoritarisme politique ne conduit pas nécessairement à l'arbitraire ou au favoritisme systématique. Pranab Bardhan souligne à cet égard, en s'appuyant toujours sur l'exemple asiatique, que la prévisibilité de l'action publique est plus importante que la responsabilité (accounta-bility), notamment pour les investisseurs. Ce fut le cas de Taiwan et de l'Indonésie, parce que les dirigeants avaient une certaine vision de l'intérêt général et une capacité à arbitrer, même brutalement, entre des intérêts particuliers contradictoires. Ce problème des institutions est reposé aujourd'hui dans le contexte de la mondialisation, qui oblige précisément les sociétés à effectuer des arbitrages sociopolitiques importants au fur et à mesure qu'elles s'ouvrent à la compétition. Mais le degré d'institutionnalisation de ces arbitrages n'est pas nécessairement indexé sur l'existence d'institutions démocratiques.
+Quoi qu'il en soit, si les analyses de Sirowy et d'Inkeles concluent à une corrélation négative entre démocratie et développement, celles de Campos, qui remontent à 1994, tendent à des conclusions contraires. Ces constatations empiriques contradictoires sont renvoyées dos à dos par Przeworski et Limongi. Pour eux, il n'y a tout simplement pas de lien de causalité entre démocratie et développement. Il y a, bien sûr, interdépendance, mais les termes de celle-ci sont très variables. Au demeurant, ces corrélations n'ont aucun sens si elles ne sont pas évaluées et réévaluées dans le temps. Si l'on prend le cas de la Corée, il est indéniable que son décollage s'est effectué sans démocratie. Mais il paraît tout aussi évident que la poursuite de son développement semble impensable sans démocratie. Pourquoi ? Tout simplement parce qu'entre-temps, le " temps mondial " a fait son oeuvre. Autrement dit, la fin de la guerre froide et la mondialisation ont accru la légitimité de la démocratie politique et délégitimé concurremment l'autoritarisme.
+Tout ceci pour dire que, si les approches quantitatives présentent certains avantages empiriques, elles ne règlent pas les biais méthodologiques auxquels elles restent redoutablement soumises. C'est pourquoi, et sans prétendre répondre à la question dans toute son épaisseur, nous proposons de poser le problème de l'articulation entre démocratie et mondialisation d'une autre façon, c'est-à-dire en introduisant une distinction essentielle entre deux dimensions de la démocratie : la démocratie comme procédure, c'est-à-dire un dispositif capable d'assurer le changement des équipes dirigeantes au travers d'élections libres ; et la démocratie comme culture, c'est-à-dire un ensemble de règles formelles et informelles assurant à travers le temps la libre expression des opinions et des intérêts et leur recoupement dans des conditions équitables. Pour simplifier, on pourrait dire que la démocratie comme procédure renvoie au respect de certaines règles du jeu, tandis que la démocratie comme culture s'apparenterait au respect de règles de vie intériorisées, exprimant une confiance raisonnable en la capacité de la démocratie à garantir pluralisme et équité.
+Or, l'hypothèse que nous voulons faire est la suivante : si la mondialisation accroît indiscutablement la légitimité et parfois l'effectivité de la démocratie comme procédure, elle ne garantit en aucune façon le développement d'une démocratie comme culture. On peut même aller plus loin en disant que la mondialisation renforce la première au détriment de la seconde. Une des raisons essentielles de cette différenciation résulte du rapport au temps. La démocratie comme procédure cadre parfaitement avec la dynamique d'un temps mondial qui valorise le présent, l'immédiat et le visible. La démocratie comme culture n'est en revanche pas en prise avec le temps mondial, car elle a besoin de temps. Elle n'est de surcroît pas immédiatement ou clairement identifiable. Elle est toujours relative et, par-là même, contestable. La prise en charge de la question démocratique par la communauté internationale renforce encore ce hiatus. On peut à peu près dire si des élections dans tel ou tel pays sont libres - et, le cas échéant, stigmatiser les contrevenants ; en revanche, on peut difficilement évaluer la réalité d'une culture démocratique. On imagine fort bien une délégation du Congrès américain tancer tel ou tel dirigeant pour ne pas respecter la démocratie ; on l'imagine moins évaluant la culture démocratique de ce même pays.
+Commençons tout d'abord par donner une définition succincte de la mondialisation qui constitue la toile de fond de notre propos. Il s'agit pour l'essentiel d'un processus d'intensification des relations sociales planétaires, qui se traduit par une disjonction croissante entre l'espace et le temps. Qu'est-ce à dire ? Que les lieux où se déroulent les événements sont géographiquement de plus en plus éloignés des lieux où leurs conséquences s'expriment. Dans une société traditionnelle, l'espace dans lequel vit et se meut l'individu est un espace physique généralement limité. Tout ce qu'il voit et tout ce qu'il fait a pour cadre le village où il est né. Son horizon spatio-temporel est donc très limité. Dans une société moderne, cet espace de référence s'élargit pour toute une série de raisons, dont la plus importante est la spécialisation croissante des rôles et des fonctions. À partir du moment où l'on ne fait pas tout soi-même, on est obligé de s'adresser à d'autres pour obtenir certains biens et services.
+La mondialisation intervient donc comme un processus d'élargissement de l'espace de référence dans lequel les acteurs sociaux s'insèrent. Ainsi, en l'espace de dix ans, par exemple, l'espace de référence des entreprises françaises s'est déplacé de l'Europe vers le monde. En dix ans, le fait de s'européaniser s'est trouvé dépassé par la nécessité de se mondialiser. Mais ce qui illustre le mieux la disjonction entre l'espace et le temps, c'est le fameux exemple des fonds de pensions. Par leur entremise, des retraités californiens peuvent influencer l'emploi à Argenton. Or, les raisons qui poussent par exemple un fonds de pension à se retirer d'une entreprise ne seront que très rarement liées au contexte particulier de l'usine d'Argenton. Si nous insistons sur cette notion de disjonction entre l'espace et le temps, c'est précisément parce qu'elle crée un sentiment de dépossession : dépossession des ouvriers et employés d'une usine qui se trouvent licenciés même s'ils n'ont pas démérité ; dépossession des acteurs politiques qui ne peuvent guère interdire de telles stratégies. Or, même si ce débat n'a a priori rien à voir avec la démocratie, la corrélation est dans les faits beaucoup plus forte qu'il n'y paraît. La dépossession ou le sentiment de dépossession face au changement économique altère la confiance dans les systèmes démocratiques qui fonctionnent sur des bases territoriales nationales. Comme le rappelle fort justement Ian Shapiro, la légitimité de la démocratie s'atrophie si l'amélioration des conditions dans lesquelles on la sollicite n'est pas au rendez-vous.
+À partir de là, comment penser l'articulation entre démocratie comme procédure et mondialisation ? La démocratie comme procédure correspond à ce que Przeworski appelle la définition minimale de la démocratie. Par définition minimale de la démocratie, il entend la possibilité de choisir ses dirigeants au travers d'élections libres. C'est, à peu de choses près, la définition que donnait Schumpeter de la démocratie. C'est aussi celle de Popper, qui voit dans la démocratie le seul système capable de débarrasser une société de ses dirigeants sans bain de sang.
+Cette définition minimaliste conduit donc à dire que la démocratie est la forme la plus légitime d'organisation des sociétés et que la valeur de cette légitimité est vérifiée au travers des élections. Or, sur cette définition minimaliste de la démocratie, la mondialisation a indiscutablement des effets très nombreux.
+Si l'on pense, tout d'abord, la mondialisation en relation avec la chute du mur de Berlin, on n'a guère de peine à voir qu'elle a indiscutablement accru la légitimité de la démocratie représentative, parce que les régimes politiques qui prétendaient expérimenter une autre voie ont échoué sur à peu près tous les plans. C'est pour la démocratie une victoire par défaut. Mais le " par défaut " n'est pas à négliger. Par voie de conséquence, la distinction entre " démocratie formelle " et " démocratie réelle " s'est effondrée. Cette distinction marxiste entre la " vraie " et la " fausse " démocratie est ainsi totalement disqualifiée, car les tenants de cette distinction n'ont réussi à promouvoir ni l'une ni l'autre de ces dimensions. À notre connaissance d'ailleurs, même les partis d'extrême gauche qui se réclament encore du communisme ne revendiquent plus cette distinction. Ils prétendent naturellement ne nourrir aucune illusion sur la " démocratie représentative ", mais ils ne la rejettent plus. Même dans les pays musulmans où certains mouvements islamistes prennent des postures anti-occidentales, la relation à la démocratie demeure plus subtile. Sauf, naturellement, lorsqu'ils recourent à la violence, les mouvements islamistes ne récusent pas les élections, et ceci pour au moins une raison pratique : elles leur sont généralement profitables.
+La deuxième conséquence de la mondialisation est d'avoir considérablement réduit la légitimité de ce que l'on a appelé les " démocraties spécifiques ". La conjonction des idéologies nationalistes du Tiers monde et du marxisme avait conduit à valoriser les formes " nationales " de démocratie par opposition aux démocraties occidentales. Certes, on a vu se développer ces dernières années des revendications démocratiques particularistes face à ce qui apparaissait être une hégémonie occidentale. C'est le cas de certains régimes conservateurs d'Asie du Sud-Est et de mouvement islamistes. Les premiers parlent de " valeurs asiatiques " et les seconds de " démocratie islamiste ". Mais, dans les deux cas, il est intéressant de voir que c'est désormais la culture et non pas la nation qui est opposée à la démocratie occidentale. Comme si la mondialisation avait, là aussi, fait son oeuvre. Elle rendrait plus difficilement tenable la résistance nationale à une problématique mondiale. Par ailleurs, à Singapour comme en Iran, la réalité est bien plus complexe.
+Singapour reste une société très autoritaire où la culture démocratique demeure probablement relativement faible. Mais, malgré le discours sur les " valeurs asiatiques ", le caractère compétitif des élections s'y est accru. Autrement dit, la démocratie comme procédure a gagné du terrain. Dans ce contexte, le discours sur l'" asiatisme " semble surtout destiné à freiner certaines évolutions sociales et culturelles dans des sociétés autoritaires (Singapour, Malaisie) ou à cimenter une unité politique de l'Asie qui reste extrêmement problématique. Le paradoxe est que la quasi-totalité des concepteurs de l'" asiatisme " sont des intellectuels asiatiques vivant aux États-Unis, comme Tu Weiming, intellectuels dont les travaux sont relayés, vulgarisés et instrumentalisés par des acteurs politiques locaux. En Iran, l'évolution est très différente mais tout aussi intéressante. Même si elle est encadrée, la démocratie procédurale a gagné du terrain. Personne ne conteste le caractère démocratique de l'élection de M. Khatami. Et même ses adversaires conservateurs ne peuvent s'opposer à la tenue d'élections compétitives.
+Tout ceci ne signifie naturellement pas que les cadres nationaux dans lesquels se construit la démocratie procédurale sont identiques, mais que l'opposition à la démocratie en tant que valeur apparaît de moins en moins légitime. Même dans les pays pauvres, où la démocratie pouvait apparaître comme un luxe, la légitimité de ce discours est en net recul. Amartya Sen a d'ailleurs montré dans ses nombreux travaux que l'existence de procédures démocratiques ne peut pas être identifiée à des structures purement formelles : " À de nombreux indices, on sait que la baisse significative du taux de fertilité dans les États les plus alphabétisés de l'Inde résulte pour une bonne part des débats organisés à ce sujet ".
+En fait, l'analyse de Sen revient à dire que le formel finit par embrayer sur le réel, que la procédure finit par devenir affaire de culture. Cette interprétation s'inscrit toutefois dans une temporalité relativement longue. Sen parle de son pays, l'Inde, où la démocratie procédurale, précisément, est implantée depuis fort longtemps. Or ; s'il y a une dimension absente dans la mondialisation, c'est bien celle du temps long.
+Depuis la fin de la guerre froide, la plupart des pays occidentaux ont mis en place une " conditionnalité politique " qui conduit à lier soutien économique et politique au " respect de la démocratie et des droits de l'homme ". Il faudrait naturellement s'interroger sur le lien entre droits de l'homme et démocratie. Mais ce débat nous entraînerait trop loin. Indiquons simplement ici que le développement de cette " conditionnalité politique " prend les formes d'une injonction démocratique. Injonction où le " démocratisez-vous " se substituerait au " enrichissez-vous ". Or, parce que l'affichage est plus important que le résultat effectif, l'injonction démocratique conduit à surestimer la démocratie procédurale. Pour l'essentiel, on exige la tenue d'élections à peu près libres. Et même si elles ne le sont pas totalement, on considère que le fait qu'elles se tiennent est en soi un progrès.
+Cette injonction fait naturellement l'objet d'une instrumentalisation de la part de ceux à qui elle s'adresse. D'où la généralisation des élections sur à peu près toute la surface de la terre. Cela est particulièrement frappant en Afrique où peu d'élections concurrentielles se tenaient avant 1989. C'est aussi le cas du monde arabe où, sauf en Arabie Saoudite, les élections sont généralisées.
+Pourtant, dans aucun de ces pays les élections n'ont débouché sur un changement politique. Cette contradiction s'explique par le fait que ces élections ne sont que très imparfaitement libres. Tel est le cas de la Tunisie, où l'intimidation politique des opposants est permanente et où, symboliquement, le président sortant a été réélu avec un pourcentage de voix supérieur à la fois précédente, alors que, formellement, les dernières élections étaient pluralistes et que celles d'avant ne l'étaient pas. On peut donc dire dans ce cas que la démocratie comme procédure n'est même pas installée. Mais cette explication ne suffit pas. Il est probable que la faiblesse de la relation entre élections et changements de régime tient au fait que les véritables détenteurs du pouvoir ne participent pas aux élections. C'est notamment le cas des monarchies, qui n'ont de constitutionnel que le nom, même si, dans les faits, des élections compétitives ont bien eu lieu (Jordanie, Maroc, Koweït).
+En réalité, il faudrait définir la démocratie minimaliste comme la procédure au moyen de laquelle les citoyens peuvent nominalement changer d'équipes dirigeantes, quand ce changement est perçu par celles-ci, avant même les élections, comme un risque politique majeur de perte d'accès au pouvoir et aux ressources qu'il offre. La démocratie deviendrait ainsi la procédure par laquelle l'espoir d'un changement d'ordre politique garanti par les urnes serait corrélé à une peur réelle de perdre le pouvoir de la part de ceux qui le détiendraient. La démocratie naîtrait quand, dans une société donnée, la peur de perdre le pouvoir par les élections remplacerait celle de le perdre par un putsch militaire ou une émeute.
+Naturellement, une telle définition apparaît, à bien des égards, comme très subjective. Mais elle n'est pas nécessairement dénuée d'intérêt ou de valeur. Si l'on prend l'exemple du monde arabe, on constate que l'adéquation entre espoir des dirigés et inquiétude des dirigeants ne se retrouve dans aucun pays. Les rares fois où cette configuration était de nature à voir le jour, le processus politique n'a pas été conduit à son terme. Certes, la relation entre l'espoir et l'inquiétude n'est jamais stable. L'espoir des dirigés peut tourner au désespoir et l'inquiétude des dirigeants se révéler totalement exagérée. C'est par exemple ce qui se passe actuellement en Indonésie, où la vieille garde de Suharto chassée du pouvoir revient progressivement sur le devant de la scène face à l'instabilité générale et à la division des anciens opposants. En Afrique, on a vu de nombreux dirigeants revenir au pouvoir après quelques années de purgatoire. Mais cette réversibilité ne change rien à l'affaire. L'élément essentiel pour juger du sérieux du sens démocratique est et reste l'incertitude.
+Un pays entre véritablement en démocratie quand, à chaque élection, une équipe sortante craint de perdre le pouvoir et concède, le cas échéant, qu'elle l'a perdu. Le Mexique est rentré dans l'ère démocratique le jour où le PRI au pouvoir depuis soixante-dix ans a concédé ce même pouvoir à l'un de ses opposants. De ce point de vue, l'élection de Vicente Fox en 2000 a achevé un cycle de transition engagé en 1989, quand, pour la première fois, un parti de l'opposition réussit à gagner des élections locales. Il est extrêmement frappant de voir l'importance que les élections, même locales, revêtent dans ce pays où, par ailleurs, les dérèglements sociaux minent la crédibilité du système politique. C'est d'ailleurs en Amérique latine que la démocratie procédurale a beaucoup gagné de terrain, comme l'a montré le caractère très disputé des dernières élections péruviennes.
+Dans cette dimension procédurale de la démocratie, la mondialisation peut apporter beaucoup, précisément parce qu'il existe toute une ingénierie technico-politique disponible pour aider des pays en transition à préparer des élections et à en garantir la transparence. Il existe de par le monde toute une série d'instituts et d'associations spécialisés dans l'assistance technique à la démocratie. S'y ajoute le fait que le " label démocratique " est aussi une ressource politique pour accéder aux ressources mondiales.
+Nous avons jusqu'ici parlé de la démocratie comme procédure, c'est-à-dire comme dispositif capable de promouvoir le changement politique au travers d'élections. Il nous faut passer à une deuxième dimension du problème qui est celui de la démocratie comme culture. Là, les choses se compliquent de façon singulière. Que faut-il entendre par l'idée de démocratie comme culture ? Essentiellement, le fait que la démocratie n'est pas seulement une technique garantissant une alternance potentielle par le biais d'élections, mais de toute une série de pratiques institutionnelles ou non institutionnelles capables de garantir la représentation équitable des intérêts et leur expression en dehors des élections. Autant la démocratie comme procédure doit reposer sur l'incertitude de perdre le pouvoir ou de le gagner, autant la démocratie comme culture doit garantir la prévisibilité et l'équité du contexte dans lequel la compétition aura lieu. La démocratie comme culture renvoie aussi à la notion de performance. La démocratie doit permettre d'atteindre certains objectifs collectifs. La démocratie peut être alors identifiée à la forme optimale de recherche d'un bien commun par des voies pacifiques et concurrentielles.
+Or, sur ce plan, il est incontestable que la mondialisation modifie singulièrement les données du problème, précisément parce que la " déterritorialisation " qui l'accompagne rend plus difficile la définition du bien commun. Certes, le clivage entre la démocratie comme culture et la démocratie comme procédure n'est pas toujours très clair. La construction d'un État de droit relève autant de l'une que de l'autre. La croyance dans la fiabilité des procédures démocratiques et leur intériorisation est un élément important de la culture démocratique. La démocratie comme culture apparaît ainsi comme un contexte social, culturel et éthique dans lequel un citoyen aura le sentiment que ses attentes ou ses intérêts peuvent trouver un débouché non seulement lors des élections, mais en dehors de celles-ci.
+Mais la démocratie comme culture va bien au-delà du respect des droits de l'homme. Elle passe par la mise en place d'un État de droit et d'un espace public capable de lui servir de support. On pourrait pousser le paradoxe en disant qu'une culture démocratique est une culture qui n'a pas besoin d'attendre les élections pour s'épanouir ou être vécue comme telle. Or, ce que l'on constate dans la plupart des pays, c'est une distorsion entre la démocratie comme procédure et la démocratie comme culture. Ce hiatus est de nature temporelle. La démocratie comme procédure peut se mettre en place rapidement. La démocratie comme culture a besoin de temps. Dans les pays sans tradition démocratique, où l'on avait l'habitude de se soumettre ou de prendre les armes pour se révolter, le jeu démocratique, qui implique concessions, arrangements et compromis, ne peut pas s'imposer en un jour. C'est la raison pour laquelle on voit tant de partis politiques se réclamant de la démocratie fonctionner de manière parfaitement anti-démocratique. Par ailleurs, l'accent mis à l'échelle mondiale sur le respect des droits de l'homme tend parfois à mettre l'accent sur les droits individuels en occultant les problèmes de constitution d'un espace public démocratique. Or, la création d'un espace public implique un dépassement de la simple revendication des droits individuels. Elle suppose une réflexion sur la dimension collective des droits ainsi que sur les devoirs attachés à l'accès à ces droits. Et sur ce plan, bien des efforts de réflexion doivent être menés. Surtout lorsque l'on voit combien est grande la confusion permanente entre démocratie et droits de l'homme.
+En réalité, la " démocratie comme culture " ne peut exister et faire sens que sur le long terme. Par long terme, nous voulons non seulement dire qu'il faut du temps pour qu'une culture démocratique éclose, mais souligner aussi que l'exercice de la démocratie prend du temps, comme l'a bien montré Juan Linz. Il faut du temps pour consulter les différents acteurs, ajuster leurs préférences et réfléchir aux conséquences des choix que l'on effectue, et cela sans garantie de réussite ou de succès. La culture démocratique implique non pas un relativisme des valeurs, mais l'acceptation du caractère aléatoire des choix que l'on fait. Une des façons de réduire cet aléa est, par exemple, d'effectuer des choix de manière consensuelle. Or, dans les sociétés d'Europe du Nord ou en Suisse, le consensus passe par la délibération, et la délibération prend du temps. Et s'il y a bien, à l'échelle mondiale, un facteur qui gène ce processus d'intériorisation et de valorisation du temps long, c'est bien la mondialisation ou ce que nous appelons le temps mondial.
+En effet, parce qu'il établit des standards implicites ou explicites de légitimité, le temps mondial tend à réduire la démocratie non seulement à une revendication exigible immédiatement, mais aussi à une technique politique capable de dégager des résultats tout aussi rapides. Si l'autoritarisme est assimilé par exemple à la corruption, à l'inégalité et à l'inefficacité, la démocratie est perçue comme la recette magique qui permettra de surmonter tous ces maux. Le temps mondial disqualifie totalement l'idée selon laquelle la démocratie serait un processus historique lent, long et complexe, ce qu'elle fut pourtant en Occident. La puissance de la simultanéité planétaire alimentée par les médias renforce l'attrait d'une " démocratie pour tous " et délégitime violemment l'idée d'une démocratie qui ne serait adaptée que sous certaines conditions.
+Il ne s'agit pas ici de juger de la valeur de cet argument. Ce que l'on peut dire, c'est que la mondialisation en tant que temporalité fondée sur la simultanéité et l'instantanéité se montre indifférente à la notion de démocratie comme construction historique. Le temps mondial contribue à penser la démocratie sur un mode purement procédural et parfaitement anhistorique. D'où ce décalage entre procédure et culture dont nul ne dit s'il se réduira avec le temps. Voici, à ce propos, ce que dit Elemer Hankiss de la Hongrie : " Les institutions démocratiques fonctionnent de mieux en mieux. Mais les institutions sont plus démocratiques que les citoyens (...). Les populations n'ont pas le sentiment d'être vraiment maîtresses chez elles, elles ne croient pas que les lois sont là pour les protéger et ne pensent pas que ce qu'elles disent est vraiment important (...). Le pouvoir lui, est pressé. Il sait qu'il faut s'adapter vite, très vite, et il considère qu'il n'a pas le temps d'expliquer et de discuter avec tout le monde ".
+On aurait tort de penser, cependant, que cette compression du temps de la démocratie, et donc sa négation partielle comme culture construite dans le temps long, soit propre aux pays en transition. La disjonction entre démocratie comme procédure et démocratie comme culture opère également dans les démocraties occidentales sous l'effet de trois facteurs : la dévalorisation culturelle du temps historique, la montée de l'individualisme, et la prégnance de la logique de marché.
+La dévalorisation culturelle du temps historique est une des formes les plus importantes du temps mondial. Elle est largement liée à l'effondrement des grandes représentations téléologiques de l'histoire et du devenir, au profit de la montée en puissance de la logique de l'urgence. Si l'histoire, et donc le temps long, ne sont plus porteurs de sens, c'est le présent qui devient la temporalité où se réfugie l'attente. D'où la montée en puissance de l'urgence en tant que catégorie de l'action, mais également de la représentation sociale.
+La montée de l'individualisme explique aussi, pour une bonne part, ce rétrécissement temporel, en ce qu'elle valorise la conquête de droits individuels au détriment - parfois - de la préservation ou de la conquête de droits collectifs. Naturellement, cette dichotomie n'est pas si simple. Mais il ne fait guère de doute que l'homo democraticus occidental pense de plus en plus la démocratie à travers sa capacité à " délivrer " (au sens anglais de to deliver) des droits dont il serait le destinataire particulier.
+Naturellement, cette conquête de droits particuliers n'est pas en soi incompatible avec la démocratie. Sauf qu'elle évacue de plus en plus l'idée de responsabilité dans un espace public, en faisant du " vivre ensemble " la simple résultante d'une agrégation d'avantages et d'intérêts particuliers. " L'individu contemporain, ce serait l'individu déconnecté symboliquement et cognitivement du point de vue du tout, l'individu pour lequel il n'y a plus de sens à se placer du point de vue de l'ensemble. On conçoit dès lors en quoi ce type de personnalité est de nature à rendre problématique l'exercice de la citoyenneté ".
+Cette dynamique réduit la valeur projective - au sens de projet - de la démocratie pour la réduire à un " espace de services à la carte " dont chacun mesurerait de manière sourcilleuse les coûts et les avantages. La puissance de ce conditionnement, qui dégage un rapport au monde purement instrumental, se retrouve paradoxalement même dans les " demandes de sens " de nature spirituelle ou religieuse. Olivier Roy, qui a étudié les sites islamistes sur Internet, montre que les " visiteurs " de ces sites n'expriment aucune curiosité pour l'histoire, la littérature ou la culture musulmane au sens large. Leur priorité est de trouver des réponses rapides et concrètes à des questions qu'ils se posent. Généralement, les demandes portent sur ce qui est licite ou illicite pour des musulmans vivant dans des sociétés majoritairement non musulmanes. Naturellement, cet exemple n'est pas directement lié à l'enjeu démocratique. Mais il souligne combien la mondialisation, ici au travers d'Internet, renforce le primat de la procédure - en l'occurrence le code - au détriment de la culture. Il en découle une représentation purement instrumentale de la démocratie et de ceux qui l'incarnent. Du coup, le politique est moins un représentant qu'un prestataire de services. La démocratie devient alors une sorte de salaire de citoyenneté dont la valeur est mesurée à l'aune de son " pouvoir d'achat ". Si l'on n'obtient pas tel ou tel service que l'on attend d'elle, la démocratie apparaît abstraite. Le paradoxe politique est donc de voir resurgir la vieille distinction entre " démocratie formelle " et " démocratie réelle " que la chute du mur de Berlin avait disqualifiée.
+Cette représentation de plus en plus instrumentale de la démocratie se renforce paradoxalement au moment où le cadre national dans lequel elle est logée apparaît de moins en moins capable de répondre à cette attente. Par le jeu précisément de la mondialisation des échanges et des activités économiques, l'espace national perd de sa pertinence pour l'action. La dissociation des intérêts des entreprises et des nations conduit par la force des choses à une séparation croissante entre ordre du marché et ordre des droits de l'homme. Plus préoccupant encore est le fait que la sphère économique tend parfois à considérer certaines préférences collectives exprimées démocratiquement comme des obstacles à son épanouissement. La pression qui s'exerce sur les États au plan fiscal en est l'exemple type. Elle vise non seulement à taxer davantage le travail que le capital mais également à taxer proportionnellement plus les " salariés immobiles " que ceux qui peuvent jouer de leur mobilité professionnelle pour optimiser leur situation fiscale.
+Or il est bien évident que les politiques strictement nationales peuvent contenir mais pas enrayer cette évolution. D'où la nécessité de se doter d'institutions mondiales ou régionales capables de réguler cette situation. Autrement dit, la conséquence majeure de la mondialisation est de créer une demande de démocratie à l'échelle mondiale. Mais la satisfaction de cette demande est extraordinairement difficile à satisfaire. D'une part, parce que le déplacement vers le mondial ne signifie pas l'obsolescence du cadre national. D'autre part, parce que l'on ne sait pas encore comment résoudre la question de la représentation à l'échelle mondiale.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Politique étrangère 3 - 4/2000
+Facteur privilégié de création et d'évolution des ensembles politiques, la guerre a spectaculairement joué, tout au long du XXe siècle, son rôle de remodelage de la société internationale. Elle a aussi changé d'échelle et de forme, passant de la guerre politique à la guerre totale puis de la guerre totale à la guerre froide, sans que cessent de proliférer sur tous les continents les traditionnels conflits ethniques, nationaux, religieux ou territoriaux. Face à cette prolifération accrue n'ont pu se mettre en place les mécanismes de sécurité collective imaginés dans le cadre de la l'ONU. Et la régulation internationale par la force, expérimentée avec la guerre du Golfe puis au Kosovo, ne semble guère en mesure encore d'éviter le bouillonnement guerrier qui ne cesse d'agiter le monde. Peut-être l'espoir d'encadrer enfin la guerre, à défaut de la tuer, deviendra-t-il réalité dans le siècle qui commence ?
+La guerre, affrontement sanglant et organisé entre communautés humaines, est toujours un facteur privilégié de création et d'évolution des ensembles politiques. Il n'y a pas à cet égard de long ou de court XXe siècle, mais plusieurs XXes siècles, où la guerre s'est confirmée comme instrument de remodelage de la société internationale. Pour n'avoir pas inventé grand chose en matière d'horreur guerrière, ce siècle a élargi le spectre des actes regroupés sous le nom de guerre et profondément modifié leur approche philosophique, stratégique ou opérationnelle.
+Dans l'ensemble des phénomènes guerriers du siècle, le plus visible est l'emballement de la logique dite clausewitzienne, qui décrit aux temps modernes les guerres ordinaires, politiques, entre États. Dans les conflits majeurs s'impose spectaculairement la "totalisation" guerrière. Le siècle s'inscrit ici dans une longue dialectique : les épuisements de la guerre de Trente Ans conduisent aux conflits codés de la deuxième moitié du XVIIIe ; à la guerre des masses inaugurée par la Révolution succède un plus calme concert des nations, dépassé bientôt par les premières grandes guerres modernes qu'ouvre la guerre de Sécession. La rupture de l'équilibre des puissances européennes, entre la guerre franco-prussienne et la Grande Guerre, ouvre la course à la prééminence continentale. L'Allemagne post-bismarkienne y privilégie le facteur militaire, et le premier conflit mondial va symboliser une ère nouvelle.
+Le bouleversement des modes d'organisation est ici déterminant. On peut désormais, avec la mobilité du feu, la motorisation et la transmission télégraphique des ordres, former, diriger, déplacer de larges armées. Napoléon commandait à Leipzig 180 000 hommes, soit à peu près un dixième des combattants de Verdun. L'évolution des armements donne à d'immenses armées une efficacité nouvelle. L'invention de la poudre sans fumée (qui permet d'accélérer la cadence de tir), puis du feu à répétition, démultiplie la puissance et la maniabilité du feu. Les guerres entre États européens deviennent des guerres nationales : idéologiquement, socialement, techniquement.
+L'échelle des affrontements possibles s'en trouve modifiée. Pour être horrible (Eylau), la montée aux extrêmes de Napoléon restait limitée. Il s'agit désormais d'affrontements masse contre masse, lutte potentiellement mortelle d'une société contre une autre. Avec un problème vite perçu : comment poursuivre un objectif politique partiel avec un instrument humain et industriel total ? Plus pesante est la mobilisation, plus réduite la souplesse de l'appareil : en 1914, on mobilisera intégralement contre ce qui aurait pu ne relever que d'une dissuasion locale, de Sarajevo aux détroits turcs. Et l'état-major français de 1936 refusera tout maniement limité de la force contre les maigres unités allemandes engagées en Rhénanie.
+La pensée de la guerre se transforme profondément dans les deux premières décennies du siècle. Les plus classiques théorisent l'incandescence de la mobilisation sociale, industrielle, économique ou morale. Foch voit ainsi la guerre moderne comme une apothéose technico-napoléonienne, manoeuvre d'une usine à feux appuyée sur toute la nation. Ludendorf creuse plus loin : sa Totale Krieg n'est que la mise de la société à disposition de la guerre. Il critique avant de l'inverser la " formule " de Clausewitz, parce qu'elle introduit un facteur politique qui bride la puissance guerrière. L'exigence dévoratrice des armées de masse doit primer.
+La Première Guerre mondiale fait pourtant éclater le champ de la bataille. En frappant à distance, le stratège peut ignorer le blocage de la guerre de positions et intervenir systématiquement hors de l'espace militaire. L'avion symbolise cette révolution. Le concept de bombardement stratégique place bientôt les populations civiles au centre de la guerre : l'espace militaire bloqué peut être tourné par des frappes, à l'arrière, sur les ressources vitales et vulnérables de l'adversaire. Giulio Douhet est le plus brillant des théoriciens de cette " guerre intégrale ", qui délocalise le conflit, le diffuse dans l'espace civil et conduit, via les bombardements de la Seconde Guerre mondiale, aux stratégies anti-cités de l'atome contemporain.
+Les armées de Crimée, de Verdun ou d'Hiroshima semblent appartenir à des mondes différents. Mais la manoeuvre des armées n'est pas seule touchée. Progressivement s'imposent de nouvelles stratégies de construction de l'objet industrialo-militaire. Le bricolage d'une économie de guerre à la demande disparaît devant les exigences de la guerre technique. Une véritable stratégie des moyens se met en place, permanente puisqu'il s'agit de construire en masse des objets incessamment renouvelés, puis qui se diffuse dans les secteurs civils. L'exigence militaire fut déterminante pour les chemins de fer prussiens avant 1870. Plus près de nous, les mêmes préoccupations ont pesé lourd dans le développement des matériels aériens, la course à l'espace ou le lancement des technologies de l'information. Cette obsession des moyens s'exprime bientôt par des budgets militaires surdimensionnés. À la fin des années 80, les pays développés dépensaient plus de 70 % des budgets militaires mondiaux. Et du temps de sa splendeur soviétique, Moscou consacrait presque 25 % de son PIB à des activités liées à la défense...
+Si les conséquences sur les sociétés de la métamorphose des opérations guerrières ne sont perçues que sur le long terme, le bouleversement de la hiérarchie des puissances du concert européen est, lui, immédiatement visible. Saignée humainement, économiquement et moralement par la Grande Guerre, contrainte de reconnaître qu'elle ne peut plus se défendre seule, la France est prise entre une Grande-Bretagne rétive à toute coalition permanente et une Allemagne trop forte pour être docile ou trop faible pour payer les réparations. L'Allemagne va encore miser dans les années 30 sur la force militaire pour finir au désastre humain et moral que l'on sait. La Russie sort exsangue du premier conflit mondial puis réintègre le circuit international à l'issue du second. L'Angleterre s'épuise de 1940 à 1945 pour être marginalisée dans un nouveau jeu que dominent une puissance des confins européens et une puissance extérieure à l'Europe. C'est la Première Guerre mondiale qui expose la capacité économique des États-Unis (traduite par une logistique qui dominera tous les grands conflits du siècle), ainsi que leur volonté d'intervenir dans les espaces-pivots du monde. C'est la seconde qui cristallise l'URSS comme grande puissance et dessine son assise impériale en Europe. En annonçant le club de la superpuissance.
+Nombreuses sont les conséquences de ce bouleversement d'une hiérarchie mondiale qui jouait depuis trois siècles. Des alliances d'un type nouveau se créent. Organisation inédite de l'espace européen, l'Alliance atlantique est très loin des évanescentes coalitions du début du siècle. La coexistence européenne s'ébauche dans les années 50, ouvrant une des plus étonnantes aventures politico-juridiques des temps modernes. Plus largement, on tente de substituer l'idée de sécurité avec l'autre à celle de l'imposition de la force à l'issue de chacun des cataclysmes guerriers. La SDN échoue parce qu'elle ne se donne pas les moyens d'identifier l'agresseur ou de l'arrêter, quand nombre de pays ont des problèmes concrets de sécurité. L'ONU souffre, elle, de l'incapacité de son " conseil d'administration " à fonctionner comme tel et de son absence de moyens. D'énormes appareils militaires sont nés de la course à la guerre totale, diffusant leur modèle militaire de la puissance ou leurs armes. Les idées d'universalité, de sécurité collective, représentent néanmoins un héritage essentiel de ce temps pour toute réflexion sur l'organisation future du monde.
+La révolution du siècle est bien la guerre totale, qui fournit à la guerre nationale le moyen de sa folie. L'irruption de l'atome résume cette étape en la dépassant. Comme tout moyen de guerre nouveau, l'atome est d'abord pensé avec de vieux concepts. Il couronne les bombardements stratégiques, donnant aux théories des années 20 une traduction concrète. L'idée de la guerre nucléaire aura la vie longue en Chine et en URSS, où l'on planifie les frappes massives, aux États-Unis, où l'on pense une nouvelle " victoire ", et en France même, comme en témoigne la capacité de survie du nucléaire tactique.
+L'atome thermonucléaire dépasse pourtant la guerre totale. Annonçant l'exclusion des deux joueurs de la rationalité à laquelle voulait les cantonner Clausewitz, il élimine " la guerre comme instrument de rémunération de la politique ". Pour limité qu'on imagine l'effet de telle arme nucléaire, nul n'a jamais déployé avec elle la garantie interdisant de passer au stade supérieur. La perspective des destructions possibles et l'incapacité à maîtriser l'escalade produisent ensemble une dissuasion nucléaire sui generis, dont tous les membres du club atomique respecteront les codes. L'imaginaire de guerre, sans guerre, crée le monde de la guerre froide.
+Le discours sur le futur, sur ce qui adviendrait en cas de passage à la violence, est d'autant plus important que le saut apparaît plus lointain. Tout ce qui précède l'usage de l'arme sur le champ de bataille devient donc un enjeu stratégique capital. Le temps de paix, entré en stratégie par les exigences de la guerre industrielle, occupe désormais une place centrale. Dans cette stratégie déclaratoire étendue aux confins de la stratégie elle-même prolifèrent les traités tentant de raisonner la déraison nucléaire et s'affirment la course aux armements et l'équilibre de la terreur. C'est l'énorme capacité de destruction nucléaire qui fait apparaître raisonnable le déploiement d'autres armes, pour une hypothétique guerre limitée. Mais ce rêve de limiter le risque sous ombrelle nucléaire ainsi que le mimétisme soviétique face à des États-Unis jouant la carte technologique conduiront à la plus extravagante accumulation d'armes jamais connue.
+C'est la Seconde Guerre mondiale qui définit les nouvelles puissances et ébranle les empires. L'atome, lui, gèle les zones d'influence sur le Vieux Continent et dessine une géographie stratégique qui durera quatre décennies. Au centre, les espaces sanctuarisés ou couverts par la dissuasion élargie : ici, la guerre serait déraisonnable et les militaires n'interviennent que dans leur propre camp. En bordure, des arrière-cours où les intérêts des puissances ne sont pas sérieusement défiés par l'autre (par exemple en Amérique latine). Quelques zones à statut stratégique particulier peuvent aussi être isolées : le Moyen-Orient, bien sûr, ou d'autres moins visibles, en Asie par exemple. Au-delà, mers ou terres libres d'un trop gros danger demeurent des espaces de manoeuvre. Exclusion de la guerre ici, évitement de l'Autre ailleurs, là où la confrontation reproduirait un face à face maîtrisé seulement en Europe. Les fameuses guerres par procuration (Viêtnam, Afghanistan) opposent donc l'intervention lourde de l'une des superpuissances à l'action indirecte de l'autre.
+La guerre froide (non-guerre chez nous, dérivation des conflits chez les autres - par exportation d'armes ou de kits idéologiques réinterprétant les problèmes locaux -, évitement partout de la confrontation directe) donne aussi naissance, dès la première moitié des années 60, à une pratique diplomatico-stratégique nouvelle : l'arms control. Le missile balistique intercontinental désenclave le territoire américain pour la première fois depuis plus de cent ans. Leur vulnérabilité intègre définitivement les États-Unis au jeu stratégique mondial et les contraint à ordonner leur face-à-face avec Moscou. L'arms control entend créer une culture de la superpuissance à partir du seul intérêt irréductiblement commun : la limitation du danger. On s'entendra sur les règles de gestion de l'instrument du danger au lieu de s'enfermer dans une logique impuissante de désarmement général : accords de transparence ou de limitation des arsenaux.
+S'agit-il du co-gouvernement du monde que dénonceront les Français au début des années 70 ? Cette idée de cogestion d'un temps dangereux, sous une autre forme, autorisera en Europe la percée de la Conférence sur la sécurité et la coopération en Europe (CSCE). Le long processus ouvert à Helsinki en 1972 s'organise autour de trois idées, dictées par la suraccumulation des armements en Europe. La sécurité est un objet composite, d'où l'idée de diverses corbeilles de négociation. La sécurité se crée d'abord dans les têtes, même si elle s'inscrit aussi dans les objets militaires, d'où l'importance des procédures de création de confiance qui permettront d'abaisser la garde militaire. La sécurité peut être gérée régionalement, d'où la réunion de tous les acteurs de la sécurité européenne. Avec ses complexités et ses impuissances, la CSCE est bien l'un des objets diplomatiques les plus intéressants de ce dernier demi-siècle.
+Utilisé deux fois, l'atome rentre vite dans le silence. La technique, qui démultiplie sa force destructrice, permet ainsi le gel de la guerre froide et une nouvelle hiérarchisation de la puissance. Elle modèle en même temps des dialogues internationaux spécifiques. Au-delà des exemples déjà cités, le Traité de non-prolifération (TNP) sera sans doute le premier acte quasi universel à reconnaître une inégalité flagrante (entre les have et les have not) pour créer de la sécurité pour tous.
+Hors théâtre nucléaire survient l'autre mutation capitale : l'explosion de l'espace colonial et l'universalisation de la forme étatique. À la fin du XIXe siècle, en l'espace d'une génération, Grande-Bretagne, France, Allemagne, Italie, Espagne, Portugal, Belgique et Pays-Bas avaient ajouté à leurs territoires métropolitains plus de trois fois la superficie des États-Unis. Écho de quelques soubresauts de l'entre-deux-guerres, l'écroulement colonial fait passer le nombre des États membres de l'ONU de moins de 50 à près de 200 en quelques décennies.
+Les conflits mondiaux exhibent la faiblesse des nations colonisatrices, leur impuissance à maintenir l'ordre et leur dépendance vis-à-vis des empires. La Première Guerre mondiale enrôle les coloniaux dans les armées métropolitaines. La seconde valorise l'espace arrière, empire français ou britannique. Sur l'humiliation du colonisateur prospère l'idée anticoloniale que la surpuissance américaine propage elle-même durant la guerre.
+Si la violence guerrière fait lever le vent qui balaie, de 1945 à 1975, les empires coloniaux, elle n'est pas toujours le vecteur de la libération. Pour l'ensemble des États nés depuis 1945, les guerres de décolonisation sont peu nombreuses, même si spectaculaires. La décolonisation baigne pourtant dans la violence : celle-ci la précède ou la suit (sous-continent indien), la permet (Indochine, Algérie, Angola, Mozambique) ou apparaît lors du réglage des nouveaux rapports de forces (Suez).
+La décolonisation est aussi une affaire militaire en ce qu'elle fournit en réflexions inédites des écoles de guerre par trop fixées sur l'héritage napoléonien. La dimension globalement politique des affrontements est rappelée à Suez, où la victoire militaire franco-israélienne est annulée par la pression conjointe américano-soviétique. L'Indochine montre qu'une guerre asymétrique peut simplement être perdue par la puissance dominante. Et le Viêtnam, qu'un conflit ne se gagne pas forcément sur le champ de bataille principal. Ces affrontements inégaux répètent que la manière traditionnelle dont nos militaires conçoivent l'occupation et la manoeuvre du champ de bataille n'est pas universelle. D'où la brusque floraison de discours sur les formes non classiques de la guerre.
+Au tout début de ce siècle, les Boers faisaient le " vide du champ de bataille ", semant le désarroi dans une machine militaire habituée à décider sur un terrain choisi et limité : mise en oeuvre par le faible de la stratégie indirecte chère à Liddell-Hart, qui recherche la dislocation de l'adversaire en perturbant son dispositif, en l'obligeant à de constants changements de fronts et à diviser ses forces, en menaçant ses lignes d'approvisionnements et de communication. Les guerres indochinoise, vietnamienne ou afghane s'inscrivent au coeur de cette logique. Les conflits asymétriques qui ont rendu possible, ponctué ou entouré la décolonisation ont contraint les armées classiques à penser autre chose que l'apocalypse des masses militaires. De vieilles techniques de guerre défensive se révélaient payantes et démontraient ce que beaucoup de puissants se refusent encore à croire aujourd'hui : le différentiel technique ne produit pas toujours un effet stratégique décisif.
+L'échec est toujours grave pour le puissant, et ses conséquences dépassent de beaucoup le militaire. Une république chancelle en France sous le double effet de l'Indochine et de l'Algérie. Le régime portugais disparaît avec la révolte d'une armée embourbée en Afrique. Les États-Unis subissent dans les années 70 une grave crise politique et morale. Son souvenir " plombe " encore aujourd'hui les interventions extérieures de Washington, qui privilégie toujours les stratégies et technologies permettant l'action à distance du champ de bataille : un choix qui pèse lourd dans les actuelles crises internationales. L'URSS connaît en Afghanistan son premier échec militaire depuis 1945 ; le porte-parole des colonisés est, en 1980, condamné à l'ONU par une majorité d'émancipés : l'image du régime ne s'en relèvera pas. Les guerres périphériques affaiblissent donc les puissances et relativisent la hiérarchie dessinée par la Seconde Guerre mondiale et le gel nucléaire.
+La multiplication des États décolonisés change la donne internationale à d'autres niveaux. Ils disposent bientôt d'une majorité à l'Assemblée de l'ONU, créent le Mouvement des non-alignés, fournissent jusqu'aux années 80 une marge de manoeuvre appréciable à l'URSS. La plupart de ces États tiers-mondistes, dépourvus de culture nationale et étatique, vont d'ailleurs élever leurs structures politiques sur une armature militaire : installation des armées comme classe dirigeante politique et économique, reproduction des élites dans les circuits militaires, etc.
+Multiplication des nouveaux États, hypertrophie des logiques militaires internes, exportation par les puissances centrales de conflits et d'armes qui assurent leur contrôle de la périphérie : ces éléments expliquent que la deuxième course aux armements contemporaine se soit déroulée au " Sud ", où n'ont guère manqué les affrontements interétatiques. À des degrés et des moments différents, le Moyen-Orient, l'Asie du Sud-Est et l'Afrique sont depuis quarante ans les grandes zones d'accumulation d'armes (hors grandes puissances). Dans ces trois zones, les rivalités entre unités politiques se sont souvent traduites en guerres - il pourrait en aller de même à l'avenir.
+Les affrontements militaires directs entre puissants disparaissent. Le monde de la guerre classique survit pourtant, dopé par les problèmes révélés ou ouverts par la décolonisation. Hors guerres mondiales, le siècle n'est d'ailleurs pas chiche d'affrontements entre États, de la guerre russo-japonaise à celles qui opposèrent l'Érythrée à l'Éthiopie, l'Iran à l'Irak, l'Inde à la Chine, l'Inde au Pakistan, le Japon à la Chine, etc. Pour user parfois d'armements modernes, ces conflits renvoient à de très traditionnelles logiques de guerre : régulation économique ou démographique, affirmation de puissance, volonté de conquête, désir de prédation... Affrontement de volontés collectives armées, la guerre a donc partout joué dans ce siècle son rôle de création : naissance du monde central des puissances, ailleurs composition d'un damier d'États nouveaux mais secoués pourtant d'antiques réflexes.
+Le récent se prétend inédit : c'est presque toujours faux mais peut-être vrai pour la fin de ce siècle. La liquidation de la bipolarité fluidifie un système dont on déplorait hier la rigidité, décomposant nombre de théâtres stratégiques, avec des conséquences plus ou moins graves en Europe, en Asie centrale, en Asie de l'Est ou en Afrique. La disparition du cadre fourni par le système Est-Ouest, le redéploiement des puissances qui laisse des régions entières face à leur malheur (au sud du Sahara...), et la vivacité et la diversité de ce malheur dessinent de nouveaux théâtres où les stratégies, les acteurs et donc les conflits suivent des dynamiques inédites.
+La floraison conflictuelle apparaît d'autant plus difficile à contrôler que l'essoufflement du paramètre étatique (pour des raisons et à des degrés divers en Europe centrale ou en Afrique, par exemple) active les affrontements internes ou trans-étatiques, les nouveaux acteurs de la violence naissant du pourrissement même des institutions nationales. Quant au désenclavement des économies et des sociétés, résumé par le terme de mondialisation, il relativise l'emprise des États sur le jeu international, annonçant de nouvelles divisions, donc des conflits, peut-être des menaces inédites. Il accélère la circulation des technologies et des armes qui redessine les champs d'affrontements : passage d'armes légères du continent eurasiatique vers l'Afrique puis d'une zone africaine à une autre, aggravation de la capacité de nuire de petits groupes désormais équipés d'armements modernes, etc.
+Ce désordre n'est que mollement combattu par les mécanismes de sécurité régionale. L'Europe a su préserver la complexe architecture de ses institutions mais, dans leur aire de compétence, plusieurs guerres ont éclaté depuis dix ans. Ailleurs, le concept de sécurité régionale avance lentement (Asie) ou partiellement (Afrique), mais il n'est nulle part une réponse opératoire à la multiplication des conflits. Au niveau global, la gestion politico-diplomatique progresse de manière peu assurée. La communauté onusienne tente de s'imposer juridiquement, moralement, techniquement même, si l'on tient le décompte des opérations internationales, des discours et des textes adoptés. Mais ni le droit des situations d'urgence, ni les institutions de la décision internationale, ni les méthodes de coopération militaire ne forment un appareil polyvalent de gestion des situations conflictuelles. Un appareil dont, au demeurant, la légitimité pourrait être, est déjà, contestée par nombre d'acteurs internationaux, ni riches, ni occidentaux.
+N'en déplaise aux rassurants prophètes de la fin des conflits entre États, la guerre rappelle dans la dernière décennie du siècle, avec une belle vivacité, son classique rôle de redécoupage des unités et théâtres politiques. Dans le Caucase, en Asie centrale, dans les Balkans ou en Afrique centrale, le bouillonnement conflictuel ébauche les contours politiques - justes ou non - de nouvelles régions. Ces conflits collectifs ignorent certes souvent les acteurs de la vulgate clausewitzienne : armées, généraux, peuples montant à la rescousse. Mais ils sont pourtant la guerre dont nous avions oublié la diversité formelle. La guerre désétatisée (l'État éclatant ou peinant à décider), la guerre démilitarisée (les armées cédant la place à des systèmes féodaux ou à des groupes armés en incessante métamorphose), la guerre décivilisée, enfin (sans référence aux codes juridiques et moraux censés encadrer, avec des réussites variables, les conflits armés des grands pays d'Occident) : mais la guerre, toujours. Au demeurant, ces violences traduisent sans doute mieux les ressorts profonds du conflit collectif que nos guerres industrielles. Elles disent la décharge d'énergie, la lutte sans loi pour la survie, la joie sauvage de briser la morale et la légalité imposées par la paix, le goût du théâtre sanglant que nos civilisations ont su, provisoirement et récemment, brider.
+La floraison de conflits peu classiques n'efface pas pour l'avenir l'hypothèse d'affrontements interétatiques. En écho à la décolonisation, la dernière prolifération d'États élargit le nombre des acteurs conflictuels. Quant aux raisons de s'affronter, elles rajeunissent : l'accès aux ressources rares (pétrole, eau), les problèmes que pose la circulation de plus en plus large des populations (émigration économique, réfugiés), l'inégale détention des technologies ou leur effet mal maîtrisé seront prétextes aux guerres fraîches de demain. Les arsenaux en circulation restent, eux, dopés pour un temps indéfini par la liquidation des armées de l'Est européen, et ils comptent de plus en plus de matériels à haute capacité de nuisance, aisément opérables.
+Recrus d'histoire et de sang, nos pays approchent la guerre de manière contradictoire. La bonne conscience occidentale jouit de l'alternative réinventée entre Athéna et Mars, comme s'il existait une guerre civilisée et une guerre barbare. Aux autres la vraie guerre : virile, sauvage, sanglante, hors civilisation, la honte de la pré-modernité. À nous l'usage policé de la force : nos armées n'ont jamais tant servi que depuis qu'on a tué la menace.
+Nous rêvons d'une violence gouvernée : idéal d'une guerre codée correspondant à la pure Raison politique. Une Raison à la fois honnête et efficace. Honnête, parce que s'appuyant sur un embryon de morale commune : voir l'étonnante bonne conscience des Alliés atlantiques s'engageant contre la Yougoslavie au nom d'une "communauté internationale" qui n'en put mais. Efficace, parce qu'usant de moyens techniques détenus par quelques puissances qui pourraient obtenir un effet décisif en se tenant hors du champ de bataille (armes de frappe à distance, "guerre de l'information"), et contrôler précisément l'escalade de la violence. La guerre du Kosovo n'a pas démontré la validité de ces deux thèses, mais elle fut clairement leur banc d'essai.
+Le débat ne fait que commencer sur cette nouvelle sorte de guerre : opération de police basée sur la maîtrise morale et technique de la communauté internationale. Ce concept exige des structures internationales de légitimation et de décision, et la possibilité, pour les politiques et les militaires, de faire une guerre différente de celle que nous connaissons depuis des siècles. Peut-on élaborer une doctrine de rétablissement de la paix, de contrôle de la violence, pour user des appareils militaires en limitant les fameuses " frictions " que Clausewitz disait inséparables de l'emploi de la contrainte - et qui modifient toujours les conditions et les buts de l'engagement armé ? En utilisant les armes, n'entre-t-on pas dans une logique autre, qui ne peut jamais être ramenée dans les belles allées de la logique politique ?
+Devant les fresques qui nous décrivent la troisième ère de la guerre, devant notre récurrent espoir de résoudre techniquement nos problèmes politiques, l'histoire vivante parle, la guerre reprend ses leçons de choses. Tout usage de la violence - et, encore plus, tout usage massif, à l'occidentale - change le paysage, mais dans quel sens ? La guerre est toujours un moment de création du monde, mais elle ne crée pas le monde que nous voulons qu'elle crée.
+Prompt à se penser unique, le XXe siècle n'a pourtant inventé ni la puissance mortifère des idéologies, ni l'hystérie guerrière, ni la violence de masse, ni la diversité des formes du massacre, ni même le génocide. Il a démontré, comme ses prédécesseurs, que l'usage de la violence collective était hélas consubstantiel à la volonté des hommes de modeler leur temps. La nouveauté du siècle, c'est l'injection de la technique dans le processus guerrier, à haute dose et avec un rythme de renouvellement neuf. Une technique qui change la place des appareils guerriers dans les sociétés, renouvelle les modes opératoires militaires, modifie les circuits de mise à disposition des armes, élargit le spectre des aventures et révolutionne la pensée de la guerre.
+Le XXe siècle a pourtant tenté, plus que d'autres, de penser des modes de régulation internationaux qui s'éloignent du simple décompte des forces. Nous sommes trop près des ébauches morales et juridiques de ces dernières décennies pour juger leur poids historique. Mais l'époque pourrait être propice à l'invention d'un nouveau " mode de sécurité ", pour reprendre l'expression de Maurice Bertrand : montage composite des différents facteurs qui produisent cette sécurité. Rêvons donc d'encadrer la guerre, à défaut de la tuer.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Politique étrangère 4/2001
+Au-delà du traumatisme psychologique, les attentats du 11 septembre auront des conséquences profondes, à la fois sur la société américaine et sur la politique étrangère des États-Unis. Sur le plan interne, ce sont bien les valeurs du contrat social américain qui pourraient être affectées pour parer à la menace terroriste, qu'il s'agisse de la liberté de circulation ou des échanges. Sur le plan extérieur, on peut se demander si le multilatéralisme affiché par l'Administration Bush depuis les événements restera une constante de sa politique étrangère, ou si l'unilatéralisme fera son retour une fois que les nécessités de la riposte coalisée au terrorisme cesseront de se faire sentir. En matière de défense antimissile, il est probable que la fin du mythe de l'invulnérabilité américaine et le souhait d'adopter une posture de défense renforcée accélèrent ce programme. Quant aux relations transatlantiques, elles pourraient être affectées par une plus grande dévolution de responsabilités aux Européens en matière de sécurité sur le Vieux continent, ainsi que par le rôle joué par la Russie dans cette crise.
+Il est délicat de prétendre tirer des conclusions solides d'un événement aussi traumatisant que les attaques du 11 septembre contre le World Trade Center et le Pentagone. Les effets aux Etats-Unis en seront largement psychologiques, et beaucoup dépendra des circonstances qui suivront : poursuite de la terreur, réactions des dirigeants et du peuple américains, perception chez les Américains d'un soutien ou d'une indifférence internationaux. Les réflexions qui suivront doivent donc être interprétées comme provisoires et sujettes à révision, l'objectif de cet article étant avant tout de cerner les facteurs à l'oeuvre et les évolutions possibles.
+L'analogie reprise par de nombreux observateurs entre les attentats du 11 septembre et l'attaque japonaise sur Pearl Harbor ne tient pas aux situations politique et stratégique mais au choc psychologique ressenti par la population américaine. La conséquence première et fondamentale de ces attentats qui ont provoqué la mort de milliers de civils sur le sol américain est bien d'avoir fait disparaître le mythe, largement partagé jusque-là aux États-Unis, de l'invulnérabilité. Même pour l'opinion publique américaine, l'Amérique n'est plus un sanctuaire.
+Ce n'est certes pas la première fois que les États-Unis sont frappés par des attaques terroristes. À maints égards, les années 1990 ont été celles de la découverte du phénomène terroriste, interne - dans les cas des attentats d'Oklahoma City et des Jeux olympiques d'Atlanta - mais aussi international : attaque au camion piégé contre le World Trade Center en 1993 (déjà attribuée à Ben Laden), contre la base américaine de Dharan en Arabie Saoudite en 1996, contre les ambassades américaines au Kenya et en Tanzanie en 1998 et contre la frégate USS Cole au Yémen en 2000.
+Pourtant, les attaques du 11 septembre et la psychose entretenue par les découvertes d'enveloppes contenant du bacille du charbon donnent le sentiment qu'un cap a été franchi. Par le nombre très élevé de victimes, tout d'abord, qui rend dérisoire le qualificatif d'attentat et incite à évoquer un acte de guerre, même si l'absence d'ennemi identifié ne rend pas ce terme vraiment satisfaisant. Par la nature des cibles, ensuite, symboles de la puissance militaire et économique des États-Unis, qui donnent la mesure des intentions et de l'idéologie destructrice qui animent les terroristes. Par le mode opératoire choisi, enfin, qui accentue ce sentiment de grande vulnérabilité : en détournant des avions de ligne intérieure ou - s'il s'avère que les coupables sont les mêmes - en utilisant le système postal comme vecteur de leurs attaques bactériologiques, les terroristes ont détourné l'utilisation des fondements de la société américaine que sont la libre circulation, les échanges et la communication.
+Au-delà du nombre effroyable de victimes, la peur suscitée outre-Atlantique vient bien de ce que les terroristes ont infiltré la nature même de la société américaine. Pour les Américains désormais, se protéger contre les terroristes suppose sinon de lutter contre eux-mêmes, du moins de se méfier de leur propre mode de vie. Le point demeure encore ouvert de savoir, par exemple, si la loi antiterroriste signée par le président Bush le 26 octobre 2001 (après une approbation ultra rapide de la part des deux Chambres) représente un tournant décisif en matière de libertés publiques. En accroissant la capacité de l'État fédéral à intercepter les communications téléphoniques et électroniques, et en autorisant la détention des " non-citoyens ", c'est-à-dire de ceux qui ne sont pas détenteurs de la nationalité américaine, cette loi va à l'encontre d'un mouvement de libéralisation entamé au cours des années 1960, et qui n'avait guère encore connu de recul. L'arrestation et la détention, sans accès à des avocats, de quelque mille résidents arabes posent également question.
+Il est encore trop tôt pour dire quelle sera exactement, à long terme, la réaction des États-Unis, et quelles en seront toutes les conséquences, en particulier parce que de nombreuses inconnues subsistent encore et que les événements à venir pourraient influer considérable-ment sur l'état d'esprit de la population américaine et de ses dirigeants. On ignore, par exemple, quelles seraient les conséquences d'une deuxième vague d'attentats. À coup sûr, la très forte tension ressentie aujourd'hui dans les villes se transformerait en réelle psychose. Mais quelles en seraient les conséquences politiques, économiques, psychologiques, tant au plan interne qu'international ?
+De même, on ignore si l'opinion publique restera toujours favorable à l'engagement américain en Afghanistan. Si le concept du " zéro mort " semble avoir vécu outre-Atlantique et si, d'après de récents sondages, l'opinion publique semble prête à supporter le coût d'une longue campagne, encore faudra-t-il qu'elle reste convaincue de l'adéquation entre les moyens mis en oeuvre et l'objectif poursuivi, à savoir la destruction des réseaux terroristes, entreprise longue et incertaine. Si de nouveaux attentats sont perpétrés aux États-Unis et que, par ailleurs, les forces américaines s'enlisent en Afghanistan ou subissent des pertes importantes, il faudra s'attendre à ce qu'un nombre croissant d'Américains remette en cause l'opportunité d'une guerre lointaine, à l'heure où les terroristes agissent sur le territoire national. Si, traditionnellement, la capacité des opinions publiques à supporter les coûts d'une opération militaire est liée à la conviction de mener une guerre " juste ", elle est également fonction de la lisibilité du conflit et de la conviction de mener une guerre " efficace ".
+Enfin, au plan politique interne, on peut s'interroger sur la pérennité de l'union sacrée qui réunit démocrates, républicains et indépendants depuis le discours du président Bush devant le Congrès, le 20 septembre. Si l'on a encore en mémoire l'image des représentants et sénateurs américains applaudissant debout leur président, tous partis confondus, à l'issue d'un discours qualifié à maintes reprises et sans surprise d'" historique ", il convient aussi de signaler les tensions qui sont apparues peu de temps après entre démocrates et républicains quant au bien-fondé et au montant du plan de relance de l'économie américaine annoncé par la Maison Blanche et même quant à la fédéralisation des contrôles de sécurité dans les aéroports. Le président va-t-il toujours bénéficier des pleins pouvoirs qui lui ont été de facto accordés le 11 septembre ? Ou faut-il s'attendre à ce que le jeu des partis reprenne son cours, en particulier à l'approche des élections de mi-mandat, avec - rappelons-le - l'enjeu d'un possible basculement de l'ensemble du Congrès sous majorité démocrate ?
+Autant de questions dont les réponses sont encore inconnues et qui dépendront dans une large mesure de facteurs exogènes. On ne peut donc que se contenter, à ce stade, d'émettre des hypothèses et tenter d'entrevoir l'impact que cette découverte de la vulnérabilité pourrait avoir, non seulement sur la société américaine, mais également - par voie de conséquence - sur la perception que les États-Unis auront de leur relation avec le reste du monde. Il se peut en effet qu'au-delà de la riposte militaire, les attentats du 11 septembre aient provoqué une réaction en chaîne qui, de l'impact psychologique interne aux conséquences sur la politique étrangère américaine, pourrait peser lourd sur l'évolution du système international de l'après-guerre froide, y compris sur la nature de la relation transatlantique.
+Le sentiment d'invulnérabilité du peuple américain n'était évidemment pas total, même avant le 11 septembre. Les sondages du Chicago Council on Foreign Relations, dont John Rielly a régulièrement commenté les résultats dans Politique étrangère, montrent que les Américains craignaient dans une certaine mesure les conséquences du terrorisme sur leur sécurité. L'expérience de la tentative de renforcement de la sécurité aérienne, menée par l'Administration Clinton d'août 1996 à février 1997, montre cependant que cette crainte était demeurée diffuse. La White House Commission on Aviation Safety and Security, présidée par le vice-président Al Gore, avait en effet conclu à la nécessité de renforcer de façon significative les conditions de contrôle à bord des avions. Devant la perspective d'une moindre rotation de ceux-ci, qui aurait réduit leur rentabilité, les compagnies aériennes, et leurs relais au Congrès, avaient résisté à cette tentative. Le compromis auquel sont parvenues les autorités américaines fut significatif d'un état d'esprit trop optimiste quant à la capacité des États-Unis à demeurer invulnérables. Les nouvelles consignes de sécurité ont en effet été appliquées aux vols en provenance ou à destination de l'étranger, mais les vols intérieurs en ont été exemptés. Or, les quatre avions détournés le 11 septembre assuraient précisément des vols intérieurs. Une confiance sociale excessive dans une ligne de démarcation entre God's own country et un étranger plus dangereux a ainsi facilité la tâche des terroristes.
+En bonne logique, les événements du 11 septembre devraient réduire cette césure mentale, contribuant à persuader les Américains que leur sort est inséparable de celui du reste du monde. La délicate tâche des responsables politiques consistera à traduire ce point de vue général en résistance aux groupes de pression organisés qui souhaitent soustraire le territoire américain à certaines mesures restrictives. Un tel conflit pourra se manifester à l'avenir aussi bien en matière de libertés publiques qu'en matière de port d'armes, par exemple.
+En effet, cette découverte de la vulnérabilité pourrait bien alimenter un sentiment de " peur de l'étranger " qui dépasserait la traditionnelle méfiance à l'égard des foreign entanglements et pourrait se traduire, à terme, non seulement par une réticence à l'égard d'une implication des États-Unis dans les crises extérieures, mais également par un réflexe de fermeture et de repli sur soi de la société américaine. Certes, l'effet immédiat du 11 septembre a été d'ouvrir les yeux de tous les Américains sur le rôle que le reste du monde pourrait avoir sur le sort de la nation américaine, mais la réalité reprendra ses droits. Rapidement, la tendance des médias à ne se consacrer pour l'essentiel qu'aux affaires locales surgira de nouveau. L'attention à l'étranger se relâchera, comme ce fut le cas pendant les conflits précédents auxquels ont participé le pays. Surtout, dans ce contexte, si l'opinion, les groupes de pression et le secteur politique américains sont déçus par les résultats de l'opération, le risque d'une résurgence d'une méfiance générale à l'égard de tout ce qui provient de l'étranger se manifestera, et peut-être avec plus de force encore que par le passé.
+L'une des caractéristiques essentielles du système politique américain, et en particulier du processus d'élaboration de la politique étrangère, est que cette politique internationale est - dans une large mesure - le fruit de considérations internes. Le rôle du Congrès et le poids des lobbies (économiques et ethniques, en particulier) font que la politique internationale de la première puissance mondiale est souvent prise en otage par des groupes d'intérêts puissants, organisés et disposant de moyens financiers considérables leur permettant de peser sur le jeu électoral, et donc sur les choix effectués par les élus.
+Or, les attentats du 11 septembre pourraient avoir comme conséquence d'inverser pendant au moins un temps l'ordre des priorités : les groupes d'intérêts continueront certes à exercer des pressions pour faire valoir les projets qu'ils défendent, mais ceux-ci seront largement contrebalancés ou renforcés, selon les cas, par les impératifs de sécurité nationale et de la lutte contre le terrorisme. Ainsi, l'importance des enjeux internationaux actuels rendrait la politique étrangère des États-Unis moins sensible aux intérêts minoritaires, précisément parce que - de manière indiscutable - l'intérêt national est en jeu.
+Il ne faut dès lors pas s'étonner de voir les États-Unis revenir de manière spectaculaire sur des programmes de coopération internationale qu'ils avaient jusqu'à présent rejetés, au motif qu'ils mettaient en cause la souveraineté et les intérêts américains. Le programme de l'OCDE de lutte contre le blanchiment d'argent et les paradis fiscaux - dont les États-Unis s'étaient désengagés juste avant les attentats sous la pression du lobby bancaire soucieux d'éviter aux banques américaines des réglementations et des procédures imposées de l'extérieur - a ainsi été relancé par Washington. On peut aussi s'attendre, selon le même schéma, à ce que les Américains manifestent un intérêt nouveau pour l'accord sur le contrôle des armes à petit calibre, rejeté il y a quelques mois à peine par le Congrès sous la pression de la puissante National Rifle Association.
+Pour autant, il ne faut pas se dissimuler que l'évolution inverse est également possible. Si la campagne actuelle en Afghanistan ne parvient pas à obtenir des résultats probants dans un délai raisonnable, on pourrait assister à terme à un choc en retour tendant à raviver la méfiance intuitive du peuple américain envers l'étranger. Ceci ne mènerait pas à un quelconque " nouvel isolationnisme ", au demeurant parfaitement irréalisable, mais pourrait avoir pour effet de renforcer encore le poids des déterminants internes dans les décisions des États-Unis en matière internationale, de limiter encore davantage la marge de manoeuvre de l'exécutif face au Congrès et, ce faisant, de renforcer le rôle des groupes de pression. La politique étrangère américaine en serait rendue plus imprévisible, oscillant entre des périodes de retrait et des poussées d'interventionnisme d'autant plus fortes qu'elles seraient dictées par des contingences intérieures. La partie qui se joue avec la campagne actuelle est donc d'une importance capitale pour l'engagement américain futur dans les affaires internationales. À ce titre, elle peut conditionner l'avenir du système international dans son ensemble.
+La lutte contre le terrorisme est devenue l'enjeu numéro un du mandat de George W. Bush, et l'on peut s'attendre, au moins à court terme, à ce que la plupart des choix de politique intérieure et internationale soient examinés à l'aune de cet objectif. Ceci devrait avoir des conséquences sur la posture de défense des États-Unis.
+La première conséquence pourrait être précisément un renforcement de cette posture de défense, au détriment des stratégies de projection de forces. En d'autres termes, la puissance militaire des États-Unis verrait ses missions recentrées sur la défense du territoire américain et de ses bases et intérêts à l'étranger, au détriment d'une utilisation de ces forces à des fins d'intervention extérieure. Par ailleurs, la tendance ne devrait pas être celle d'un abandon des systèmes de défense reposant avant tout sur la technologie, mais au contraire d'un renforcement de ces systèmes en même temps qu'un développement du facteur humain. En d'autres termes, tout ce qui servira la défense du pays sera considéré comme indispensable.
+Ainsi, contrairement à ce que l'on pourrait légitimement conclure à la suite des attentats, les attaques terroristes du 11 septembre qui - loin d'être menées à l'aide de missiles intercontinentaux- ont été perpétrées par détournement de moyens civils, n'ont pas rendu caduc le programme de défense antimissile mais pourraient bien avoir renforcé sa légitimité. Loin d'être perçue comme un contre-exemple de l'utilité d'un tel système, la défense antimissile pourrait sortir renforcée de cette crise, ses partisans insistant précisément sur le risque qu'un groupe de terroristes mette la main sur des missiles et les lance contre le territoire américain. C'est ainsi que, quelques jours seulement après les attentats, les sénateurs démocrates ont décidé de lever leurs objections au niveau de dépense portant sur la défense antimissile proposé par l'Administration pour 2002. Depuis le 11 septembre, l'argument des Européens selon lequel les Américains auraient une fâcheuse tendance à surestimer la menace, à des fins de développement industriel, est de plus en plus difficile à avancer. Ces attentats ont ainsi fourni une caution morale à tout programme militaire ou civil visant à accroître la protection du territoire et des intérêts des États-Unis dans le monde.
+La seconde conséquence, découlant directement de la première, pourrait être une augmentation sensible du budget de défense américain. En dépit du fait que les États-Unis dépensent déjà 320 milliards de dollars par an pour leur défense, soit davantage que les neuf pays les plus dépensiers en matière militaire après eux, on peut s'attendre à ce que les responsables américains se montrent favorables à de nouvelles augmentations. Les chiffres oscillent à l'heure actuelle entre 20 et 40 milliards de dollars d'augmentation dans le prochain budget. Par ordre de comparaison, le budget militaire annuel de la France est de moins de 30 milliards de dollars.
+Une telle attitude ne sera d'ailleurs pas sans poser certains problèmes de fond. En premier lieu se pose naturellement la question des moyens. Il est clair qu'une posture de défense renforcée coûte cher et qu'à l'heure où les États-Unis connaissent un ralentissement de leur croissance et que l'Administration Bush a décidé d'une réduction importante des impôts, on peut légitimement mettre en doute la capacité des États-Unis à assumer un tel choix. Du moins, des choix budgétaires délicats seront-ils exigés au détriment d'autres secteurs, comme ceux de l'éducation et de la santé.
+Le deuxième problème est celui de la hiérarchisation des priorités. À force de dépenser sans discrimination, les États-Unis risquent précisément de se priver d'une réelle politique de défense, c'est-à-dire d'une stratégie qui - après avoir hiérarchisé les menaces - développe les moyens d'y faire face, en fonction des besoins relatifs. Une politique de défense tous azimuts court paradoxalement le risque de ne pas voir venir la menace.
+Certains observateurs ont cru voir dans les premières déclarations et décisions de l'Administration Bush au lendemain des attentats un changement de comportement important. En tentant de constituer une coalition la plus large possible, les États-Unis ont pu donner le sentiment de rompre avec l'unilatéralisme initial de cette Administration. Washington a ainsi fait appel à ses alliés - en particulier européens - en leur demandant un soutien sans faille pour mener à bien une riposte à laquelle ils ne manqueraient pas d'être associés. Cette volonté de constituer une coalition internationale a ensuite été étendue à l'ensemble des pays du monde par le biais de l'ONU, en demandant au Conseil de sécurité de voter une résolution condamnant les attentats et légitimant une riposte militaire. Cette démarche a heureusement surpris ceux qui craignaient de voir l'ONU mise de côté, comme ce fut le cas lors de la campagne aérienne du Kosovo, et a pu donner le sentiment que les États-Unis avaient renoncé - dans cette crise tout du moins - à l'action unilatérale. La nature de la menace à laquelle l'unique superpuissance est confrontée rend de facto indispensable une coopération internationale et force donc les États-Unis à agir en concertation avec leurs principaux alliés.
+Faut-il pour autant considérer ces gestes comme des signes d'un multilatéralisme retrouvé ? Rien n'est moins sûr et il convient sans doute d'être très prudent en la matière. Si l'on admet en effet que les États-Unis - à la suite de ces attentats - vont mettre en oeuvre une politique visant essentiellement à éviter que de telles attaques ne se produisent à nouveau, on peut s'attendre à ce que ce multilatéralisme apparent ne soit que de circonstance et ne masque en réalité une politique de défense de l'intérêt national primant sur toutes les autres considérations. Ainsi, les États-Unis ne feraient aujourd'hui appel à une coalition que dans la mesure où celle-ci a un effet rassurant et qu'elle est utile pour tenter d'adoucir les conséquences internationales de leur riposte militaire. Mais, comme cela a déjà été signalé précédemment, on peut tout aussi bien s'attendre à ce que ce multilatéralisme soit dénoncé par les responsables américains dès lors qu'il serait perçu comme un obstacle à la défense d'un intérêt supérieur. Les États-Unis seront d'autant plus incités à ne compter que sur eux-mêmes qu'ils auront placé la lutte antiterroriste au premier rang de leurs priorités. Et, dans cette perspective, l'adage multilateralist if possible, unilateralist when necessary devrait être particulièrement d'actualité.
+La riposte militaire en cours n'est d'ailleurs qu'une étape dans la réaction des États-Unis aux attentats qui ont endeuillé la première puissance mondiale. Le président américain l'a fait savoir de manière très claire en comparant cette lutte antiterroriste de longue haleine à l'affrontement bipolaire de la guerre froide, qui avait exigé la mise en oeuvre de moyens très variés, allant de la puissance militaire à l'influence culturelle, en passant par l'action diplomatique et les moyens économiques. Les Européens ne peuvent que se réjouir de cette attitude patiente qui exclut a priori toute réplique militaire massive et entend privilégier l'action de long terme. Mais ils auraient tort de croire que cette riposte américaine se fera " toutes choses égales par ailleurs ". Les attentats du 11 septembre pourraient, au-delà de l'action militaire en cours et des mesures politiques et économiques adoptées, avoir des conséquences majeures sur l'ensemble du système international, par le biais des inflexions qu'elles pourraient produire dans l'attitude internationale des États-Unis. L'asymétrie du système international actuel fait que toute modification de la posture internationale de l'unique superpuissance aura nécessairement des répercussions sur l'ensemble des relations interétatiques. Il faut en particulier s'attendre à ce que les États-Unis redéfinissent leur stratégie à l'égard d'un certain nombre de pays. En proclamant que tous les pays du monde doivent décider s'ils sont avec les États-Unis ou avec les terroristes, le président Bush a volontairement restreint l'alternative, montrant bien que les coalitions n'auront d'intérêt pour les Américains que si les autres membres sont en accord avec la stratégie élaborée par Washington. Mais cette déclaration aura surtout pour effet de rendre les ambiguïtés stratégiques de moins en moins tenables.
+Ainsi, par effet presque mécanique, les attentats du 11 septembre ont provoqué des rapprochements spectaculaires entre les États-Unis et certains pays comme la Russie, l'Inde et dans une moindre mesure la Chine. D'autres, comme la Libye ou Cuba, jadis ouvertement hostiles à l'égard de Washington, ont surpris par leurs déclarations de solidarité. Bien entendu, ces déclarations de compassion ne sont pas dénuées d'arrière-pensées, mais les attentats terroristes ont sans nul doute également fournit aux dirigeants de ces États l'argument de poids susceptible de faire accepter, au plan intérieur, un rapprochement difficilement envisageable auparavant. Surtout, les attentats terroristes qui ont frappé les États-Unis vont sans doute provoquer un débat interne et international sur l'attitude des Américains à l'égard d'un certain nombre de pays.
+C'est le cas tout d'abord de la catégorie des rogue states, dans laquelle se retrouvent, pêle-mêle et sans aucune justification sérieuse, des États aussi divers que Cuba, l'Iran, l'Irak, la Libye ou la Corée du Nord. Comme il a été vu précédemment, nombreux sont ceux qui ont exprimé leur solidarité à l'égard des États-Unis, rompant ainsi avec leur rhétorique anti-américaine habituelle. Or, ces marques de soutien pourraient bien remettre en cause l'existence même de cette catégorie, dont l'un des critères établis par son concepteur, Anthony Lake, alors conseiller national de sécurité du président Clinton, est précisément l'animosité à l'encontre de Washington. Si l'une des nombreuses conséquences du 11 septembre est un rapprochement entre les États-Unis et certains rogue states, alors la liste de ces derniers devra être revue en conséquence. Le cas de l'Iran est, à cet égard, significatif. Si les tensions politiques internes (entre le président réformateur Khatami et l'imam Khamenei) et le passif iranien en matière de soutien au terrorisme international peuvent faire douter de l'éventualité d'un rapprochement rapide avec les États-Unis, on ne peut pas non plus exclure que la communauté d'intérêt qui lie Américains et Iraniens face au régime des Talibans ne serve de base à un rapprochement à plus long terme. En ce sens, les attentats du 11 septembre pourraient servir d'accélérateur à une lente évolution, entamée sous Clinton. Toute la question, pour l'Iran comme pour les autres pays qualifiés de rogue states, ainsi que pour la Russie, l'Inde et la Chine, est de savoir si ces rapprochements seront durables ou si, une fois le problème réglé en Afghanistan, les antagonismes reprendront leur cours.
+Au-delà de ces améliorations des relations diplomatiques, dont il reste à savoir si elles sont circonstancielles ou durables, la logique voudrait que les attentats du 11 septembre amènent les États-Unis à revoir leurs stratégies au Proche-Orient, et plus particulièrement à l'égard d'Israël, de l'Arabie Saoudite et de l'Irak. Il est d'ailleurs notable à ce propos de noter combien les États-Unis, au cours des dernières années, se sont rendus politiquement dépendants des États qui sont dépendants militairement à leur égard et dont ils assurent la protection. D'une relation qui aurait dû être une relation de dépendance à sens unique, ces États alliés des États-Unis ont su faire une relation de dépendance réciproque.
+C'est naturellement vrai d'Israël, protégé par le soutien de l'opinion publique américaine qui voit en lui, de façon quelque peu caricaturale, un pays aux valeurs occidentales confronté à des pays arabes aux valeurs différentes. Cette dépendance est liée à ce partage culturel, comme on l'a vu chaque fois que la politique israélienne s'en éloignait, que ce soit face au Liban ou sous la mandature Nétanyahou ou, plus récemment, avec la politique d'Ariel Sharon à l'égard des civils palestiniens. Dans chacun de ces cas, le soutien du groupe de pression proisraélien, incarné par l'AIPAC, ne s'est pas transformé en soutien de l'opinion publique américaine. Cependant, dans la plupart des situations, la dépendance politique des États-Unis à l'égard de leur allié israélien demeure.
+Les signes d'une inflexion modeste de la position américaine à l'égard du conflit israélo-palestinien sont pourtant, peut-être, déjà perceptibles. Les déclarations du président Bush en faveur de la création d'un État palestinien et les pressions exercées à l'encontre d'Israël pour éviter l'escalade militaire ont rompu avec l'attitude réservée observée jusque-là par l'Administration républicaine. Il devrait être clair désormais que les attentats du 11 septembre ont conduit à une communauté d'intérêt plus visible que par le passé entre certains responsables palestiniens et américains, ces derniers craignant avant tout d'être perçus comme engagés dans un " conflit de civilisation " contre le monde musulman. Il est encore difficile aujourd'hui de savoir si ces événements auront marqué une rupture majeure dans les relations entre Washington et Tel-Aviv. Mais ils auront sans doute provoqué outre-Atlantique un débat qui devrait conduire un nombre croissant d'observateurs à s'interroger sur le bien-fondé de la politique suiviste des États-Unis à l'égard du conflit israélo-palestinien, ce qui pourrait donner plus de jeu à la politique américaine sur ce dossier.
+Il en est de même, pour des raisons bien différentes, à l'égard de l'Arabie Saoudite et des monarchies pétrolières du Golfe, qui tiennent au rôle majeur que jouent ces pays en matière d'approvisionnement énergétique des États-Unis et de leurs alliés, et de la conscience qu'il n'existe pas d'alternative aisément repérable aux régimes actuels. Pourtant, le rôle actif joué par Riyad dans le soutien financier et idéologique au développement d'un islamisme radical et parfois extrémiste irrémédiablement hostile à l'Occident pourrait légitimement avoir modifié l'attitude de Washington à son égard. La question demeure de savoir si la dépendance politique dans laquelle la diplomatie américaine s'est placée à l'égard de ses alliés au Moyen-Orient rendra possible les évolutions nécessaires.
+Enfin, bien qu'aucune déclaration n'ait officiellement mis en cause l'Irak dans les attentats du 11 septembre ou dans les envois de lettre contenant de l'anthrax, les attaques terroristes subies par les États-Unis ont été l'occasion de remettre sur la table la stratégie américaine à l'égard de Bagdad. L'Administration républicaine - ou plus exactement le secrétaire d'État Colin Powell - s'était illustrée dès le début du mandat de George W. Bush par ses initiatives visant à modifier le régime de sanctions dans le sens de l'adoption de mesures plus ciblées, épargnant les populations civiles. Cette initiative avait été considérée à l'époque, en particulier au Pentagone, comme le signe avant-coureur d'une mesure d'assouplissement risquée de la position américaine vis-à-vis de Bagdad. Depuis le 11 septembre, les voix des partisans d'un recours à la force se sont fait entendre au plus haut niveau (l'adjoint du secrétaire à la Défense, Paul Wolfowitz), ceux-ci voulant saisir l'occasion de l'opération militaire en Afghanistan pour se débarrasser de Saddam Hussein. En dépit de leurs pressions, la Maison-Blanche semble jusqu'à présent avoir compris les risques qu'une telle initiative ferait peser sur la coalition internationale, en particulier dans les pays musulmans et chez certains Européens, dont la France. Mais rien ne permet, à ce stade, de préjuger des rapports de force à venir au sein de l'Administration et du Congrès. On peut s'attendre, en particulier, à ce que des analogies soient établies entre l'Irak et l'Afghanistan, où un soutien militaire à l'opposition (Alliance du Nord) a permis un changement de régime à Kaboul.
+Cette redéfinition des relations entre certains États et la première puissance mondiale ne manquera pas de concerner les Européens eux-mêmes. Non que l'alliance transatlantique soit remise en cause dans ses fondements, mais parce que le bouleversement des priorités stratégiques que ces attentats pourraient provoquer outre-Atlantique posera inévitablement la question des priorités européennes.
+Cette crise devrait tout d'abord relancer le débat sur l'implication des États-Unis dans la sécurité de l'Europe et, plus largement, sur le partage du fardeau pour assurer la sécurité des membres de l'OTAN, y compris à l'égard de la menace terroriste. Il est en effet fort probable que cette crise ait un effet immédiat : accélérer la dévolution aux Européens de la responsabilité d'assurer la sécurité dans les Balkans. On peut ainsi s'attendre - après une telle attaque - à ce que les États-Unis placent la lutte antiterroriste au premier rang de leurs priorités et que le rééquilibrage au profit du Moyen-Orient et de l'Asie s'en trouve accéléré, au détriment de l'Europe. Après les attaques sur le sol américain, l'importance de la stabilité en Macédoine a sans doute été relativisée à Washington. Les demandes faites aux Européens par le Pentagone de compenser les retraits éventuels de troupes américaines des contingents internationaux en Bosnie et au Kosovo représentent sans doute un signe annonciateur de mouvements futurs.
+D'une manière générale d'ailleurs, la relation transatlantique va probablement connaître des modifications sensibles du fait de l'impact du 11 septembre. Sans s'avancer à l'excès, on peut faire le pari que deux changements sont à prévoir. D'une part, la guerre du Kosovo avait convaincu les états-majors américains que l'OTAN pouvait représenter une gêne pour la conduite d'opérations militaires, du fait du contrôle multilatéral et pointilleux effectué par le Conseil Atlantique sur celle-ci. Le résultat de cette méfiance s'est manifesté avec force depuis le 11 septembre, puisque la décision prise par les Alliés d'invoquer pour la première fois l'article 5 du traité de Washington n'a été suivie que de mesures symboliques. Les Américains ont préféré mener une guerre nationale sous le couvert d'une coalition internationale, et en choisissant à la carte parmi les Alliés ceux qui pouvaient leur apporter une contribution utile, plutôt que de s'appuyer sur l'appareil collectif de l'OTAN. D'organisation politico-militaire, l'OTAN est en passe de devenir un réservoir de moyens au service des ses membres dans des formations diverses.
+En second lieu, le rôle joué par la Russie dans le conflit actuel, et en particulier l'habilité du président Poutine et sa capacité à lever les objections internes à une attitude de soutien envers la campagne menée par les États-Unis ont des chances de relancer la relation entre l'OTAN et la Russie, qui restait peu satisfaisante. Le processus induit par l'Acte fondateur OTAN-Russie en 1997 devrait être réactivé. Cela pourrait changer la donne en ce qui concerne l'élargissement futur de l'OTAN. L'Administration Bush semble en effet déterminée à obtenir un élargissement incluant au moins l'un des États baltes lors du sommet de l'Alliance de 2002, qui se tiendra à l'automne à Prague. Cependant, si la Russie continue à soutenir les Américains dans l'entreprise dans laquelle ils se sont lancés, il est fort improbable que cet élargissement puisse être conduit sans tenir compte des positions de Moscou. Il serait en effet hasardeux de prendre une mesure considérée comme peu amicale par un allié dans la lutte contre le terrorisme. Quels que soient les sentiments antirusses qui persistent dans l'Administration, au Congrès et dans l'appareil militaire, il paraît difficilement envisageable, pour des raisons politiques, de laisser à la Russie le rôle d'unique État européen n'ayant pas vocation à participer à l'Alliance atlantique. On pourrait donc envisager que la liste de pays susceptibles de participer au prochain élargissement soit effectivement approuvée à Prague, mais que les pays de l'OTAN ajoutent que la candidature de la Russie pourrait également être envisagée à terme. En attendant, un renforcement de la consultation OTAN-Russie serait défini et mis en oeuvre. Tel est probablement le sens des paroles sibyllines du président Poutine, prononcées le 4 octobre 2000 à Bruxelles : " Il est possible de voir (l'élargissement de l'OTAN) sous un jour complètement nouveau - si l'OTAN prend une teinte différente et devient une organisation politique. "
+L'instrument principal de la relation transatlantique est donc probablement appelé à se transformer profondément. Tel n'est pas, d'un point de vue européen, la moindre conséquence des attaques du 11 septembre.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Politique étrangère 4/2001
+Les attentats du 11 septembre expriment un monde, celui de l'après-guerre froide, écartelé entre l'accélération de la mondialisation et le pourrissement des affrontements provinciaux. Ils vont nous contraindre à ouvrir une nouvelle étape de la mutation de notre pensée stratégique entreprise voici dix ans. Ce qui doit être revu, c'est à la fois l'articulation entre les composantes militaires et non-militaires de nos stratégies, et des politiques de défense qui ont trop longtemps ignoré que les sociétés développées produisaient leurs propres vulnérabilités.
+Les événements du 11 septembre, comme les autres, expriment leur monde : le nôtre. Un monde que nous peinons à comprendre et que nous échouons encore à gouverner, en dépit de toutes nos tentatives, de tous les modèles maniés depuis dix ans.
+Si nous l'observons à travers des critères stratégiques pour évaluer les rapports entre forces et dessiner les espaces où ils s'exercent, ce monde apparaît, depuis dix ans, à la fois de plus en plus décloisonné et de plus en plus provincial. Décloisonné : l'accélération de la mondialisation a abattu nombre d'obstacles à la diffusion des images, des biens et des hommes, relativisant donc les équilibres locaux. Elle s'accompagne en outre d'un discours sur son évidence, son caractère irrépressible - discours éminemment idéologique qui se réclame de la mort des idéologies. Provincial, puisque, sous le grand vent de l'unification, et à proportion de l'absence d'institutions politiques lui correspondant, les dynamiques régionales, les abcès locaux se développent. Le monde est peut-être unique, mais couvert d'une peau de léopard qui montre plus de diversités, plus de contradictions.
+Le terrorisme, tel qu'il apparaît dans ses habits neufs du 11 septembre 2001, renvoie au double caractère de ce temps. Il est à la fois le produit de problèmes locaux ou régionaux, et celui de la revendication d'un universel qui s'opposerait à la seule idée globale régnante, celle du monde vu comme un système de marchés, symbolisé par les idées et la puissance de l'Amérique.
+La détermination par le local ou le régional ne peut être niée. Les blocages diplomatiques des derniers mois au Proche-Orient n'ont pu, pour de simples raisons de chronologie, produire les attentats. Mais le pourrissement discret, puis brutal, de la relation israélo-palestinienne, la dégradation de long terme de la situation dans la Corne de l'Afrique, le caractère à la fois illégitime et inefficace de nombre de régimes arabes contestés par les mouvements islamistes radicaux, et la longue tragédie de l'Afghanistan débordant sur l'Asie centrale ont manifestement joué un rôle dans l'envol des actes et les mutations des réseaux terroristes. Les attentats contre La Mecque de la mondialisation financière visent pourtant bien plus haut que la simple pression dans un conflit déterminé : ils s'attaquent à un monde, celui que représente l'Occident, et donc l'Amérique, avec sa dominance économique, militaire et culturelle. En espérant que les réponses de l'agressé seront suffisamment erratiques pour aider à cristalliser un sentiment mondial, universel, qui se lèverait contre l'universel haï des États-Unis.
+Produit monstrueux d'une combinaison de provincialisme et d'universel, notions qui prennent un nouveau sens avec le désenclavement et la segmentation de l'après-guerre froide, le terrorisme new look exprime aussi la fluidité de notre environnement stratégique. Enjeux permanents, acteurs identifiés et forces paisiblement mesurables appartiennent au passé. La topographie de l'international (son découpage en espaces) et sa scénographie (son éclatement en acteurs) évoluent rapidement, en grande partie du fait de l'affaiblissement des frontières physiques ou techniques. Les phénomènes terroristes prolifèrent au croisement de quatre grandes circulations : celle des mots et des images (qui permet de bricoler des solidarités entre des sociétés très différentes), celle des capitaux (qui autorise la mise sur pied de logistiques performantes), celle des armes (qui ouvre sans cesse le champ des dangers futurs), et celle des hommes. Mouvements inégalement répartis sur la planète, mais qui, ensemble ou séparément, touchent tous les théâtres stratégiques et rendent plus difficiles les opérations de police ou de défense intérieure, hier aidées par la distinction claire entre l'en-dedans et l'en-dehors. Mouvements qui créent ou métamorphosent des acteurs, des risques, que ne sont pas habitués à traiter nos appareils de défense.
+Dans ce monde-là, les grandes puissances - celles qui ont les moyens à la fois d'une défense territoriale et d'une projection stratégique de forces - semblent hésiter entre la volonté d'intervenir dans certaines crises, et la tentation de se replier sur leurs intérêts nationaux - cette tentation encadrant et organisant, à l'occasion, l'intervention. Ces puissances apparaissent ainsi doublement suspectes aux " provinciaux " : suspectes de tenter d'imposer une volonté internationale élevée sur des principes contestés, et de promouvoir leurs intérêts égoïstes d'États. Ce monde trop vite imaginé pacifié est bien dérégulé, peu ou mal gouverné, et agité de conflits plus nombreux, aux formes nouvelles, qui mettent souvent en oeuvre des moyens qui maximisent l'efficience de petits groupes humains.
+Dans ce contexte, l'agression du 11 septembre est à la fois peu nouvelle et inédite. Peu nouvelle pour l'instrument : c'est le concept d'emploi qui fait du Boeing une arme de jet dévastatrice (ce qui nous rappelle opportunément qu'en stratégie innovation n'est pas toujours synonyme d'invention technique). La non-revendication des attentats, notée par plusieurs observateurs, n'est pas non plus nouvelle. Elle est usuelle en matière de terrorisme : elle augmente la terreur et bride la réponse en compliquant l'identification de l'adversaire. L'absence des tentatives habituelles de récupération s'expliquant simplement par l'ampleur de l'horreur.
+Les attentats de New York sont pourtant inédits. Ils installent définitivement les États-Unis dans une position de cible qui correspond à l'étendue de leur puissance. Jusqu'ici, l'Amérique semblait ne pouvoir être touchée gravement que par un acte de guerre massif (attaque balistique, nucléaire...) ; les Européens étaient les victimes beaucoup plus vraisemblables du terrorisme. L'importance des moyens mobilisés, en termes de recrutement, de formation, de financement, bref, l'organisation et la constance dans le projet stratégique apparaissent également neufs. Tout comme l'élargissement du vivier des candidats au terrorisme-suicide, qui ne se recrutent pas, ou plus seulement, dans les peuples souffrant d'une insupportable domination, ou dans les milieux sociaux marginaux. Enfin, le 11 septembre est inédit dans ce qu'il ne montre pas mais laisse entrevoir : l'usage possible, avec une tactique comparable, d'armes plus terribles encore. Pour toutes ces raisons, ces attentats ouvrent un nouveau front, révèlent une béance de notre défense, secouent la routine de nos débats stratégiques.
+Depuis dix ans, la grande affaire des systèmes militaires occidentaux est la marginalisation de la menace territoriale massive. Concepts stratégiques, modèles de manoeuvre des forces, organisation même de ces forces : tout doit changer dans des pays qui ont toujours dessiné leurs systèmes de défense pour résister à l'invasion du territoire ou pour mener une grande guerre classique, les autres hypothèses étant jugées secondaires. C'est la fin, au moins provisoire, de la grande forme guerrière, qui vise à employer, contre un adversaire clairement identifié, et au mieux de manière décisive, une concentration de puissance potentiellement infinie. Les logiques, les règles, les appareils d'une vulgate clausewitzienne soigneusement appliquée depuis deux siècles apparaissent déclassés sur un échiquier où conflits et acteurs appellent d'autres manoeuvres, d'autres réponses. D'où des réformes en cascade d'appareils militaires qui savent qu'ils n'ont guère de chance d'être utilisés " en bloc " (concept de modularité des forces), ni d'être utilisés dans le seul cadre national (concept d'interopérabilité).
+Après avoir écarté l'idée qu'une menace Sud pourrait remplacer la menace Est pour légitimer des appareils militaires inchangés, on s'est d'abord attaché au règlement de crises extérieures. Si la sécurité internationale n'est plus mise en cause par des hypothèses d'invasions massives, mais par les effets induits d'abcès locaux, l'intervention de stabilisation prend tout son sens. Les opérations internationales qui se sont succédé nous ont ainsi obligés à penser l'usage de nos moyens d'action, et spécialement de nos forces militaires, dans une autre configuration que celle du conflit classique. Il s'agissait bien (voir les efforts de l'Union européenne depuis 1998 pour définir les instruments adaptés aux " hypothèses de Petersberg ") de penser, pour l'en-dehors, " autre chose que la guerre ".
+Parallèlement s'affirmait, dans un contexte où la menace était moins proche et l'engagement humain plus incertain, l'emprise de la logique technique. Les attitudes américaines sont ici dominantes, avec un formidable effet de contagion sur nos raisonnements. Deux directions ont ainsi été privilégiées : le recours aux technologies de l'information, tout d'abord, pour acquérir à distance une connaissance d'espaces stratégiques choisis et y agir militairement en limitant l'engagement physique des forces, ou en en maximisant l'effet : double problématique d'une domination à distance de l'espace d'affrontement et du champ de bataille éventuel ; puis l'enrôlement de ces mêmes techniques dans une entreprise visant à resanctuariser des espaces nucléarisés contre le double risque de la prolifération des missiles balistiques et de celle des armes de destruction massive.
+En bref, les débats stratégiques de ces dix dernières années ont, spécialement en Europe, tourné autour de deux questions-clefs :
+ +Ces débats ont laissé de côté l'hypothèse d'une atteinte massive non-conventionnelle aux sanctuaires. Les systèmes de défense étaient là pour parer à une atteinte militaire massive. Rien ne permettait de penser que, réglés sur l'hypothèse soviétique, ils ne seraient pas pertinents pour des affrontements interétatiques beaucoup moins dangereux. Quant aux hypothèses non-conventionnelles, en particulier les scénarios terroristes, on les tenait dans des limites imaginées d'après les expériences précédentes des années 1980 ; ou on les renvoyait aux technologies émergentes, donc à un avenir plus ou moins lointain.
+La démarche que nous avons suivie pour l'en-dehors (découvrir et organiser " autre chose que la guerre "), les événements du 11 septembre nous forcent à l'appliquer à l'en-dedans. Car la proclamation de l'état de guerre face au terrorisme ne résout nulle question. La situation héritée des attentats n'est pas la guerre dans sa définition sociologique : l'affrontement sanglant et armé entre groupes humains organisés et de statuts comparables. Et elle n'est pas non plus la guerre dans sa définition fonctionnelle : une situation qui appelle l'utilisation de l'appareil militaire tel qu'il est - et c'est justement pourquoi la réplique est si difficile à concevoir...
+La question centrale n'est pas ici la qualification de l'état d'affrontement, mais l'appréciation des vulnérabilités et, par conséquent, celle des moyens d'y parer. La vulnérabilité spécifique de nos sociétés développées doit de toute évidence occuper une place centrale dans nos raisonnements. Cette vulnérabilité est un thème récurrent ces dernières années, mais tout se passe comme si son ampleur et sa dynamique n'avaient été que confusément perçues.
+Au coeur du débat, ce théorème : la vulnérabilité globale des sociétés sophistiquées croît plus rapidement que les moyens techniques d'y parer. Ce qui ne signifie pas que ces sociétés soient à tout moment menacées, ni qu'elles soient, inévitablement, de plus en plus menacées, mais que leur sophistication diversifie les vulnérabilités et en change la nature. Par la concentration de leur habitat, des ressources nécessaires à leur survie et des réseaux d'échanges, par la sophistication de leurs mécanismes économiques ou techniques, nos sociétés sont évidemment vulnérables à des agressions qui n'exigent que la réunion de moyens limités - ceux-ci pouvant être raffinés (le progrès technique crée aussi des moyens d'attaque) ou rustiques.
+Stratégiquement, la démonstration du 11 septembre est limpide. Pour frapper un pays développé de telle sorte qu'un coup limité ait un large effet, il faut refuser d'entrer sur le champ d'affrontement où ce pays contrôle une écrasante palette de moyens, et le frapper là où sa sophistication est une faiblesse et non une force. Il y a tout à parier que si, dans un proche avenir, un conflit met en cause les sanctuaires des pays développés, l'affrontement tournera autour de ces vulnérabilités : systèmes informatiques et médiatiques, approvisionnement des grandes zones urbaines, maillons dangereux de la chaîne industrielle, populations mal protégeables contre des attaques de masse, etc.
+Le progrès technique est inégal selon les zones de la planète, les acteurs y recourent donc de manière diversifiée. Et le progrès technique a, en matière de défense, des effets contradictoires. La technique est donc le problème stratégique, et non le moyen de résoudre ce problème, constat qui nous emmène loin de certains réflexes américains : installer la technique au centre du raisonnement stratégique, c'est sans doute se préparer à des guerres qui n'auront jamais lieu. Il n'y a aucune raison de penser que l'ennemi acceptera d'entrer sur le champ de bataille (numérique ou non...) que nous contrôlerons, ou qu'il voudra bien tirer la salve de missiles que nos systèmes sont précisément faits pour intercepter. Il serait aussi dangereux d'ailleurs de tout voir à travers les formes d'affrontement et les instruments d'hier, par exemple en négligeant les percées qui créent de nouveaux moyens d'agression.
+Il faut appréhender le monde des rapports de forces en suivant la totalité de ses formes et des hypothèses qu'il nous impose. Tâche immense, impossible, mais qui suppose d'abord de récuser le mythe du monde unique. Pas plus en matière de stratégie qu'en économie, nous ne vivons dans un monde à logique univoque, tel système militaire, tel concept pouvant parer à la quasi-totalité des futurs possibles. Les espaces stratégiques sont hétérogènes, les acteurs disposant de leviers efficaces de plus en plus nombreux, et leurs stratégies de plus en plus diverses, dans un monde où coexistent le " sauvage " et le " mutant " technologique. Nous ne pourrons pas maîtriser cette réalité complexe en haussant ou en baissant le curseur technique de nos armes : il faut en revenir au politique.
+Le temps nous le rappelle brutalement : la sécurité est le produit volatil de facteurs composites - alors que nous avons hérité de la guerre froide l'idée qu'elle était, pour l'essentiel, un produit militaire pouvant se stabiliser par l'accumulation de moyens matériels. Produit volatil : la sécurité " consolidée ", absolue, n'existe pas, d'abord parce qu'elle n'est jamais qu'une perception, ensuite parce qu'aucun système total, totalitaire, de défense n'élimine le risque. Produit de multiples facteurs : diplomatiques (qui organisent et régulent les rapports conflictuels), économiques (qui usent des échanges pour développer et rapprocher, en même temps qu'ils définissent les richesses mobilisables pour la défense), culturels (qui font dialoguer des sociétés humaines irréductibles l'une à l'autre) et, bien sûr, militaires (pour gérer les crises ou, simplement, se défendre). Imaginer une sécurité basée sur la seule défense militaire est tout aussi irresponsable qu'inefficace. La lutte contre le terrorisme, comme toute stratégie de sécurité, combine donc de multiples manoeuvres. Même si l'urgence impose le démantèlement physique des réseaux terroristes, seule une démarche complexe, intégrée, peut nous garantir - et toujours relativement - contre leur éternel et proliférant retour.
+Le militaire demeure au coeur de ces stratégies de sécurité. L'expérience du 11 septembre va pousser à aborder d'un autre oeil le débat sur des moyens qui n'ont aucune vertu en soi et ne valent que dans un environnement déterminé. Quelle peut être désormais la pertinence des systèmes de défense territoriaux : quelle défense du territoire définir qui ne renvoie pas aux modèles du XIXe siècle ? Quelle réflexion mener sur les armes du champ de bataille, si nous ne connaissons ni le champ, ni la bataille ? Quel rôle pourraient jouer les systèmes techniques d'interception, si l'on considère que les missiles constituent désormais un moyen privilégié d'exporter les conflits au coeur de nos sociétés ?
+Le traumatisme du 11 septembre est gros de recompositions géopolitiques dont il est difficile d'apprécier l'ampleur (peut-être surévaluée sous l'effet du choc). La réunion de l'immense majorité des États contre le terrorisme international ne sera pas la plus difficile à former. Il est en effet une menace pour tous ces États, quels que soient leurs objectifs ou leur degré de démocratie. L'adhésion des populations pose de tout autres problèmes. Elle pourrait être gravement mise en cause, si se formait une dynamique de peuples s'identifiant comme victimes de la logique de mondialisation, et tournée contre ceux qu'ils en jugeraient bénéficiaires. Si une telle dynamique collait à une division culturelle, par exemple singularisant le monde musulman, elle conduirait droit à la catastrophe.
+Toute stratégie militaire, diplomatique, économique ou culturelle susceptible d'aggraver cette perception d'un écart par rapport au phénomène dominant de mondialisation impulsé par le monde riche, toute stratégie qui faciliterait une cristallisation (politique ou religieuse) anti-occidentale, endosserait une lourde responsabilité à long terme. C'est dans cette perspective aussi que doit être apprécié le déploiement de certains systèmes militaires. L'érection de hauts murs contre des menaces inactuelles peut se transformer en incitation à tourner la forteresse, politiquement (en faisant naître une vraie opposition, voire une vraie menace) ou militairement (en utilisant des méthodes inédites). C'est là une partie de la problématique des systèmes d'interception des missiles balistiques à longue portée.
+Cette éventuelle cristallisation anti-occidentale - objectif majeur des terroristes à la Ben Laden - ne peut être écartée que par une stratégie multimodale : réunion la plus large des États dans un souple front de coopération anti-terroriste ; aide économique, politique, militaire, à la stabilisation régionale, au Proche-Orient, en Asie centrale, voire en Asie du Sud-Est ; incitation à la démocratisation de régimes largement rejetés en même temps que l'Occident qui les soutient ; enfin, intégration, chez nous, de populations issues d'une immigration qui se développe désormais dans la logique de la globalisation.
+Les structures de sécurité adaptées au monde modifié par le 11 septembre seront, pour l'essentiel, définies par les États - surtout pour ce qui concerne la défense du territoire. Les cadres " durs " de sécurité vont, au moins provisoirement, reprendre la main. Pour un ensemble " mou " comme l'Union européenne, cela suggère soit une re-nationalisation des politiques de défense des États-membres, soit une " nationalisation " relative de l'Union, avec la redéfinition des objectifs et des moyens de la Politique commune de sécurité et de défense, qui se limite pour l'heure à la gestion des crises extérieures. Les échéances sont capitales pour l'Union. Qu'elle démontre qu'elle peut répondre à l'interpellation nouvelle, et elle sortira de son inexistence politique. Qu'elle prouve qu'elle est en situation dans le nouveau jeu, avec des arguments propres sur les concepts stratégiques pertinents, sur la conception d'une technologie moins impériale dans les discours et les pratiques militaires, ou même sur le modèle politique et social de la mondialisation, et l'Union se placera au centre du débat.
+L'Alliance atlantique, quant à elle, va voir se redéployer le débat sur son champ d'intervention, et donc sur son ouverture. En restera-t-elle au statu quo ante : coalition militaire à objectif limité, ornée d'un zeste de sécurité collective - mais de peu d'utilité, apparemment, dans une situation mettant sans conteste en cause la sécurité d'un de ses membres ? Ou, tout en limitant ses élargissements, deviendra-t-elle enfin l'Alliance tous azimuts rêvée, mezza voce ou non, selon les temps, par les États-Unis ? Ou sera-t-elle encore le support du large front politique formé sous la houlette américaine : auquel cas il faudrait qu'elle s'élargisse beaucoup, sous une forme à définir, y compris et d'abord à la Russie, en relativisant, ou laissant diluer, sa définition militaire ?
+On peut imaginer qu'on se dirige vers un double système de solidarités. Les solidarités politiques et de coopération s'exprimeraient dans un grand ensemble à définir, et les solidarités de défense et de sécurité dans des ensembles plus restreints, et peut-être durcis. Dans aucune de ces perspectives l'Organisation des Nations unies (ONU) n'apparaît très pertinente, ce qui pourrait annoncer un nouveau retrait, de fait, de son influence. Sans réforme profonde, l'organisation mondiale apparaît bien incapable de dépasser ses propres proclamations - légitimes, mais courtes. Une hypothèse optimiste serait que la prise de conscience du décalage actuel pousse à des décisions rapides, et que l'ONU puisse alors être le cadre d'expression de la solidarité politique et de ses implications concrètes, par exemple en matière de contrôle collectif des armes.
+Les options de défense concrètes devront aussi être adaptées à l'évolution des risques. On peut surtout penser à quatre orientations.
+ +La fin du système bipolaire a imposé une large révision de nos politiques de sécurité, mais le monde va plus vite que les adaptations institutionnelles. C'est une autre étape qui s'ouvre aujourd'hui, sans que nous en connaissions les contours, ni le terme. Les décisions qui vont être prises devront pourtant rester assez souples pour ne pas biaiser notre compréhension des évolutions en cours. Car si le temps de la décision politique est rapide, celui de l'intelligence du monde est lent.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+ifri
+Document de travail
+Le pourtour Caspien est capital pour le développement des pays d'Asie centrale et du Caucase. Pourtant, si on exclut l'Iran et la Russie (dont le centre de gravité économique ne se trouve pas autour de la mer Caspienne), les économies de la région sont de petite taille. Evalué à parité de pouvoir d'achat, le Produit Intérieur Brut des cinq pays d'Asie centrale est inférieur à 200 milliards de dollars. Ce chiffre ne souffre d'aucune comparaison avec les grands pays asiatiques. Ainsi, le poids de la région est inférieur à celui de la Malaisie, il représente moins du tiers du PIB de l'Indonésie, moins du quart de celui de la Corée et plus de 20 fois inférieure à la Chine ou au Japon.
+L'exploitation des hydrocarbures doit renforcer considérablement le poids économique de ces Etats.
+Quelles sont les spécificités des économies de la région par rapport aux autres pays en transition ou par rapport aux autres pays riches en hydrocarbures ? En outre, comme elles ont choisi des politiques économiques parfois totalement opposées, il est pertinent de s'interroger sur les différences de trajectoires. Pour avoir une approche comparative cohérente, l'étude se consacrera essentiellement aux pays de Transcaucasie et d'Asie centrale en se consacrant sur les pays riverains de la Caspienne et de facto en excluant l'Iran et la Russie.
+En analysant les économies de la région, il s'avère que les économies du bassin Caspien sont confrontées à trois handicaps communs (I), et même si les trajectoires économiques se sont révélées bien différentes (II), le système économique soviétique reste très présent dans le bassin (III).
+Les pays du bassin Caspien sont les seuls Etats du monde enclavés avec des ressources importantes en hydrocarbures si on excepte le cas du Tchad. Comme l'a résumé Gian Maria Gros-Pietro, président d'ENI, "étant donné que le transport maritime est le mode de transport le moins onéreux, la principale question (pour le bassin Caspien) revient à déterminer quel est le port le plus intéressant économiquement. Géographiquement, le Golfe Persique possède le plus d'attrait mais, dans ce cas, le pétrole Caspien sera en concurrence avec celui du Moyen-Orient".
+L'Asie centrale est la région au monde la plus éloignée de la mer. Effectivement, le Golfe Persique est le plus proche débouché sur la mer mais il se trouve, tout de même, à plus de 2000 kilomètres à vol d'oiseau. Or, Tachkent se trouve à 4000 kilomètres de Pékin, à 5000 kilomètres de Séoul, à plus de 5500 kilomètres de Singapour et à près de 5000 kilomètres de la mer Noire.
+L'absence d'accès à la mer a un impact économique négatif. L'enclavement provoque un déficit de croissance très important par rapport à un Etat côtier. L'étude empirique la plus large et la plus récente prouve que les Etats enclavés souffrent par rapport aux Etats côtiers d'un déficit de 1,5 % par an pour les pays à revenu faible et moyen. L'impact est tout aussi négatif sur le commerce, par rapport à un Etat côtier, un pays enclavé commerce en moyenne 70 % de moins à niveau de développement et à taille égaux.
+La principale explication réside dans le surcoût de transport lié à cette position géographique. Le transport maritime s'est considérablement développé depuis des siècles car étant le moyen de transport le moins onéreux. Il a été estimé que le transport continental est deux fois plus élevé que le transport maritime. D'après les calculs du FMI, les coûts de transport sont, pour un Etat enclavé en développement, deux fois supérieurs à ceux consacrés par un pays côtier en développement. Ce surcoût est, par exemple, lié au passage des frontières. Au sein des pays de la CEI, la corruption, la faiblesse de l'Etat, l'état des infrastructures, l'absence de routes alternatives confèrent une rente de situation aux Etats de transit et contribuent ainsi à l'appauvrissement des pays du bassin Caspien (cf. figure pour les mécanismes de transmission de l'enclavement sur le développement économique).
+L'analyse de l'héritage du système économique soviétique est capitale pour comprendre les économies de la région car, nonobstant des conditions initiales très différentes, elles ont atteint un stade de développement proche, notamment pour les pays du flanc sud de la Russie.
+Même si les éléments négatifs prédominent, le soviétisme a eu des aspects positifs sur le développement économique de l'Asie centrale.
+Tout d'abord, cette région jouit d'un capital humain important : malgré des signes peu encourageants aujourd'hui, l'analphabétisme a toujours été inexistant dans la région : 1 à 3 % de la population alors que ce pourcentage est proche de 40 % dans le cas de pays à faible revenus (ce que sont les pays d'Asie centrale).
+L'Asie centrale et le Caucase se sont développés moyennant des subventions directes ou indirectes, en grande majorité, en provenance de la Russie. Au sein de l'Union, les deux pays les plus bénéficiaires de cette aide étaient le Kazakhstan et l'Ouzbékistan. C'est ainsi que le premier a reçu des subventions équivalentes en moyenne à 14,7 % par an de son produit national utilisé et 5,3 % pour le second. En terme de montant, les subventions versées au Kirghizstan et au Tadjikistan étaient inférieures. Néanmoins, en pourcentage, celles-ci étaient très importantes tout du moins pour le Kirghizstan (15,5 %) et un peu plus faibles pour le Tadjikistan (8,8 %). Ainsi, dans le cas du Kirghizstan, par exemple, près d'un sixième des biens consommés et des capitaux investis, chaque année, étaient, en fait, des dons en provenance des autres Républiques. Grâce à la distorsion de prix au sein de l'URSS, la fiction d'un commerce assez peu déséquilibré était entretenue. Or, avec des estimations aux prix mondiaux en 1988, seul le Turkménistan et la Russie conservaient un commerce excédentaire tandis que le Kazakhstan, le Tadjikistan et le Kirghizstan accusaient un déficit commercial supérieur à 15 % du PIB. La conséquence de ce système était une inefficacité économique croissante. En 1970, le revenu national produit par habitant équivalait à 83 % de la moyenne de l'URSS, en 1979, ce pourcentage était tombé à 66 % et 51 % en 1989.
+La contrepartie économique résidait dans une dépendance des Républiques du sud de l'Union vis-à-vis de Moscou notamment pour l'approvisionnement, la technologie et l'exportation.
+Granberg (1993) a calculé l'interdépendance existant entre Républiques de l'URSS. Il apparaît que, si les liens économiques avec les autres Républiques avaient été coupés à la fin des années 80, le Kazakhstan et les autres Républiques d'Asie centrale auraient tout juste produit le quart de leur produit national. La part de la Russie était prépondérante puisque respectivement 42,5% et 36,3% du produit national du Kazakhstan et des autres Républiques d'Asie centrale étaient le fait de la Russie. L'Asie centrale ne pouvait se passer économiquement de la Russie. Les exportations des pays de la région vers les autres Républiques d'URSS représentaient au minimum 90 % du total des exportations et 85 % des importations avec des records pour le Turkménistan (avec 92 % pour les exportations).
+L'héritage soviétique a produit des effets très importants dans la phase de transformation post-socialiste dans la dernière décennie.
+Tous les Etats du flanc sud de la Russie ont été confrontés aux mêmes phénomènes macroéconomiques.
+Malgré les spécificités de chaque pays, la transition peut être caractérisée par plusieurs étapes :
+ +Sur la décennie, le PIB a baissé en moyenne d'un tiers pour les Républiques de la CEI, le Kazakhstan ayant accusé une baisse de 30 % mais la chute étant de près de 50 % pour le Turkménistan.
+Encore aujourd'hui, la stabilisation macroéconomique est difficile. Ces pays sont confrontés à un déficit chronique de la balance commerciale. Dans un contexte d'érosion des ressources fiscales très rapide, l'endettement est structurellement croissant.
+L'endettement concerne aujourd'hui tous les pays de la région (cf. tableau 1).
+Les économies de la région peinent à sortir de l'héritage économique soviétique et sont, de plus en plus, en voie de tiers-mondisation.
+A cause de la récession transitionnelle et l'érosion des recettes, la marge de manoeuvre des autorités économiques s'est réduite graduellement. Il est symptomatique de constater que l'illettrisme a notablement progressé dans la dernière décennie. C'est d'ailleurs la seule région au monde qui s'est trouvée dans ce cas. La scolarisation dans les écoles primaires est ainsi en baisse sensible. Alors que ce pourcentage était proche de 100 % durant l'époque soviétique, il est proche de 80 % aujourd'hui en Asie centrale selon l'UNICEF.
+Malgré les investissements du centre en périphérie au sein de l'URSS, l'Asie centrale était la région la plus pauvre de l'Union. Alors que le pourcentage de pauvres était en moyenne de 12,5 % au sein de l'URSS, cette moyenne était pour les cinq pays d'Asie centrale de 45 %. L'inégalité et la pauvreté étaient ainsi présentes en Asie centrale du temps de l'URSS, ces tendances ont été renforcées dans la dernière décennie. Hormis les deux grandes puissances régionales, Russie et Iran, tous les pays de la région sont des pays à faible revenu, si ce n'est le Kazakhstan qui est à revenu moyen (cf. tableau 2).
+La hausse de la démographie contribue encore au renforcement de la pauvreté. Hormis le cas du Kazakhstan et de l'Arménie, les pays de la région ont connu une expansion démographique très importante, atteignant presque 2 % par an dans le cas du Turkménistan et de l'Ouzbékistan.
+Les populations de la région sont ainsi de plus en plus jeunes et avec des ressources limitées. Aussi, l'économie parallèle, pour ne pas dire, criminelle, se développe. Même si la production de drogue en Asie centrale reste assez faible, limitée au Tadjikistan (vallée de Pendjikent) et à l'Est du Turkménistan pour l'opium et les régions d'Issyk-Koul et du sud-Kazakhstan pour le cannabis, la région est devenue la principale région de transit de l'opium afghan. Il a été estimé que de 30 à 50 % de l'activité économique au Tadjikistan est liée à la production ou au commerce de drogue. Ce commerce pourrait être plus ou moins institutionnalisé si on se reporte aux scandales des dernières années impliquant des gardes-frontières russes, des officiels en charge de la lutte contre le trafic de drogue voire même d'officiels proches du Président turkmène, S.Niyazov. Avec les problèmes d'autorité rencontrés par l'Etat et la pauvreté croissante des populations, la criminalisation des économies se renforce avec la multiplication des trafics (contrebandes, drogue) dans des régions fragilisées comme le Tadjikistan, le sud Kirghizstan ou la Géorgie.
+Les économies de la région sont ainsi devenues de plus en plus dépendantes de l'aide et de l'investissement étrangers.
+L'IDE (investissement direct étranger) est nécessaire pour mettre en valeur les ressources de la région. Pourtant, il reste encore très faible. Parmi les pays en transition, l'Asie centrale est le parent pauvre du point de vue de l'IDE. La BERD a calculé, sur la période 1989 - 1999, que l'IDE par habitant avait été de 668 dollars pour les pays d'Europe centrale et orientale. Pour les pays de la CEI, ce ratio était près de cinq fois inférieur, s'élevant à 140 dollars. Si on excepte le Kazakhstan qui a attiré près de 80 % de l'IDE en Asie centrale, l'IDE est inférieur à 50 dollars par habitant. Malgré les hydrocarbures et les métaux, l'Asie centrale n'a reçu que 0,3 % des IDE investis dans le monde sur la période 1998 - 2000. Ce chiffre était nul dix ans plus tôt mais seuls les pays en développement du Pacifique sud ont attiré moins de capitaux que les pays d'Asie centrale sur cette période de trois années.
+L'investissement est faible. Les pays de la région ont ainsi recours à l'endettement extérieur. L'endettement total des pays du Caucase méridional et d'Asie centrale a dépassé les 25 milliards de dollars, ce qui représente en moyenne plus de 60 % du PIB de cette région (voir tableau). Plus que le chiffre, c'est le rythme d'accroissement qui est inquiétant. En effet, partis sans dette en 1992, ces Etats ont eu recours massivement à l'endettement à tel point que des pays de la région font déjà partie des pays les plus endettés au monde dix ans après l'indépendance, à l'instar du Kirghizstan et du Tadjikistan. La majorité des pays Africains ont été confrontés à ces mêmes problèmes dans les années 80, à savoir trois décennies après l'indépendance.
+Dans ce contexte de nécessité de commercialiser les ressources naturelles pour faire face aux problèmes de financement, l'exploitation des hydrocarbures revêt une importance capitale pour ces économies. Les économies riches en hydrocarbures de la région, Azerbaïdjan, Kazakhstan et Turkménistan, deviennent ainsi de plus en plus des économies de rente. Le commerce des pays de la région se rapproche de plus en plus d'un pays en développement : ils exportent des matières premières et importent des biens à forte densité technologique. Ainsi, la part du coton et de l'or dans les exportations totales de l'Ouzbékistan est de 60 %, les métaux et le pétrole représentent 45 % des exportations totales du Kazakhstan et le gaz et pétrole, 50 % des exportations totales du Turkménistan.
+Les dernières études empiriques montrent que, depuis la fin de la seconde guerre mondiale, les pays avec d'importantes ressources naturelles ont connu des taux de croissance plus faibles que ceux qui n'en avaient pas. "La malédiction des ressources naturelles" est la règle et non l'exception.
+Comme le remarquent Sachs et Warner (2001), aucune explication théorique de ce phénomène n'est pour lors reconnue universellement. Plusieurs canaux de transmission de cette relation négative entre ressources naturelles et croissance ont été avancés : (1) un faible investissement dans l'éducation (2) un comportement rentier de la part des dirigeants de ces pays (3) une confiance excessive dans l'avenir qui conduit à l'adoption de politiques économiques inappropriées (4) la théorie de la maladie hollandaise.
+Il est important de savoir si les pays du bassin Caspien semblent ou non échapper à la malédiction des ressources naturelles en étudiant la situation dans laquelle sont ces Etats pour ces différentes questions.
+Les pays du bassin Caspien sont, de toute façon, extrêmement dépendants des hydrocarbures comme le montre le tableau 3.
+D'après Gylfason (2001), un pays est moins enclin à investir dans le capital humain (l'éducation) lorsqu'il possède des revenus confortables tirés des ressources naturelles. Empiriquement, cette corrélation négative est vérifiée. Dans le cas des pays du bassin Caspien, il y a bien investissement plus faible dans l'éducation mais ce mouvement est général dans les pays de la CEI depuis l'indépendance. Cette baisse serait même moins faible pour l'Azerbaïdjan et le Kazakhstan (mais plus forte pour le Turkménistan), cf. tableau 4.
+En revanche, on peut redouter de plus en plus le comportement rentier de la part des dirigeants des pays du bassin Caspien. Ainsi, l'Azerbaïdjan et le Kazakhstan se sont dotés de fonds pétrole qui réunissent tout ou partie des revenus liés aux exportations d'hydrocarbures. Mais, dans les deux cas, contrairement aux recommandations des organisations internationales, ces fonds sont placés sous l'autorité du président avec un droit de regard limité pour le parlement, voire nul dans le cas de l'Azerbaïdjan. En outre, dans ce dernier, ce fonds est extra-budgétaire ayant pour conséquence de siphonner une bonne partie du budget azéri accroissant ainsi l'opacité dans la gestion budgétaire.
+La confiance excessive dans l'avenir est présente dans les discours officiels puisque ces Etats se sont proclamés "Koweït de l'Asie centrale" comme l'Azerbaïdjan et le Turkménistan. Pourtant, on en peut nullement les comparer à un pays du Moyen-Orient. Comme démontré dans la seconde partie, cette confiance a sûrement conduit le Turkménistan à l'adoption d'une politique économique vouée à l'échec.
+L'une des questions récurrentes à propos de ces économies concerne la maladie ou plutôt le syndrome hollandais (dutch disease). Ces pays connaissent-ils aujourd'hui ce syndrome ?
+Rosenberg et Saavalainen (1998) ont montré qu'une adaptation aux économies en transition était nécessaire pour appliquer les modèles de base de cette théorie. Les principaux symptômes de ce syndrome sont l'appréciation excessive du taux de change réel (overshooting) après la découverte massive d'hydrocarbures, un déséquilibre croissant des comptes courants et surtout une croissance sectorielle déséquilibrée.
+Dans le cas des économies en transition, le taux de change réel est considéré comme sous-évalué à l'équilibre. Le phénomène d'overshooting et ses conséquences sur l'économie réelle ( perte de compétitivité internationale et déséquilibre des comptes courants, inflation par exemple...) est donc plus limité. En outre, l'arrivée de capitaux est normale dans le cas des pays en transition, voire nécessaire, s'il est provoqué par des investisseurs étrangers qui renforcent la capacité productive du pays (dans le pétrole, le raffinage ou autre secteur productif à moyenne ou forte densité technologique, par exemple).
+Le principal souci, pour ces économies, concerne le déséquilibre de la croissance. D'après la théorie, on doit assister à un accroissement du secteur des biens non-échangeables (services) ainsi que celui du secteur extractif au détriment des biens échangeables (manufacturier et agricole). Avec l'appréciation du taux de change réel, la conséquence est la perte de compétitivité du secteur des biens échangeables hors pétrole et, à terme, une hypertrophie du secteur des hydrocarbures. Or, c'est ce qui se passe aujourd'hui dans la région. Ainsi, en Azerbaïdjan, c'est le secteur pétrolier et gazier qui a connu la plus faible baisse de sa production (-15 % entre 1992 et 1999). En revanche, tous les autres pans de l'économie ont connu des baisses catastrophiques : -68% pour la chimie et la pétrochimie, -71% pour la production cotonnière, -84 % pour l'industrie agroalimentaire, -90% pour l'industrie légère et même -93% pour la métallurgie. Le secteur pétrolier en Azerbaïdjan se développe en marge du reste de l'économie.
+Enfin, la manne pétrolière et gazière permet de faire perdurer le système de contrainte budgétaire molle en subventionnant des entreprises dans les secteurs hors pétrole et gaz et ainsi maintient les dysfonctionnements des entreprises ainsi que les phénomènes de gaspillage. La société pétrolière nationale azérie facture à ses clients un prix trois à quatre fois inférieur aux prix mondiaux. Avec les arriérés de paiement, on estime ainsi à 14% du PIB azéri qui est versé aux entreprises sous forme de subventions indirectes en énergie. Aussi, il n'est pas étonnant de constater encore aujourd'hui que l'intensité énergétique est très forte dans les pays du bassin Caspien. L'Azerbaïdjan et surtout le Turkménistan (ainsi que l'Ukraine et l'Ouzbékistan) sont les pays au monde qui produisent le moins rapportés à un kilogramme d'équivalent pétrole d'après une étude de la Banque Mondiale. En effet, en 1997, seulement 1,33 dollar étaient produits avec 1 kilogramme d'équivalent pétrole d'énergie consommée en Azerbaïdjan et ce chiffre n'était que de 0,98 pour le Turkménistan. En outre, en 1989, ce chiffre était supérieur (1,39 dollar) pour l'Azerbaïdjan, c'est à dire que l'on produisait plus avec la même quantité d'énergie consommée. Bien évidemment, dans les pays voisins, pauvres en ressources, l'énergie consommée est bien mieux utilisée. En Arménie, ce ratio était de 4,3 en 1997 et 7,7 en Géorgie, c'est à dire qu'on produisait près de 6 fois plus avec la même quantité d'énergie.
+Même si le modèle théorique de dutch disease ne s'applique pas in extenso dans le bassin Caspien, des symptômes apparaissent déjà tels que croissance sectorielle déséquilibrée.
+Les pays du bassin Caspien cumulent des handicaps liés à l'histoire (avec la sortie du système économique soviétique), à la géographie (avec l'enclavement) et à la fatalité économique (avec la sortie du sous-développement).
+Face à ces multiples défis, les Etats ont essayé de répondre de différentes manières.
+Les politiques économiques menées dans la dernière décennie par le Kazakhstan et l'Azerbaïdjan, d'une part et par l'Ouzbékistan et le Turkménistan, d'autre part ont été diamétralement opposées. Pourtant, dix ans après l'indépendance, les résultats des deux voies sont mitigés. Plus que des choix voulus par les autorités en place, ils apparaissent plus comme des options imposées par les conditions économiques initiales dans lesquelles se trouvaient les Etats de la région.
+Deux grandes approches de politique économique s'affrontent sur le flanc sud de la Russie. La première rassemble la majorité des Etats de la région. Il fut conforme aux souhaits de la communauté internationale avec une ouverture commerciale et du marché des taux de change avec la convertibilité de la monnaie nationale, un effort de privatisation des moyens de production pour attirer les capitaux étrangers. Le Kazakhstan et surtout l'Azerbaïdjan ont suivi très tôt cette voie. Tous les pays de la région sont, plus ou moins, se dirigent dans cette même direction.
+La seconde approche regroupe l'Ouzbékistan et le Turkménistan. Dans ce dernier pays, cette politique est menée à son paroxysme. Ces deux Etats s'appuient sur un modèle de développement autocentré avec une substitution des importations. L'économie reste très réglementée avec une absence d'ouverture commerciale et du marché des changes. Dans ces deux pays perdure l'Etat producteur. Ce système repose sur un taux de change artificiel surévalué qui facilite l'importation de machines ou de biens nécessaires à l'industrialisation du pays. Mais cette politique a un coût élevé qui explique les problèmes actuels de financement de ces pays. Par le biais de la surévaluation du taux de change officiel, un mécanisme d'incitation à l'importation a été mis en place au détriment des exportations. Le FMI a ainsi calculé que le transfert des exportateurs vers les importateurs était équivalent à 16 % du PIB. Les trois piliers de ce système sont la distorsion de prix, la ponction sur le secteur agricole (notamment sur celui du coton) et le mécanisme de redistribution au profit de secteurs classés comme stratégiques par le régime. Il est indispensable que le coton soit acheté aux producteurs à un prix inférieur aux prix mondiaux. Le profit engrangé par l'Etat ouzbek, par exemple, permet ainsi l'investissement industriel. En 1996, le prix d'achat imposé aux producteurs (qui s'impose à tout producteur) était inférieur de 30 % aux prix mondiaux. Ce système se développe également au Turkménistan au détriment de l'agriculture et plus particulièrement des petits producteurs. Le FMI a calculé que l'Etat turkmène achète (au taux de change officiel) le coton et le blé entre 50 et 60 % des prix mondiaux, ce qui représente annuellement un transfert de l'agriculture au profit du reste de l'économie équivalent à 15 % du PIB.
+En analysant le tableau sur la performance de la production entre 1989 et 1998, il apparaît clairement que c'est l'Ouzbékistan qui sort vainqueur de cette confrontation avec le Kazakhstan et l'Azerbaïdjan. En effet, la baisse de la production cumulée n'a pas dépassé 15 % alors que la moyenne pour les douze pays de la CEI s'est établie à plus de 50 % sur la même période.
+Néanmoins, il serait réducteur de vouloir sacrifier le modèle d'ouverture prôné par les organisations internationales dans la région. En effet, le Turkménistan a connu des résultats bien plus mauvais que le Kazakhstan en pratiquant la politique inverse.
+Plus que la politique économique, c'est la structure même de l'économie à l'indépendance qui a largement conditionné le choix des politiques économiques suivies au cours de la dernière décennie.
+Sans nul doute, les options de politique économique choisies ont eu un impact sur les dix années de transition.
+En effet, la non-ouverture de l'économie ouzbek et la subvention de nombreux combinats par différents biais comme les arriérés interentreprises ou le financement grâce à des banques publiques ont limité la baisse du PIB. La production est ainsi restée artificiellement élevée dans certaines entreprises.
+De même, les politiques kazakhe et azéries ont provoqué une paupérisation des populations d'autant que l'Etat joue de moins en moins le rôle de garant des politiques sociales. La politique économique est, pour une certaine part, responsable de la baisse des revenus et de la hausse du chômage. Néanmoins, elle a permis une reprise plus forte de la croissance dans la seconde moitié des années 90. Alors que le Turkménistan et l'Ouzbékistan sont encore confrontés à des problèmes structurels de stabilisation macroéconomique, le coeur du problème au Kazakhstan et en Azerbaïdjan est désormais la gouvernance économique et la gestion de la rente.
+Ainsi, malgré l'importance des politiques, il semble que des raisons plus profondes expliquent les différences de trajectoires macroéconomiques dans les pays de la région.
+Plus qu'un choix, c'était un devoir pour le Kazakhstan et l'Azerbaïdjan d'ouvrir leurs économies. En effet, ces deux pays avaient cruellement besoin de capitaux. La capacité de financement domestique étant trop limitée, un système autarcique était impossible dans ces deux pays. Ils avaient besoin de capitaux pour reconvertir l'appareil de production et développer l'exploitation des hydrocarbures ou développer la production métallurgique. Le Kazakhstan a toujours été une économie fondée sur les industries extractives. Ainsi, en 1990, plus des deux tiers de la production industrielle kazakh provenait de ces industries. En revanche, l'Ouzbékistan, est un pays agricole spécialisé dans l'industrie cotonnière. Ainsi, les industries extractives ne représentaient que 12 % de la production industrielle en 1990. C'était aussi le pays le moins industrialisé de tous les pays de l'ex-bloc de l'Est. Grâce à ses ressources, ce pays avait la possibilité de devenir rapidement autosuffisant dans les domaines énergétique et alimentaire. Enfin, la garantie de posséder des revenus à l'exportation importants du fait du coton et de l'or (3 à 4 milliards de dollars annuels) pouvait permettre à l'Ouzbékistan de mener une politique de substitution aux importations.
+Le Turkménistan s'est, quant à lui trompé de choix de politique. En effet, ce pays n'a pas les ressources suffisantes pour mener une politique de développement autocentré. L'autosuffisance alimentaire est quasiment impossible étant donné la croissance démographique et les facteurs climatiques (son territoire est constitué à 85 % de désert) si ce n'est au prix de graves dommages à l'environnement. Conséquemment, les politiques d'investissement et de construction publiques se font au détriment des cultures commercialisables comme le coton et en ayant recours massivement à l'endettement extérieur. La pérennité d'un tel système est ainsi en cause d'autant que la principale hypothèque réside dans la volatilité des revenus. En effet, encore aujourd'hui, ce pays est totalement dépendant de la Russie pour ses exportations de gaz qui représentent 80 % des exportations.
+Nonobstant les conditions initiales très différentes et les politiques économiques diamétralement opposées, les caractéristiques économiques des Etats de la région restent assez proches. Ceci s'explique par une rémanence du système économique soviétique encore aujourd'hui. La sortie totale du système n'a pas encore eu lieu et, sur de nombreux points, les économies de la région fonctionnent encore sensiblement de la même manière.
+Même parmi les pays de l'ex-URSS, les Etats du bassin Caspien sont en retard dans les réformes structurelles. Ainsi, aussi bien le Kazakhstan que l'Azerbaïdjan ou le Turkménistan possédaient des indices cumulés de libéralisation économique inférieurs aux pays de la CEI. De nombreuses caractéristiques héritées de la période soviétique ont perduré.
+Qu'on parle de jouzisme, de tribalisme ou de népotisme selon les Etats, la réalité reste peu différente. L'économie est subordonnée à la politique dans la région. Or, la pratique politique est, elle-même, le produit de plusieurs influences.
+Les sociétés centre-asiatiques se sont forgées au contact de nombreuses influences extérieures. Ces différents emprunts ont contribué, d'une manière générale, à la constitution d'un pouvoir fort, voire autocratique, ayant une mainmise sur tous les pans de la société y compris l'économie.
+Les présidents de la région ont repris une pratique autocratique du pouvoir. Ce qu'on appelle aujourd'hui la "mémoire de la démocratie" (democracy memory) est pour ainsi dire inexistante en Asie centrale. C'est pourtant un mythe relevé par Martha Brill Olcott (2001) que de penser que seuls les présidents dirigeant avec une main de fer peuvent se maintenir au pouvoir dans la région. Bien évidemment, le pouvoir préfère se référer à la pratique autocratique mongole ou aux khanats de la période pré-soviétique pour diriger sans compromis aujourd'hui. Pourtant, comme l'explique Olcott, la majorité des élites urbaines (notamment dans les capitales) voudraient une solution plus démocratique. Mais ces Etats sont majoritairement ruraux et, même au sein des villes, la mentalité est empruntée de cette conscience héritée des campagnes. Or, dans la majorité des campagnes centre-asiatiques, la conscience politique est très faible et la majorité des populations de la région considèrent que le pouvoir en place doit être symbolisé par un homme fort. Dans ces conditions, la société comme l'économie doivent être au service du pouvoir.
+Lié à cette conscience politique dans les campagnes, on peut se référer à l'influence du milieu naturel. A ce propos, la thèse de Wittfogel (1977) sur l'Etat hydraulique semble très pertinente en Asie centrale. D'après lui, l'économie hydraulique qui a pour but l'irrigation et le contrôle des eaux est nécessairement politique. Pour développer efficacement l'agriculture, elle requiert une forte hiérarchisation et une grande coopération entre les individus. Cette dernière développant ainsi un fort communautarisme. Dans ces conditions, "le caractère despotique du gouvernement hydraulique n'est pas sérieusement contesté". Dans l'économie hydraulique, existerait même "une tendance cumulative au pouvoir incontrôlé". C'est d'autant plus pertinent pour l'Asie centrale que le Turkménistan, l'Ouzbékistan ou le sud du Kazakhstan sont des pays d'oasis. Dans la région, l'eau a joué un rôle capital dans le développement des villes, régions et puis des Etats. En suivant le raisonnement de Wittfogel (1977), on peut mieux comprendre pourquoi un pouvoir autocratique s'est développé dans la région. Cette influence de l'Etat hydraulique est probablement lointaine. Néanmoins, elle induisait une certaine pratique autocratique du pouvoir et une subordination de l'économique au politique. C'est exactement ce que le système soviétique a promu en Asie centrale et dans le Caucase méridional. Et c'est cette influence, qui s'appuie probablement sur de nombreux héritages, qui reste très vivace.
+Du temps de l'URSS, la culture, l'économie et tous les pans de la société devaient être, coûte que coûte, au service de l'idéal politique qui était la construction du premier Etat communiste de l'histoire. Bien évidemment, ce système politico-économique a eu des conséquences fâcheuses sur l'économie qui restent présentes même dans les entreprises. Par exemple, l'absence de responsabilisation des salariés dans les entreprises est largement héritée de cette époque. Le problème de la compétence au sommet de l'entreprise est un problème économique récurrent dans la région.
+Plusieurs influences expliquent ainsi l'absence de frontière claire entre pouvoir politique et économie. Ceci a des conséquences très importantes sur le fonctionnement actuel de ces économies. Cet effet pourrait même encore se renforcer si on se réfère aux phénomènes apparus dans les Etats riches en hydrocarbures.
+Empiriquement, il a été montré qu'un afflux soudain de ressources financières lié à l'exploitation de matières premières renforce l'inégalité de revenus. Lam et Wantchekon (2000) ont essayé de démontrer quel était l'impact de cet afflux financier sur la gestion politique d'un pays. Dans ce cas, apparaît ce qu'ils ont appelé un phénomène de "political dutch disease" ou de maladie hollandaise politique. L'abondance des ressources provoque directement et indirectement une plus grande inégalité de revenus. L'effet direct s'explique par l'enrichissement de l'élite au pouvoir, l'effet indirect induit un appauvrissement de la population à cause des phénomènes de maladie hollandaise. En étant responsable de la distribution de la rente, l'élite au pouvoir consolide son pouvoir car elle peut créer des groupes de pression de poids à peu près égal mais concurrents et ainsi diviser pour mieux régner. Ainsi, si cette théorie était validée dans la Caspienne, le pouvoir des Présidents Aliev, Nazarbaev et Niyazov ne seraient pas véritablement menacés pour peu qu'ils sachent redistribuer une partie de leurs revenus à une partie de l'oligarchie dirigeante.
+Le type d'exploitation des hydrocarbures est intimement lié à la situation politique comme le montrent Luong et Weinthal (2001) dans le cas des pays du bassin Caspien. En effet, elles expliquent que les stratégies de développement des hydrocarbures sont fonction de deux éléments : la possibilité ou non de se procurer des ressources alternatives à l'exploitation des hydrocarbures et le niveau de la contestation politique. Ainsi, en Ouzbékistan et au Turkménistan, l'agriculture (et notamment le coton) fournit d'importants revenus aux budgets nationaux si bien que le pouvoir a préféré un engagement assez limité des entreprises étrangères et conserver aux mains de l'Etat le secteur pétrolier et gazier pour pérenniser le statu quo hérité de la période soviétique. L'Azerbaïdjan a hérité, à l'indépendance, d'un appareil économique dépendant économiquement des hydrocarbures et avec des ressources nationales de financement faibles. Aussi, a-t-elle dû faire appel aux entreprises étrangères tout en conservant la mainmise sur ce secteur en maintenant dans le secteur public la compagnie pétrolière nationale. En Russie, la privatisation du secteur a été "nationale" avec une faible participation étrangère pour accéder aux demandes des barons locaux et a, en conséquence, limité la contestation politique. Enfin, le Kazakhstan avait crucialement besoin de l'exploitation des hydrocarbures car ne possédant pas de source alternative de revenus sans investissement massif. Aussi, ce pays a eu recours à la participation importante des entreprises étrangères. Comme la contestation politique a toujours été assez forte dans ce pays, Astana est allé plus loin en privatisant une partie du secteur pour faire rejeter la responsabilité sociale de la crise économique sur les entreprises étrangères. Tous ces points sont résumés dans le tableau 6.
+Conséquemment, il apparaît que les stratégies de développement des hydrocarbures sont liées à des conditions économiques mais surtout à la situation politique. La gestion de la rente est corrélée à la force des institutions. Karl (2000) explique qu'au regard des expériences au Moyen-Orient et en Amérique latine que de véritables institutions politiques et sociales aient été mises en place avant que le boom pétrolier n'intervienne.
+On peut douter de l'efficacité économique des institutions politiques aujourd'hui dans le bassin Caspien. Von Hirschhausen et Waelde (2001) décrivent l'Etat dans les économies du bassin Caspien comme étant "autocratique, dominé par des structures de clan..., (pays) où il n'existe pas de séparation entre Etat et économie". L'Etat est devenu source de profit car le secteur privé reste assez faible et vulnérable lorsqu'il n'est pas lié au pouvoir. Il existe aujourd'hui une rémanence du dirigisme étatique. Même le pays où le secteur avait été le plus ouvert, le Kazakhstan, procède à une certaine reprise en main avec la constitution d'un monopole d'Etat, Kazmounaïgaz, au printemps 2002. Reviennent également régulièrement des déclarations d'officiels pour remettre en cause les contrats déjà signés avec les entreprises étrangères.
+Dans la région, l'Etat est de plus en plus discrédité par le secteur privé. Parmi vingt pays en transition étudiés en 2001, l'Azerbaïdjan était le pays où l'indice de capture de l'Etat était le plus élevé, c'est dire que les entreprises interrogées percevaient une corruption de l'Etat à tous les échelons. Le problème crucial aujourd'hui reste celui de la gestion de la rente. En 2000, sur 90 pays étudiés par Transparency International pour connaître la perception de la corruption, le Kazakhstan était 66ème, la Russie 83ème et l'Azerbaïdjan 87ème. En 2002, ces pays sont respectivement 88ème, 74ème et 95ème sur 102 pays étudiés, c'est dire que la situation s'est améliorée sensiblement en Russie mais s'est détériorée au Kazakhstan et reste catastrophique en Azerbaïdjan. Dans tous les pays de la région, le pouvoir politique a désormais la mainmise sur le secteur pétrolier. En Azerbaïdjan, le fils du président, Ilham Aliev, est vice-président de la compagnie pétrolière nationale et au Kazakhstan, le second gendre du président, Timour Koulibaev, est vice-président de la compagnie pétrolière et gazière nationale, Kazmounaïgaz.
+Comme dans le système soviétique, l'économie, notamment avec le secteur pétrolier et gazier, est subordonnée au pouvoir politique. Mais le système économique soviétique reste présent notamment dans le fonctionnement même de ces jeunes économies.
+Bien évidemment, avec la désintégration de l'URSS, les économies du flanc sud de la Russie ont entamé une série d'évolutions capitales. Pourtant, derrière certains chiffres se cache une réalité un peu différente mettant en exergue la perpétuation de l'ancien système économique.
+Il est vrai que le commerce entre ex-Républiques de l'URSS a fait une chute sans précédente puisque pour les pays d'Asie centrale, il est passé d'environ 90 % à 30 % en moyenne. Pourtant, les ex-Républiques, notamment la Russie, sont encore des partenaires commerciaux privilégiés. Le commerce avec la Russie représente encore plus du quart du commerce total (et plus de 40 % des importations).
+Le commerce avec la Russie a décliné dans la mesure où ces Etats riches en hydrocarbures n'exportent pas d'hydrocarbures vers la Russie, elle-même productrice. Ainsi, c'est la part des autres pays d'ex-URSS qui reste assez importante : le Turkménistan commerce ainsi à près de 30 % avec les autres ex-Républiques (hors Russie) et l'Azerbaïdjan à plus de 10 %. Des pays comme l'Ukraine sont ainsi devenus des partenaires incontournables de ces pays producteurs de pétrole et de gaz. Le désenclavement avec le flanc sud, symbolisé par l'Iran, reste encore assez hypothétique. Pour Téhéran, le commerce avec toutes les ex-Républiques de l'URSS (hors Russie) représente moins de 3 % de son commerce total. Même le Turkménistan, qui possède près de 1000 kilomètres de frontière avec l'Iran, ne commerce que faiblement avec son voisin du sud (11 % du commerce total).
+Ceci est symptomatique du rôle économique encore joué par Moscou. Derrière les chiffres, perdurent certaines dépendances économiques vis-à-vis de la Russie. Ainsi, le Kazakhstan et le Turkménistan sont, pour lors, quasiment exclusivement dépendants de la Russie pour l'exportation de leurs hydrocarbures. Moscou possède ainsi un moyen de pression très fort. Ainsi, suite au différend opposant l'Etat turkmène à la société Gazprom à propos du montant des droits de transit pour l'utilisation du gazoduc de la société russe, le PNB turkmène avait chuté de 25 % en 1997.
+L'Azerbaïdjan est, dans une même situation inconfortable, vis-à-vis de la Russie concernant la situation énergétique intérieure, tout comme le Kazakhstan. La production gazière est, aujourd'hui exclusivement consacrée à la consommation intérieure. En revanche, les exportations de pétrole sont en constante augmentation. C'est principalement du pétrole brut qui est exporté. Le niveau actuel des cours de pétrole brut rend attractive cette option pour les Azéris. En outre, le raffinage a considérablement chuté depuis 1992. En théorie, la capacité de traitement est de 20 millions de tonnes, mais certains experts l'estiment plutôt à 14 millions et la production de produits raffinés n'a été que de 8 millions en 2000. Certaines régions sont ainsi confrontées à des problèmes de pénuries d'énergie, principalement dans les régions rurales. L'Azerbaïdjan doit donc se résoudre chaque année à importer du gaz de Russie depuis 2000 pour ne pas connaître à nouveau la grave crise énergétique qu'il avait traversée à l'hiver 1999 - 2000. La société pétrolière nationale a alors signé, à l'hiver 2000, deux accords de livraison de gaz, l'un avec le duo de sociétés russe Itera et allemande Debis et l'autre avec la société russe Transnaphta. En 2002, Itera a livré près de 4 milliards de mètre cube de gaz.
+Ainsi, malgré la chute des relations commerciales, la Russie reste extrêmement présente dans le domaine économique sur son flanc sud.
+Le tissu économique, dans les pays d'Asie centrale et du Caucase méridional, reste empreint du système économique antérieur de par la gestion, les pratiques etc. Les entreprises de la région restent liées aux anciens réseaux fournisseurs et clients. A titre d'exemple, les anciennes pratiques commerciales, comme le troc ou les échanges de compensation, survivent.
+L'imbrication des économies est illustrée par le secteur crucial de l'électricité au Nord du Kazakhstan. Ainsi, les compagnies russes d'électricité conservent des positions fortes dans cette région à cause d'arriérés croissants dans le domaine de l'énergie. Dès 1996, Sverdlovskenergo (filiale du monopole Electricité de Russie) avait acquis deux mines de charbon (Severnyi et Bogatyr) dans le bassin d'Ekibastouz (région de Pavlodar, Nord Kazakhstan) pour mettre fin aux arriérés de paiement liés aux fournitures d'électricité vers cette région. Un second pas a été franchi en septembre 2000 lorsque ces deux mines ont été intégrées dans une nouvelle société dénommée Uraltek. Le charbon extrait est ainsi convoyé en Russie pour servir de combustible à quatre centrales thermiques russes. En janvier 2000, les Kazakh avaient annoncé qu'ils allaient se lancer dans la construction d'une voie de chemin de fer entre la région de Pavlodar et la région russe d'Omsk pour réduire les coûts de transport du charbon kazakh. Electricité de Russie continue une politique où le Nord du Kazakhstan est totalement intégré au réseau sud-sibérien. Ainsi, le monopole russe a acquis, en avril 2000, la moitié des actions de la grande centrale thermique du Nord du pays (Ekibastouz-2). Cette prise de participation a été le fruit d'un accord intergouvernemental signé en janvier 2000 à Moscou. Cela a mis fin à un différend concernant la dette énergétique du Kazakhstan vis-à-vis de son voisin du nord.
+Le système soviétique est ainsi toujours présent. Joomart Otorbaev, vice-premier ministre kirghize le déclarait dernièrement : " Il y a encore beaucoup de soviétique en nous, la mentalité et les méthodes pour la prise de décision... le système soviétique de gestion qui a été enterré avec l'Union soviétique est encore avec nous". Cette déclaration est d'autant plus intéressante qu'Otorbaev semble être l'archétype de l'élite centre-asiatique "occidentalisée". Parlant couramment anglais, ayant enseigné aux Etats-Unis, il fut représentant de Philips pendant de nombreuses années. Même si les apparences semblent contraires, le système soviétique est loin d'avoir disparu en Asie centrale et dans le Caucase méridional.
+Azerbaïdjan, Kazakhstan et Turkménistan sont confrontés à des défis économiques communs tels que l'enclavement, la transformation post-socialiste ou encore tout simplement le sous-développement.
+Pourtant, des deux côtés de la mer Caspienne, les politiques économiques menées ont été fort différentes. Malgré ces différences de choix, les trajectoires économiques de ces Etats restent assez semblables. Ces jeunes Etats restent encore bien empreints par le système économique soviétique qui a fondé leur modèle de développement pendant soixante-dix ans.
+La perspective la plus crédible de sortie pour ces Etats devrait vraisemblablement provenir de leurs richesses minérales. Encore faut-il éviter l'écueil des Etats rentiers. Ceci est le plus important défi auxquels sont confrontées ces nouvelles économies indépendantes.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Les Études de l'Ifri 1
+L'Ifri est en France le principal centre indépendant de recherche, d'information et de débat sur les grandes questions internationales. Créé en 1979 par Thierry de Montbrial, l'Ifri est une association reconnue d'utilité publique (loi de 1901). Il n'est soumis à aucune tutelle administrative, définit librement ses travaux et publie régulièrement ses activités.
+Cette étude n'aurait pu voir le jour sans l'aide du ministère de la Défense. Grâce au concours de la Délégation aux affaires stratégiques (DAS) et de la mission militaire de l'ambassade de France à Washington, il a été possible de rencontrer un certain nombre d'experts américains, civils et militaires, qui ont permis de mieux comprendre les origines et les enjeux du processus de " transformation " en cours. L'auteur tient donc à remercier tous ceux qui ont participé à ce travail, directement ou indirectement. Pour autant, les opinions exprimées dans ce rapport n'engagent que lui, et ne sauraient en aucun cas être attribuées au ministère de la Défense ou à l'Ifri.
+« If it ain?t broken, don?t fix it. »
Pour l'observateur extérieur, l'impératif de " transformation " des forces armées américaines et les polémiques qui entourent le sujet ont de quoi surprendre à plus d'un titre. Pourquoi " transformer " une armée universellement reconnue comme la première au monde, et dont les performances durant la dernière décennie ont été très supérieures à celles des années 1970 et 1980 ? Pour qui connaît en revanche la nature emphatique et le caractère cyclique des débats stratégiques aux Etats-Unis, la Revolution in Military Affairs (RMA, ou révolution dans les affaires militaires) et ses succédanés risquent d'apparaître comme l'" éternel retour du même ". Le danger est donc double, selon que l'on sous-estime la portée de ce qui se passe aujourd'hui ou, qu'à l'inverse, on prenne au pied de la lettre les déclarations officielles et le va-et-vient des critiques et des réponses, sans parvenir à en distinguer les éléments significatifs perdus au milieu du " bruit ". Il convient pour cette raison de faire la part entre les controverses concernant la stratégie générale du pays, les objections de fond adressées aux forces américaines par certains critiques extérieurs et les arguments intéressés qui s'inscrivent, si naturellement aux Etats-Unis, dans la routine des querelles budgétaires entre armées.
+Comme l'attestent en surface les documents programmatiques, tant du département de la Défense que des hiérarchies militaires, les trois armées, à l'exception toutefois du corps des Marines, se sont approprié les objectifs et le vocabulaire de la RMA et de la " transformation ". Il n'est que de se reporter au document Joint Vision 2020, aux équivalents internes de chaque Service (Army Vision 2010) ou au texte de la Quadrennial Defense Review (Revue quadriennale de défense ou QDR) pour le constater : il est désormais rare qu'un programme d'armement ou une réorganisation de structures ne soient pas présentés comme transformational - ce qui amène bien entendu à s'interroger sur la réalité de cette conversion des militaires aux thèses de la RMA. Au vrai, les appréciations portées à l'intérieur de chaque armée sur les mérites de la " transformation " sont diverses, d'autant que le débat général autour de la RMA ne se laisse pas facilement réduire à une opposition frontale entre argumentaires " moderniste " et " traditionaliste ". Les évolutions parallèles de la technologie et du contexte international ont bien eu un effet double, tant au niveau objectif, avec l'allongement des portées et l'augmentation de la précision, qu'au niveau des perceptions engendrées par le succès des opérations aériennes. Latente au début des années 1990, cette double pression de la réalité et des discours construits autour d'elle s'est renforcée au fur et à mesure, pour s'exprimer ouvertement à partir de 1999, tout particulièrement en direction de l'armée de terre américaine (Army), jusqu'à rendre intenable la défense du statu quo.
+A la différence de la Navy ou de l'US Marine Corps (Marine), l'Army occupe une place centrale dans le débat stratégique actuel, parce qu'elle représente un cas d'école, un repoussoir ou un test critique pour le courant qui se réclame de la RMA, pour les traditionalistes sceptiques comme pour l'analyste extérieur cherchant à mesurer la progression des réformes en cours et la réalité de leurs enjeux. Parmi ces derniers, on peut citer en vrac la redéfinition des rôles respectifs de la manoeuvre terrestre et des frappes à longue portée, la nécessité ou non du combat rapproché, l'impact des communications modernes sur le commandement ou encore les modalités de l'interarmisation. De façon plus fondamentale parce que plus politique, l'échec du plan de transformation de l'Army ou même certaines formes de sa réussite, selon les modalités qui seront privilégiées, pourraient affaiblir considérablement cette institution dans le débat stratégique et budgétaire américain, jusqu'à remettre partiellement en cause la fonction et l'existence même des forces terrestres autres qu'expéditionnaires, ce qui ne saurait manquer d'altérer en profondeur la posture militaire des Etats-Unis et leur répertoire d'options envisageables. En d'autres termes, la réforme entreprise par l'Army est susceptible d'entraîner des conséquences non neutres sur la stratégie générale des Etats-Unis concernant l'emploi de la force, et donc sur leurs alliés. Evaluer le détail du plan Shinseki et ses répercussions possibles implique cependant au préalable de replacer cette réforme dans son contexte historique et politique.
+L'urgence de la transformation procède pour l'Army de facteurs multiples, à la fois structurels et conjoncturels. Les premiers s'expliquent par l'inadaptation grandissante de l'Army au contexte stratégique actuel, inadaptation qui tient elle-même à des raisons profondément enracinées dans la " culture " de l'institution, c'est-à-dire dans la façon dont elle perçoit sa propre histoire et les enseignements qu'elle en retient. Parmi ces raisons, on trouve à la fois une préférence marquée pour le combat de haute intensité, le " contre-modèle " vietnamien et les " leçons " qui en ont été tirées, telle la " doctrine Powell ", enfin les débats doctrinaux des années 1980 ou encore le triomphe du Golfe. De façon plus immédiate, cette inadaptation partielle est devenue visible, c'est-à-dire politiquement dommageable pour l'institution, lors de l'intervention occidentale au Kosovo. C'est bien le Kosovo en effet, et plus spécifiquement le fiasco du déploiement et de la non-utilisation de la " Task Force Hawk ", qui a contraint l'Army à modifier les orientations définies auparavant en interne et à précipiter ce qui, jusque-là, était davantage un processus de modernisation et d'anticipation qu'une " transformation ".
+En ce sens, comprendre les pressions en faveur de la transformation comme les résistances manifestées, et plus généralement appréhender les enjeux de la réforme en cours, suppose de replacer le débat dans son contexte historique, en partant de l'" héritage " des cinquante dernières années et de ce qui fait la culture de l'Army, pour s'interroger ensuite sur la nature du plan Shinseki, ses origines immédiates et la rupture qu'il introduit par rapport aux initiatives antérieures comme " Force XXI " et " Army After Next ". L'étude se conclut par une évaluation du projet qui prend en compte les aspects opérationnel, stratégique et politique.
+Contrairement à ce que pourrait laisser croire un survol superficiel de l'histoire militaire des Etats-Unis, la fin de la guerre froide ne constitue que l'une des ruptures intervenues dans l'histoire des cinquante dernières années de l'Army : il existe des précédents infiniment plus nombreux qu'on ne l'imagine généralement, et qui ne se limitent ni à la professionnalisation initiée en 1973, ni même aux transitions entre périodes d'engagements massifs et périodes de calme relatif. Il n'est pas exagéré de dire que l'Army n'a jamais cessé d'expérimenter de nouvelles structures de force, stimulée par trois séries de facteurs : les changements de la politique étrangère américaine et des postures stratégiques correspondantes, les développements autonomes de la technologie et, enfin, la volonté propre des cadres de l'institution d'améliorer les organisations existantes et de tester des concepts d'emploi innovants. Fait de bifurcations, de réorientations et de retournements, cet héritage complexe constitue l'arrière-fond indispensable à qui veut comprendre l'institution d'aujourd'hui, ses pesanteurs, ses aspirations et tout ce qui représente finalement la " matière première " du plan Shinseki.
+Quatre périodes principales sont repérables dans l'histoire de l'Army, depuis la matrice des deux guerres mondiales jusqu'à l'opération " Tempête du désert " (" Desert Storm "), en passant par les années 1950 et le Vietnam.
+Pendant tout le XIXe siècle, et si l'on met entre parenthèses la guerre de Sécession, l'Army a d'abord été " a Frontier Army ", c'est-à-dire une " armée d'avant-postes " de très petite taille (5 000 hommes en 1815) et dans laquelle les fonctions d'ingénieur et de bâtisseur l'emportaient souvent sur les devoirs du soldat. Ni sa très lente montée en puissance au cours du siècle précédent, ni les rares expéditions militaires ou " aventures " coloniales (guerre mexico-américaine de 1846, guerre hispano-américaine de 1898), ni même la guerre de Sécession, découverte violente mais temporaire du combat à grande échelle, n'ont fondamentalement modifié cet état de choses. En parallèle cependant, le corps des officiers a très tôt manifesté son intérêt pour la " stratégie " et son ambition profonde d'imiter les grands modèles européens : d'abord la France, héritière de Napoléon - la plupart des généraux de la guerre de Sécession connaissaient le Mémorial de Sainte-Hélène -, puis l'Allemagne triomphante de la fin du siècle, y compris les fragments déformés de la théorie clausewitzienne, notions ou simples formules telles que " centre de gravité ", " bataille décisive " ou " anéantissement de l'ennemi ". En ce sens, il est juste de dire que l'armée de terre américaine est d'abord l'héritière d'une tradition " franco-prussienne " de la " grande guerre ", au même titre que l'US Navy s'est toujours explicitement pensée comme la légataire universelle de la Royal Navy.
+C'est à l'occasion de la Première Guerre mondiale qu'émerge l'armée de terre américaine moderne. A l'école des Français et des Britanniques pendant deux ans, l'armée américaine redécouvre la guerre de haute intensité moderne, avec ses corollaires obligés comme la mobilisation de la population masculine, la mise sur pied d'une économie de guerre et la réorganisation de la production industrielle au profit de l'appareil militaire. Bien que les Etats-Unis aient obtenu la création d'un commandement et l'attribution de secteurs du front à leur profit, leur armée prit tardivement part au conflit et ne parvint donc pas à assimiler complètement la complexité de la tactique moderne, engendrée par l'accroissement sans précédent de la puissance de feu - ce dont témoignent par exemple les combats menés dans l'Argonne en 1918. Le bilan des opérations fut mitigé, dans la mesure où l'armée américaine n'eut pas le temps de mettre au point une " solution " tactique originale au problème de l'offensive, mais s'appuya sur les doctrines française et anglaise pour mettre sur pied la division " carrée ", sans en être véritablement satisfaite et sans parvenir d'ailleurs à maîtriser le détail tactique des opérations aussi bien que ses alliés. Au final, l'Army s'est surtout reposée sur le nombre de soldats et la quantité de matériels à sa disposition. En sens inverse, l'expérience de la Première Guerre mondiale a permis de jeter les bases des procédés de mobilisation humaine et industrielle nécessaires en guerre totale, ainsi que celles d'un bagage tactique minimum.
+La démobilisation de 1919, si elle a maintenu un effectif de 100 000 hommes, c'està-dire très supérieur aux précédents contingents de temps de paix, s'est toutefois soldée par un retour à la routine et par un manque certain d'investissement dans les domaines novateurs comme les chars. Réduit par manque de moyens à suivre les évolutions doctrinales allemandes ou françaises pendant la meilleure part de l'entre-deux-guerres, le commandement, sous la direction des généraux Craig et Marshall, accélère ses préparatifs à partir de 1935 en réorganisant les structures de l'Army et en préparant les plans d'une remobilisation massive. Testée de 1936 à 1939 par des manoeuvres de plus en plus importantes, dont les fameuses " Lousiana maneuvers " de 1939, l'adoption de la " division triangulaire " correspond à une mise à niveau de l'armée de terre américaine par rapport à ses homologues européennes ; la même attention au détail et à l'expérimentation est apportée à la constitution de divisions blindées (armored). Dans l'ensemble, l'expérience de la guerre valide ces modèles, tout en mettant en évidence le besoin fréquemment exprimé par les généraux de compléter les divisions sur le terrain par des unités spécialisées non divisionnaires (unités anti-tanks ou antiaériennes, artillerie, génie, etc.). Pour cette raison, les autres modèles divisionnaires étudiés (divisions mécanisées, légères, de cavalerie) sont abandonnés pendant la guerre.
+Toutefois, c'est davantage dans le domaine de la logistique et de la gestion que l'armée américaine fait preuve d'une originalité certaine. Très axée sur l'efficacité gestionnaire, les économies d'échelle et la mise sur pied de forces de grande taille, entièrement motorisées et dotées de matériel en grande quantité, l'armée américaine porte assez peu d'attention à la qualité des équipements ou des personnels. En particulier, l'attribution des spécialités et le système de remplacement souffrent d'une véritable obsession de l'" efficience " économique et gestionnaire. Cette politique consiste tout d'abord à placer systématiquement en première ligne, c'est-à-dire dans l'infanterie, les recrues les moins qualifiées, au niveau des hommes du rang comme des officiers, afin de réserver les éléments les plus talentueux pour les états-majors. Dans la mesure où de nombreux officiers d'active se sont simultanément tournés vers des spécialités plus attractives en termes d'avancement ou de paie (en particulier l'Army Air Corps, future Air Force), les armes de mêlée, et singulièrement l'infanterie, souffrent d'un manque avéré d'officiers et de sous-officiers de qualité et doivent incorporer des hommes du rang qui ont, pour la plupart, un Q.I. en dessous de la moyenne. La faiblesse structurelle ainsi créée est encore renforcée par le système de remplacement en vigueur : au terme d'un séjour individuel à l'arrière (repos exceptionnel, blessure), les soldats sont envoyés dans n'importe quelle unité qui en exprime le besoin, et non dans l'unité d'origine. Obligés de combattre au milieu d'" étrangers ", les soldats ne peuvent constituer ces " groupes primaires " dont la cohésion est un facteur si important pour l'efficacité au combat, comme le déterminent d'ailleurs les travaux américains de sociologie militaire des années 1940 et 1950.
+Dans ces conditions, il n'est guère surprenant que les premiers engagements de la Seconde Guerre mondiale se soient soldés par des résultats assez décevants, que l'on pense à l'Afrique du Nord en 1942 ou à l'Italie un an plus tard. Sur un plan purement tactique, toutes choses étant égales par ailleurs - mais elles ne le sont jamais, étant donné la supériorité alliée en aviation tactique et en puissance de feu plus généralement -, l'armée américaine ne peut rivaliser avec la Wehrmacht, ce qu'attestent toutes les études comparatives menées sur le sujet. A l'exception d'unités d'élite comme les 82e et 101e aéroportées, les unités américaines, à l'instar de leurs homologues britanniques, compensent leur infériorité tactique par un recours systématique aux appuis-feux de l'artillerie terrestre et navale et de l'aviation tactique. Ainsi, et exactement à l'inverse de ce que donnent à voir les films de guerre de l'époque et ceux qui ont suivi, ce sont les Allemands qui combattent en situation d'infériorité marquée et qui compensent par la ténacité, l'ingéniosité tactique et l'utilisation du terrain (reliefs montagneux en Italie, bocage normand) ce qui leur fait défaut en termes d'équipement, de mobilité et de puissance de feu ; ils parlent d'ailleurs de " Materialschlacht ", ou " guerre de matériel ", pour décrire le " style opérationnel " américain. Par une suite de campagnes et d'engagements qui ne sontpas sans rappeler la Première Guerre mondiale, l'armée américaine s'impose donc sur le front occidental par le biais d'un combat d'attrition s'appuyant sur la supériorité industrielle du pays et sur une logistique impressionnante. Dans la foulée, elle applique le modèle lointainement hérité de la guerre de Sécession : stratégie militaire d'anéantissement de l'adversaire, recherche de la victoire complète et occupation du territoire.
+Au final, et malgré les déboires rencontrés en cours de route, la Seconde Guerre mondiale n'en représente pas moins un triomphe pour l'Army qui remporte là une victoire décisive, tant militairement que politiquement, au prix de pertes infiniment plus réduites que celles subies par les autres belligérants, et sans qu'un échec majeur ait jamais remis en cause l'institution. A l'issue des deux guerres mondiales, les traits distinctifs majeurs de l'armée apparaissent nettement et semblent fixées pour longtemps : l'organisation se caractérise par la mise sur pied de grandes divisions (plus de 15 000 hommes) autonomes, similaires les unes aux autres, et appuyées sur une logistique sans équivalent, qu'il s'agisse d'approvisionnements ou d'évacuations sanitaires. A l'exception de chefs comme Patton, le style opérationnel est rarement brillant, s'apparente davantage à la " bataille conduite " qu'au Blitzkrieg et cherche systématiquement à substituer le matériel aux hommes. Ces défauts tactiques ou opérationnels laissent d'autant moins de traces que l'euphorie de la victoire va de pair avec la défense d'une cause perçue comme juste par l'écrasante majorité de la population, et est immédiatement suivie par une période de prospérité économique qui tranche avec le souvenir de la dépression de 1919. Jusque dans ses conséquences sociales, le conflit est un succès, qu'il s'agisse des progrès de l'intégration raciale au sein du contingent ou surtout du GI Bill of Rights de 1944, qui octroie des bourses aux vétérans afin de parfaire leurs études et assure ainsi un élargissement spectaculaire des classes moyennes. Tout ceci explique que la Seconde Guerre mondiale ait pu rétrospectivement faire figure de modèle, la nostalgie allant d'ailleurs s'accroissant au fur et à mesure que les vicissitudes de la politique étrangère américaine et l'évolution des technologies militaires entraînent l'armée conçue et commandée par Marshall, Eisenhower, MacArthur et Patton, dans des directions et sur des théâtres d'opération imprévus.
+La victoire sur l'Allemagne nazie et le Japon impérial s'est conclue de façon traditionnelle selon les normes américaines, c'est-à-dire par une démobilisation aussi rapide et impressionnante qu'avait été la mobilisation ; dès 1947, et malgré les charges de l'occupation, l'armée américaine, avec 10 divisions, n'est plus que l'ombre de la force qui comprenait 90 divisions deux ans plus tôt. Le déclenchement de la guerre de Corée prend d'autant plus par surprise l'armée et le gouvernement américains que l'essentiel de l'effort s'était porté jusque-là sur l'Air Force, nouvellement créée en 1947, et sur les armes atomiques contrebalançant l'avantage soviétique en matière de forces conventionnelles et, singulièrement, terrestres. L'offensive initiale des Nord-Coréens met en lumière le sous-équipement et le sous-entraînement des forces " tactiques " (non nucléaires) américaines, qu'il s'agisse de coopération interarmées ou de combat terrestre toutes armes, ou plus simplement du volume des forces disponibles - on parle déjà de " divisions creuses ". Ce sont ainsi la situation péninsulaire de la Corée et la résistance des Marines qui sauvent de justesse l'Amérique d'une première défaite. Le débarquement d'Inchon, en provoquant l'entrée dans le conflit des " volontaires chinois ", engendre une seconde retraite précipitée, qui se stabilise en un combat d'attrition coûteux et non décisif. Le refus du président Truman de procéder à un bombardement atomique du territoire chinois et l'obligation de protéger simultanément l'Europe placent les militaires américains dans une situation inconfortable et heurte la tradition stratégique nationale : pour la première fois de leur histoire moderne, les Etats-Unis ont intérêt à préserver le caractère limité de l'affrontement, ce qui restreint d'autant les possibilités opérationnelles et surtout interdit d'obtenir l'" objet naturel " de la guerre, à savoir la victoire par écrasement total de l'ennemi.
+Si la guerre de Corée se solde par une réorganisation globale de la politique de défense, avec la création du département du même nom et l'accroissement permanent du budget et des forces des trois armées (Army à 20 divisions), elle n'en constitue pas moins un souvenir amer et une " non-victoire " aux yeux de nombre d'Américains, à commencer par les militaires eux-mêmes. En particulier, elle engendre un sentiment de rejet à l'encontre des " engagements terrestres ". Soucieuse de réduire les dépenses et d'éviter ce que l'on appelle déjà à l'époque un quagmire (" bourbier "), la stratégie dite du " New Look " décidée par l'Administration Eisenhower passe par une augmentation considérable des crédits dévolus aux armes nucléaires et à l'Air Force, et par une réduction à proportion de la part allouée aux forces conventionnelles : le budget de l'Army est réduit de moitié en quatre ans et le nombre de divisions tombe à 14 en 1960.
+En ce sens, et alors que le conflit semble rétrospectivement avoir illustré les dangers de l'impréparation et les limites de la dissuasion nucléaire, les années 1950 représentent pour l'Army à la fois une période de disgrâce politique et de doute existentiel quant à l'utilité des forces classiques à l'âge nucléaire. Sur le premier point, l'Army, à l'instar de la Navy, ne peut qu'assister impuissante à l'ascension de l'Air Force et du Strategic Air Command. " Révolte des amiraux " en 1949, guerre de Corée, avancées communistes dans le Tiers Monde, rien n'y fait : la meilleure part des crédits va aux armes nucléaires et à leurs vecteurs, en l'occurrence les bombardiers. Il faudra attendre les années 1960 pour voir la fin du " tout nucléaire ". Or, contrairement à la Navy qui se lance dans la conception des premiers sous-marins nucléaires lanceurs d'engins (SNLE) sous l'impulsion de l'amiral Rickover, l'Army ne peut espérer que quelques " miettes ", comme les engins nucléaires tactiques (missiles Thor, systèmes Davy Crockett), les systèmes antiaériens ou les premières défenses antimissiles, tous éléments marginaux et souvent déficients qui ne permettent pas de faire contrepoids aux ambitions de l'Air Force.
+Ce premier et vif débat autour des " rôles et missions " respectifs des trois armées se double de très importantes incertitudes tactiques quant aux possibilités laissées aux forces terrestres : dans la mesure où l'on pense devoir forcément évoluer sur un champ de bataille nucléaire, c'est bien l'utilité et finalement l'existence même des armées qui semble en jeu - les revues militaires de l'époque font état de ces interrogations grandissantes. Si l'ère atomique (1945-1953) ne paraît pas encore menacer fondamentalement les forces terrestres - les armes nucléaires sont d'abord perçues comme de " super-obus " qui obligent à une plus grande dispersion -, la mise au point et la fabrication en grand nombre des armes thermonucléaires, ainsi que la prolifération des armes dites tactiques, semblent sonner le glas de tous les principes jusqu'alors immuables de la guerre terrestre : concentration logistique des moyens, concentration physique des troupes, offensive, exploitation... C'est dans ce cadre et sous la direction du général Ridgway que l'Army se lance, à partir de 1954, dans une série d'initiatives visant une réforme radicale de ses procédures tactiques, et qui consiste pour l'essentiel à réorganiser les divisions de manière plus " dispersée " et avec des effectifs moindres, de manière à réduire leur vulnérabilité aux frappes nucléaires. Cette dispersion physique suppose une grande mobilité tactique, des capacités de transport aérien tactique - le potentiel des hélicoptères fait l'objet d'études approfondies - et des moyens de communication et de commandement performants. De ATFA-1 à la réforme " pentomique ", en passant par PENTANA, qui vise le long terme, ces réorganisations s'appuient sur toute une série d'exercices (Follow Me, Blue Bolt, Sage Brush, Eagle Wing, Quick Strike, Swift Strike...) et de wargames. Le modèle " pentomique " est sans doute le plus radical, qui comprend 5 " Battle Groups ", disposés en pentagone, très espacés les uns des autres et complètement autonomes - ils ont absorbé les niveaux brigade et bataillon - afin de réduire la vulnérabilité au feu nucléaire et de permettre à la division de continuer le combat même après des pertes sévères. Lancé en 1956 par le général Taylor, le concept donne lieu à différentes réorganisations qui ne produisent pas les résultats escomptés, faute de manoeuvres assez poussées, mais surtout parce que la technologie et l'argent nécessaires font défaut : sur sa lancée des années précédentes, l'Army continue d'acquérir massivement des armes nucléaires tactiques (43 % de son budget en 1956) et ne peut investir dans des technologies de pointe en matière de communications. En l'absence de ces dernières - la technologie fondamentale n'était de toute façon pas suffisamment avancée -, les échelons de commandement " pentomiques " ne peuvent efficacement contrôler leurs unités. Finalement, devant des critiques internes grandissantes et confrontée à la possibilité de nouveaux engagements américains en Asie du Sud-Est, l'Army abandonne en 1958 le concept " pentomique " et lance l'année suivante MOMAR I, étude nouvelle qui envisage une mécanisation massive de toutes les unités. L'Army adopte en 1964 une structure divisionnaire beaucoup plus traditionnelle, proche de la structure de la Seconde Guerre mondiale, dite ROAD.
+Cette série d'échecs est intéressante à quatre niveaux différents : elle illustre premièrement la difficulté d'une réforme en profondeur, pourtant menée en interne par l'institution elle-même. En second lieu, elle montre, dans des conditions technologiques il est vrai très différentes de celles qui prévalent aujourd'hui, à quel point il est difficile de conserver réactivité, puissance offensive et solidité défensive avec un dispositif très dispersé. De façon incidente, l'expérience a ancré dans de nombreux esprits la notion que les méthodes éprouvées étaient bien préférables à des " concepts " peut-être innovants, mais qui faisaient courir un risque inutile d'échec catastrophique ; le camp des traditionalistes en sort renforcé, même si le processus de réforme produit quelques innovations isolées, en l'espèce les unités héliportées. Enfin, parce que ces réformes en cascade - pratiquement une par an -sont d'abord politiquement motivées, elles imposent à un processus par nature délicat un rythme et un calendrier irréalistes compte tenu des contraintes propres de l'innovation militaire. Une réforme qui a pour objectif, dans un contexte stratégique donné, de prouver l'utilité de l'institution dans la compétition interservice court en effet le risque d'être conduite trop rapidement et d'entraîner des résultats décevants sur un plan strictement opérationnel.
+L'engagement vietnamien représente une étape essentielle dans l'évolution de l'institution, non seulement parce qu'il marque les limites du " American/Army Way of War ", mais aussi en raison des " leçons " générales qu'en retire l'armée. En ce sens, et quel que soit l'intérêt militaire du conflit, ce sont bien ses conséquences sur les rapports civilo-militaires et les conceptions dominantes au sein du corps des officiers qui s'avèrent déterminantes sur le long terme.
+L'arrivée au pouvoir de John Kennedy, convaincu qu'il faut vaincre les guérillas communistes sur leur propre terrain et que la stratégie des représailles massives n'est pas crédible, replace l'Army au centre des préoccupations stratégiques américaines. Le nouveau président insiste en particulier sur l'importance des forces spéciales et sur ce que l'on appelle alors la " contre-insurrection ". Cependant, et malgré la création des Bérets verts, l'Army globalement ne suit pas, à peine remise d'une décennie d'expérimentations tous azimuts et focalisée sur le combat de haute intensité réclamé par la nouvelle stratégie de " riposte graduée ". Réorganisée sur le modèle ROAD, elle n'engage qu'une seule innovation importante, cette fois couronnée de succès : la création en 1964 de la première unité de combat héliportée, la 11e Air Assault Division, rebaptisée First Cavalry Div., Airmobile, en dépit des réticences des traditionalistes et de la résistance acharnée de l'Air Force, qui entend se réserver le monopole du ciel. S'appuyant précisément sur le concept d'" enveloppement vertical ", la First Cav. et les unités héliportées remportent tout d'abord une série de succès (engagement de Ia Drang, octobre-novembre 1965) grâce à l'extraordinaire mobilité conférée par les hélicoptères. En réaction, le Nord-Vietnam et le Viêt-Cong repassent en " phase 2 " dans la " guerre révolutionnaire ", soit des opérations de guérilla qui visent à harceler l'ennemi, jouent sur la durée et évitent les engagements majeurs.
+Or, et quoi qu'on pense des errements de la stratégie générale décidée par les autorités politiques ou de la campagne de bombardements du Nord-Vietnam, il est tout à fait clair rétrospectivement que l'Army n'a fait preuve d'aucune imagination tactique lors des opérations menées au Sud. A cet égard, le manque d'intérêt des plus hautes autorités de l'Army à l'égard des guerres de basse intensité en général, et de la spécificité du conflit vietnamien en particulier, se traduit par une myopie tactique et une rigidité dans l'organisation qui exercent des effets dommageables pendant tout le conflit. Celui-ci prend systématiquement la forme d'opérations de ratissage (search and destroy ops) qui donnent de bien maigres résultats, malgré des pertes en augmentation et de très importants dommages collatéraux. C'est qu'en effet l'Army se refuse à employer les méthodes éprouvées de lutte anti-guérilla, telles que la dispersion des unités, le quadrillage du pays et la protection des populations, tout en cherchant en vain à obliger son adversaire à livrer et à perdre une bataille décisive, ou du moins une succession d'engagements si coûteux que l'armée nord-vietnamienne ne pourrait progressivement plus poursuivre la lutte. C'est le fameux " cross-over point ", point de rupture à partir duquel les ressources humaines ennemies doivent aller en déclinant. Il s'agit d'une pure stratégie d'attrition, qui passe notamment par une application indiscriminée de la puissance de feu américaine, ce qui logiquement produit de nombreuses pertes civiles, et donc sert la propagande et le recrutement menés par le Viêt-Cong, tout en poussant les officiers américains à exhiber des " résultats " mesurés à l'aune du " body count ", ou décompte des cadavres.
+Défaut supplémentaire, l'Army a conservé le déplorable système de rotation des unités et des hommes hérité de la Seconde Guerre mondiale, dont les effets pervers sont encore amplifiés par les appréhensions politiques de Lyndon Johnson, qui refuse d'appeler les réserves et se contente d'amplifier le draft. Il en résulte une absence préjudiciable de cohésion des unités de base, ainsi qu'une insuffisance de personnels formés : l'essentiel des conscrits expérimentés repartent après un " tour ", soit une année. Au final, ce sont les milices sud-vietnamiennes et les actions de la CIA (opération Phoenix) qui s'avèrent les plus efficaces contre le Viêt-Cong, tandis que le général Westmorland se contente de persévérer avec la même stratégie générale d'attrition en réclamant davantage de troupes.
+Comme on le sait désormais, ce n'est finalement qu'à l'occasion de l'offensive du Têt, lancée délibérément en 1968 par Hanoi, que le cross-over point est atteint en ce qui concerne du moins le Viêt-Cong, l'armée nord-vietnamienne étant alors obligée de prendre le relais. A ce stade, toutefois, l'offensive a produit ses effets politiques, et les Etats-Unis commencent à se désengager. La montée des tensions politiques en Amérique, et en particulier sur les campus, pousse d'ailleurs Johnson puis Nixon à envoyer majoritairement au Vietnam, et plus encore en première ligne, des recrues provenant des classes défavorisées et donc des minorités ethniques, amplifiant ainsi les pratiques de la Seconde Guerre mondiale. Ressentie comme une injustice, ce système de recrutement se conjugue à la détérioration de la situation sur le terrain pour produire une nette dégradation du moral des troupes, au point de menacer la viabilité du contingent présent au Vietnam : la révolte contre les officiers, les nombreuses occurrences de fragging, l'usage répandu des drogues, bref toutes les images traditionnellement associées à la guerre du Vietnam dans les représentations communes, correspondent précisément aux années 1969 et 1970. A la fin de l'engagement vietnamien, l'Army est au bord de la décomposition : certains de ses éléments sont en révolte ouverte, le corps des officiers a l'impression d'avoir été trahi par l'" arrière ", et les Etats-Unis, singulièrement l'armée de terre, viennent de subir leur " première " défaite. La débâcle se conclut logiquement par l'abandon de la conscription et la constitution d'une armée de métier qui, d'ailleurs, peine considérablement à attirer des volontaires de qualité pendant toute la décennie, tant l'image de l'institution a été ternie pour longtemps.
+Au terme de ce bref rappel historique, il convient de souligner tout ce que la défaite a de déstabilisant pour l'institution : au Vietnam, ce ne sont pas seulement les défauts traditionnels de l'armée qui ont joué contre elle, puisque même ses " points forts " l'ont en quelque sorte trahie ; à tout prendre, le système de gestion du personnel est sans doute moins à blâmer que le choix irréfléchi d'une stratégie d'attrition, spécialement inadaptée à un contexte de guérilla.
+La défaite vietnamienne est l'occasion pour l'armée de terre d'une introspection poussée et d'un retour aux sources intellectuelles. Si les conséquences politiques de cette remise en question en viennent à obérer durablement la flexibilité de l'Army, les avancées doctrinales et qualitatives qui marquent la période n'en sont pas moins bien réelles.
+Dans la foulée du Vietnam, les années 1970 permettent à l'Army d'engager une autocritique qui prend des allures d'examen de conscience. Les " leçons " politiques et opérationnelles que l'institution tire de son engagement vietnamien participent toutefois davantage d'une reconstruction a posteriori que d'une analyse objective de la réalité historique, perdue au milieu de controverses multiples. Cet exercice d'introspection débouche sur la reconstitution d'une force à maints égards " traditionnelle ". En parallèle, s'est fait jour une sorte de perception communément admise (conventional wisdom), qui pèse encore aujourd'hui sur les marges de manoeuvre internes de l'Army et, plus généralement, sur les rapports civilo-militaires.
+L'abandon de la conscription ne se fait pas au profit d'une armée professionnelle plus facile à engager politiquement, bien au contraire. Retenant du Vietnam l'insuffisant soutien des autorités politiques et les effets pervers d'un engagement qui ne dit pas son nom, la hiérarchie militaire, toutes armées confondues, entreprend de se structurer de telle sorte qu'il soit impossible à l'avenir pour le président des Etats-Unis d'engager des moyens militaires de manière graduelle en espérant éviter un débat public sur le sujet. Pour ce faire, les trois Services imbriquent ensemble les forces d'active et les réserves, délégant à ces dernières une bonne partie des fonctions de soutien jusqu'à rendre pratiquement infaisable d'engager les premières de façon significative sans mobiliser les secondes - concept " Total Force ". L'Army en particulier n'est pas optimisée pour l'emploi discret et immédiat de ses capacités : la fin du Vietnam, le passage à la all-volunteer force et la refocalisation sur le théâtre européen favorisent des structures, des équipements et une mentalité spécifiques, très orientés sur la " grande guerre " et très réservés quant à d'éventuelles " aventures " sur des théâtres secondaires ou des réformes doctrinales risquées.
+La critique de la responsabilité politique n'affecte pas seulement l'organisation des forces, mais influence également l'attitude d'ensemble des officiers vis-à-vis des rapports civilo-militaires en général et de l'usage de la force en particulier. Les " civils " sont considérés avec méfiance, pour ne pas dire hostilité, et le corps des officiers adhère progressivement à ce que l'on pourrait appeler une " théorie prussienne " des rapports entre autorité politique et hiérarchie militaire. En lieu et place de la " théorie classique " (exposée par exemple par Samuel Huntington dans The Soldier and the State et encore d'actualité aujourd'hui en Europe), cette théorie révisionniste, entièrement dérivée du Vietnam, considère que les militaires doivent assumer la direction d'ensemble des opérations, dès lors que les politiques ont opté pour le recours à la force. Il s'agit d'éviter à la fois l'usage " gesticulatoire " (signaling) des capacités militaires et le " micro-management " des opérations elles-mêmes. Si elle pose en principe une séparation nette des responsabilités (le politique décide du " pourquoi " et du moment, le militaire du " comment "), cette théorie a une tendance naturelle à " déborder " de son cadre : sous prétexte de conseiller le politique quant aux modalités du recours à la force et au bien-fondé des différentes options, les militaires en viennent à se prononcer sur le bien-fondé de l'usage de la force. On en veut pour preuve l'analyse de la défaite américaine au Vietnam opérée par le colonel Harry Summers, dont l'ouvrage, On Strategy, sous couvert d'un retour à Clausewitz, développe une critique sévère de la gestion du conflit par les politiques et met en forme ce nouveau " prussianisme ". Depuis sa publication, l'ouvrage représente d'ailleurs une véritable " bible " pour les officiers et est inclus dans la liste de lectures obligatoires dans le cursus de l'Army. Ravivée par l'expérience malheureuse du Liban (1983), cette conception du rôle des armées en général et des forces terrestres en particulier est formalisée une première fois dans ce qu'il est convenu d'appeler la " doctrine Weinberger " (1984), appelée à devenir la " doctrine Powell " quelques années plus tard. Y est posée une série de principes destinés à guider le politique en circonscrivant les conditions légitimes d'emploi de la force au regard de la rationalité militaire. Ces principes sont au nombre de six :
+ +A l'évidence, il s'agit là de conditions extrêmement restrictives, qui excluent pratiquement toute intervention autre qu'une guerre classique autorisant un usage illimité de la force. Particulièrement en faveur auprès de l'Army, la doctrine Weinberger légitime ex post les préférences a priori de l'institution pour la " grande guerre " et les théâtres majeurs de la guerre froide : en quittant l'Asie du Sud-Est, l'Army s'est instantanément refocalisée sur ce qu'elle estime être son " coeur de métier " et sa raison d'être, le combat de haute intensité. Autrement dit, l'armée américaine a pour mission de se préparer à contrer une avancée soviétique dans les zones où elle est déjà présente via des prépositionnements massifs d'unités et d'équipements (Europe, Corée du Sud) ; le " reste " est du ressort des Marines et de l'Air Force.
+Très affirmé dès que le primat de la grande guerre et des spécialités correspondantes semble menacé, ce conservatisme s'accompagne toutefois au long de la période d'un réel effort matériel et intellectuel pour faire face à la supériorité conventionnelle attribuée aux forces du pacte de Varsovie.
+Bien que l'amélioration de la qualité des personnels ne s'opère que lentement, et que les résultats opérationnels soient en demi-teinte (échec retentissant de l'opération " Desert One ", demi-succès de la Grenade ou de Panama), l'Army lance pendant cette période tous les armements majeurs appelés à connaître la consécration lors de la guerre du Golfe : missiles antichars TOW, chars M1 Abrams, véhicule de combat d'infanterie Bradley, hélicoptères Apache et jusqu'au système antimissile Patriot. Tous ces programmes sont d'abord conçus dans la perspective d'un affrontement conventionnel en Europe contre le pacte de Varsovie : le développement des forces nucléaires soviétiques à tous les niveaux (stratégique, intermédiaire et tactique) durant les années 1960 et 1970 rend en effet délicat, aux yeux des responsables de l'OTAN, de se reposer sur la seule dissuasion pour contrebalancer l'avantage conventionnel soviétique, qui paraît d'ailleurs aller en s'accroissant. Par-delà les nécessités de la stratégie générale de " riposte graduée ", ces développements procèdent également, on l'a vu, des préférences profondes de l'institution.
+Au niveau de l'organisation et de la doctrine, les décennies postérieures au Vietnam donnent lieu à une renaissance remarquable. Le thème dominant tient en une formule simple : " Fight outnumbered and win ", combattre en situation d'infériorité mais gagner. Outre les équipements majeurs mis en chantier à l'époque, la réponse au défi soviétique passe par une refonte doctrinale en plusieurs étapes : création en 1973 d'un centre de la doctrine (TRADOC) sous la direction du général DePuy, redécouverte des " classiques " de la littérature stratégique comme Clausewitz, publication du FM 100-5 (Field Manual, operations) Active Defense en 1976, et dans la foulée lancement de DRS, nouvelle étude de réorganisation divisionnaire...
+C'est dans ce contexte qu'intervient la querelle opposant " traditionalistes " et " partisans de la guerre de manoeuvre ", les seconds reprochant aux premiers de s'en tenir à une " pure logique d'attrition ". A la suite de ces controverses, l'attrition désigne dans le vocabulaire américain contemporain l'application linéaire de la puissance de feu et plus généralement des moyens matériels : dans cet échange qui obéit grosso modo aux lois de Lanchester, la victoire va à la partie qui dispose des réserves les plus nombreuses, à moins d'un différentiel qualitatif considérable. A ce jeu-là, comme le soulignent les critiques des " maneuverists " à l'encontre du FM de 1976, les forces occidentales sont forcément perdantes face à la supériorité mécanisée soviétique, et la pire des solutions consiste à leur laisser l'initiative en se cantonnant à une stratégie défensive, même " active ". En sens inverse, ils proposent d'adopter le paradigme de la " guerre de manoeuvre ", qui repose tactiquement sur la recherche d'avantages de position, et à l'échelle du théâtre sur des pénétrations audacieuses, sur le modèle des campagnes napoléoniennes et surtout du blitzkrieg allemand ; il s'agit, par une prise de risque calculée, de provoquer un " choc opératif " dans le système adverse et d'obtenir des résultats disproportionnés (non linéaires) au regard du rapport de force quantitatif. Au niveau tactique comme au niveau opératif, il s'agit également de " saturer " le système de commandement adverse en le prenant systématiquement de vitesse ; en bref, rechercher et exploiter, dans l'espace comme dans le temps, les points faibles de l'adversaire. Sous la direction du général Starry, qui a remplacé DePuy, l'édition de 1982 du FM 100-5 reprend partiellement à son compte les préceptes du " maneuver warfare " ou style de guerre manoeuvrier. Ce paradigme doctrinal se répand sûrement tout au long des années 1980, au sein du corps des officiers comme d'ailleurs auprès des Marines ou des alliés de l'OTAN. D'un point de vue pratique, cependant, il s'agit d'un succès en demi-teinte, dans la mesure où les stratégies opérationnelles retenues, " AirLand Battle " au sein des forces américaines et " doctrine Rogers " au sein de l'OTAN, doivent autant à la technologie qu'au paradigme de la guerre de manoeuvre. En se proposant de détruire les second et troisième échelons soviétiques par des frappes dans la profondeur, conduites par l'Air Force ou par ses propres systèmes à longue portée (ATACMS, Apache), l'Army entreprend bien de synchroniser les capacités de ses divisions au niveau opératif, mais elle tire surtout parti des possibilités offertes par des technologies déjà en place à l'époque : munitions aériennes de précision, sous-munitions antichars délivrées par l'artillerie à longue portée, etc .
+En parallèle à " AirLand Battle ", le général Starry lance en 1978 les initiatives " Army 86 " et " Division 86 ", qui concernent l'organisation et les structures de force. Fondée sur des analyses et des expérimentations approfondies, " Army 86 " propose deux modèles (Heavy Division 86 et Infantry Division 86) qui se situent dans le prolongement des divisions ROAD toujours en vigueur, mais incorporent des capacités supplémentaires tout à fait significatives. Avec 20 000 hommes et une brigade d'hélicoptères d'attaque, la Heavy Division 86 est véritablement conçue pour répondre en profondeur à l'offensive échelonnée prônée par la doctrine soviétique ; bien qu'approuvé, le plan est toutefois revu à la baisse faute de moyens suffisants (hommes, équipements) et d'argent, et c'est une version réduite qui est finalement appliquée par le plan " Army of Excellence " (1983). Censée servir sur n'importe quel théâtre d'opérations, la division d'infanterie doit répondre aux impératifs suivants : mobilité, flexibilité et puissance de feu accrue, ce qui veut dire concrètement être aérotransportable en C-141 et pouvoir résister à une unité ennemie dotée de chars T-72. Des résultats mitigés et un coût là encore prohibitif conduisent à l'abandon pur et simple du projet - il convient toutefois de souligner la ressemblance frappante, en termes d'objectifs, entre ce projet et l'actuel plan Shinseki.
+La rançon de cette intense focalisation sur la problématique du " front central " se manifeste rapidement, dès la fin des années 1970 : face aux percées soviétiques dans le Tiers-Monde, l'Army ne dispose pas de forces à la fois facilement projetables et capables d'infliger un coup d'arrêt à l'adversaire. Les années 1980 sont ainsi le théâtre d'expérimentations diverses, tant au niveau des matériels que des organisations, afin de mettre sur pied une division légère qui soit viable. C'est dans ce cadre qu'est tout d'abord lancé en 1980 le projet HTLD de " division légère technologique " (Hi-Tech Light Division) : il s'agit de protéger le golfe Persique face à une éventuelle attaque-éclair soviétique depuis l'Afghanistan, en mettant sur pied une organisation radicalement nouvelle fondée sur l'exploitation de technologies émergentes, en particulier un véhicule léger, donc déployable par avion, mais doté d'une réelle capacité antichar (Armored Gun System). Après trois ans de recherches et d'expérimentations, et parce qu'il est clair que les technologies requises n'arriveront pas à maturité avant au moins une décennie, le général Wickham propose un projet moins ambitieux et plus classique, le développement de la HTMD, division motorisée mixte (une brigade lourde toutes armes, une brigade légère toutes armes et une brigade d'infanterie) censée combler le " trou " entre divisions légères et divisions lourdes. Une fois encore, les problèmes pécuniaires et technologiques conduisent au démantèlement du projet.
+Tout comme Infantry Division 86, ces tentatives répétées présentent de nombreux points communs avec l'actuel plan Shinseki : il s'agit de pouvoir déployer rapidement et sur de grandes distances une force terrestre apte à conduire, en conjonction avec les autres Services, une action retardatrice avant l'arrivée des forces lourdes. A l'époque comme aujourd'hui, la technologie est envisagée comme un moyen de compenser l'infériorité organique des forces légères en termes de protection et de puissance de feu. Malgré les insuffisances de certains matériels, le concept est loin de manquer d'intérêt et préfigure à maints égards les solutions proposées aujourd'hui. Au final, le poids institutionnel des heavies, ou armes lourdes (armée blindée cavalerie, infanterie mécanisée, artillerie), mais surtout le manque d'argent et l'immaturité des technologies requises empêchent ces projets d'aboutir.
+Au terme de toutes les expérimentations menées entre 1975 et 1985, l'armée se rabat sur le plan " Army of Excellence " (1983), qui comprend une version allégée du projet Division 86 pour les unités lourdes, développe les moyens de commandement au niveau des corps et tranche le problème insoluble des unités légères en créant de pures divisions d'infanterie à spécialité " géographique " (par exemple la 10e Light Infantry Division - Mountain). Avec des effectifs réduits (10 000 hommes), dépourvues de véhicules et dotées d'une autonomie logistique de 48 heures, ces divisions ne demandent que 450 sorties aériennes pour être déployées mais sont explicitement réservées à des missions de basse intensité. Leur faiblesse intrinsèque suscite d'ailleurs, au sein de l'Army comme en dehors, des critiques nourries qui dénoncent tantôt leur inutilité en situation de combat, tantôt leur faible autonomie. Quatre de ces divisions sont progressivement mises en place.
+En définitive, et en dépit d'une application en demi-teinte des avancées doctrinales, les années 1980 s'achèvent par une incontestable amélioration de l'Army : les efforts en matière de recrutement (augmentation des salaires, campagnes de publicité), d'entraînement et de matériels portent leurs fruits et les forces terrestres qui sont envoyées dans le Golfe en 1990 sont probablement les plus homogènes et les meilleures jamais constituées par les Etats-Unis.
+La guerre du Golfe représente un triomphe collectif pour les forces armées américaines. Dans la perspective de l'Army, les opérations, et en particulier la phase terrestre, dite " guerre des 100 heures ", consacre le bien-fondé de la plupart des initiatives précédentes : les Abrams comme les Apache apportent la preuve de leur supériorité complète sur les matériels soviétiques présentés comme comparables, les troupes font une démonstration de professionnalisme et le haut-commandement de l'Army n'oublie pas de souligner l'importance du fameux " mouvement tournant gauche " (left hook) accompli par le VIIe corps avec le XVIIIe corps en flanc-garde.
+A y regarder de plus près, toutefois, il s'agit d'un triomphe de courte durée. S'il efface bien le " syndrome vietnamien " et restaure le prestige des " armes américaines ", les analyses postérieures font apparaître l'infériorité patente de l'adversaire à tous les niveaux imaginables : commandement, équipement, formation de la troupe, motivation, sans parler bien entendu de l'écrasante supériorité aérienne et " électronique " - on ne dit pas encore " informationnelle " - des alliés. La manoeuvre de flanc est d'ailleurs un échec, dans la mesure où l'attaque du Marine Corps le long de la côte, bien loin de " fixer " les Irakiens, donne à Saddam Hussein le signal de la retraite générale : pris de vitesse, le mouvement tournant frappe dès lors largement dans le vide et ne rencontre sur sa route que les unités délibérément placées en flanc-garde par le dictateur irakien afin de sauver ce qui peut l'être de son armée. En définitive, l'objectif militaire consistant à enfermer l'armée irakienne et à détruire la Garde républicaine - avec, sans doute, en arrière-plan l'intention de faire chuter le régime par ce biais - n'est pas atteint, et n'aurait sans doute pas pu l'être, sauf à engager des opérations de grande envergure dans les zones habitées de l'Irak, Bassorah en particulier.
+Quelles qu'aient pu être les insuffisances de l'opération, elles importent moins cependant que ses retombées au niveau des perceptions. La " guerre des 100 heures " a en effet été précédée, dans tous les sens de cette expression, par une campagne aérienne de six semaines sans équivalent dans l'histoire. Le paradoxe n'est pas mince, qui veut que " Tempête du désert " marque à la fois l'apogée de l'Army de l'après-Vietnam, à dire vrai son premier triomphe militaire depuis 1945, et " lance " dans le même mouvement le thème et l'école de la RMA, qui jouent dans un sens globalement défavorable aux intérêts de l'institution. Ce paradoxe se résout toutefois, dans la mesure où cette même guerre du Golfe a représenté un triomphe bien plus grand encore pour l'Air Force, et a véritablement relancé les débats autour de l'" Air Power ". La première moitié des années 1990 est ainsi le théâtre d'une importante littérature sur le conflit de 1991 qui, dans l'ensemble, s'attache à souligner l'" arrivée à maturité " (the coming of age) de l'arme aérienne et prend parti plus ou moins nettement en faveur de la nouvelle version de l'" Air Power ", telle que présentée, par exemple, par John Warden, lui-même à l'origine du plan de frappes " Instant Thunder ". Cette controverse est non seulement le fait des partisans attitrés de l'Air Force, mais elle reçoit encore une sanction presque officielle avec le lancement de la Gulf War Air Power Survey, étude approfondie sur le modèle de celles conduites après la Seconde Guerre mondiale - rien de tel n'a en revanche été produit au profit des opérations terrestres. Très peu de temps après la guerre du Golfe, l'Army redécouvre ainsi, selon la formule popularisée durant les années 1950, que " le véritable ennemi, c'est l'Air Force ". De fait, le déroulement de cette campagne a instantanément placé l'armée de terre dans une position défensive dont elle n'est en réalité pas sortie depuis lors. A ce constat amer, s'ajoute encore la douloureuse réduction de format consécutive à la fin de la guerre froide et entreprise dans la foulée du Golfe : en quelques années, l'armée perd 8 divisions sur 18 et se redéploie massivement vers le territoire américain.
+Après avoir passé en revue cinquante ans d'histoire de l'Army, deux séries de considérations semblent s'imposer, qui ont trait respectivement à la culture de l'institution et aux caractéristiques des processus de réforme réussis.
+Le succès de la guerre du Golfe tranche avec tous les engagements précédents de l'Army : il s'agit d'une opération de haute intensité, reposant sur une logistique impressionnante et un usage extensif de la puissance de feu, s'inscrivant enfin dans un cadre politique clair, qu'il s'agisse des objectifs fixés par le politique, du déroulement de l'intervention (début et surtout fin) ou du soutien de l'opinion américaine. En d'autres termes, " Tempête du désert " représente, en accord d'ailleurs avec la volonté explicite de la hiérarchie militaire, un véritable " retour aux sources ", en l'occurrence l'expérience réussie et transfigurée en modèle de la Seconde Guerre mondiale. Et c'est cette orientation qui constitue la culture de l'Army, son " coeur de métier " historique et la définition minimale commune à la plupart de ses membres, par-delà les revirements des " stratégies de sécurité nationale " et les réorganisations successives. A ce propos, il convient de souligner que les réformes les plus réussies, telles que ROAD ou Army of Excellence, se sont toutes situées dans la perspective de la " grande guerre " ; a contrario, les forces américaines et l'Army tout spécialement ont exhibé des difficultés plus ou moins marquées dès lors qu'il s'est agi d'intervenir dans le cadre de guerre limitées, telles qu'opérations de stabilisation mélangeant civils et combattants, guerres de guérilla ou même guerre classique circonscrite dans certaines limites (Corée). Résultant de cette histoire singulière en même temps qu'elles la renforcent, les doctrines Weinberger et Powell sont à la fois l'écho de ces préférences au niveau stratégique et l'expression d'un modèle idéal de relations avec l'autorité politique qui traduit au fond une méfiance considérable à l'égard de cette dernière. Parce qu'elles desservent souvent l'Army dans la routine des querelles interservices, ces relations civilo-militaires tendues contribuent plus d'une fois à une absence de soutien politique et budgétaire, dommageable lors des tentatives de réforme - ce n'est guère qu'en situation de conflit à grande échelle que l'Army prend le pas sur ses rivales, pour retomber derrière l'Air Force après la Corée ou le Vietnam, ou derrière la Navy lors du build-up reaganien.
+Ce manque de soutien politique paraît d'autant plus curieux de prime abord que l'Army a multiplié, tout au long de la période, les tentatives de réforme - on ne compte pas moins d'une vingtaine de projets de réorganisation divisionnaire. De cette foison de plans et de réformes émergent quelques régularités : l'innovation " prend " mieux en temps de paix, car elle réclame du temps et de multiples expérimentations ; la transformation des organisations, des structures et de la doctrine fonctionne lorsqu'elle est graduelle, qu'elle rencontre un large soutien dans le corps des officiers et s'appuie sur des concepts éprouvés ainsi que sur des matériels existants, au moins au niveau de la technologie. C'est notamment la cas du projet Division 86, très bien pensé. En sens inverse, un écart trop important entre les ambitions et les moyens (Army 86), et surtout la précipitation engendrée par des motifs politiques (modèle " pentomique ") et le développement de concepts anticipant sur les avancées technologiques (HTLD) produisent invariablement de mauvais résultats.
+Enfin, succès ou échecs, ces réformes présentent des points communs frappants avec le plan Shinseki : depuis cinquante ans, l'Army cherche en effet à améliorer simultanément la puissance de feu (lethality), la mobilité stratégique (deployability) et tactique et la flexibilité, entre autres logistique (sustainability). Si, à certains égards, ce sont là des objectifs constants à travers l'histoire et communs à de nombreuses organisations militaires, et si, en parallèle, le combat de haute intensité contre les forces soviétiques a dominé durant la guerre froide, le problème du déploiement sur d'autres théâtres de forces terrestres significatives et ce que l'on pourrait appeler l'" impératif expéditionnaire " n'en ont pas moins constitué une préoccupation récurrente de l'Amérique et de son armée, prisonnière de la situation géographique particulière du pays. Concernant les solutions proposées, la filiation est tout aussi nette et, depuis les années 1970 particulièrement, l'Army attend des avancées technologiques qu'elles lui permettent d'échapper autant que possible à l'arbitrage entre déployabilité et capacité de combat. En définitive, et malgré l'évolution du vocabulaire, l'Interim Brigade Combat Team (IBCT) actuellement en développement s'inscrit dans une longue série de réformes, et il convient de garder ce passé à l'esprit dans l'analyse du projet actuel.
+Dépositaire de cet héritage complexe et du succès fraîchement acquis de l'opération " Desert Storm ", l'Army des années 1990 se trouve confrontée à trois problèmes majeurs, qui ne se recoupent ni chronologiquement, ni analytiquement. Immédiatement après la guerre du Golfe interviennent les effets de la fin de la guerre froide en termes de crédits et de volumes de forces ; cette réduction de format s'achève à peu près vers 1995, avec une armée de terre rognée de 40 %. Dans la foulée, toutefois, les forces armées américaines doivent faire face à la multiplication sans précédent des projections et des interventions tout au long de la décennie ; du point de vue de l'Army, les opérations de stabilisation sont particulièrement préoccupantes, étant donné les effectifs qu'elles mobilisent dans la durée et les problèmes de gestion de personnel qu'elles suscitent. En toile de fond, enfin, le débat autour de la RMA s'amplifie tout au long de la période, et l'accent mis sur les capacités de frappe à longue portée place l'Army dans une position défensive.
+En parallèle à ces développements extrinsèques, l'Army conduit en interne deux projets de modernisation, " Force XXI " et " Army After Next ". S'ils sont bien, de la part de l'institution, une réponse aux arguments avancés par l'école de la RMA, réponse qui mêle d'ailleurs rejet et récupération de l'argumentaire " révolutionnaire ", ils n'en constituent pas moins une démarche originale, articulée aux besoins et aux conceptions propres à la " première force terrestre du monde ", comme l'armée américaine aime à le rappeler.
+Lancé en 1999, le plan Shinseki doit être interprété comme le point de convergence des pressions externes et du processus interne ; reste à mesurer l'importance de facteurs plus immédiats, le lancement de l'" Interim Force " ayant bien entendu pour fonction de faire taire les critiques suscitées par les déboires de la " Task Force Hawk " quelques mois plus tôt, et celles, non moins déstabilisantes, en provenance du nouveau secrétaire à la Défense à partir de 2000, Donald Rumsfeld.
+L'héritage de la guerre froide se révèle être à double tranchant : si, d'un côté, l'on retrouve pour partie dans le plan Shinseki les expérimentations doctrinales et les tentatives de réorganisation de la période précédente, de l'autre, la culture politique et stratégique de l'Army constitue indéniablement un frein à l'adaptation de l'institution au contexte nouveau de l'après-guerre froide.
+Dans la foulée de la guerre du Golfe, la priorité des militaires américains, toutes armées confondues, va à la préservation de l'héritage des années 1980, qu'il s'agisse du format global de forces ou des programmes en cours de développement. En parallèle, les armées et tout particulièrement l'armée de terre restent attachées à la doctrine Weinberger, bientôt rebaptisée doctrine Powell, ainsi qu'au primat politique et doctrinal de la grande guerre mécanisée.
+Avec la fin de la guerre froide se profile pour l'Army la hantise de l'" armée creuse " : la fin de chaque conflit a été en effet marquée par la démobilisation massive des forces terrestres. En conséquence, loin de se lancer dans des innovations ou dans des réorganisations ambitieuses, l'institution consacre toute son énergie à défendre les acquis. Dix ans plus tard, le succès obtenu paraît mitigé.
+La réduction du volume global de forces s'opère en plusieurs étapes, de 1990 à 1997 ; plus que n'importe quel autre facteur, ce sont les attentes économiques de l'électorat et la contrainte budgétaire qui guident la restructuration. Anticipée par l'Administration sortante, cette réduction inévitable avait donné lieu à un premier plan, " Base Force ", qui traduisait assez exactement les attentes des militaires en proposant pour l'après-guerre froide un volume global de forces représentant 80 % de celui des années 1980. Aussitôt au pouvoir, l'équipe de Bill Clinton met au point la Bottom-Up Review, ou révision de fond en comble, qui se traduit par une nouvelle diminution, moins prononcée que la première. Au final, et parce qu'elle a été la plus touchée, l'Army passe de 18 divisions en 1990 à 12 en 1995 (format " Base Force "), puis à 10 aujourd'hui. Outre le nombre de grandes unités, sont également réduits au cours des années 1990 les effectifs en hommes et en matériels des divisions, en particulier blindées et mécanisées ; elles comprennent aujourd'hui quelque 15 000 hommes, soit environ 3 000 de moins que dans le format défini par " Army of Excellence ". Concernant les équipements, la majeure partie de la décennie 1990 se passe à améliorer les matériels existant, en faisant premièrement en sorte que toutes les unités d'active soient dotées des dernières versions des plateformes majeures (chars Abrams, VCI Bradley, hélicoptères Apache), deuxièmement en poursuivant les programmes lancés pendant les années 1980 (canon Crusader¸ hélicoptère Comanche). Si le processus s'opère le plus souvent au détriment des unités de réserve (Army National Guard et Army Reserve), qui héritent des équipements les plus vétustes, la fin de la décennie voit à l'inverse la réorganisation de certaines unités de réserve, par exemple celles désactivées quelques années avant comme la 24th mech, en unités viables censées compléter les divisions d'active, partiellement ou intégralement, au sein des corps. Au terme, l'institution parvient, en dépit des réductions successives, à préserver l'essentiel : ses structures, sa doctrine et ses principales unités, certaines d'entre elles en réserve. De la sorte, est garantie la possibilité théorique d'une remontée en puissance, en cas de résurgence d'une menace majeure.
+Durant les années 1990, toutefois, ce n'est pas tant l'éventualité d'une telle résurgence qui rend la réserve si précieuse, mais plutôt les diverses " urgences " (contingencies), dans les Balkans, à Haïti et ailleurs, qui nécessitent de faire appel aux réservistes afin de soulager les unités d'active. La multiplication sans précédent des opérations extérieures de toute nature, du maintien de la paix aux alertes dans le golfe Persique, impose en effet à une structure quasiment réduite de moitié par rapport aux années 1980 un rythme opérationnel (operational tempo ou op-tempo) difficilement soutenable, stratégiquement comme humainement. Avec au bout du compte seulement dix grandes unités autonomes - les brigades doivent être considérablement " augmentées " en moyens de commandement et autres avant d'être employées de façon indépendante -, le rythme de rotation pose des problèmes considérables : les personnels sont mécontents d'être si longtemps à l'étranger, ce qui a une incidence négative sur le taux de réengagement (personnel retention), et ils ne peuvent remplir les objectifs en matière d'entraînement ; sur le plan stratégique, enfin, les unités engagées dans les Balkans ou ailleurs ne sont évidemment pas disponibles en cas de crise. Ainsi, dans un contexte de budgets déclinants, les forces armées américaines, et l'Army au premier chef, sont obligées de privilégier la disponibilité opérationnelle par rapport à la modernisation, sans parler même d'innovation révolutionnaire ou de " transformation ". Pendant la majeure partie de la décennie écoulée, les experts sont d'ailleurs nombreux qui dénoncent la " catastrophe en préparation " (the Coming Defense Train Wreck) : de nombreux systèmes d'armes ont atteint ou dépassé leur demi-vie (quinze ans ou davantage) et les crédits permettant de les remplacer par une nouvelle génération ou du moins de les améliorer font défaut. Fort logiquement, compte tenu du vieillissement des matériels et d'un taux d'utilisation plus élevé en opérations, les frais de maintenance augmentent régulièrement. En définitive, la période 1991-2000 laisse de nombreux problèmes en suspens, et l'Army ne parvient à se sauvegarder que sur le court terme.
+La préservation de l'héritage des années 1980 ne concerne pas seulement le format et la structure des forces, mais aussi leurs conditions d'emploi et plus généralement la nature des rapports civilo-militaires. La première moitié des années 1990 représente à maints égards le triomphe du " conservatisme " décrit plus haut, et qui est alors reformulé par Colin Powell, le très influent président du Comité des chefs d'états-majors (Chairman of the Joint Chiefs of Staff). La " doctrine Powell " reprend ainsi les éléments de la " doctrine Weinberger " en en soulignant les aspects militaires (les objectifs doivent être clairs et réalisables, la force doit être utilisée comme dernier recours, mais de façon décisive, overwhelming force selon la formule) et en ajoutant la prise en compte des risques, des conséquences à terme et de la situation finale (end-state) créés par l'intervention. Ces conditions si contraignantes qu'elles restreignent pratiquement l'engagement militaire à la seule défense des intérêts vitaux sont répétées à plusieurs reprises au cours des années 1990 et font en réalité office d'arme politique aux mains des républicains. Trois expériences sont à cet égard formatrices : " Desert Storm ", " Restore Hope " et les opérations de maintien de la paix dans les Balkans.
+Le contraste entre le succès de 1991 et l'échec humiliant de 1993 semble de prime abord donner raison à Colin Powell et à ses craintes concernant la sensibilité de l'opinion américaine à l'égard des pertes. Les sondages effectués le lendemain de la mort des 18 rangers font pourtant davantage apparaître un désir de revanche qu'une hyper-sensibilité aux pertes exigeant le retrait. A court terme, toutefois, l'abstention l'emporte, et les Etats-Unis choisissent de se désengager de Somalie et de rester passifs face au génocide rwandais comme à la situation en Bosnie. L'institution militaire en général, Colin Powell et le leadership de l'Army en particulier, jouent de tout leur poids face à l'Administration démocrate, affaiblie par la question des homosexuels dans l'armée comme par la Somalie ; c'est ainsi Colin Powell qui met son veto à toute intervention américaine en Bosnie. Dans la foulée, Bill Clinton rédige la Presidential Decision Directive 25, ou PDD 25, qui explicite les conditions d'engagement des troupes américaines dans des opérations de basse intensité en reprenant pour l'essentiel à son compte les principes de la doctrine Powell. En réalité, et par-delà les vicissitudes entourant l'opération commando contre Aïdid, le fiasco somalien résulte d'abord de l'instrumentalisation politique qui en est faite par les conservateurs, aussi opposés au président Clinton qu'au principe même des opérations de stabilisation entreprises pour des intérêts " marginaux ". Ces réticences face aux diverses contingencies qui apparaissent ça et là se poursuivent durant toute la décennie jusqu'au Kosovo, et contribuent grandement à modeler ce que l'on peut appeler rétrospectivement la " stratégie de l'ère Clinton ", qui privilégie systématiquement les frappes aériennes et préfère ne pas engager de moyens terrestres.
+L'Army est tout spécialement attentive aux dangers de l'engagement rampant (mission creep) et des pertes afférentes, et se structure autant qu'elle le peut pour rendre, par avance, impossible des interventions de ce type. C'est dans cette perspective qu'il convient de comprendre le principe de " force écrasante " et le primat des unités lourdes : seul un déploiement massif est susceptible de minimiser les risques pendant les opérations, et la lourdeur même (logistique et politique, puisque les réserves sont indispensables) des forces existantes assure qu'elles ne pourront être employées facilement, c'est-à-dire lorsque des intérêts secondaires sont en jeu. Dans ce cadre, les doctrines Weinberger et Powell ont d'abord pour fonction de populariser ces préférences auprès des politiques et de l'opinion, jusqu'à enfermer l'Army dans un paradigme d'emploi massif qui se révèle aussi inadapté que contre-productif. Outre, en effet, la multiplication des opérations de toute nature pendant les années 1990, cette structuration massive voulue par l'Army fait également le jeu des autres Services, et singulièrement de l'Air Force, en les plaçant automatiquement en première ligne, et donc dessert les propres intérêts de l'armée de terre.
+En dépit de menaces de retrait de moins en moins crédibles parce que réitérées chaque année, l'engagement durable des forces terrestres américaines en Bosnie à partir de 1995, qui suit et précède de près Haïti et le Timor, marque dans les faits la fin de la doctrine Powell ; la crédibilité " stratégique " du Général est de toute façon remise en cause, dans la mesure où il s'est systématiquement opposé à toutes les interventions américaines, depuis Panama jusqu'à la Bosnie, en passant par le Golfe en 1991. Or, de multiples facteurs politiques - solidarité avec les alliés, pressions de l'opinion - se combinent pour rendre intenable dans la pratique ce principe d'abstention quasi permanente. En parallèle à l'abandon de la doctrine Powell, les PKO (Peace Keeping Operations) font apparaître l'inadaptation des structures et même des équipements de la " première force terrestre du monde " : l'organisation divisionnaire ne facilite pas des déploiements rapides, les brigades ne sont pas autonomes ; les engins comme l'Abrams sont impressionnants mais dépassent le gabarit routier normal, et éprouvent donc le plus grand mal à entrer dans les villages ou à négocier les routes de montagne bosniaques que leurs chenilles détruisent... Etant donné le contexte politique et l'attention médiatique qui entourent les opérations de paix, il devient également problématique de définir et plus encore d'appliquer des " règles d'engagement " (ROE), c'est-à-dire d'ouverture du feu, qui limitent à la fois les risques de " bavures " et de pertes militaires tout aussi dommageables politiquement. La combativité des troupes a enfin tendance à s'émousser, et le rythme des rotations interdit le plus souvent un ré-entraînement rigoureux au combat.
+En bref, et si tous les contingents occidentaux rencontrent peu ou prou ces problèmes, l'Army est singulièrement prise à contre-pied : le combat de haute intensité pour lequel elle s'est préparée et structurée joue en sa défaveur dès lors que la rapidité et la souplesse de la réponse (responsiveness) priment sur la puissance (decisiveness). Estimant que des forces de combat peuvent effectuer des missions de maintien de la paix au prix de quelques ajustement mineurs, alors que l'inverse n'est pas vrai, l'institution préfère néanmoins maintenir le cap tout en assurant au jour le jour les tâches de maintien de l'ordre. Plus profondément, toutefois, l'expérience des Balkans explique que l'Army, contrairement à la Navy ou à l'Air Force, ait pris, ou repris, conscience de la dimension humaine de la guerre et de l'importance politique de la présence de troupes au sol : une stratégie de frappes ne permet pas toujours de contrôler un territoire habité, et il est des conflits qui ne se concluent pas avec les opérations militaires offensives, mais nécessitent sécurisation et reconstruction, c'est-à-dire occupation dans la durée. Ainsi, et alors que les SSC (Small-Scale Contingencies) représentent une contradiction flagrante avec les aspirations doctrinales et stratégiques de l'Army, entièrement tournées vers la " grande guerre ", elles n'en ont pas moins joué un rôle décisif en préparant les esprits au plan Shinseki.
+Par rapport à tous les facteurs et tendances à l'oeuvre durant les années 1990, qui s'agrégeaient sans susciter pour autant de crise majeure, il est clair que le fiasco de la " Task Force Hawk " en avril 1999 a fait figure de réveil extrêmement brutal pour l'armée de terre.
+Il s'agissait pourtant de déployer en Albanie un bataillon d'hélicoptères Apache, afin de les engager éventuellement au Kosovo en sus des opérations aériennes alors en cours. Non seulement la phase de déploiement s'est avérée considérablement plus longue que prévue, mais encore elle a été ponctuée par plusieurs incidents, dont la perte de deux hélicoptères et d'un équipage. Au final, " Task Force Hawk " n'a tout simplement pas été engagée, malgré un déploiement considérable : 6 200 hommes, 24 hélicoptères, une batterie MLRS, soit 26 000 tonnes d'équipement acheminées par 442 rotations de C-17 et 269 de C-130 pour un coût de 480 millions de dollars. A ce compte-là, l'Air Force et la Navy ont eu la partie facile, et il suffit de parcourir la presse ou les articles spécialisés de l'année 1999 pour constater que de plus en plus d'experts ou de commentateurs s'interrogent sur la nécessité pour les Etats-Unis de conserver une armée de terre importante, dès lors que les moyens de frappe à distance et les Services correspondant démontrent une réactivité supérieure et une capacité autonome à emporter la décision. A l'évidence, les événements ne se sont pas déroulés aussi simplement, et les raisons exactes qui ont poussé Slobodan Milosevic à capituler font encore aujourd'hui l'objet de débats. L'essentiel ne réside pas là, cependant, mais bien dans la perception d'inutilité (irrelevance) qui s'est attachée à l'Army et risque de lui coûter cher dans la bataille budgétaire à venir.
+Le Kosovo, en effet, a lieu un an avant les élections générales, elles-mêmes suivies d'une seconde " Revue quadriennale de défense ", d'un nouveau gouvernement et d'une législature renouvelée ; pour la première fois depuis longtemps existe donc l'opportunité d'un changement de stratégie et d'une réallocation des crédits et des " rôles et missions " correspondant au sein du département de la Défense. En bref, l'Army risque gros et ne peut se permettre de donner l'impression qu'elle poursuit sur sa lancée (" business as usual ") comme si rien ne s'était passé ; dans le contexte de l'après-Kosovo, l'inertie ne peut qu'être politiquement dommageable.
+Ce point est d'autant plus important que les deux candidats principaux ont, au moins rhétoriquement, fait allégeance à la RMA et ont promis de moderniser l'appareil militaire américain. George W. Bush, en particulier, en a repris l'un des slogans les plus répandus, à savoir la nécessité de " sauter une génération d'armements ". En outre, son entourage semble clairement séduit par les frappes à distance et très réticent à l'endroit des opérations de stabilisation ; l'Army se retrouve donc attaquée " par le haut " et " par le bas ". L'arrivée aux affaires de Donald Rumsfeld, partisan convaincu de la RMA, se traduit d'ailleurs par le lancement immédiat en 2001 d'une série de " revues " qui menacent tant les programmes en cours que les structures de force : dans le cadre budgétaire restrictif de l'avant-11 septembre, le financement de la " transformation militaire " proclamée a de fortes chances d'entraîner une réduction du nombre de divisions terrestres.
+Dans ce contexte politiquement chargé, et dont l'urgence va croissant entre 1999 et 2001, l'Army n'a donc pas d'autre choix que d'" embrasser " intégralement la rhétorique de la RMA et de proposer dans la foulée un projet " révolutionnaire " qui d'emblée permette d'" occuper le terrain " budgétaire, ce qui passe par des acquisitions de matériels à très brève échéance, tout en remédiant aux insuffisances mises en lumière par le fiasco albanais et en préservant ce qui peut l'être des acquis doctrinaux des années passées.
+Une fois absorbées les réductions de format consécutives à la fin de la guerre froide, l'Army se retrouve simultanément confrontée à la multiplication des interventions et à la montée en puissance de l'école de la RMA, qui met en cause les formats, les doctrines et les équipements existant. Les exercices de réflexion et d'expérimentation lancés par l'Army à partir de 1994 répondent pour partie à ces pressions, tout en reflétant les choix propres de l'institution.
+Après 1995, et compte tenu des engagements internationaux des Etats-Unis, on aurait pu croire finie la période de réductions des forces et de diminution des crédits. Il n'en a rien été dans les faits, comme le montre la première QDR, lancée en 1997, et qui avait apparemment pour fonction première de préparer les inévitables réductions de format que ne manquerait pas d'entraîner après 2000 un budget de la défense stagnant - de modestes réductions d'effectifs sont ainsi organisées à partir de cette date. C'est seulement à partir de 1999 que la bonne santé de l'économie américaine et la disparition du déficit fédéral convainquent l'exécutif, d'ailleurs sous la pression conjointe du Congrès et des interventions en cascade, d'augmenter les crédits alloués à la défense. En ce sens, les premiers projets innovants lancés par l'Army durant les années 1990, " Force XXI " et " Army After Next ", visent d'abord à préparer le long terme tout en absorbant le choc de l'après-guerre froide, c'est-à-dire la réduction du format global et des crédits, et en continuant d'assurer les missions spécifiées dans la Bottom-Up Review, à savoir mener victorieusement et simultanément deux " conflits régionaux majeurs " (Major Regional Contingencies ou MRC) dans le Golfe et sur la péninsule coréenne. Au fur et à mesure que s'amplifie le mouvement de la RMA, les initiatives doctrinales lancées acquièrent une fonction supplémentaire : " préempter " les critiques des tenants de la RMA en incorporant leur vocabulaire et, pour partie seulement, leurs recommandations.
+Pour de nombreux partisans d'une modernisation accélérée, c'est-à-dire " révolutionnaire ", les seules marges de manoeuvre budgétaire disponibles, en période d'austérité, sont en effet à rechercher dans l'arrêt des programmes " non révolutionnaires " (legacy programs) et dans la réduction du format des forces terrestres. Or, dans la mesure où les interventions semblent démontrer les unes après les autres, du Golfe au Kosovo, que le " complexe de reconnaissance-frappe " en cours de formation se suffit pratiquement à lui-même et que les alliés au sol de toute façon ne manquent pas, la position de l'Army apparaît de plus en plus fragile et à la merci d'une décision politique. En outre, les capacités de frappe à longue distance ne cessent de s'améliorer et de se répandre pendant les années 1990 : les munitions de précision (PGM ou Precision Guided Munitions) représentent ainsi 10 % du tonnage total utilisé pendant " Desert Storm ", 35 % pour " Allied Force " et plus de 60 % pour " Enduring Freedom " (" Liberté immuable "); l'arrivée du guidage par GPS permet d'obtenir une grande précision par tous les temps, et pour une fraction de ce que coûtent les missiles de croisière. L'" arrivée à maturité " des frappes précises à distance de sécurité, voire à très grande distance, ne semble pas seulement réaliser les attentes des avocats historiques de l'" Air Power " depuis Mitchell ; plus fondamentalement, elle met en question la nécessité du combat de près, qui constitue bien entendu la raison d'être des forces terrestres.
+Grâce aux progrès considérables de l'électronique et de l'informatique (doublement de la puissance des processeurs tous les dix-huit mois), la révolution de la précision s'accompagne d'améliorations tout aussi spectaculaires en matière d'acquisition (capteurs), et surtout de traitement et de diffusion de l'information (bande passante) jusqu'à promettre la possibilité d'un champ de bataille rendu " transparent " et donc entièrement ouvert à des frappes discriminantes conduites à grande distance -l'inflation linguistique n'est pas en reste : on passe du C3I au C4ISR, soit Command, Control, Communications, Computers, Intelligence, Surveillance, Reconnaissance, et les plus enthousiastes d'évoquer une véritable " conscience de la situation opérationnelle " (situational awareness). Dans le même ordre d'idées, la Navy entend exploiter au mieux les nouvelles possibilités des technologies de l'information et lance le concept de network-centric warfare ou paradigme de la " guerre réseau-centrée ", c'est-à-dire fondé sur l'échange continu d'informations entre les différentes plateformes.
+La première initiative de l'Army consiste justement à essayer d'exploiter les progrès en matière de C4ISR. " Force XXI " se résume ainsi en un mot : la digitalisation, soit le fait d'équiper les différents véhicules et systèmes d'armes, et en particulier les véhicules de commandement, avec des terminaux informatiques reliés les uns aux autres et les programmes informatiques correspondant. Dénommés collectivement FBCB2, pour Force XXI Battle Command, Brigade and Below, ces logiciels gèrent simultanément le commandement, le positionnement terrestre par GPS, les transmissions par radio et satellite, l'identification ami-ennemi ou encore les courriers électroniques et les images. Les programmes et le réseau (intranet tactique) fonctionnent sur des terminaux dédiés rajoutés aux plateformes existantes (appliqué) ou intégrées dès l'origine pour les plus modernes d'entre elles (Apache Longbow, M1A2 Abrams). Une brigade comprend plus de 1 000 ordinateurs.
+La digitalisation doit permettre de réduire la friction inhérente aux opérations militaires, en assurant aux unités la capacité de maîtriser leur environnement (localisation des " amis ", des ennemis et des neutres) et de communiquer leur situation tactique, et en donnant aux chefs la possibilité d'une manoeuvre beaucoup plus rapide. En ce sens, la digitalisation fonctionne comme un " multiplicateur de force ", c'est-à-dire qu'elle permet d'accélérer le cycle " OODA " et donc d'accroître la mobilité et la puissance de feu. Dans le même temps, toutefois, la digitalisation pose de délicats problèmes de commandement : il s'agit de savoir jusqu'à quel niveau hiérarchique distribuer l'information, et plus généralement quelle approche du commandement adopter. Mis en lumière par " Force XXI "¸ ces problèmes sont loin d'avoir été résolus depuis lors.
+Lancé en 1994 par le général Sullivan, le projet Force XXI est conduit sous la responsabilité du TRADOC, qui organise une série d'expérimentations, de manoeuvres et de wargames (les AWE ou Advanced Warfighting Experiments). Etant donné les réductions alors en cours et les multiples opérations outre-mer impliquant l'Army, il est décidé de donner la priorité aux unités lourdes et de procéder de façon progressive et focalisée, en digitalisant brigade par brigade la 4th Infantry Division, désignée comme EXFOR ou Experimental Force. Le fait de concentrer ainsi l'innovation sur une seule unité qui passe tout son temps au National Training Center, à s'entraîner contre l'OPFOR, permet non seulement de travailler sur la durée, mais encore d'expérimenter différentes possibilités. Pas moins de 11 options sont ainsi examinées, qui semblent avoir repris certains projets de réorganisation divisionnaire remontant aux années 1970 et 1980. En particulier, TRADOC analyse l'impact de la digitalisation en termes de modularité : il s'agit de savoir s'il est désormais possible d'organiser des brigades permanentes constituant les éléments fixes de divisions ad hoc. De même, est essayé un format divisionnaire mixte, un peu à la manière de TRICAP, qui mélange infanterie légère, blindés et hélicoptères. Le modèle intérimaire, ou " Force XXI Interim Division ", retient finalement une organisation assez proche de la division lourde normale, mais avec des capacités interarmes renforcées, en particulier infanterie, feux à longue portée, reconnaissance et renseignement - ces derniers points correspondant sans surprise aux programmes de modernisation alors en cours, obusier automoteur Paladin, missile à longue portée ATACMS et hélicoptère de reconnaissance armée Comanche.
+Si le projet est en définitive absorbé par les plans suivants, il n'en laisse pas moins plusieurs héritages importants. En premier lieu, la nature progressive et focalisée de l'expérimentation a assuré son relatif succès, sans pour autant parvenir à résoudre les difficiles questions de commandement soulevées par la digitalisation. En deuxième lieu, " Force XXI " a ouvert la voie, du double point de vue de la méthodologie et de la doctrine, aux projets suivants, " Army After Next " et " Objective Force " : le premier reprend et projette dans le long terme les implications de la digitalisation ; le second en retient les applications directes en matière de C4ISR, mais aussi le principe d'unités expérimentales permanentes, en l'espèce les " brigades interarmes intérimaires ". En troisième lieu, enfin, " ForceXXI " a débouché sur le système FBCB2 (Force Battle Command, Brigade and Below) et le programme de digitalisation en cours de certaines unités lourdes.
+Contrairement à " Force XXI ", qui cherche à mettre à profit les avancées existantes de la technologie, " Army After Next " (AAN) se focalise spécifiquement sur le long terme, soit par construction la période 2015-2025. En conséquence, il s'agit davantage d'une vision et de structures de forces théoriques que d'un programme à proprement parler. En l'absence des technologies concrètes requises, AAN a consisté pour l'essentiel en une série de wargames. C'est l'occasion pour l'Army d'expliciter ses objectifs de long terme, de se projeter dans un avenir lointain et, par là, de réitérer ce que sont ses préférences profondes.
+En explorant les possibilités à long terme de la " révolution de l'information ", l'Army a cherché à prendre en compte les menaces futures telles qu'elles sont notamment annoncées par les partisans de la RMA : prolifération des armes de destruction massive, dissémination partielle des technologies de pointe (niche capabilities) et recours systématique au déni d'accès. La problématique envisagée est double : comment préserver la possibilité de l'intervention à grande distance face aux stratégies de déni d'accès, qui interdisent de procéder à une montée en puissance progressive ; comment améliorer la capacité de manoeuvre terrestre face à l'augmentation prévisible de la puissance de feu produite par la diffusion des frappes de précision ? Les wargames conduits de 1996 à 2000 font émerger deux réponses simples, la vitesse et la profondeur : il va s'agir pour l'armée de terre de multiplier par dix (" by an order of magnitude ") la réactivité stratégique et la vitesse d'exécution tactique, et d'opérer sur l'ensemble du théâtre. S'agissant de l'arrivée en force sur un théâtre sous la menace de frappes adverses (forcible entry), la solution proposée passe par des opérations " dispersées " (distributed), c'est-à-dire non linéaires ; l'absence d'un front et d'une zone arrière bien délimités doit permettre de minimiser la vulnérabilité initiale. De même, et pendant toute la durée des opérations, la maîtrise des technologies de l'information est pensée comme autorisant la délocalisation hors du théâtre de nombreuses fonctions de commandement ou de soutien, en sorte que les unités sur place puissent limiter leur logistique et " se retourner " en tant que de besoin ( reach back ), via en particulier les communications satellites, vers les moyens basés hors du théâtre. Ce " parapluie informationnel " doit également permettre de maintenir un tempo tactique et opératif très élevé, tel que l'action des forces terrestres conjuguée aux frappes à longue distance fournies par les autres armées puisse saturer d'emblée et définitivement la " boucle de décision " (OODA loop) ennemie. En bref, la rapidité des opérations permet de saisir des avantages de position dans l'espace comme de déborder l'adversaire dans le temps, et donc de dominer son processus de décision. A l'évidence, on retrouve là les principes fondamentaux du paradigme de la guerre de manoeuvre tel qu'il a été élaboré pendant les années 1980, à ceci près que les opérations non linéaires menées sur toute la profondeur de territoire ennemi ont remplacé la synchronisation séquentielle des capacités aéroterrestres.
+Pour intéressant qu'il soit d'un point de vue théorique, le projet AAN et les conclusions qui en sont tirées ne vont pas sans soulever de nombreuses questions. Le cadre posé par AAN est clairement celui, classique, de la grande guerre mécanisée, mais les moyens envisagés, supériorité " spatio-informationnelle ", feux ultra-précis à distance de sécurité, etc., vont tout aussi clairement dans le sens préconisé par la RMA. Tout en proclamant que seules les forces terrestres sont à même de contrôler territoires et populations, l'Army apparaît d'ailleurs singulièrement réticente à s'engager de près et compte en fait se reposer dans le futur sur la maîtrise américaine de l'information, comme elle s'est reposée en 1991 sur la supériorité physique de ses plateformes, pour détruire l'ennemi à distance. Les problèmes épineux comme le combat en zone urbaine ou difficile sont simplement laissés de côté, et la manoeuvre semble avoir principalement pour but d'obliger l'adversaire à se concentrer en réponse, et ce faisant à se rendre vulnérable aux feux à longue portée. Or, l'US Air Force est évidemment mieux placée, à l'heure actuelle en tout cas, pour revendiquer cette conception des opérations militaires et surtout mettre en pratique les feux à longue portée, partie décisive de cette stratégie. En outre, les réticences de l'Army à l'endroit des " Operations Other Than War " et la focalisation sur le combat de haute intensité rentrent également en contradiction avec le slogan du " contrôle de l'espace ", et surtout apparaissent singulièrement décalés par rapport aux réalités immédiates auxquelles doit faire face l'institution.
+Dans la continuation du plan AAN, l'Army entreprend à partir de 1996 de constituer une " Mobile Strike Force ". A l'origine, celle-ci doit se composer d'un Q.G. d'un nouveau type, plus agile logistiquement, puis d'unités modulaires de niveau brigade, aux effectifs et à la composition variables (entre 3 000 et 5 000 hommes), définis en fonction de la mission.
+Il s'agit de disposer d'une force initiale utile sur tout le spectre des opérations, qui permette à la fois de réduire la vulnérabilité des forces terrestres en cours de déploiement (problématique de l'entrée de vive force, ou forcible entry, étudiée lors des wargames conduits dans le cadre " Army After Next "), et de répondre rapidement aux opérations de basse intensité et urgences diverses de type humanitaire qui sollicitent l'armée de terre. Initiée par le général Reimer, " Strike Force " passe par la constitution d'un Q.G. dédié, combinée à une série de manoeuvres et de tests conduite par le 2nd Armored Cavalry Regiment. On retrouve là, héritée de FXXI, l'idée de processus d'expérimentation focalisé sur une unité-test (test-bed unit). Dans une perspective à long terme, la transformation du 2nd ACR en " Strike Force " représente une sorte de prototype pour AAN. A plus court terme, le projet mise sur la digitalisation afin de délocaliser de nombreuses fonctions désormais remplies par des éléments non organiques ; le Q.G. " Strike Force " doit s'en trouver plus léger et donc plus facilement déployable. Par là, le général Reimer reprend à son compte, quoique de façon limitée, les différentes propositions de réorganisation lancées à la fin des années 1990, et qui recommandent d'abandonner le système divisionnaire, trop lourd, au profit d'unités intermédiaires dotées d'une réelle autonomie d'action mais comparables à des brigades en termes de volume. En ce sens, et contrairement à FXXI ou AAN, " Strike Force " a représenté la première tentative véritable d'adaptation de l'Army aux exigences du contexte international, par opposition à des scénarios de grande guerre correspondant aux préférences de l'institution.
+L'ironie du sort a voulu que ce projet arrive en phase de développement au printemps 1999, juste au moment où le Kosovo révélait au grand jour les déficiences de l'Army, menaçant de dégénérer en une véritable affaire politique.
+A considérer tout ce qui précède, depuis l'histoire doctrinale de l'institution, riche d'expérimentations et de projets en tous genres s'intéressant, entre autres, aux interventions hors des théâtres habituels de la guerre froide, jusqu'au traumatisme causé par " Task Force Hawk ", en passant par les plans de modernisation des années 1990 qui débouchent à la fois sur " Army After Next " et " Strike Force ", on ne peut que constater tout ce que le projet " Objective Force " doit au passé proche, ou lointain, de l'Army. Dans le plan initié en 1999 par le général Shinseki, nouveau chef d'état-major, on retrouve en effet tant les facteurs conjoncturels comme le fiasco albanais ou les attaques montantes des partisans de l'Air Power que les aspirations fondamentales de l'armée de terre ou les débats traditionnels qui la traversent en interne quant à sa mission première.
+Plus précisément, le plan Shinseki reprend la démarche et les résultats de FXXI et d'AAN, tout en incorporant des éléments plus anciens, par exemple les tentatives des années 1980 pour créer une division puissante mais facilement déployable, HTLD ou HTMD. La démarche est en fait triple, puisqu'il s'agit simultanément de moderniser sélectivement les forces lourdes (" Legacy Force "), de constituer des unités " moyennes " (" Interim Force ") équilibrant les avantages et les inconvénients respectifs des divisions lourdes et des divisions légères ; enfin, de lancer l'Army sur un plan de modernisation révolutionnaire (" Objective Force "), pour lequel les technologies appliquées vont devoir être réalisées en parallèle au travail sur la doctrine et les structures.
+Il existe toutefois une différence essentielle avec les initiatives précédentes, qui tient à l'accélération considérable du " calendrier " : là où " Strike Force " prévoyait un Q.G. et peut-être une unité en 2003, le plan " Interim Force " entreprend de mettre sur pied 5, 6 ou même 8 brigades interarmes d'ici à 2007 ; le raccourcissement est encore plus net pour " Objective Force ", censée entrer en action à partir de 2008, quand " Army After Next " se projetait à l'horizon 2025. Si cette accélération témoigne de l'urgence politique de la réforme, elle n'en constitue pas moins un pari risqué, eu égard à l'état des technologies comme aux besoins budgétaires impliqués, et que le général Shinseki a évalué entre 40 et 70 milliards de dollars.
+Compte tenu des impératifs conjoints de la transformation et de la disponibilité opérationnelle, il était indispensable que l'Army réduise ses investissements en matière de recapitalisation des forces, c'est-à-dire de modernisation progressive. Pour cette raison, il a été décidé de limiter le programme de digitalisation des forces - initialement censé être appliqué aux unités lourdes puis aux unités légères - au seul IIIe Corps, désormais désigné comme " force de contre-attaque " et plus spécialement chargé de l'Asie de l'Est (" PACOM "), la Corée étant l'un des derniers théâtres susceptibles de requérir d'importantes forces lourdes. Comprenant la 1st Cav. Division, la 4th Infantry Division (Mech) et le 3rd Armored Cavalry Regiment, ainsi que des éléments de soutien et des unités de réserve " mariées " aux divisions d'active, le " Counterattack Corps " constitue la réserve stratégique de l'armée de terre et participe à la défense du territoire tout en étant prêt à se déployer et à engager des actions " décisives ". A ce titre, le " porte-drapeau " de la " Legacy Force " est appelé à bénéficier d'un plan de recapitalisation partielle, mêlant le rajeunissement de l'ensemble des plateformes en service et l'amélioration de certains systèmes : passage de la version M1A1 à la version M1A2 (System Enhancement Program ou SEP) pour le char Abrams, passage au Bradley M2A3 et à la version AH-64D Longbow de l'hélicoptère Apache, enfin intégration des derniers systèmes digitalisés de commandement (ABCS). Avec la réforme de la réserve, désormais plus étroitement associée à l'armée d'active, cette recapitalisation modérée s'étend aux unités de réserve du IIIe Corps.
+Outre le à la fois Ve Corps (" Victory Corps "), basé en Allemagne et plus spécialement axé sur la coopération au sein de l'OTAN et le maintien de la paix dans les Balkans, l'Army comprend le Ier Corps (" America's Corps "), qui supervise la transformation et les deux brigades expérimentant le nouveau format IBCT à Fort Lewis et ne compte par ailleurs que des unités de réserve, enfin le XVIIIe Corps aéroporté, plus spécialement chargé de répondre rapidement aux urgences susceptibles de se manifester, en particulier au Moyen-Orient (" ARCENT " ou Composante terrestre du commandement central). Justement appelé " Contingency Corps ", le XVIIIe rassemble les unités (101st Air Assault, 82nd Airborne, 10th Mountain, 3rd Mech.) devant être " transformées " les premières au sein de " Objective Force ".
+Pensée pour limiter les risques associés à la transformation, cette répartition fonctionnelle est également géographique et dessine les contours possibles d'une armée de terre " à plusieurs vitesses ", avec le XVIIIe Corps en pointe, les Ier et Ve Corps en seconde ligne et moins opérationnels, enfin le IIIe Corps comme réserve " décisive ". En plus de ses vertus stratégiques, entre autres en termes de déploiement, cette réorganisation constitue sans doute une concession faite aux différents courants qui traversent l'Army : les armes (branches) lourdes, traditionnellement dominantes, et qui sont défavorables au plan Shinseki, conservent un " espace préservé " avec les IIIe et Ve Corps, tandis que les " lights " du XVIIIe sont appelés à bénéficier en premier des retombées de la transformation.
+La brigade interarmes intermédiaire, dite IBCT (" Interim Brigade Combat Team "), a été lancée en octobre 1999 et vise deux grands objectifs : préparer la voie aux systèmes et aux formations futures de l'" Objective Force ", et corriger les déficiences constatées récemment en matière de déploiement rapide et de " versatilité " des forces terrestres américaines, ce qui implique une réorganisation des structures.
+D'abord appelé " Medium Brigade ", l'IBCT est annoncée " lethal, survivable, mobile, deployable, sustainable, all-spectrum ". Ce sont là autant de qualificatifs " codés " qui reprennent les qualités respectives des forces lourdes et légères : les deux premiers font référence aux capacités offensives et défensives (puissance de feu et protection) des heavies, le troisième à leur mobilité tactique tout terrain, là où les unités d'infanterie sont pratiquement immobiles ; en sens inverse, ces dernières sont très mobiles stratégiquement, puisque légères, faciles à déployer et à soutenir. On le voit, il s'agit du vieux problème de la " brèche " (gap) entre forces légères et forces lourdes. Tandis que les premières arrivent en quelques jours sur le théâtre, mais ont une faible valeur militaire, en particulier contre un adversaire mécanisé, les secondes ont besoin quant à elles de plusieurs semaines pour se déployer, ce qui crée une fenêtre de vulnérabilité maximale entre, en gros, la première et la sixième semaine pour un déploiement dans le golfe Persique. En outre, les wargames et les analyses ont bien fait apparaître que la vulnérabilité principale de la posture stratégique américaine tenait à ces délais de déploiement importants et que les adversaires des Etats-Unis chercheraient probablement à leur interdire l'accès au théâtre. Pour répondre à ces critiques, qu'on retrouve fréquemment chez les partisans de la RMA ou de l'Air Power (l'US Air Force insiste sur sa réactivité, responsiveness), le plan " Army Vision " d'octobre 1999 a fixé des objectifs très ambitieux : déployer une IBCT en 96 heures, la première division en 120 heures, et le corps entier en 30 jours, et ce, n'importe où dans le monde.
+A cette mobilité stratégique impressionnante, traditionnellement associée aux seules unités légères, doivent correspondre une égale mobilité tactique et un certain degré de protection pour les personnels, puisque l'IBCT doit pouvoir être engagée de façon autonome et sur tout le spectre des opérations. Eu égard à ces considérations, la brigade intermédiaire est " montée " (mounted), c'est-à-dire qu'elle dispose en propre de véhicules de type " blindés légers à roues ". Le choix du LAV-III (Light Infantry Vehicle), dont des versions antérieures sont en service dans les forces armées canadiennes et l'US Marine Corps, tient justement à sa légèreté : à 17 tonnes sans blindage externe ajouté, le Stryker, tel qu'il a été rebaptisé, peut tenir dans un C-130, avion qui constitue encore aujourd'hui le gros de la flotte de transport aérien tactique des pays occidentaux, Etats-Unis en tête. En outre, le choix d'une plateforme à roues, par opposition aux chenilles, permet d'accroître notablement la mobilité sur routes et de réduire les besoins logistiques (carburant, pièces détachées), et l'équipage est à l'abri des munitions de petit calibre (jusqu'au 14,5 mm). Enfin, la désignation d'un châssis commun à tous les véhicules spécialisés (véhicule de commandement, antichar, artillerie) constitue là aussi un avantage logistique important, le caractère interchangeable des pièces détachées entraînant une nette simplification des procédures de maintenance et de réparation.
+En ce qui concerne sa composition, l'IBCT hérite assez directement des initiatives de réforme précédentes, à commencer par la " Mobile Strike Force ". Il s'agit en effet d'une brigade d'environ 4 000 hommes, mais prévue pour recevoir en augmentation des éléments divisionnaires (génie, renseignement, hélicoptères...) ou pour s'articuler elle-même au sein d'un dispositif plus large. Elle comprend 3 bataillons d'infanterie, 1 bataillon d'artillerie orienté sur le tir de contre-batterie, plusieurs sections de mortiers, 1 bataillon de soutien, quelques moyens antichar (1 compagnie) et les éléments de commandement. L'ensemble constitue à proprement parler une unité d'infanterie montée, comparable à ce que furent les " dragons " au XVIIe siècle : les plateformes ont d'abord pour fonction de transporter les troupes, puis de les appuyer au combat, mais celui-ci est effectué à pied (dismounted). Ce format, assez classique en apparence, a cependant ceci d'original qu'il dissocie les hommes des plateformes en situation de combat, initiative qui va à l'encontre des traditions de l'infanterie mécanisée américaine, très " véhiculaire " ; il est en outre clairement orienté vers le combat en terrain difficile, zone urbaine ou montagneuse, là encore tout ce que l'" armée de terre institutionnelle " préfère généralement éviter. L'innovation la plus visible tient à l'inclusion des dernières avancées en matière de C4ISR et à l'incorporation d'une composante originale, l'escadron de reconnaissance, de surveillance et d'acquisition des cibles (Reconnaissance, Surveillance, Target Acquisition ou RSTA squadron). Dans la foulée des expérimentations conduites pendant la décennie et culminant avec " Force XXI ", les éléments de l'IBCT ont été mis en réseau les uns avec les autres, tout en réservant explicitement la possibilité de relier en temps quasi réel la brigade à n'importe quelle autre unité, qu'elle appartienne à l'Army, l'Air Force ou à un contingent allié. Décrite comme un pas significatif en direction de la jointness (" interarmisation "), la brigade interarmes a été optimisée pour bénéficier de l'appui-feu ou du soutien logistique externe - on retrouve le concept de reach-back - lors d'une opération de grande envergure ou en cas d'urgence. Au niveau tactique, l'escadron RSTA reproduit les mêmes fonctionnalités, centralisant et distribuant le renseignement. Grâce aux UAV et capteurs perfectionnés (acoustique, systèmes REMBASS) qu'il incorpore, l'escadron RSTA est plus qu'un simple détachement de reconnaissance au sens classique, car il est censé pratiquer la reconnaissance à distance, et non par contact. De la sorte, l'IBCT peut couvrir un espace très important (50 km x 50 km) et s'adapter aux situations les plus diverses, offensive ou défensive, de basse comme de haute intensité.
+Au final, ce type d'organisation semble idéalement adapté aux " urgences " diverses et autres Small-Scale Contingencies auxquelles l'armée de terre a été appelée à faire face au cours des années 1990. Facile à déployer, mobile à l'arrivée et offrant néanmoins aux hommes qui la composent une certaine protection et une puissance de feu non négligeable, l'IBCT est certes prévue pour couvrir tout le spectre opérationnel, mais il paraît assez clair qu'elle a été optimisée pour la moitié inférieure de ce spectre et que, pour l'heure, un conflit de haute intensité la verrait probablement reléguée à un rôle d'appoint - par exemple flanc-garde à la manière de la division Daguet, saisie d'un objectif secondaire, etc. Reste donc à savoir ce qu'elle peut véritablement accomplir, et en particulier si elle permet de combler la " brèche " entre lights et heavies, ou si, comme le prétendent certains critiques, elle est essentiellement optimisée pour les missions de stabilisation (l'expression SASO, pour Stability and Support Operations, a officiellement remplacé Operations Other Than War). Dans la même perspective, il est sans doute trop tôt pour déterminer la valeur réelle de la mise en réseau des éléments de la brigade, et l'impact de cette interconnexion sur le tempo, la sûreté et l'efficacité des opérations. En ce sens, et pour que l'IBCT remplisse sa fonction d'unité expérimentale (test-bed unit) au profit de l'" Objective Force " à venir, il faut encore qu'elle soit mise à l'épreuve de la réalité.
+Si l'" Interim Force " emprunte aux années 1980 (HTLD et HTMD) et aux initiatives plus récentes comme " Force XXI " et " Mobile Strike Force ", le projet " Objective Force " doit quant à lui beaucoup à " Army Vision 2020 " et à " Army After Next " : loin des obligations terre-à-terre (si l'on ose dire) liées aux SASO, " Objective Force " semble, pour ce que l'on en connaît aujourd'hui, se focaliser sur le combat de haute intensité et les possibilités offertes en la matière par les technologies les plus avancées, en cours de développement et surtout en projet. En outre, ce projet est par nature beaucoup plus ambitieux, puisqu'il est prévu que ce format remplace à partir de 2008-2010 l'intégralité de l'Army, legacy forces comme interim forces. Les développements technologiques anticipés et la qualité attendue, entre autres au niveau des plateformes, sont censés être tels que la capacité de l'ensemble des forces à traiter les opérations de basse intensité s'en suivra naturellement. Il s'agit en effet de mettre sur pied une force intégralement digitalisée, connectée en temps réel à tous les moyens interarmées ou coalisés, dotée de moyens d'acquisition et de frappe à longue portée, enfin utilisant une famille de véhicules empruntant aux blindés légers leur faible poids et les avantages associés, et aux blindés lourds leur puissance de feu et leur niveau de protection.
+Avec les éléments interconnectés de l'IBCT ou des divisions FXXI comme modèle, le but est de relier l'intégralité des plateformes et des personnels jusqu'à obtenir un " système des systèmes " terrestre, parfaitement intégrable au système des systèmes interarmées et éventuellement multinational. Le paradigme suivi est bien celui de la " guerre réseau-centrée " (network-centric warfare), qui entend s'appuyer sur les échanges d'information comme un multiplicateur de force et d'efficacité à tous les niveaux : boucle " sensor to shooter " raccourcie, protection multidimensionnelle, logistique sur mesure... L'Army entend tirer parti des progrès technologiques en cours, en particulier en termes de C4ISR (acquisition, traitement et dissémination de l'information), mais aussi en matière de carburant, de matériaux composites ou encore de munitions, bref tout ce qui touche aux plateformes. L'Army nouveau modèle en projet doit en effet s'articuler autour du FCS ou Future Combat System, la famille de véhicules futurs censés réunir les qualités des plateformes légères et des plateformes lourdes, et dont une vingtaine de variantes sont envisagées à l'heure actuelle. Conduite par de très nombreux laboratoires et bureaux d'étude sous la direction de Boeing et de SAIC en tant qu'intégrateurs-systèmes, cette recherche doit déboucher sur un premier démonstrateur en 2003, et sur des prototypes en 2007.
+Par-delà les matériels et le concept général, l'organisation de l'" Objective Force " et les structures de force sont encore à l'étude ; l'Army veut aller vers davantage de modularité, et compte rassembler toutes ces composantes diverses à l'intérieur d'un modèle simplifié, comprenant " unités d'action " (units of action), " unités de commandement " (units of employment littéralement, qui déterminent l'emploi des " unités d'action " et leur adjoignent des capacités non organiques telles qu'hélicoptères ou unités de génie) et unités de soutien délocalisées - les " MAS-COM " ou maneuver support commands (la dénomination a remplacé les " CSS " ou Combat Service Support) sont censés fournir le soutien logistique à 1 000 km de distance selon le principe du just in time. Parce qu'elle réorganiserait l'ensemble des structures de force, la modularité irait dans le même sens que la plateforme commune FCS. Seraient ainsi définitivement abolies les distinctions entre lights et heavies.
+A l'évidence, le projet d'ensemble suppose des avancées technologiques considérables, puisque la simplification de la logistique, le tempo des opérations et jusqu'à la réconciliation des " cultures " de l'Army passent par la réalisation du FCS, plateforme unique déclinée en variantes nombreuses et réunissant les avantages combinés des véhicules légers et des blindés lourds. Sont concernés pêle-mêle les carburants - l'Army place de grands espoirs dans les piles à combustible -, l'allégement et l'amélioration simultanée des blindages et des moyens de défense active ou encore les canons électrochimiques. Or, les estimations les plus courantes en la matière soulignent que la plupart de ces technologies ne seront pas prêtes avant 2020, soit douze ans après l'entrée en service théorique du FCS. Demeurent enfin de nombreuses inconnues politiques et budgétaires. Sans savoir pour l'heure à quoi l'" Objective Force " est appelée à ressembler réellement, il est difficile d'émettre un avis définitif. En l'état, le projet laisse cependant plutôt sceptique.
+Malgré un accueil initialement favorable, le projet Shinseki fait aujourd'hui l'objet d'un intense débat aux Etats-Unis, particulièrement au sein de la communauté de défense et de l'armée de terre elle-même. Bien que largement conditionné par les rivalités entre Services et les motivations politiques, ce débat permet de mettre en évidence les faiblesses du projet, qu'il s'agisse de l'utilité limitée des IBCT - dont l'intérêt principal semble finalement résider dans la mobilité tactique - ou des doutes qui entourent l'" Objective Force ". Tout en se détachant du schéma doctrinal classique de l'armée de terre, ce projet n'apporte pas corrélativement de réponses claires aux questions délicates qui vont de pair avec la digitalisation du champ de bataille, la prééminence d'une logique de ciblage et les rivalités interarmées.
+Que ce soit au niveau des capacités de combat, de la reconnaissance ou même de la mobilité stratégique, pourtant sa raison d'être, l'IBCT souffre de limitations réelles. Pour autant, la brigade actuellement en formation paraît à même de répondre aux missions de basse intensité pour lesquelles elle a été vraiment créée. En outre, elle permet de tester sur le terrain à la fois des concepts novateurs comme la reconnaissance électronique et le reach-back, mais aussi de remettre progressivement en cause la structure divisionnaire rigide héritée de l'histoire de l'Army.
+Le lancement des IBCT s'est fait en réaction au fiasco de " Task Force Hawk " et le général Shinseki est systématiquement revenu sur la rapidité de déploiement qu'autoriserait cette nouvelle organisation, à tel point que la " déployabilité " des brigades intermédiaires - " 1 brigade en 96 heures, 1 division en 120 heures et un corps en 30 jours " - est devenue le principal argument de l'Army auprès du Congrès. Or, l'analyse détaillée du véhicule Stryker et plus encore des réalités logistiques et géographiques, conduit à des conclusions nettement moins optimistes.
+Tout d'abord, il convient de souligner que les temps de déploiement de l'Army sont, à l'évidence, sans comparaison avec ce que peut faire n'importe quelle autre armée, et surpassent même les moyens américains lors de la guerre du Golfe. Le prépositionnement de matériels et l'augmentation des gros transports de troupes navals et aériens (avions C-17, fast sealift ships, MLRS ou Medium Roll-on, Roll-off Ships) pendant les années 1990 ont permis une amélioration modeste, mais réelle. L'étude conduite à ce sujet dans le cadre de la Bottom-Up Review (Mobility Requirements Study, MRS BURU) a ainsi prévu le déploiement de la Ready Brigade d'une division légère 4 jours après le lancement de l'opération, le reste de la division arrivant à C+12 ; la première brigade lourde arrive à C+15, le reste de la division ainsi qu'une autre (probablement la 101e) à C+30 ; l'ensemble du Contingency Corps doit être en ordre de bataille à C+75. Toutefois, les unités lourdes ne peuvent être opérationnelles " au sortir du bateau ", et surtout ce calendrier suppose des prépositionnements importants de matériels pour être respecté - les Army Prepositioned Stocks ou APS. En d'autres termes, le système fonctionne essentiellement pour la région du Golfe, l'Europe et l'Asie du Nord-Est, c'est-à-dire les zones stratégiques traditionnelles.
+Au vu de ces chiffres, et en gardant à l'esprit les délais de déploiement proclamés pour l'IBCT, il est clair que l'objectif est d'aligner les temps de déploiement des forces " moyennes " sur celui des forces légères, ce qui suppose d'abord que les véhicules soient transportables à bord d'avions C-130, qui forment le gros des moyens de transport de l'US Air Force. Or, le Stryker a suscité à cet égard de nombreuses difficultés : le véhicule d'origine est trop large pour l'avion, et son blindage insuffisant a dû être renforcé, au point de dépasser, pour 8 des 10 versions du LAV-III, de 1,5 tonne, le seuil autorisé de 20 tonnes. Rajouter un blindage extérieur (" applique armor ") prend du temps à l'arrivée et complexifie le transport lui-même. En outre, les trois IBCT en cours de formation sont toutes stationnées aux Etats-Unis, ce qui interdit pratiquement d'utiliser des C-130 au rayon d'action trop limité, et oblige à recourir aux transports " stratégiques " comme le C-5 et le C-17, dont les capacités impressionnantes sont compensées par le nombre limité de ces appareils et la demande importante dont ils font l'objet de la part des autres armées, l'Air Force en particulier.
+Ce sont là toutefois des problèmes temporaires, susceptibles d'être réglés à l'avenir ; il n'en va pas de même pour ce qui est de la " légèreté artificielle " de l'IBCT ou des limitations intrinsèques au déploiement par voie aérienne.
+En premier lieu, le choix du transport aérien apparaît problématique, car il fait dépendre la rapidité de déploiement des capacités aéroportuaires des pays hôtes : il ne suffit pas en effet de mesurer la contenance et la capacité d'emport des avions de transport, il faut encore prendre en compte le trafic maximum (throughput) des installations aéroportuaires d'arrivée (nombre et longueur des pistes, équipement de manutention), qui sont presque toujours très inférieures aux normes rencontrées en Occident dans les aéroports majeurs, civils ou militaires. A l'aide d'une simulation par ordinateur utilisant le logiciel JFAST (Joint Flow Analysis System), le Lieutenant-Colonel Jonathan Brockman a pu ainsi établir une estimation du temps de réaction de l'IBCT dans un scénario de crise au Rwanda : parce que l'aéroport de Kigali ne peut gérer quotidiennement que 400 " Short Tons ", contre 2 800 à McChord Air Force Base par exemple, le déploiement prendrait 29 jours en incluant les 6 jours nécessaires au transit hors de l'aéroport. Pour tenir la limite des 96 heures, il faut donc disposer sur le théâtre soit d'un aéroport moderne et de grande taille (une capacité de 2 500 Short Tons est nécessaire au départ et à l'arrivée), soit de plusieurs aéroports accessibles. Si cette dernière éventualité semble correspondre à l'idée d'opérations " distribuées ", elle se heurte cependant à deux réalités, la première étant que chaque point de débarquement doit être sécurisé pour les appareils de l'Air Force, ce qui implique de nouvelles charges logistiques, la seconde que la " dispersion " des opérations rencontre des limites en termes de commandement et de protection des éléments séparés. L'on imagine mal les éléments d'une IBCT arrivant par de multiples points d'entrée distants les uns de autres de plusieurs dizaines de kilomètres, voire davantage ; la brigade a été pensée comme un tout susceptible d'opérer sur une zone plus vaste (50 km x 50 km) qu'il n'est habituel pour une brigade, non comme un réservoir de forces détachant des éléments autonomes, en particulier en situation de combat. Même en supposant l'accès simultané à 3 aéroports, la simulation démontre qu'au moins 11 jours sont nécessaires, soit 7 de plus que l'objectif fixé par le général Shinseki. Compte tenu de ces multiples contraintes, l'auteur de cette étude logistique recommande en conclusion de s'appuyer davantage sur le transport maritime - plus rapide de quelques jours dans le scénario que le transport aérien -, d'augmenter les capacités américaines en la matière et de prépositionner à l'étranger l'équipement d'au moins une IBCT, de façon à pouvoir utiliser simultanément les trois composantes du transport stratégique, MLRS et fast sealift ships, C-17 et C-130, et APS.
+En second lieu, et certainement afin de faciliter son acheminement par air, l'IBCT n'embarque avec elle qu'une logistique très austère, ce qui implique que la zone d'arrivée permette de couvrir ses besoins en carburant, munitions et eau ; telle quelle, la brigade emporte uniquement l'équivalent de 3 jours de combat. Dans le même ordre d'idées, les capacités EVASAN de la brigade sont très limitées (20 blessés peuvent être traités), et ce bagage logistique " frugal " serait encore plus inadéquat en cas d'ajout au sein de l'IBCT d'unités non organiques - les hélicoptères prévus à cet effet sont particulièrement contraignants d'un point de vue logistique. Qu'il s'agisse d'augmentation de la brigade, d'évacuation sanitaire ou plus simplement de " persistance logistique " (sustainability), l'IBCT devra donc très largement compter sur un soutien extérieur présent sur le théâtre. Théoriquement supérieure, en particulier sur route, à celle d'une unité équivalente équipée de véhicules à chenilles, la mobilité de la brigade pourrait donc être sévèrement limitée par l'insuffisance du soutien organique.
+D'un point de vue tactique, l'IBCT est d'abord une unité d'infanterie montée, et pour laquelle il est explicitement prévu que les soldats combattent " à pied " (dismounted). Ceci tient sans doute à la gamme complexe de missions que la brigade est appelée à remplir, et qui impliquent forcément d'opérer en terrain difficile : le maintien de la paix suppose à tout le mois de pouvoir circuler en zone urbaine ou boisée. Plus profondément, on soupçonne les concepteurs de l'" Interim Force " d'avoir voulu privilégier la présence au sol et au contact des populations, par opposition au combat " monté ", afin de battre en brèche la tradition dominante de l'armée de terre américaine et son goût pour la " grande guerre mécanisée ". La composition de la brigade est à cet égard révélatrice : les sections de mortier et groupes de snipers y tiennent une plus large place que les moyens antichars.
+Dans le même temps, toutefois, de nombreux critiques soulignent les insuffisances dont souffre l'IBCT en termes de puissance de feu et de protection. A l'occasion des tests, le Stryker s'est en effet révélé inférieur aux attentes de l'Army, et il a fallu reprendre la conception du blindage en respectant les impératifs de poids, sans que l'on sache pour le moment ce que sera le résultat. De nombreux officiers et la majorité des experts mettent d'ailleurs en doute ce choix et font valoir que l'Army possède d'importants stocks de M-113 - certaines versions seraient supérieures au Stryker en protection et en légèreté, quoiqu'à chenilles - ou qu'elle aurait dû poursuivre le projet M8 Armored Gun System. Dans l'attente, il est nécessaire de revêtir le véhicule d'un blindage extérieur supplémentaire, ce qui ralentit les opérations et induit une vulnérabilité initiale. Pour ce qui est de la puissance de feu, et compte tenu des stocks de munitions très réduits de l'unité, le bataillon d'artillerie a pour fonction première de détruire d'éventuelles batteries adverses et ne peut guère remplir l'une des missions traditionnelles de l'arme, à savoir le feu de neutralisation (suppressive fire). Des mortiers en abondance au sein des bataillons et en section organique sont censés pallier ce manque, d'autant moins significatif aux yeux des défenseurs du projet que les tirs de neutralisation par artillerie lourde apparaissent politiquement inadaptés à la plupart des contextes opérationnels envisageables. Toutefois, et jusqu'à l'arrivée des obus de mortier de dernière génération, censés être extraordinairement précis, les mortiers ne sont pas davantage discriminants, et ne sauraient prétendre aux mêmes effets militaires que l'artillerie, qu'il s'agisse d'interdire une zone ou de détruire des blindés grâce à des munitions intelligentes de type SADARM. Conjuguée au fait que la brigade ne comprend qu'une simple compagnie antichars dotée du système Javelin, dont la portée est inférieure à celle de la plupart des blindés, cette carence en artillerie se traduit par une déficience générale en termes de capacités antichars. La même appréciation peut être portée concernant les capacités en tir direct, avec un seul peloton (platoon) de " Mobile Gun Systems " - sachant que c'est cette dernière version du Stryker qui logiquement pose le plus de problème de poids, et que son canon devra peut-être subir un allégement.
+Au final, l'IBCT apparaît plus spécialement adaptée aux missions d'infanterie et, en l'absence d'augmentation divisionnaire, relativement fragile dans le cadre d'un affrontement de moyenne intensité. Face à une situation de ce type, le concept d'emploi de la brigade prône l'évitement et le repli. En ce sens, l'escadron RSTA de reconnaissance électronique est la première ligne de défense de l'IBCT et l'" avant-garde " de l'" Objective Force ", largement orientée sur le combat à distance et la supériorité " informationnelle ".
+On ne saurait trop insister sur le rôle central joué par l'escadron RSTA, non seulement comme composante essentielle de la brigade interarmes intermédiaire, mais encore comme " démonstrateur " et à vrai dire seul élément de l'IBCT qui annonce le système des systèmes que doit être l'" Objective Force ". Par bien des aspects, la viabilité même de l'IBCT dépend du succès avec lequel l'escadron remplira ses fonctions de surveillance, de reconnaissance et d'acquisition d'objectifs. L'acquisition de cibles à longue distance est en effet la condition sine qua non des frappes de précision, la précision devant permettre, en se substituant au volume des feux terrestres classiques, d'alléger la logistique requise et donc d'améliorer la " déployabilité ", ce qui explique pour partie l'" austérité " de la brigade. L'escadron RSTA remplit également la fonction, encore plus critique, de " protection de la force " : l'acquisition à distance de sécurité doit permettre d'éviter le contact, et donc les nombreuses exigences qui en découlent en termes de protection et de puissance de feu organiques (blindage, tir direct, volume des feux). En d'autres termes, le concept de l'IBCT s'appuie lourdement sur la reconnaissance, de la surveillance à l'acquisition d'objectifs en temps réel, pour suppléer aux déficiences de la brigade par rapport aux unités lourdes classiques. Pour ce faire, l'" Interim Force " et plus encore l'" Objective Force " partent d'une conception " transformée " de la reconnaissance, qui ne va pas sans soulever quelques interrogations. Il s'agit de substituer à la reconnaissance par contact la reconnaissance électronique, conduite entièrement à distance de sécurité. Les conséquences associées à ce changement affectent profondément la conduite des opérations, sont désormais regardées comme partiellement inutiles certaines des fonctions classiques des unités de cavalry de l'armée de terre, telles que la sécurisation physique d'une zone, la sûreté des communications (flanc-garde, etc.) et l'attaque " probatoire " (probe) ou de diversion visant ou permettant l'économie des forces. Or, il s'agit là d'un pari reposant sur des hypothèses non encore vérifiées, et pour certaines d'entre elles douteuses.
+Il faut tout d'abord rappeler que la technologie est pour l'heure loin d'être suffisante. Malgré les progrès considérables réalisés en matière d'acquisition et de traitement de l'information, la surface terrestre, et en particulier les terrains complexes, se prête très bien au camouflage et à la dissimulation : les capteurs actuels ne permettent que fort mal l'acquisition d'objectifs dans les zones urbaines, montagneuses ou boisées, et rien ne permet pour l'heure d'affirmer que l'amélioration technologique rendra à moyen terme le " médium terrestre " aussi fluide et transparent que l'air ou la mer peuvent l'être. Ne serait-ce qu'avec le développement des zones densément peuplées, les zones urbaines tout spécialement, le rôle du terrain devrait demeurer essentiel. En outre, la fusion en temps réel de données provenant de capteurs multiples (infrarouges, radars, acoustiques) continue de poser un problème mathématique de premier ordre, qui surpasse la capacité de calcul informatique actuelle, en dépit des progrès exponentiels en la matière. On est donc encore loin de pouvoir frapper de façon discriminante un grand nombre de cibles " discrètes " et surtout mobiles.
+En sens inverse, la reconnaissance par contact constitue un gage de sécurité qui renseigne sur le dispositif ennemi comme sur ses " dispositions morales ", là où la reconnaissance à distance ne renseigne en réalité que sur des " signatures " électroniques. L'" information " dont parle la RMA est en effet constituée par les coordonnées géoterrestres de signatures émises par les différents individus ou plateformes. En d'autres termes, la reconnaissance électronique ne fournit qu'un signalement, une direction et un volume théoriques, en aucun cas elle ne peut renseigner sur ce que la doctrine soviétique appelait la " corrélation des forces ", qui précisément ne s'apprécie que par le combat. Généralisant à partir de son expérience des engagements, Clausewitz faisait déjà valoir cet argument au niveau de la stratégie générale : la " montée aux extrêmes " repose justement sur le caractère " incalculable " et donc imprévisible du rapport de force, et oblige donc à la prudence en termes de moyens, par exemple la redondance, le " gâchis "... Le raisonnement est directement applicable au niveau tactique : sans reconnaissance active, on ne peut par exemple apprécier la combativité et le niveau général de l'ennemi. A l'instar du Battle Damage Assessment (BDA) pratiqué par l'US Air Force, la reconnaissance électronique ne donne au mieux que des indications sur le dispositif physique de l'adversaire, et l'on sait toutes les difficultés et les incertitudes qui entourent le BDA lors des campagnes de frappes aériennes, depuis la guerre du Golfe jusqu'au Kosovo et à l'Afghanistan. Le renseignement électronique conduit à une focalisation quasi exclusive sur les " plateformes " ennemies, détectables et donc " comptables ", comme l'a illustré le problème des pertes irakiennes pendant la guerre du Golfe. Le général Schwarzkopf avait demandé aux planificateurs de l'offensive aérienne de neutraliser 50 % du potentiel mécanisé irakien, autrement dit la moitié des plateformes présentes au Koweït et au sud de l'Irak, pour que la phase terrestre des opérations puisse être engagée dans des conditions optimales. Non seulement cette proportion ne fut jamais atteinte (la réalité se situe probablement autour de 30 %), mais encore la Defense Intelligence Agency se fonda-t-elle sur ces évaluations pour produire sa propre estimation des pertes ennemies. En réalité, les 100 000 morts irakiens annoncés à l'époque, chiffre tenu depuis lors pour exact, correspondent tout simplement aux effectifs théoriques des véhicules, multipliés par le nombre théorique de véhicules détruits. Un bon exemple a contrario est fourni par l'offensive irakienne sur Al-Khafji, qui a indiqué au général Boomer, commandant de l'US Marine Corps, l'état véritable des forces irakiennes et donc la réalité du rapport de force.
+Enfin, la reconnaissance électronique suppose que soit toujours conservée une supériorité technologique américaine aux effets décisifs, c'est-à-dire ni égalée par un peer competitor, ni surtout contrée par le recours à des postures asymétriques. Or, les recours à disposition de l'adversaire sont multiples, depuis des stratégies low-tech et à faible coût, comme le camouflage, la dispersion des unités sur le terrain et parmi les populations, jusqu'à l'emploi de moyens plus sophistiqués, comme le brouillage, l'attaque systématique des plateformes porteuses de capteurs (JSTARS, AWACS, UAV) ou même la détonation en haute atmosphère d'une arme nucléaire, qui détruirait à peu près la moitié de la flotte globale de satellites, dont on sait l'importance cruciale pour le C4ISR. En d'autres termes, et en dépit des avantages très réels qu'elle confère, la reconnaissance électronique s'accompagne de vulnérabilités nouvelles : les signatures peuvent être brouillées, exagérées ou contrefaites, et l'ennemi est fortement incité à s'en prendre aux points nodaux du système des systèmes. A l'échelle de l'IBCT, la destruction des UAV et de quelques capteurs peut réduire l'escadron RSTA à une unité de reconnaissance plutôt sous-équipée en véhicules et capacités de reconnaissance par le feu par rapport à son équivalent " non transformé ". Enfin, la " conscience de la situation opérationnelle " (situational awareness) engendrée par les moyens électroniques peut bien entendu être complétée par le renseignement humain, mais elle n'en reste pas moins, étant donné les limitations de capteurs, orientée majoritairement vers les véhicules. Autrement dit, son utilité au niveau " individuel ", c'est-à-dire non véhiculaire, risque d'être réduite.
+En définitive, l'" Interim Force " souffre d'un certain nombre de limitations sérieuses. Les objectifs fixés par le général Shinseki en matière de déploiement paraissent irréalistes dans la plupart des situations envisageables, compte tenu des infrastructures aéroportuaires des pays d'arrivée, et la " déployabilité " actuelle des forces terrestres américaines est loin d'être aussi catastrophique que ne le prétendent les défenseurs de la RMA. L'Army a utilisé l'argument de la mobilité stratégique, mais l'analyse fait apparaître que l'intérêt principal des IBCT réside dans leur mobilité tactique, supérieure à celle des forces " traditionnelles ", dès lors que les brigades sont soutenues et que la mission n'implique pas de combat de haute intensité. Sous ce rapport, la légèreté logistique de la brigade interarmes ne ferait d'ailleurs que magnifier ses insuffisances en termes de puissance de feu et de protection. Est également en cause la viabilité du Stryker. Pour ces raisons, l'IBCT ne semble pas destinée à l'" entrée en force " ou, telle quelle, aux opérations de combat dans des théâtres austères ; sa mission première reste les opérations de stabilisation (SASO). En déduire, comme le font certains, que l'utilité de l'IBCT se limite à " refaire le Kosovo " paraît en revanche exagéré. Si les analyses précédentes soulignent effectivement que l'IBCT a pour fonction première de gérer le bas du spectre, l'idée même d'une brigade interarmes orientée vers le combat d'infanterie constitue une tentative ouverte de remettre en cause la culture et les " armes " dominantes de l'institution. Parallèlement, l'inclusion de l'escadron RSTA devrait permettre de confronter à l'épreuve de la réalité certains des concepts-phares de la " transformation ", comme le caractère surdéterminant de l'information ou la viabilité du combat à " distance de sécurité " (standoff engagement). Dans cette perspective, les critiques suggérées à propos de l'IBCT semblent devoir s'appliquer plus largement encore à la future " Objective Force ".
+S'il correspond à la projection dans l'avenir des nouveaux concepts utilisés par l'IBCT, le projet " Objective Force " tranche toutefois beaucoup plus nettement avec l'héritage culturel et doctrinal de l'armée de terre. Dans la foulée du discours de la RMA, l'Army a en effet développé avec " Objective Force " une vision du combat futur articulée sur les rôles respectifs des feux à longue distance et de la manoeuvre, ainsi que sur une refonte du commandement et de l'accès au soutien interarmées. Bien qu'elle incorpore aussi des éléments propres à la tradition du combat terrestre, cette vision du combat futur semble accepter la thèse du " changement de paradigme " militaire, sans toutefois apporter de réponses claires aux questions multiples que suscitent la digitalisation du champ de bataille, la prédominance d'une logique de ciblage et l'état des relations interarmées.
+Les progrès en matière de traitement et de dissémination de l'information sont porteurs d'interrogations très réelles concernant non seulement les rapports entre autorité politique et commandement opérationnel, mais aussi la nature même des relations hiérarchiques au sein des armées. Malgré plusieurs années d'expérimentation de la digitalisation, l'Army n'a toujours pas trouvé, semble-t-il, de solution satisfaisante à une série de problèmes complexes, rendus plus difficiles encore par les rivalités entre Services.
+La communication en temps réel et le volume d'information qu'il est désormais possible de transférer autorisent en effet les échelons les plus élevés de la hiérarchie, autorités politiques comprises, à s'impliquer très directement dans les opérations et à réduire d'autant la marge de manoeuvre et l'initiative des échelons intermédiaires. Si l'on en croit les divers exemples historiques, depuis la guerre de Sept Ans jusqu'aux campagnes de bombardement du Nord-Vietnam, l'immixtion du pouvoir civil dans le détail des opérations est rarement bénéfique. En sens inverse, la dissémination de l'information aux plus bas échelons et la formation d'une " image commune de la bataille " (common operational picture) peuvent amener certains militaires à prendre des décisions qui relèvent normalement de leurs supérieurs ou même de l'autorité politique, et qui n'ont pas été avalisées. Les avancées de la technologie des communications posent donc le problème de l'équilibre à trouver entre maintien d'une hiérarchie politiquement légitime et exploitation des " structures en réseau " et de l'initiative individuelle permises par la technologie : le " micro-management " nuit à l'efficacité tactique et suscite une paralysie " opérative " ; l'absence de délimitations claires est peu démocratique et s'est révélée parfois difficilement compatible avec la définition rigoureuse d'une stratégie.
+Bien que ces éléments affectent tous les Services, ils paraissent particulièrement problématiques dans le cas de l'Army. Cette sensibilité spécifique de l'armée de terre se vérifie déjà au niveau des relations civilo-militaires, puisque les risques de pertes qui vont plus naturellement de pair avec les engagements au sol ne peuvent que renforcer chez les politiques la tentation du micro-management. L'arrêt des opérations terrestres en février 1991, prématuré au regard de l'objectif militaire de destruction de la Garde républicaine irakienne, a ainsi tenu à une intervention directe de l'autorité politique, soucieuse d'éviter la perception de " pertes inutiles " au sein de l'opinion - et la guerre du Golfe se distingue pourtant de la plupart des autres opérations conduites ces vingt dernières années par la relative autonomie tactique et opérationnelle laissée aux militaires.
+La sensibilité particulière de l'Army se vérifie bien davantage encore au niveau des fonctions de commandement et de contrôle. Là où l'Air Force déploie le plus souvent quelques milliers de personnels et organise des strike packages d'une quinzaine d'avions qui interviennent par vagues successives, l'Army doit contrôler des dizaines d'unités, des milliers de véhicules et des dizaines de milliers de soldats. En ce sens, et si le nombre de ses plateformes devrait être, selon certains, considéré par l'Army comme une opportunité lui permettant de tirer parti au maximum des possibilités du network-centric warfare, cette pléthore garantit également que les problèmes de commandement générés par cet accroissement inédit des capacités de communication rejaillissent plus brutalement sur l'Army.
+Or, les problèmes que le " temps réel " et l'interconnexion des unités suscitent sont fort nombreux. Tout d'abord, les progrès considérables réalisés dans le domaine de la diffusion de l'information restent inférieurs à l'explosion de la demande, à tel point que la bande passante maximale offerte par les ondes radios, même à très haute fréquence, paraît d'ores et déjà insuffisante. Cet appétit pour des communications permanentes incluant les messages et la voix, mais surtout l'image, génère à son tour ce qu'il est désormais convenu d'appeler une surcharge d'information (information overload), qui concerne la capacité de traitement informatique, mais surtout les opérateurs eux-mêmes, au point que le temps réel se trouve parfois ralentir le cycle décisionnel et donc le tempo des opérations. Aucune solution n'est en vue pour l'instant, et il semble même que les problèmes associés au processus de digitalisation en cours dans l'Army depuis plus de cinq ans aient été volontairement minimisés par l'institution.
+Au niveau tactique, enfin, la communication instantanée et " sans verrou ", sur le modèle d'Internet, est susceptible, dans des conditions permissives, de favoriser la diffusion de fausses informations auprès de la population ou de propager au sein des troupes un effet de panique local, comme ce fut déjà le cas en 1940 du côté français avec la radio. On peut penser également aux soldats israéliens, reliés en temps réel à leur famille grâce aux téléphones portables, au grand dam des autorités militaires. L'ubiquité des communications modernes pose donc de délicats problèmes de commandement : quelle part de contrôle sacrifier, quelle part de risque accepter afin de maximiser les avantages de la situational awareness et des " structures horizontales " autonomes ? Bannir les contrôles afin de laisser jouer au maximum l'initiative individuelle risque fort d'entraîner des désagréments, voire des répercussions politiques. A l'inverse, si des verrous et des procédures hiérarchiques sont systématiquement réintroduits dans le réseau, celui-ci redevient pour l'essentiel semblable aux structures " verticales " habituelles et perd une grande partie de son intérêt. En d'autres termes, et qu'il s'agisse de surcharge d'information ou d'effets indésirables, aucune solution radicale n'est satisfaisante. Il est bien entendu possible de réguler plus finement le trafic en définissant des modalités de contrôle flexibles, laissant par exemple à chaque échelon le soin de définir les critères de filtrage, de façon à éviter la surcharge et à limiter les possibilités de fuite. Cette position a, par exemple, la faveur de l'US Marine Corps, qui y voit naturellement un gage de souplesse tactique : l'initiative et le commandement décentralisés (mission orders) sont à la base de la guerre de manoeuvre, paradigme dont le Corps se réclame très officiellement.
+En période de conflits le plus souvent limités, mais fortement médiatisés, la logique de l'Auftragstaktik appliquée à l'information paraît toutefois difficile à mettre en pratique, puisqu'une décision en apparence tactique peut avoir des répercussions politiques. L'Army a pour sa part historiquement favorisé la centralisation du commandement, même durant les périodes, comme les années 1980, où la doctrine officielle prônait l'initiative et la décentralisation. Tirer pleinement parti des technologies de la communication supposerait d'ailleurs, comme cela s'est fait dans l'industrie, d'aller vers des structures plus " horizontales ", c'est-à-dire de supprimer certaines hiérarchies ou organisations intermédiaires, à commencer par la division. Si le plan Shinseki semble bien prendre cette direction en faisant de la brigade l'unité de base de la manoeuvre opérative, il est encore trop tôt pour savoir ce que recouvriront les unités de commandement (units of employment) prévues par l'" Objective Force ". Apparemment, l'Army hésite à relier directement les " brigades " (UA) à un état-major de niveau corps, et pense à des " unités de commandement " intermédiaires, soit des structures de commandement de niveau divisionnaire.
+Quelle que soit la solution idéale finalement préconisée, elle se heurtera à plusieurs obstacles majeurs, si elle va nettement dans le sens du commandement décentralisé. Il faudrait tout d'abord revoir en profondeur l'instruction des officiers, l'armée de terre actuelle réservant aux seuls colonels pleins et aux généraux une formation généraliste et " stratégique " ; la culture de l'institution en serait profondément affectée. En second lieu, la suppression des niveaux intermédiaires ne pourrait qu'exacerber les problèmes d'interarmisation : qu'un colonel à la tête d'une brigade puisse directement faire appel au soutien interarmées risque d'être mal ressenti, et par la hiérarchie de l'Army, qui craindra un " asservissement " de ses unités disjointes au profit par exemple de l'Air Force et préfèrera négocier au plus haut les modalités de la coopération, et par les autres Services, qui ne veulent pas être en permanence placés en soutien, c'est-à-dire " aux ordres " de l'Army. La révolution de l'information engage ainsi une redéfinition du commandement, avec toutes les difficultés et les risques que cela implique, entre autres dans les relations entre les armées.
+Mesurer les dangers et les implications pour l'Army d'une domination sans partage de la RMA nécessite d'opérer un détour intellectuel et de rappeler les principes et les limites de la stratégie du ciblage. La logique de la précision du feu entraîne en effet implicitement avec elle la suprématie de l'attrition et l'oubli potentiel des effets moraux, tout en stimulant le recours à des postures asymétriques chez l'adversaire. Au niveau le plus fondamental, la RMA trouve son origine dans les progrès fantastiques réalisés par la précision et le traitement de l'information. L'accroissement continu de la puissance de feu depuis cinq siècles est interprété a priori comme une réponse, techniquement imparfaite, au manque de précision : on aurait multiplié le volume de munitions tirées afin d'augmenter la chance statistique de toucher l'objectif visé. Dans cette optique, la substitution de la précision au volume, de la qualité à la quantité, constitue évidemment un progrès considérable. Toutefois, l'argument selon lequel les frappes de précision pourraient à elles seules être décisives, grâce au choix des cibles, de l'organisation et du tempo de l'attaque, paraît largement trompeur. L'" Air Power ", et plus largement la logique du ciblage, participent en effet fondamentalement d'une stratégie d'attrition, la qualité, c'est-àdire ici la technologie qui permet des frappes précises, ayant simplement remplacé le volume de feu, c'est-à-dire la quantité. Pour se mettre à même de comprendre les implications ultimes de la logique de ciblage qui est au coeur de la RMA, il faut par hypothèse partir d'une situation d'égalité relative entre deux adversaires semblables. Si l'on suppose deux adversaires approximativement égaux, et qui ont la possibilité de tout voir, tout atteindre, tout détruire, alors la relation décrite par le mathématicien britannique Lanchester dans sa " loi du carré " en 1916 s'applique parfaitement : la masse importe davantage que la qualité, et la victoire va à celui qui dispose du dernier shooter. Les exemples historiques se rapprochant tendanciellement du modèle lanchesterien ne manquent pas, que l'on pense à nombre des grandes batailles de l'âge classique, telles celles de Malplaquet ou Zorndorf, à la guerre de Sécession ou encore à la Grande Guerre sur le front occidental jusqu'en 1917. Chacun de ces cas présente une situation opérationnelle et tactique bloquée, où la puissance de feu interdit ou entrave considérablement les possibilités de mouvement offensif et conduit donc à une paralysie tactique se soldant par des pertes élevées et des résultats non décisifs. Les batailles classiques forment peut-être la meilleure illustration de ce que pourrait être un champ de bataille conforme à la RMA : les généraux peuvent, comme leurs troupes d'ailleurs, voir une bonne partie du terrain. L'équivalent du théâtre moderne est en effet à l'époque physiquement " transparent ", étant donné la taille réduite des champs de bataille (rarement plus de 5 km de front). Cette transparence relative et surtout la difficulté des mouvements offensifs transforment ces affrontements en une sorte de fusillade mutuelle, généralement très meurtrière, comme le fut Malplaquet.
+En d'autres termes, et si le raisonnement théorique qui part de l'égalité relative des belligérants est retenu, les technologies émergentes, dans l'utilisation que projettent d'en faire les partisans de la RMA, risquent de favoriser la puissance de feu au détriment de la mobilité, et donc la défense au détriment de l'attaque. Outre que les résultats que l'on peut obtenir dans ce type de contexte sont généralement très coûteux, reste à savoir si les Etats-Unis disposeront forcément de plus de shooters que leurs adversaires, ou si ces derniers ne parviendront pas à profiter suffisamment de la prolifération technologique pour interdire toute manoeuvre et tout déploiement aux forces terrestres américaines - de ce point de vue, le problème des stratégies de déni d'accès sur lequel le Pentagone se focalise tant aujourd'hui pourrait n'être que la partie émergée de l'iceberg, dès lors que les risques inhérents au débarquement sur le théâtre se prolongent durant toute la durée des opérations. En ce sens, parce qu'il appartient aux Etats-Unis, à court et moyen terme, de projeter leurs moyens militaires sur des théâtres extérieurs, c'est-à-dire d'attaquer, la RMA et surtout sa diffusion pourraient donc être porteuses de mauvaises nouvelles, tout spécialement pour l'Army.
+La maîtrise américaine en matière de C4ISR et de frappes de précision à distance, et plus généralement la supériorité des Etats-Unis pour tout ce qui touche au combat de haute intensité, induit des effets pervers majeurs, que l'on rassemble généralement sous la rubrique des stratégies asymétriques. On peut penser aux stratégies de déni d'accès, au recours aux ADM, à l'attaque ciblée des plateformes qui sont au coeur du système des systèmes, satellites, AWACS et JSTARS, ou encore à l'emploi systématique du camouflage, mais le plus simple reste encore d'attirer les forces américaines sur des terrains qui annulent ou du moins réduisent fortement l'efficacité du complexe de reconnaissance-frappe, de façon à les contraindre au combat rapproché. Comme il a été vu plus haut, l'acquisition électronique d'objectifs se heurte tant aux limites actuelles et prévisibles de la technologie qu'à l'opacité naturelle de certains terrains. Le moral, la différence qualitative des soldats et le terrain peuvent donc jouer comme autant de facteurs d'égalisation face à une supériorité quantitative en hommes ou en matériels. Ce problème tout à fait réel n'a pas encore été perçu dans toute son acuité, dans la mesure où les dernières interventions américaines, majoritairement aériennes, ont presque toujours bénéficié d'un soutien au sol grâce à des alliés locaux coordonnant leurs actions avec les frappes américaines, ou tout du moins représentant une menace potentielle obligeant l'adversaire à se regrouper. Du Kosovo à l'Afghanistan, ce modèle de coopération a été raffiné en un triptyque comprenant alliés au sol, forces spéciales et moyens de frappes, au point d'ailleurs de faire dire à certains que les Etats-Unis pouvaient désormais se passer d'armée de terre...
+Sans pour autant négliger le caractère relativement novateur de ce triptyque, il est impératif de ne pas perdre de vue le rôle propre joué par l'Alliance du Nord à l'automne 2001, ni non plus le caractère incomplet de la victoire remportée. Les poches de résistance qui ont subsisté après la chute de Kaboul ont donné lieu à des combats qui ont justement permis d'apprécier les capacités de résistance d'une infanterie préparée, entraînée et motivée, face à la logique du ciblage. En particulier lors de l'opération " Anaconda ", les moyens considérables de reconnaissance-frappe, pourtant appuyés au sol et en dépit de leur précision " exquise ", ne sont pas parvenus à réduire les fantassins adverses retranchés dans des abris naturels camouflés ; il a fallu procéder au pilonnage systématique des positions ennemies suivi par l'avancée prudente des troupes de la 10th Mountain, auparavant clouées au sol par les tirs de neutralisation au mortier, tandis que les hélicoptères étaient endommagés par de simples RPG7. Non seulement les troupes terrestres américaines et afghanes se sont révélées nécessaires pour obliger l'adversaire à s'exposer aux feux à longue portée, aériens ou autres, mais encore a-t-il fallu le plus souvent " finir le travail " en débusquant les derniers adversaires enterrés et en exploitant prudemment les succès micro-tactiques les uns après les autres. A cet égard, les combats de Tora-Bora et surtout de Shah i-Kot ont exhibé davantage de ressemblances avec les assauts pesamment " synchronisés " de la Première Guerre mondiale qu'avec les opérations ultra-rapides, " simultanées " (non sequential) et " décisives " envisagées par l'Army.
+L'autre conclusion temporaire qui émerge de ces événements a trait à l'impréparation relative de l'infanterie américaine, souvent obligée de faire appel aux SAS britanniques ou australiens ou aux meilleurs contingents des chefs de guerre afghans. Peu surprenante au regard des préférences de longue date de l'Army, cette " révélation " se trouve confirmée par certains officiers américains, qui soulignent que les opérations de stabilisation menées pendant les années 1990 ont " émoussé " les unités classiques comme la 82e, et qu'en matière d'infanterie au sens strict, les Etats-Unis ne disposent plus que des bataillons de rangers et d'une partie des Marines. Or, ce qu'Edward Luttwak a appelé la " logique paradoxale de la stratégie " veut justement que la prépondérance des frappes à distance entraîne un recours systématique à l'asymétrie et donc un besoin de plus en plus marqué en infanterie, et pas simplement lors des opérations de stabilisation. Répondre à ces besoins tout en limitant les pertes de façon drastique constitue une gageure.
+Dans la continuation du programme Land Warrior, l'Army sponsorise pour l'instant des études sur le fantassin du futur : celui-ci bénéficierait non seulement des dernières avancées en matière de connexion, d'acquisition d'objectifs et de C4ISR, mais encore de technologies véritablement révolutionnaires en matière de robotique, de protection et d'autonomie. L'usage massif de micro-robots ou de drones terrestres (UGV mules) faciliterait grandement la reconnaissance ou le soutien. L'interconnexion du soldat avec l'intranet militaire permettrait de l'appuyer ou de l'évacuer plus rapidement, et surtout de le faire profiter pleinement de la situational awareness procurée par le réseau des capteurs : anticipation de la menace, détection des sons, des mouvements et des explosifs, ou encore reach-back quasi instantané vers l'appui-feu interarmées. En terrain couvert, toutefois, les embuscades et l'engagement de près demeurent inévitables, et il n'est donc d'autre solution que d'augmenter considérablement les moyens de protection passive des fantassins : est requise une armure qui résiste aux armes de petit et de moyen calibre et n'entrave pas la mobilité individuelle, exigence qui requiert à son tour des progrès dans le domaine des matériaux composites et quelque chose comme un " exo-squelette " doté de micro-moteurs performants - dans ce domaine, la technologie en est encore aux balbutiements, et des progrès comparables seraient d'ailleurs nécessaires au niveau des piles à combustible ou des micro-turbines. On le voit, le fantassin en armure lourde relève pour le moment de l'anticipation et de la recherche fondamentale, non de la recherche appliquée et de l'acquisition à moyen terme.
+En définitive, la logique du ciblage et son corollaire obligé, l'attrition, quoique valables dans certaines circonstances, négligent quelques-unes des réalités les plus fondamentales du combat. De fait, la précision du feu n'a pas toujours vocation à remplacer le volume, tout simplement parce que les munitions tirées n'ont pas toutes pour objet de détruire ou de tuer. Comme le sait n'importe quel chef de section d'infanterie, la saturation du champ de bataille, par exemple par tir de barrage, a d'abord pour finalité de " faire baisser les têtes ", ce qui permet à l'attaquant de faire mouvement et au défenseur de freiner ou d'arrêter le mouvement adverse. Depuis toujours, le combat terrestre est en effet fondé sur une combinaison feu-mouvement au niveau des unités élémentaires : parallèlement aux effets de destruction directe qu'il cause, le feu vise un effet moral sur les troupes ennemies, comme Ardant du Picq en son temps l'a montré. A cet égard, les partisans de la RMA, souvent américains, ont largement négligé leurs propres sources d'information : qu'il s'agisse de " Linebacker " en 1972 ou de " Desert Storm ", tous les témoignages des prisonniers de guerre concordent pour souligner l'effet de terreur créé par les bombardements de B-52 ou les tirs de barrage de l'artillerie moderne. Compte tenu de l'incidence de la détermination du soldat individuel, il paraît hasardeux de négliger ainsi le rôle de l'infanterie ou les " effets de panique " ; la guerre du Golfe a bien montré l'importance de la motivation et de l'entraînement des troupes, et le caractère extrêmement déséquilibré du résultat de la campagne ne s'explique pas seulement par l'écart technologique et quantitatif.
+Aujourd'hui très isolés, alors qu'ils dominaient le débat intellectuel et doctrinal il y a de cela quinze ans, les partisans de la " guerre de manoeuvre " n'en ont pas moins raison de souligner les insuffisances de la " logique du ciblage " et d'insister a contrario sur l'importance des feux de neutralisation, de la reconnaissance par contact et de l'engagement de près, bref tout ce qui participe de la dimension humaine et morale du combat. L'accent sur les frappes à longue portée ne peut que susciter l'asymétrie chez l'adversaire complètement dominé - situation actuelle - et entraver, voire interdire, la manoeuvre au sol lorsque celui-ci dispose de PGM en quantité - situation future potentielle.
+La majeure partie de l'armée de terre américaine est bien entendu consciente des opportunités et des contraintes engendrées simultanément par la progression de la puissance de feu, et sait bien que les résultats militaires " décisifs " - c'est-à-dire concluants à leur niveau, sans préjuger pour autant du résultat global de la guerre -ont historiquement dépendu, au sol en tout cas, d'une combinaison associant mobilité et puissance de feu (mobile striking arm), par exemple l'attelage léger des canons de Gribeauval pour Napoléon ou le char pour les Allemands en 1940. Durant la décennie écoulée, les études à long terme de l'Army se sont d'ailleurs focalisées sur la place exacte et les modalités de réalisation de la manoeuvre terrestre dans le combat interarmées futur ; il s'agissait simultanément de tirer parti des possibilités en matière de frappes à longue distance et de préserver à son profit une mobilité stratégique et tactique suffisante.
+Concernant la capacité à " voir et frapper en profondeur " (see deep, shoot deep), l'Army compte à la fois sur ses moyens propres, actuels et futurs, et sur le soutien interarmées. Sur le premier point, l'hélicoptère furtif Comanche, le drone Shadow, le missile ATACMS et le système d'artillerie HIMARS devraient déjà conférer à l'armée de terre des moyens considérables. Pour l'" Objective Force " comme pour l'IBCT, la difficulté principale devrait être de parvenir à intégrer un système d'artillerie performant au châssis du FCS, que l'on suppose léger. L'intégration des feux fournis par les autres armées renvoie directement au problème de la jointness ; il est à ce titre abordé plus loin. Concernant maintenant la manoeuvre sur un champ de bataille saturé par les PGM, les solutions ne sont pas aussi aisément identifiables. Celles retenues dans le projet " Objective Force " consistent à accroître considérablement, et la dispersion entre les unités de manoeuvre, et le tempo général des opérations. So far, so good : on retrouve là les formules historiquement utilisées dans des contextes marqués par une augmentation brutale de la puissance de feu, par exemple pendant la Première Guerre mondiale. Il reste toutefois à répondre aux deux questions qui ne manqueront pas d'émerger à court terme, comme elles l'ont fait lors de changements similaires à travers l'histoire : comment et à quel niveau intégrer efficacement le feu et la manoeuvre, et par quels moyens conserver une mobilité suffisante ?
+A considérer l'exemple du front occidental entre 1914 et 1918, il apparaît clairement qu'il s'est révélé extrêmement difficile et coûteux en vies humaines de résoudre le blocage tactique engendré par l'accroissement sans précédent de la puissance de feu. Il a fallu rien moins qu'une réorganisation intégrale de la tactique élémentaire, avec les effets associés sur le commandement, l'organisation et la formation des troupes. Seuls les Allemands ont d'ailleurs pleinement maîtrisé, à l'attaque comme en défense, les procédés nouveaux, tandis que les Alliés ne se sont jamais complètement résolus à développer l'autonomie nécessaire au niveau des unités élémentaires - sections chez les Alliés, groupes chez les Allemands. Il s'agissait d'abord d'intégrer beaucoup plus " bas " dans la hiérarchie des unités le principe du combat toutes armes, en dotant ces unités élémentaires de mitrailleuses, grenades et mortiers, et en leur conférant une autonomie sans précédent depuis le XVIe siècle. Il a fallu ensuite entraîner ces unités élémentaires pour qu'elles apprennent à combiner en permanence le feu et le mouvement, en interne comme dans leurs relations avec les autres unités d'infanterie ou le soutien d'artillerie. A partir de 1918, la tactique d'infanterie moderne est ainsi fondée sur une combinaison feu-mouvement au niveau des groupes de combat élémentaires, là où en 1914 le bataillon était l'unité tactique de base et comportait en général quelques pièces de campagne et quatre mitrailleuses... La fin de l'ordre linéaire souple, la dispersion et l'autonomisation des unités, enfin l'intégration du combat toutes armes à bas niveau ont véritablement révolutionné le combat terrestre, au point de le rendre très complexe et d'interdire en fait à des troupes insuffisamment formées de s'y essayer avec succès.
+Cet exemple historique a valeur d'analogie par rapport au contexte contemporain, et l'on peut légitimement comparer les feux à longue portée et les forces terrestres d'aujourd'hui avec l'artillerie et l'infanterie de 1914-1918. Dans cette optique, il s'agit de procéder à une redéfinition de la tactique et des opérations qui prenne en compte l'évolution des armements (allongement des portées, précision quasi absolue à terme) et des moyens de communication (temps réel, boucle " sensor to shooter "). Toute une série de questions s'ensuivent : si l'on se doute qu'il est nécessaire, aujourd'hui comme autrefois, d'intégrer les moyens interarmées à plus bas niveau, reste à identifier le niveau optimal et à réorganiser le commandement comme les unités - que doivent-elles embarquer de façon organique et que peuvent-elles externaliser ? A cet égard, le format projeté pour le couple " UA-UE " (units of action/employment), comme d'ailleurs le modèle " FXXI " avant lui, présente de nombreuses ressemblances avec des formats plus anciens comme TRICAP : les éléments de soutien et les proportions varient, mais le coeur de l'unité reste constitué par des hélicoptères et des blindés - on ne sait pas encore si les UA correspondront à l'infanterie montée des IBCT ou à une version futuriste des unités blindées actuelles. A première vue, il ne va pas de soi que l'ampleur de la réorganisation soit en proportion de la RMA annoncée. Plutôt qu'une critique, cette observation entend souligner ce que justement la Première Guerre mondiale avait déjà montré : en l'absence de conflit de haute intensité, il est très difficile d'anticiper les structures de force et les organisations adaptées, même en ayant abondamment recours à des manoeuvres et des wargames - de ce point de vue, et en raison de l'urgence politique de la transformation, il n'est pas certain que l'Army se donne actuellement le temps nécessaire. Reste également à organiser l'appui-feu des unités terrestres, en sorte qu'elles puissent avoir recours en temps réel et avec une grande flexibilité aux capacités de frappe des autres Services, ce qui pose une nouvelle fois le problème de la jointness.
+Si l'on met entre parenthèses la définition des formats optimum, l'intégration des moyens interarmées et la réorganisation du commandement, demeure enfin le problème majeur de la mobilité physique des unités. A cet égard, " Objective Force " semble se démarquer de l'IBCT par l'incorporation massive d'éléments héliportés à l'intérieur des UE. En l'absence de percées technologiques tout à fait spectaculaires, on voit mal en effet comment le FCS, quelle que soit sa forme ultime, pourrait non seulement réunir les qualités respectives des véhicules légers et des chars lourds, mais surtout permettre une multiplication par dix du tempo des opérations, tel que cela a été envisagé dans " Army After Next ". Seule une plateforme volante, hélicoptère pur ou engin hybride de type V-22, pourrait éventuellement produire un tel résultat. Or, les hélicoptères nécessitent une maintenance très importante : ce qu'ils ajoutent ex post aux opérations se paie donc ex ante, au niveau logistique. De plus, ils posent presque autant de difficultés de déploiement par avion que les chars (leur plus faible masse est compensée par leur volume), et leur rayon d'action actuel reste limité. La réalisation pleine et entière de " Army Vision 2020 " suppose donc des progrès technologiques considérables, tels que l'autonomie et la simplicité d'entretien des hélicoptères soient multipliées par cinq ou par dix.
+Les analyses qui précèdent ont fait apparaître que l'IBCT était structurée autour de deux innovations principales, le primat de l'infanterie et la reconnaissance électronique, qui permet d'éviter le contact et de bénéficier de l'appui des feux à longue portée. S'il est impossible de déterminer aujourd'hui laquelle de ces deux conceptions partiellement contradictoires est finalement appelée à l'emporter dans le futur, on pressent toutefois une divergence entre l'" Objective Force " et l'" Interim Force ", divergence qui pourrait à terme rompre l'équilibre actuel, privilégier les feux à longue distance et finalement faire triompher au détriment du " grunt " une sorte d'" Air Power " terrestre. Or, une appréciation objective du contexte conflictuel à venir et de l'exigence de réactivité et de vitesse conduirait plutôt à privilégier un mixte d'unités héliportées et d'infanterie montée d'abord orientée sur le combat de près. Quelle que soit la solution finalement retenue à l'intérieur d'" Objective Force " ou en dehors, les frictions entre l'Army et ses Sister Services ne manqueront pas de se manifester.
+Les analyses qui précèdent ont souligné à plusieurs reprises le caractère tout à la fois récurrent, problématique et déterminant de l'interarmisation : la viabilité même du plan Shinseki, à court comme à moyen terme, procède de l'intégration réussie des capacités interarmées, et jamais sans doute l'armée de terre ne s'était trouvée en pareille situation de dépendance. En parallèle, cependant, l'ambition full-spectrum affichée par l'Army ne peut que rentrer en contradiction ouverte avec les intérêts bien compris des autres armées, qu'il s'agisse de missions ou de budgets. Dans cette optique, la jointness devient immédiatement une question politique faisant intervenir l'influence respective de chaque Service auprès des autorités civiles et plus largement, engageant avec elles un débat sur les modalités d'emploi de la force.
+De prime abord, il peut sembler paradoxal de ranger l'interarmisation parmi les problèmes politiques, puisqu'il s'agit d'une question opérationnelle et que le problème de l'intégration des feux à longue portée transcende le débat traditionnel entre " Air Power " et " Land Power " et passe désormais à l'intérieur même de chaque armée. Aux Etats-Unis, toutefois, la nature éclatée des institutions et le rôle spécifique du Congrès en matière budgétaire ont presque toujours transformé la jointness en problème hautement politique. Il convient donc de commencer par un état des lieux avant d'aborder successivement les aspects opérationnel et politique du problème.
+A maints égards, l'interarmisation fait figure d'arlésienne du débat stratégique américain : régulièrement annoncée, presque universellement louée mais exigée plus souvent encore, elle relève à l'évidence du programme plus que de la réalité dans un pays marqué par l'indépendance historique de la Navy, de l'Army et de l'Air Force, et pour qui la redondance des moyens est un luxe abordable et même souhaitable. Des progrès ponctuels, en particulier dans le domaine des communications, font que désormais les Services peuvent, à haut niveau en tout cas, communiquer entre eux en situation opérationnelle - ce n'était pas le cas lors de l'intervention à la Grenade. En outre, sous la pression de l'actuel secrétaire à la Défense, l'ancien commandement atlantique, également chargé de la jointness, s'est vu déchargé de ses premières responsabilités afin de pouvoir se concentrer sur la coopération entre les armées américaines elles-mêmes et entre celles-ci et leurs alliés. L'année 2003 devrait d'ailleurs être marquée par la création d'unités et d'états-majors interarmées permanents (Standing Joint Task Forces ou SJTF). Il s'agit dans un premier temps de favoriser l'entraînement interarmées, afin d'en finir avec une situation absurde dans laquelle les armées se forment et s'équipent séparément, alors qu'elles sont appelées à intervenir côte à côte. L'exemple des interventions récentes comme l'âpreté des querelles entre Services laissent cependant sceptique. A l'inverse des discours et des doctrines prônant l'interarmisation et l'initiative locale, la guerre du Golfe s'est caractérisée par une gestion hautement centralisée de l'information et une péréquation du commandement opérationnel en fonction des classiques rivalités interarmées, et non par l'exploitation des opportunités offertes par la jointness et le " temps quasi réel ", et on pourrait en dire autant du Kosovo à une autre échelle. Comme le remarque l'un des experts interviewés, " jusqu'à présent, en fait d'interarmisation, il a été davantage question de départager les responsabilités que d'intégrer les capacités ". Au fur et à mesure que se concrétisent les réformes voulues par Donald Rumsfeld, l'approbation de principe a de fortes chances de se muer en une obstruction sourde par laquelle chaque armée tentera de préserver son " pré carré ". Tant que la formation et l'équipement des troupes incomberont, de par la loi, aux Services, il sera extrêmement difficile d'aller systématiquement contre leur volonté conjointe.
+Que le débat sur l'interarmisation soit revenu sur le devant de la scène au cours des années récentes ne s'explique pas par un échec retentissant - comme cela avait été le cas avec " Desert One ", fiasco à l'origine de la loi Goldwater-Nichols et de la création des Combatant Commands ou commandements opérationnels interarmées - mais bien par la conjonction de facteurs budgétaires et d'évolutions technologiques. Outre la baisse des budgets de défense des années 1990, qui nécessairement a exacerbé la compétition, les armées ont dû progressivement faire face à une réalité incontestable : l'efficacité opérationnelle suppose dès aujourd'hui et plus encore à l'avenir une intégration croissante de leurs capacités respectives. Ceci tient tout d'abord à la multiplication des plateformes ou des capacités interarmées utilisées simultanément par tous, quel que soit l'" opérateur " d'origine : satellites d'orientation, d'observation et de communication, UAV, renseignement en général. En second lieu, l'allongement de la portée des armes amène à obsolescence la distinction entre rear, close et deep battle zones, et conduit naturellement chaque armée à " empiéter " sur les prérogatives habituelles des autres. La solution traditionnelle consistant à créer une délimitation artificielle (Fire Support Coordination Line ou FSCL) risque d'être de plus en plus difficile à mettre au point et à respecter, et pourrait surtout se révéler contre-productive ; une partie de la Garde républicaine irakienne s'est d'ailleurs échappée en 1991, car elle se trouvait hors de portée des hélicoptères de l'Army, mais à l'intérieur de " sa " partie de la FSCL, au grand dam des aviateurs qui survolaient les environs de Bassorah. Cette disparition des lignes de partage claires qui avaient traditionnellement prévalu entre l'Army, l'Air Force et la Navy pose un problème majeur, à la fois opérationnel et politique.
+S'il se vérifie, le changement de paradigme suscité par la RMA oblige l'Army, on l'a vu, à repenser les organisations, le commandement, les structures de force et peut-être même la tactique élémentaire. Il s'agit, pour les opérations terrestres, d'intégrer les feux et la manoeuvre à une échelle inédite, aussi bien vers le bas, à l'intérieur des unités, que vers le haut, entre les Services. Or, cette évolution, du combat toutes armes de l'armée de terre vers le combat interarmées terrestre, suscite immédiatement un problème aigu de subordination, à la fois objectif et intéressé, et qui se résume à la question suivante : quelle est l'armée " décisive ", qui doit donc être " soutenue " (supported) par les autres, réduites au rôle de " supporting services ", sachant que désormais elle participent toutes aux opérations qui se déroulent à terre ? Là où le débat traditionnel opposait les adeptes du " bombardement stratégique " aux tenants de la coopération interarmées au profit d'une décision forcément emportée par les troupes terrestres (doctrine AirLand Battle), le débat contemporain opère une " révolution kantienne " et fait passer la ligne de partage à l'intérieur même de ce qui était le domaine réservé de l'Army, les opérations au sol. La plupart des partisans actuels de l'Air Power s'accordent en effet pour estimer, avec les ceux de la RMA, que le caractère décisif des frappes -aériennes - ne réside plus tant dans le choix de cibles " stratégiques " que dans la capacité à détruire toute possibilité ou centre de résistance visible. Dans cette optique, les forces terrestres, qu'elles appartiennent d'ailleurs à l'Army ou à l'USMC, ont fort logiquement pour mission de " débusquer " les cibles adverses, de les obliger à se manifester et à se concentrer, devenant ainsi vulnérables aux frappes. Les " deux armées de terre " américaines, à l'inverse, persévèrent à penser que les feux à longue portée jouent à l'échelle du théâtre le même rôle de soutien, parfois fondamental et néanmoins toujours subordonné, que l'artillerie par rapport aux armes de mêlée. On pourrait croire à ce stade que la controverse oppose l'Army et l'USMC d'un côté, la Navy et l'Air Force de l'autre. S'il en va bien ainsi " philosophiquement ", la réalité est autrement plus complexe, car cette opposition se double d'une opposition potentielle exactement inverse : les Services qui gèrent majoritairement les capacités de frappes comme ceux qui sont organisés pour le combat de près chassent sur les " mêmes terres ".
+Pour ces raisons, ce qui devrait être un débat opérationnel et technique portant sur la manière la plus efficace d'intégrer les capacités et de créer une véritable synergie se transforme en une querelle sur " les rôles et les missions ", avivée par la réduction constante des crédits de défense durant les années 1990 comme par la disparition du " compétiteur de rang égal ". Quel pays peut en effet prétendre aujourd'hui s'opposer en haute mer à la Navy ou dans les airs à l'Air Force ? Parce que le contrôle de leur " médium " naturel ne constituait plus un problème et donc une justification, la Navy et l'Air Force se sont très naturellement réorientées vers des stratégies " du littoral " (from the sea) ou counter-land. En parallèle, la réorientation " tous azimuts " de la stratégie générale américaine a, on l'a vu, obligé l'armée de terre à sortir de son rôle historique d'ultime et décisif recours, afin de se projeter plus rapidement sur les théâtres de crise, empiétant au passage sur les prérogatives des Marines. Selon la façon dont elle est organisée, la jointness fait ainsi courir à chaque armée le risque de se voir subordonnée aux autres Services dans le cadre d'opérations dirigées vers l'intérieur des terres : feux à longue portée comme soutien de forces terrestres opérant désormais sur toute la profondeur du théâtre, sorte de AirLand Battle gigantesque d'un côté, manoeuvre comme élément de " soutien " à des frappes décisives de l'autre.
+C'est à la lumière de ce contexte de rivalités interarmées qu'il convient d'apprécier les orientations retenues par l'Army dans son effort de " transformation ". Si l'on met entre parenthèses le problème épineux, et à dire vrai central, de la faisabilité du " Futur Combat System ", le plan " Objective Force " vise à réformer l'armée de terre dans le sens de la projection de force tous azimuts et pour ce faire repose sur l'intégration des feux interarmées, le développement des capacités héliportées et le renouveau de l'infanterie. Or, les relations entre Services et la culture interne de l'Army ne favorisent guère la réalisation de l'" Objective Force ".
+Face aux prétentions des autres Services, l'Army refuse évidemment d'être cantonnée à un rôle de soutien, qu'il s'agisse de " débusquer " l'ennemi au profit de l'Air Force, de conduire des opérations de nettoyage (mopping-up) sur les franges du théâtre ou de " maintenir l'ordre " après coup, comme au Kosovo. Or, le paradoxe veut que l'Army soit l'institution la plus menacée par la transformation, en même temps qu'elle est la plus dépendante des trois Services : moins dotée que la Navy ou l'Air Force en capteurs et moyens de frappe à longue portée, elle en a toutefois impérativement besoin pour opérer ; de surcroît, les interventions de la dernière décennie ont mis l'Air Force à tel point en valeur que des experts et des commentateurs toujours plus nombreux se demandent si le maintien d'une force terrestre aussi importante se justifie encore. L'armée de terre est donc fortement incitée à concurrencer l'Air Force et la Navy dans le domaine des frappes à longue portée, de façon à réduire sa dépendance et à démontrer qu'elle est elle aussi " transformée ". Or, l'Air Force est évidemment mieux placée, à l'heure actuelle et pour un certain temps encore, pour revendiquer et surtout mettre en pratique une pure stratégie de ciblage - la Navy elle-même a d'ores et déjà du mal à suivre. Même à supposer que l'Army de 2025 dispose des plateformes ultrarapides requises, ainsi que de moyens de frappe à distance autonomes, elle n'en deviendrait pas moins, en souscrivant pleinement à cette conception des opérations militaires, chargée d'une mission de soutien, à savoir " débusquer " par ses feux les unités adverses au profit d'un complexe de reconnaissance-frappe dont elle sera au mieux le partenaire junior - les plateformes aériennes devraient garder un net avantage en termes de réactivité, d'allonge et de volume de munitions de précision tirées. Les Marines revendiquent d'ailleurs a contrario l'" esprit d'infanterie " nécessaire à la conduite d'opérations décisives dans n'importe quel contexte et sur n'importe quel terrain : ce choix restrictif correspond à la fois à la taille réduite du Corps et à ses préférences doctrinales.
+En parallèle, l'" Interim Force " pour partie mais surtout la volonté explicite du général Shinseki de faire à terme de l'armée de terre une force de " premier recours " heurtent de front les intérêts de l'US Marine Corps, de même d'ailleurs que la probable et importante composante héliportée de l'" Objective Force ", qui pourrait avoir occasionnellement besoin de stationner sur des bateaux, si les progrès technologiques espérés ne se réalisent pas. Le problème a dû en réalité se poser déjà pour l'IBCT : parce que les porte-hélicoptères sont considérés comme des capital ships, la Navy est, de par la loi, seule habilitée à les posséder et à les commander. Il était donc exclu de lancer un programme comparable aux BPC (bâtiments de projection et de commandement) français et il n'y avait dès lors pas d'autre choix que de privilégier le transport aérien et de ne pas trop mentionner les hélicoptères, à court terme en tout cas. Ainsi, l'existence du Marine Corps interdit à l'Army de jouer la Navy contre l'Air Force, et l'oblige en fait à passer par son " ennemi véritable ". Dans le même temps, les forces spéciales, et pour partie les Marines, ont repris à leur compte les missions traditionnelles d'infanterie comme le combat urbain, l'infiltration ou même les raids en profondeur, à côté des rangers. La réorientation massive de l'armée de terre dans cette dernière direction eût été de toute façon délicate. Outre qu'une bonne partie de l'institution s'y serait opposée, le combat rapproché et les thèmes afférents ne sont certes pas à la mode : les défenseurs de la RMA insistent constamment sur la nécessité du " see deep, shoot deep " et tournent en dérision les résistances des traditionalistes comme autant de mauvais prétextes. Ils ont ainsi beau jeu de faire valoir que l'Army s'est éloignée depuis longtemps déjà du " corps à corps " en privilégiant la puissance et la létalité des plateformes : les chars américains ne détruisaient-ils pas les T-72 irakiens à distance de sécurité ? L'argumentaire traditionaliste serait d'autant plus faible et bêtement conservateur qu'il ne percevrait ni l'ampleur des progrès technologiques en cours, ni surtout que la " révolution de la précision " ne fait que poursuivre une tendance naturelle et ancienne, à laquelle l'Army a pleinement participé.
+Les armes traditionnellement dominantes de l'institution ne sont pas véritablement en désaccord avec ce raisonnement, premièrement parce qu'elles estiment politiquement intenable le risque de pertes significatives qui va de pair avec le combat rapproché, deuxièmement parce qu'une telle réorientation risquerait de se traduire par une baisse significative et durable des crédits alloués à l'Army, troisièmement parce que l'institution risquerait de finir en force de maintien de l'ordre (constabulary Army), enfin parce qu'elles estiment pouvoir tirer parti en interne des capacités émergentes en matière de frappes précises à longue distance. Les heavies espèrent d'ailleurs sans doute que le FCS sera au final une version allégée et plus moderne des véhicules lourds d'aujourd'hui, de façon à rétablir le primat de l'affrontement mécanisé. Les lights et les membres de l'" Army Aviation " aspirent à l'inverse à profiter de la transformation pour rééquilibrer à leur profit les rapports de force au sein de l'institution.
+Obligé de prendre en compte ces aspirations antinomiques, le leadership de l'Army entend pour sa part réconcilier tous les éléments disparates de l'institution, en finir avec la prédominance de certaines branches, sans pour autant en privilégier d'autres, et occuper le terrain budgétaire face à la Navy et à l'Air Force tout en répondant à la pression politique qui s'est accentuée depuis le Kosovo, et qui interdit de s'en tenir au business as usual en matière de programmes. Dans cette optique, on s'explique sans doute mieux le choix du véhicule Stryker en lieu et place de solutions soit plus innovantes (AGS ou autre), soit moins onéreuses (M113). De même, il était vraisemblablement impossible de lancer un nouveau projet d'hélicoptère, ou d'orienter le FCS dans cette direction, sans mettre immédiatement en danger le Comanche, déjà menacé par les nombreuses voix qui se sont élevées pour souligner que les UAV pourraient se charger à l'avenir de la reconnaissance armée à basse altitude - en outre, l'Army est susceptible à l'avenir de s'intéresser au V-22 Osprey, s'il s'avère viable. Pour ce qui est du moyen/long terme, le maintien sélectif de quelques programmes de modernisation généralement orientés ou " vendus " comme étant transformational et le lancement du FCS permettent à la fois de satisfaire les traditionalistes et les avant-gardistes. De la sorte, l'armée de terre entend préserver, voire même augmenter, sa part des crédits d'équipement, déjà inférieure à celle de ses concurrents.
+Si elle permet de satisfaire partiellement les demandes des politiques comme les préférences des diverses composantes de l'institution, cette stratégie de développement tous azimuts place cependant l'Army dans une logique d'affrontement avec tous les autres services. Comme ces derniers ne manquent pas de le faire savoir, c'est bien d'abord la stratégie budgétaire de l'Army qui est full-spectrum : avec le lancement de l'" Interim Force " et de l'" Objective Force ", concurremment au maintien de la " Legacy Force ", le contribuable américain serait de facto en train de subventionner trois armées de terre, pour accomplir des missions qui pour certaines d'entre elles sont déjà remplies par l'US Marine Corps ou l'Air Force. L'Air Force en particulier fait valoir que l'Army aurait dû se montrer plus prévoyante durant les années 1990, et qu'elle devrait réduire ses structures de force plutôt que de faire financer sa transformation par les autres armées.
+L'augmentation très substantielle des crédits de défense décidée à la suite du 11 septembre n'a probablement fait que reporter dans le temps la crise budgétaire et interarmées stimulée tant par le discours de la transformation que par l'évolution réelle des technologies et des équipements.
+Au vrai, il convient de bien isoler ce qui appartient réellement au débat fondamental évoqué plus haut, qui oppose des conceptions antagonistes de la guerre, et ce qui relève plus simplement des intérêts bien compris des divers lobbies, militaires, industriels et autres. Quelle que soit l'âpreté des querelles entre Services, en effet, l'Army est d'abord menacée par l'atmosphère intellectuelle et politique qui prévaut à Washington en matière de stratégie et d'usage de la force. A cet égard, le plan Shinseki se trouve littéralement pris sous les feux croisés de critiques qui appartiennent pourtant à des écoles de pensée différentes.
+En premier lieu, le débat américain autour du plan Shinseki et plus largement de l'avenir de l'armée de terre laisse apparaître une majorité plus ou moins virulente de sceptiques. Pour résumer, on dénombre essentiellement quatre points de vue sur la question. A l'origine de nombreuses controverses globalement dirigées contre l'Army et en faveur de l'Air Force, l'école de l'" Air Power " n'est foncièrement hostile ni aux IBCT, ni à " Objective Force ", qui vont dans le sens de la précision, du moment que l'Army finance elle-même sa transformation. En outre, l'" Interim Force " en particulier est appelée à être dans une situation de forte dépendance (transport, soutien, appui-feu) vis-à-vis de l'Air Force. Les partisans civils de la RMA, moins liés à ce dernier Service, sont en revanche très critiques à l'endroit des IBCT, trop lourdes et trop chères par rapport à ce qui serait leur mission réelle, le maintien de la paix. Dans la mesure où il se réclame explicitement de l'idée de guerre " réseau-centrée ", le projet " Objective Force " est pour sa part accueilli favorablement. Sur ces deux derniers points, les " traditionnalistes ", présents pour l'essentiel au sein des branches dominantes de l'Army, ne sont paradoxalement pas loin de partager l'opinion des tenants de la RMA : les IBCT orientent l'Army dans la direction dangereuse des opérations de stabilisation et l'éloignent du combat de haute intensité, qui doit rester sa raison d'être. Ils se séparent bien entendu des deux premières écoles en restant attachés à la doctrine Powell et par leur vive opposition aux véhicules légers qui, d'après eux, manquent de protection et de puissance de feu au point d'être inutiles. L'" Interim Force " en particulier n'a pour eux aucune utilité et menace l'identité de l'Army. Les maneuverists demeurent également sceptiques vis-à-vis du corpus de pensée de la RMA, rejettent la recherche systématique de la distance et de la précision et insistent sur l'importance des feux de neutralisation et du combat rapproché. Ils diffèrent des traditionalistes en ce qu'ils acceptent pour l'institution la nécessité du changement de format et de la réorientation des missions, et réservent leurs critiques aux modalités de la réforme en cours. De leur point de vue, la refonte des structures et de la formation constituent des priorités plus urgentes que l'acquisition d'équipement nouveaux, d'ailleurs douteux ; il faut aller franchement et rapidement vers la modularité des structures de force, une interarmisation véritable et un commandement décentralisé, et " les équipements suivront ".
+A l'image du débat stratégique américain, les appréciations généralement portées sur la transformation de l'Army s'attachent majoritairement aux aspects techniques, opérationnels et budgétaires ; ce faisant, elles laissent partiellement dans l'ombre la dimension politique du débat, pourtant essentielle. Depuis la fin de la guerre froide, les échéanciers internes dominent la vie politique américaine ; il s'en suit une déconnexion entre le débat stratégique, très focalisé sur la dimension purement militaire et technique des débats stratégiques, et les débats de politique étrangère, plus généraux mais souvent biaisés par des considérations de politique intérieure. En premier lieu, la hiérarchie civile du Pentagone compte dans ses rangs des adeptes nombreux et convaincus de la transformation, depuis Donald Rumsfeld lui-même jusqu'à Steven Cambone et Arthur Cebrowski. L'équipe au pouvoir n'a pas non plus caché ses réticences initiales vis-à-vis des opérations de stabilisation et du nation-building ; l'IBCT semble d'ailleurs susciter davantage d'enthousiasme pour ce qu'elle annonce que pour ce qu'elle permet aujourd'hui. En règle générale, cette école de pensée s'intéresse davantage au C4ISR, aux capacités de frappes à longue portée et aux moyens permettant de contrer le déni d'accès, qui pourraient tous être requis dans vingt ans contre la Chine, qu'aux structures actuelles, regardées comme pesantes et de plus " engluées " dans des opérations de police internationale qui n'en finissent pas. Aussi a-t-il été rapidement clair, malgré le soutien verbal accordé au plan " Objective Force ", que l'Army était plus spécialement dans la ligne de mire de Donald Rumsfeld en matière d'annulations de programmes et même de réduction de format. Comme pour mieux signifier sa disgrâce, on a même été jusqu'à annoncer très en avance le nom du successeur du général Shinseki. A s'en tenir à ces éléments, aux déclarations de l'actuel secrétaire à la Défense ou à l'ambiance au sein de l'institution, on aurait presque pu croire l'Army condamnée à brève échéance. Du 11 septembre jusqu'à aujourd'hui, les événements ont partiellement redirigé les esprits vers l'extérieur et suscité une aubaine budgétaire. Dans le contexte actuel, l'Army est bien évidemment requise, et le sera bien plus encore en cas d'intervention en Irak. A cet égard, il est à n'en pas douter important pour l'institution et les bastions conservateurs en son sein que cette seconde campagne se passe bien, mieux en tout cas que l'Afghanistan, qui a surtout mis en valeur les forces spéciales. Après tout, le Contingency Corps et le Counterattack Corps ont justement pour vocation d'écraser un adversaire mécanisé, respectivement dans le Golfe et en Corée, et un fiasco dans les circonstances présentes, qui plus est sur les théâtres mêmes pour lesquels les heavies se sont préparés, serait impardonnable et entraînerait sans doute des conséquences irréparables pour l'Army.
+En second lieu, toutefois, le risque politique principal ne vient sans doute pas des " aléas de la conjoncture " ou des changements de gouvernement ; après tout, l'Army est présente sur tout le territoire américain et peut donc compter autant que les autres Services sur le soutien appuyé du Congrès - a contrario, qu'il ait été possible de " tuer " le programme Crusader s'explique justement par le fait que l'industriel n'était implanté que dans un seul état, contre près de 40 pour le F-22 Raptor. Le danger de long terme, qui menace d'ailleurs l'US Marine Corps tout autant que l'Army, a sans doute plus à voir avec la phobie des pertes que les hommes politiques et les militaires supposent à leur propre population. Contrairement à une légende tenace qui attribue cette phobie des pertes à la société civile en propre, toutes les études d'opinion font justement apparaître une réalité beaucoup plus nuancée. Le problème des pertes résulte en fait des particularités du système politique américain, qui organise une distribution équilibrée des pouvoirs entre les institutions, et en particulier entre la présidence et le Congrès. Ce système de " freins et de contrepoids " oblige au compromis et à la minimisation des risques : en l'absence de discipline de parti dans les Chambres, l'exécutif peut se retrouver censuré à tout moment s'il met en danger la réélection des membres de son propre parti. L'expérience malheureuse du Vietnam a bien entendu amplifié le phénomène, tout d'abord en mettant un terme à l'ère de la " présidence impériale " qui avait caractérisé la guerre froide, en second lieu en poussant l'institution militaire à intervenir de plus en plus ouvertement dans le débat, entre autres par le biais du Congrès. Autrement dit, et après une lente mais sûre montée en puissance du pouvoir présidentiel face aux prérogatives congressionnelles en matière de politique étrangère, les années 1970 ont été l'occasion d'un retournement significatif, qui s'accélère avec la fin de la guerre froide : le président doit désormais faire face à la fois au Congrès et à l'institution militaire, chaque acteur veillant jalousement sur son " pré carré " et essayant auprès de l'opinion de faire assumer par les autres les risques ou les déconvenues éventuelles. Parce qu'aucun de ces acteurs ne veut se retrouver en position de devoir assumer un échec ou une catastrophe, et préfère prendre les devants en prêtant à la population des sentiments très tranchés à cet égard, il est politiquement très risqué aux Etats-Unis de s'engager dans une intervention susceptible de produire des pertes significatives. Militaires et civils sont otages les uns des autres, la présidence est à la merci du Congrès et le parti au pouvoir est vulnérable aux accusations de l'opposition.
+Au terme de cette étude émergent plusieurs conclusions, qui concernent aussi bien les chances de réalisation du plan Shinseki que l'avenir de l'Army et les conséquences du processus de transformation pour les alliés des Etats-Unis, quel que puisse être son résultat final.
+Les événements récents n'ont pas été tendres avec l'Army, depuis le fiasco albanais jusqu'aux difficultés de l'opération " Anaconda ". Par nature passagers, ces incidents de parcours ne signifient pas grand-chose par rapport aux vrais problèmes de l'institution, qui ont à voir avec la concurrence que lui livrent les autres Services et l'atmosphère politique qui conditionne aux Etats-Unis l'usage de la force. A maints égards, l'Army se retrouve dans la situation peu enviable d'être attaquée à la fois par le haut, la Navy et l'US Air Force s'étant réorientées vers la surface terrestre, et par le bas, les forces spéciales ayant apporté la démonstration de leur flexibilité et de leur efficacité en Afghanistan. La riposte est d'autant moins aisée à organiser que l'armée de terre risque de s'aliéner durablement l'US Marine Corps et, par voie de conséquence, la Navy, si elle prétend désormais se réorganiser dans une logique expéditionnaire, ce qui l'oblige à passer par l'Air Force pour se déployer - et ce, alors que les deux Services devraient être des alliés naturels face aux prétentions de l'Air Force. Enfin, les réticences de la classe politique mais aussi de la hiérarchie militaire interdisent sans doute à l'armée de jouer complètement la carte de la présence au sol et du combat de près, depuis les opérations de stabilisation jusqu'au " combat d'infanterie ".
+Dans ces conditions, le plan Shinseki constitue une réponse courageuse, qui cherche à préserver l'avenir et l'unité de l'institution en matière d'équipements, de missions et de culture commune. Les insuffisances et les ambiguïtés ne manquent pas, cependant, qui pourraient faire dérailler le projet. L'IBCT, tout d'abord, semble faiblement soutenue, à l'intérieur comme à l'extérieur de l'institution, et ses caractéristiques la condamnent sans doute à ne jouer qu'un rôle marginal en dehors des opérations de stabilisation. Dépendant d'avancées technologiques pour le moins aléatoires, " Objective Force " traduit également les hésitations de l'Army quant à sa mission première, présence au sol ou participation " décisive " au combat de haute intensité futur. A vouloir couvrir ainsi le spectre des possibles, l'Army court le risque de faire contre elle l'unanimité et de perdre la compétition interarmées. Pour ces raisons, il est bien difficile pour l'heure d'émettre une prédiction crédible. Le projet peut échouer complètement, laissant l'Army marginalisée au profit des autres Services ; il peut s'orienter entièrement vers la logique de ciblage et le combat " véhiculaire ", l'Army abandonnant alors aux Marines, aux forces spéciales et peut-être à la réserve les missions de stabilisation et le combat rapproché. Entre ces deux extrêmes, l'Army peut parvenir à ne mener à bien qu'une partie du plan - l'IBCT très probablement - et revoir à la baisse les ambitions affichées dans " Objective Force " dès que le contexte politique le permettra. A ce jour, la réussite intégrale du projet paraît très improbable, et ne garantirait de toute façon pas l'émergence d'un partage des tâches interarmées satisfaisant.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Le Centre français sur les Etats-Unis
+The French Center on the United States
+CFE
+Rapport intermédiaire, avril 2002
+L'administration Bush est arrivée au pouvoir avec une posture très affirmée en matière militaire. Aux côtés du projet de défense anti-missile, la militarisation de l'espace est un projet phare du secrétaire à la défense Donald Rumsfeld. L'opportunité de cette évolution fait l'objet de débats inédits à Washington.
+La Nasa risque de faire les frais de cette évolution. Le nouvel administrateur devra à nouveau tenter de réformer les habitudes financières de l'agence et réduire les dépenses pour la station spatiale internationale. Celle-ci tente donc de se rapprocher de l'Air Force, notamment pour coopérer sur la R&D relative aux lanceurs de nouvelle génération.
+Compte-tenu du contexte international, il est vraisemblable que les industriels n'obtiendront pas cette année un assouplissement des procédures d'exportation de satellites de télécommunication. Une réflexion sur le contrôle de l'imagerie satellitaire commerciale, notamment après la campagne d'Afghanistan, est en cours dans l'Administration.
+Après être restée très en retrait sur les questions spatiales ? clairement déléguées au Pentagone, la Maison Blanche semble revenir sur cette attitude. Des responsables plus actifs sont en train d'être nommés au National Security Council et à l'Office of Science and Technology Policy pour traiter le dossier spatial.
+Avec l'arrivée au pouvoir de l'administration Bush, l'espace change de nature. La précédente administration avait privilégié une approche industrielle des questions spatiales. Au sein de la Maison blanche, le National Economic Council avait produit un certain nombre de directives facilitant les avancées commerciales des entreprises américaines (observation, navigation, lanceurs).
+L'espace de Bush est au contraire un dossier militaire. Donald Rumsfeld a des projets ambitieux en la matière, qui impliquent une réorganisation de l'Air Force, ainsi que des programmes militaires plus avancés.
+Les secteurs spatiaux civils et industriels risquent de souffrir de cette évolution. La Nasa entre dans une période de remise en question. Son nouvel administrateur reçoit l'appui de la Maison Blanche pour remettre de l'ordre dans le mode de financement de ses programmes. Les industriels, pour leur part, n'obtiendront sans doute pas un assouplissement de la procédure d'exportation des satellites de télécommunication.
+Les premiers mois de l'administration Bush avaient vu un désengagement de la Maison Blanche sur le dossier spatial, délégué au secrétaire à la défense. Mais cette attitude est en train de se modifier, avec un changement du personnel chargé de ces questions au sein du NSC et de l'OSTP.
+Alors que l'Europe progresse dans le domaine spatial, avec l'accroissement des compétences de l'Union ou le lancement du programme Galileo, il est particulièrement important de suivre les évolutions de la politique spatiale américaine. Celles-ci ont un impact direct sur l'effort spatial européen :
+Les affaires spatiales aux Etats-Unis sont affectées par une réorganisation institutionnelle, qui trouve son origine dans les propositions d'une récente Commission parlementaire. L'actuel secrétaire à la défense Donald Rumsfeld a présidé, pendant les derniers mois de l'Administration Clinton, une commission indépendante chargée par le Congrès d'évaluer l'efficacité des structures de gestion des questions relatives à l'espace militaire (Commission to Assess United States National Security Space Management and Organisation).
+Le rapport final de cette Commission, publié en janvier 2001, proposait le développement de capacités de défense active des moyens spatiaux (armes anti-satellites), ainsi que des modifications institutionnelles assez radicales visant à donner une plus grande importance au domaine spatial. Le secrétaire à la défense s'est efforcé de mettre en oeuvre les propositions de sa Commission.
+Les remaniements proposés affectaient la présidence, le Pentagone et l'Armée de l'Air. Certains ont été adoptés ou sont en cours d'adoption ; d'autres ne sont pas repris.
+En ce qui concerne le Département de la Défense, les grands axes du rapport Rumsfeld visant à développer l'espace militaire sont adoptés. Seules quelques modalités diffèrent de celles qui étaient précisément édictées dans le texte de janvier 2001.
+Donald Rumsfeld a obtenu la confirmation d'un certain nombre de personnes dotées d'une grande expérience des questions spatiales au plus haut niveau de son ministère (au sein de l'Office of the Secretary of Defense -OSD), de l'état-major interarmées et de l'Air Force. Cela confirme son intention de renforcer l'importance de l'espace dans les affaires militaires.
+ +Compte tenu de la présence de nombreux spaceniks (" fous de l'espace ") dans ces postes hauts placés, l'une des recommandations du rapport Rumsfeld est devenue inutile : le poste d' Assistant Secretary for C3, devait être transformé en Under Secretary for Space Intelligence and Information. Un Under Secretary est hiérarchiquement supérieur à un Assistant Secretary. Ce nouvel Under Secretary aurait disposé de plus de moyens, de personnel et d'autorité pour traiter des questions de sa compétence. Dans la situation actuelle, il a semblé inutile de bouleverser l'organigramme, puisque Pete Aldridge ou Steve Cambone suivent de très près ces questions.
+Un intérêt plus affirmé pour les questions spatiales au sein du Département de la Défense pourrait avoir un impact sur celles-ci, au-delà de leurs aspects militaires. Le Pentagone a un avis à rendre sur les relations commerciales des Etats-Unis lorsqu'elles portent sur des matériels militaires ou à usage dual. Depuis le milieu des années 1990, les responsables militaires se déclarent dans l'ensemble favorables à un assouplissement des contrôles d'exportations. Ils pourraient soutenir plus activement les demandes de licences d'exportation de matériel spatial déposées par les industriels auprès du Département du Commerce ou du Département d'Etat.
+L'armée de l'Air revendique depuis les années soixante un rôle prépondérant en matière spatiale. Elle juge que la contiguïté de l'espace aérien et de l'espace extra-atmosphérique fait naturellement des programmes spatiaux -et des importants budgets qui y sont attachés-, une de ses prérogatives. L'armée de terre et la Navy ont évidemment des vues opposées. Or, les propositions que Donald Rumsfeld veut voir appliquées donneront un avantage définitif à l'Air Force.
+Le secrétaire à la défense a annoncé des changements à l'automne 2001. Dans un mémorandum adressé aux responsables du Département et des services armés, ainsi qu'au directeur de la CIA, il annonce une nouvelle répartition des rôles en matière spatiale parmi les différentes armes. Pete Aldridge (Under Secretary for Acquisition) et David Chu (Under Secretary for Personnel and Readiness) doivent mettre en route cette réorganisation, qui reprend les grandes lignes du rapport de la commission Rumsfeld.
+L'Air Force doit devenir l'agent exécutif pour l'espace au sein du Département de la Défense. James Roche, le secrétaire de l'Air Force, sera responsable de la planification, de la programmation et de l'acquisition des systèmes spatiaux militaires. L' Under Secretary of the Air Force Peter Teets devient responsable des acquisitions spatiales de l' Air Force et autorité de référence pour les acquisitions spatiales de tout le Pentagone. Sa fonction est jointe à celle de directeur du National Reconnaissance Office (NRO). Le NRO acquiert et opère les satellites d'observation militaires. Les demandes programmatiques du NRO seront donc relayées au plus haut niveau de l'Air Force par l' Under Secretary Peter Teets.
+Cette évolution va sûrement faire naître des controverses, car elle fait apparaître une deuxième voie pour l'acquisition des matériels. L'Under Secretary for Acquisition Aldridge sera responsable des grands programmes du Département (navires, avions, nucléaire, ... ), mais tous les programmes de satellites ou de lanceur seront du ressort du secrétaire de l'Air Force. L'Air Force pourra faire approuver par son secrétaire ses propres requêtes programmatiques spatiales. On peut se demander si ce système est très raisonnable.
+Par ailleurs, la nomination d'un général de niveau quatre étoiles à la tête du U.S. Air Force Space Command est adoptée. Ce général ne sera plus chargé en même temps de la direction du NORAD et du U.S. Space Command. Cette décision suit les recommandations du précédent titulaire de ce poste, le général Eberhart, qui avait déclaré avoir du mal à assurer les trois fonctions en même temps.
+Le général Lord est à ce poste en avril 2002. Ce général de niveau 4 étoiles a eu la responsabilité du pas de tir militaire de Vandenberg (Californie) de 1993 à 1995, mais son expérience des questions spatiales reste à part cela limitée. Il n'y a pas longtemps que l'Air Force dirige systématiquement certains officiers vers les responsabilités et les expériences spatiales. Ces " space cadets " n'ont pas encore atteint le rang de général à 3 ou 4 étoiles. Il a donc été difficile de trouver un général de niveau 4 étoiles pour remplir le poste de U.S. Air Force Commander.
+L'Air Force est satisfaite de ces évolutions, qui consacrent sa prééminence en matière spatiale. Mais elle se trouve désormais dans une position délicate. Elle s'oppose bien sûr à toute évolution vers la création d'un corps spatial autonome. La formation d'une cinquième arme dédiée à l'espace affaiblirait considérablement l'Air Force. Elle devra donner aux programmes spatiaux militaires toute la place que Rumsfeld souhaite leur voir prendre, sans toutefois qu'ils acquièrent une importance telle que l'idée d'un space corps indépendant s'impose.
+Le secrétaire à l'Air Force James Roche a fait carrière dans la Navy avant de devenir staffer au Sénat (au Armed Services Committee), puis de travailler chez Northrop Grumman. Le poste de secrétaire d'une arme est un poste civil. Il n'est pas rare qu'un civil ou un militaire d'une autre arme y soit nommé. Il reste à voir comment cet ancien marin appliquera les directives de Donald Rumsfeld au profit de l'Air Force.
+Le rapport Rumsfeld proposait que la Maison Blanche donne une plus grande priorité aux questions spatiales. Cette direction n'a pas été adoptée au départ, mais la situation évolue au printemps 2002.
+La commission Rumsfeld proposait que l'espace soit élevé au rang de " priorité nationale " par le président. Ceci n'a pas été fait.
+De même, le projet de création d'un Presidential Space Advisory Group n'est pas repris. Ce groupe de conseillers de très haut vol aurait compté des membres de la communauté scientifique civile, des chefs d'entreprises aéronautiques et spatiales, et des conseillers militaires. Il se serait réuni à la demande du président pour se prononcer sur les politiques spatiales aussi bien civiles que militaires, commerciales que scientifiques. Ce groupe n'aurait pas fait partie du gouvernement, à proprement parler. En cela, il différait du National Space Council, qui a existé de 1958 à 1973, puis de 1988 à 1993. Ce conseil, qui était placé au même niveau de l'exécutif, avait une existence plus formelle et un large pouvoir de décision.
+Le président a jugé que ces évolutions n'étaient pas indispensables. Les questions spatiales, qu'elles soient civiles, militaires ou économiques, ne sont pas une priorité au plus haut niveau de l'exécutif.
+Selon les conclusions de la Commission Rumsfeld, une cellule spatiale plus importante devait être rassemblée au sein du National Security Council. Mais l'ancien système, dans lequel une seule personne, placée sous l'autorité du Senior Director for Defense Policy and Arms Control, s'occupe de l'espace au sein du NSC, a prévalu.
+ +Des groupes de travail interministériels, dits Policy Coordinating Committees (PCC), sont organisés sous l'égide du NSC. Un PCC sur l'espace a commencé à se réunir au printemps 2001. Il a initié une cellule de réflexion sur le contrôle de l'imagerie spatiale commerciale par le gouvernement, une deuxième sur la question de l'attribution des fréquences radio, et une troisième sur l'avenir du transport spatial.
+Mais ces groupes semblent pour l'instant peu actifs. L'autorité au sein de chaque cellule de réflexion a été déléguée à des agences extérieures : Nasa, NIMA, etc. Ceci n'est pas très efficace lorsqu'il s'agit d'amener des agences gouvernementales aux intérêts structurellement contradictoires à atteindre un compromis. Selon Jefferson Hofgard (Boeing), attribuer systématiquement l'autorité au NSC est le seul moyen de forcer l'ensemble des participants à se mettre d'accord.
+Il semble qu'au printemps 2002, la décision de modifier la situation ait été prise. Le Director for Space, Ed Bolton, peu dynamique et de rang modeste (lieutenant colonel) vient d'être remplacé par Gill Klinger. Ce dernier, déjà en poste au Pentagone sous Clinton, est plus senior. Il est connu pour sa force de caractère et tiendra sans doute à reprendre l'autorité sur les sous-groups du PCC-espace.
+Pour les autres cellules de la Maison Blanche, on note les évolutions suivantes :
+ +Comme pour le NSC, la pratique de la nouvelle administration a été jusqu'à présent de ne pas faire présider par l'OSTP les groupes de réflexion auxquels il participe. Il est possible que le départ de Scott Pace ait à voir avec ce mode de fonctionnement peu efficace.
+Dans le cadre de la réorganisation de ses services, Donald Rumsfeld a également lancé des réformes favorables à une meilleure gestion des programmes spatiaux militaires.
+ +Certains chiffres apparaissent dans le projet de budget pour 2003, présenté par la Maison Blanche le 4 février 2002. Ils vont être discutés et modifiés par le Congrès avant d'être votés en fin d'année. Les chiffres présentés ici ne sont donc pas définitifs.
+ +Le programme de défense anti-missile (MD) reçoit 7.5 milliards de dollars dans le projet de budget pour 2003. Il s'agit là du montant destiné à la composante sol de l'architecture MD (stations radar et systèmes de missiles au sol, comme par exemple les installations en Alaska) et à sa composante espace SBIRS-Low. Le système SBIRS-Low sera formé d'une constellation de missiles en orbite basse, chargée de faire du suivi au sol d'objets froids (cold objects tracking), de l'intelligence électronique, et du renseignement situationnel lors des conflits (battle space awareness). Ces deux parties de l'architecture anti-missile sont gérées par la nouvelle Missile Defense Agency (MDA), qui remplace l'ancienne BMDO.
+La troisième partie du système de MD est le programme SBIRS-High, qui verra le déploiement de satellites géostationnaires chargés de l'alerte avancée. Cette partie du programme, qui remplacera le système actuel DSP, est gérée par l'Air Force et non par la MDA. Elle reçoit 815 millions de dollars dans le budget 2003 et son coût total est évalué à 4.5 milliards de dollars.
+En ce qui concerne les programmes spatiaux hors MD, il est difficile de faire le point des financements proposés à l'heure actuelle, car les lignes budgétaires restent éparpillées et le plus souvent non-identifiables dans le projet de budget de la Maison Blanche. Par exemple, les termes " special projects " ou " Technology development ", dans le budget de l'Air Force, peuvent désigner un programme de brouillage des télécommunications. Le regroupement des budgets prévu par le nouveau secrétaire à la défense apportera une amélioration de cet état de fait, mais il n'est pas sûr que les données seront déclassifiées. Les débats dans les Commissions des forces armées du Sénat et de la Chambre feront sans doute apparaître des précisions en cours d'année.
+On cite le chiffre de 1 milliard de dollars supplémentaire pour les programmes spatiaux, demandé cette année par rapport au projet 2002, ce qui amènerait le montant total à 8 milliards de dollars. Ce montant inclut l'ensemble des programmes spatiaux non classifiés, dont 920 millions pour 'Advanced Extremely-High Frequency Satellite l Communication System, et le système SBIRS, dans ses composantes High et Low.
+Il inclut également les programmes plus innovants de R&D sur la militarisation de l'espace, qui se développent selon deux axes :
+ +Tous ces programmes sont assez anciens et semblent avoir évolué lentement à cause des réticences du Congrès à accepter le déploiement de systèmes spatiaux offensifs. Les programmes de R&D retenus pour l'instant ne prévoient pas de systèmes offensifs déployables dans l'espace. Dans le contexte de débat sur la militarisation de l'espace auquel on assiste actuellement, cela aurait sans doute un poids politique trop lourd à assumer pour le gouvernement américain. Qui plus est, certaines des technologies développées sont sans doute suffisamment en amont pour pouvoir être déployées sur des plates-formes orbitales dans l'avenir, le cas échéant.
+Lorsque les Américains et les Soviétiques ont commencé à déployer des satellites dans les années 1950 et 1960, l'application la plus précieuse était le renseignement. Les satellites d'observation apportaient une information irremplaçable sur le territoire ennemi. Pour espionner avec efficacité, les systèmes déployés devaient rester les plus discrets possibles. L'administration Kennedy fit adopter en 1960 une décision de classification totale des systèmes spatiaux militaires. Depuis cette date et jusque dans les années 1980, il n'y a eu aucune communication officielle sur ce sujet aux Etats-Unis.
+Dans les années récentes, alors que ces systèmes étaient mieux connus, leur signification stratégique a été obscurcie par la polémique sur les systèmes de défense antimissile. L'architecture du futur système américain prévoit une composante spatiale. Mais l'espace militaire ne se résume pas à la défense antimissile, et regroupe d'autres éléments.
+A la différence des armes nucléaires, qui sont l'objet de discussions houleuses depuis les années 1960, les systèmes spatiaux militaires sont donc restés jusqu'à présent en dehors du débat stratégique public. Mais la publication du rapport Rumsfeld en janvier 2001 semble avoir provoqué une prise de conscience.
+En 2001 et 2002, plusieurs think-tanks de Washington organisent des séminaires ou des programmes de réflexion sur la militarisation de l'espace. Le Stimson Center tient à jour une bibliothèque électronique regroupant des ouvrages sur les questions de space weaponization ; Le Space Policy Institute de l'université George Washington a reçu une bourse de la fondation MacArthur pour organiser des déjeuners sur ce thème sur une durée de deux ans ; Le Eisenhower World Affairs Institute poursuit des groupes de travail sur l'espace entamés depuis longtemps, mais désormais plus nettement axés sur les aspects militaires ; Le Council on Foreign Relations réunit pour sa part un groupe d'étude sur le même thème ; le Center for Strategic and International Studies organise des groupes de travail et des conférences en 2002 ; En marge du Congrès spatial mondial d'octobre 2002, l'université Rice et Lockheed Martin organisent pour la première fois un congrès sur la politique spatiale avec un forum sur les aspects militaires.
+Même si le débat se limite encore trop souvent aux seuls experts et a du mal à toucher le grand public, des échanges inédits s'engagent entre partisans et adversaires des projets du Pentagone. On assiste peut-être enfin à la naissance d'un débat de nature stratégique sur l'espace militaire.
+Les défenseurs de l' arms control sont très réservés face à la perspective d'une extension à l'espace de nouveaux types d'armement. Celle-ci leur semble condamnable par principe, mais aussi pour des raisons juridiques. Les armes antisatellites ne sont pas spécifiquement interdites par le Traité de 1967, qui ne prohibe que le déploiement d'armes nucléaires et de destruction massive. Mais le déploiement d'asats reste contraire à l'esprit du Traité et, plus généralement, va à l'encontre des efforts de désarmement intervenus depuis quelques décennies.
+D'autres chercheurs se fondent sur des arguments stratégiques pour affirmer que le déploiement d'armements dans l'espace reste contraire aux intérêts américains : les adversaires potentiels des Américains n'ont pas envie d'initier ces déploiements, mais seraient amenés à l'imiter, si les Etats-Unis font les premiers pas.
+Ils estiment également que ces moyens spatiaux nouveaux créent une tentation de frappe en premier et par surprise. Dans une situation ou il existerait des moyens spatiaux indispensables et des moyens de les détruire, il serait tentant de lancer une attaque-surprise, pour désarmer l'adversaire avant qu'il ne prenne l'initiative lui-même. Les possibilités de frappe préemptive sont un facteur déstabilisant pour les relations internationales et les Etats-Unis ne doivent pas s'engager dans cette voie.
+Le nouvel administrateur de la Nasa a finalement été nommé en décembre 2001. Sean O'Keefe succède à Dan Goldin, en poste depuis 1992. Sean O'Keefe a une certaine expérience des questions militaires : il a été secrétaire de la Navy, Staff Director chargé du budget de la défense à la Commission des Appropriations du Sénat et Comptroller au Département de la Défense. Mais son expertise en matière spatiale est réduite.
+Sean O'Keefe est redouté pour ses pratiques de gestionnaire rigoureux. Il quitte pour venir à la Nasa les fonctions de directeur adjoint de 'Office of Management and l Budget (OMB). On peut penser qu'il voudra sans état d'âme mettre fin aux dérives budgétaires qu'a connues l'agence récemment -notamment avec un dépassement de budget de 800 millions de dollars pour la station internationale.
+Il dénonce également la procédure des fonds réservés, attribuables à la discrétion du Congrès (les earmarks). On se souvient que Dan Goldin avait essayé d'en faire autant, mais sans succès : l'administrateur de la Nasa n'a pas le pouvoir d'imposer au Congrès l'abandon de cette pratique.
+Cette remise en question financière pourrait s'accompagner d'une réorganisation profonde de la Nasa. Un rapport récent intitulé Strategic Ressources Review analyse de manière critique les missions des différentes bases de la Nasa et propose l'élimination de certaines d'entre elles. On imagine mal comment faire accepter de telles mesures aux parlementaires représentant les Etats concernés par cette rationalisation.
+Les liens d'amitié personnels de Sean O'Keefe avec le vice président Dick Cheney constitueront un atout précieux dans les tâches délicates du nouvel administrateur. Mais on doit s'attendre à ce que la Nasa mette en route toutes ses capacités de lobbying pour échapper à ces réformes. Dan Goldin, pourtant nommé dans le but de réformer les pratiques budgétaires de la Nasa, avait fini par épouser les pratiques traditionnelles de l'agence.
+L'arrivée de Sean O'Keefe à la tête de la Nasa est vue par beaucoup comme le signe de nouvelles orientations programmatiques. Si le nouvel administrateur s'avoue toujours en phase de formation au sein de l'agence, certaines de ses décisions commencent à apparaître dans le projet de budget pour 2003.
+O'Keefe a mentionné à plusieurs reprises son désir de voir l'agence retourner à sa mission première de recherche et développement. Il a repris à son compte le slogan " back to basics ", déjà entendu. Cette fois-ci, les " basics " en question sont définis comme l'exploration et la découverte, selon des priorités bien ciblées.
+Il recommande pour cela des missions automatiques, plutôt que des missions habitées risquées et coûteuses. Dans le projet de budget pour 2003, la ligne " Sciences de l'Espace " augmente de 19%, pour atteindre 3,415 milliards de dollars. Une partie de cette augmentation est consacrée à la recherche sur l'utilisation de l'énergie nucléaire en orbite pour les missions longues et le développement de systèmes de propulsion nucléaire pour l'exploration du système solaire lointain. Cette décision est critiquée par les écologistes américains, qui craignent les conséquences pour la population mondiale d'éventuels accidents lors des lancements ou des réentrées des véhicules concernés.
+Par ailleurs, l'exploration de l'Univers devrait être réorganisée au sein d'un programme nommé " New Frontiers ". Il devrait succéder aux programmes Pluto-Kuiper et Europa Orbiter qui semblent annulés en tant que tels. Mais le Congrès pourrait à nouveau refuser l'annulation de ces deux programmes de sonde vers Pluton et Europe. En 2001, la sénatrice démocrate du Maryland Barbara Mikulski avait fait réintégrer le programme Pluto-Kuiper dans le budget de la Nasa pour 2002.
+En revanche, le budget Sciences de la Terre stagne, à 1625 millions de dollars. Si l'on considère que 60 millions de ce budget sont attribués aux opérations des réseaux au sol, une dépense qui était auparavant incluse dans la ligne budgétaire du vol habité, on voit que ce budget est réellement en légère baisse. Comme on le soulignait l'an dernier, les études environnementales ne sont pas une priorité de l'Administration Bush.
+Le programme de station spatiale internationale (ISS) et le programme de navette réutilisable sont regroupés dans la ligne budgétaire " Vols Habités ". Avec 6,1 milliards de dollars demandés pour 2003, en baisse de 10%, c'est la ligne la plus importante du budget de la Nasa.
+Mais le programme de station internationale est l'une des premières cibles du nouvel administrateur. Il faut dire que ce programme a connu une augmentation de 7 milliards par rapport à son coût de 17,4 milliards initialement prévu. Paru à l'automne 2001, le rapport Young a constitué une critique extrêmement forte de la gestion financière de la station dans les années récentes.
+L'administration a donc décidé de mettre le programme de station " à l'essai " pendant deux ans. Les équipes de la Nasa en charge du programme de station devront faire la preuve de leur sérieux dans la gestion du programme et l'estimation de ses coûts.
+En attendant, l'architecture de la station est réduite à sa version minimale, dite " core complete ", qui pourra accueillir trois astronautes, au lieu des sept prévus. La possibilité de mener des recherches à bord est quasiment nulle dans cette configuration. La contribution des partenaires étrangers (Europe, Japon, Canada et Russie) est affectée, mais l'administration se refuse à promettre la construction future de la station dans sa version complete à 7 astronautes.
+Le budget pour construire la navette " core complete " n'est même pas totalement attribué selon les projets de financements 2002 - 2006, car il manque 603 millions sur cette période. Cette somme doit soi-disant être trouvée dans la réalisation d'économies -ce qui semble douteux. La requête financière 2003 pour l'ISS est de 1,8 milliards. Ce montant inclut les travaux de recherche relatifs à la station, déplacés dans une autre ligne budgétaire.
+Après la fin du programme Apollo, la Nasa a choisi de se doter d'une navette habitée réutilisable, comme moyen principal d'accès à l'espace. La navette spatiale, dite RLV pour Reusable Launch Vehicle, représente la première génération de véhicule spatial réutilisable. Elle emporte un équipage en orbite et revient sur Terre après sa mission. Aux Etats-Unis, les entreprises privées et l' Air Force exploitent des fusées traditionnelles à utilisation unique (dites ELV pour Expendable Launch Vehicle).
+Quatre exemplaires de la navette sont actuellement en activité. Endeavor, Atlantis, Discovery, et Columbia ont été construites par Rockwell (maintenant intégré à Boeing). Leur maintenance est assurée par Boeing et Lockheed-Martin, dans le cadre du consortium U.S. Space Alliance.
+Mais ce RLV de première génération n'est pas tout à fait au point. La maintenance des navettes entre chaque vol est longue et coûteuse. La requête budgétaire 2003 pour le programme de navette est de 3,2 milliards (incluse dans le pôle budgétaire " Vol Habité "). Ce financement est insuffisant pour assurer les 6 - 7 missions annuelles et leur nombre devrait être réduit à 4 - 5 par an. Les responsables du programme dénoncent un manque de 1 milliard de dollars sur les 5 prochaines années.
+La Nasa doit donc se préparer à remplacer les navettes par un système moins coûteux et plus réactif. Souhaitant repousser les décisions à 2005, les responsables de l'agence ont lancé un programme dit " Integrated space transportation ", qui lance des travaux exploratoires dans deux directions.
+Une série d'études doit d'une part chercher à améliorer la navette actuelle. Les responsables du programme déclarent que les quatre modèles n'ont atteint que 30% de leur cycle de vie utile et qu'un shuttle upgrade pourrait suffire à assurer l'avenir sur le long terme. Les recherches portent notamment sur l'amélioration de la sécurité des vols. Elles prévoient un budget de 1,86 milliards de dollars pour la période 2001 - 2005.
+Mais un grand effort est engagé d'autre part pour tenter de développer un système totalement nouveau :
+Le programme de Space Launcher Initiative (SLI) vise à développer un système de lanceur réutilisable entièrement inédit. Les entreprises privées recevront 4,8 milliards de dollars entre 2001 et 2006 pour réaliser des recherches sur ce thème.
+Une partie des travaux porte sur les technologies de transport dites " Nasa-unique ", c'est-à-dire consacrées exclusivement aux vols habités. Une autre porte sur l'établissement d'un moyen d'accès commercial à la station spatiale. Il s'agit d'encourager les entreprises privées à desservir la station avec leurs lanceurs traditionnels, ce qui constituerait une solution de rechange en cas de problème.
+Mais la partie la plus importante de la SLI est le sous-programme de " Second generation RLV", c'est-à-dire de lanceur réutilisable de seconde génération. L'élément principal du cahier des charges de ce véhicule est l'abaissement des coûts. Il devra ainsi pouvoir mettre en orbite une livre (454 grammes) de matériel pour 1000 dollars contre 10.000 dollars pour la navette actuelle.
+Dans le cadre du système X-33, qui a été abandonné l'an dernier, la Nasa avait voulu développer un système global. Elle a maintenant changé d'approche. Avec le programme SLI, la Nasa fait travailler un certain nombre d'entreprises sur différentes technologies aérospatiales, qu'il faudra ensuite combiner pour développer le futur lanceur.
+Les technologies nécessaires ont été identifiées en 2000, pendant la première année du programme. Par un appel d'offre daté d'octobre 2000, les entreprises intéressées ont été appelées à établir des propositions pour un premier cycle de contrats. Ces contrats ont été conclus en deux fois en 2001. Vingt-deux entreprises ont été choisies le 17 mai, pour des contrats d'une valeur totale de 766 millions de dollars. Le 17 décembre, 94,6 millions supplémentaires étaient attribués.
+Au premier rang des entreprises lauréates, Boeing a reçu 136 millions de dollars en mai pour aborder 5 domaines de recherche et 5,4 millions en décembre pour des études sur la survie et la protection des équipages (dans le cadre de la mission " Nasa-unique " de vol habité). Pratt & Whitney reçoit 125 millions pour travailler sur les méthodes de propulsion et les étages supérieurs ; l'entreprise Kistler obtiendra 135 millions de dollars après avoir effectué le vol de démonstration de son lanceur K-1 (contrat de 10 millions de dollars avec une option de 125 millions).
+En décembre, Northrop Grumann et Orbital Sciences Corp. se sont vu attribuer un montant combiné de 20,7 millions de dollars pour des études d'ingénierie système et de définition d'architecture. Rocketdyne reçoit 63 millions et TRW 5,4 millions pour des études sur la propulsion.
+Toutes les entreprises retenues ont des chances de participer à la réalisation du futur lanceur de la Nasa. Dans tous les cas, les entreprises sélectionnées en 2001 resteront propriétaires des résultats de leurs travaux, qui auront sans doute des retombées sur les programmes de technologies lanceurs qu'elles poursuivent par ailleurs.
+Les résultats du premier bilan intermédiaire (milestone review) seront connus début mai 2002. Un deuxième cycle d'appel d'offres sera lancé par la Nasa en 2002. Dans le projet de budget pour 2003, la ligne " technologies aérospatiales " connaît une augmentation de 12%, soit 2,8 milliards, destinés principalement au projet SLI.
+Sean O'Keefe a mentionné à plusieurs reprises la possibilité de coordonner les efforts de recherches de la Nasa et du Département de la Défense sur le futur lanceur réutilisable. L'étude " One Team " menée pendant 4 mois par l'agence et l'Air Force sur ce sujet s'est achevée en début d'année 2002. Elle devait identifier les possibilités de travaux conjoints entre les deux entités.
+Mais il semble difficile de réconcilier les besoins des militaires et des scientifiques. En effet, le Département de la Défense a des exigences bien particulières en ce qui concerne son système de lanceur futur. Les militaires veulent pouvoir effectuer un lancement dans les 12 à 48 heures suivant la décision de lancement. Ils veulent aussi pouvoir lancer jusqu'à 20 fusées en deux ou trois semaines si la situation l'exige. En revanche le vol habité s'avère inutilement risqué et coûteux pour les militaires.
+En revanche, les missions habitées apparaissent comme l'une des raisons d'être de la Nasa, et leur maintien reste jusqu'à présent une priorité.
+Il semble donc difficile de pousser les recherches communes Nasa-Air Force au-delà d'un stade de recherche très préliminaire. Si les conclusions de l'étude " One Team " ne sont pas encore rendues publiques, c'est peut-être parce qu'elles ne sont pas très optimistes.
+Une autre voie explorée par Sean O'Keefe est celle de la privatisation de la navette. La shuttle privatization a été mentionnée sans beaucoup de précisions dans le projet de budget 2003 et dans diverses interventions du nouvel administrateur. Depuis l'accident de la navette Challenger en 1986, les navettes ne peuvent plus accomplir de missions commerciales. Le président Reagan n'avait pas voulu que la vie des équipages soit risquée pour mettre en orbite des satellites privés.
+La présente Administration pourrait revenir sur cette loi. La privatisation de la navette pourrait se limiter au tourisme spatial, dont quelques expériences lucratives ont déjà eu lieu.
+Par une convergence d'éléments très divers, l'espace semble être un secteur dans lequel les relations industrielles transatlantiques sont très limitées.
+Tout d'abord, il n'y a pas de tradition de coopération entre industries spatiales américaines et européennes. Parce qu'ils ne souhaitaient pas voir proliférer les technologies balistiques, les Etats-Unis ont vu d'un mauvais ?il les efforts de mise au point d'un lanceur européen.. La base industrielle européenne s'est donc développée de façon indépendante.
+La restructuration des industries et la globalisation des échanges dans les années 1990 ont entraîné la mise en place de programmes de coopération dans de nombreux domaines, tels que l'automobile, la métallurgie (aluminium) et les hautes technologies.
+Mais le domaine spatial n'a pas bénéficié de cette évolution. En effet, les programmes spatiaux restent marqués par des commandes finalement peu nombreuses et la prééminence des marchés publics. Ceux-ci imposent en Europe la procédure du juste retour industriel, qui est peu favorable à l'importation de composants américains. Parallèlement, les parlementaires américains sont jaloux des productions réalisées dans leur circonscription et ne souhaitent pas les voir sous-traitées à l'étranger.
+C'est dans le secteur des télécommunications par satellite, que les perspectives de profit sont les plus fortes : les acteurs privés ont donc pris la relève du secteur public pour assurer les investissements. Des coopérations significatives, entre Loral et Alcatel, ont été engagées depuis de nombreuses années.
+Qui plus est, les espoirs de gain technologique sont rarement suffisants pour justifier des coopérations. Les technologies moteur de Snecma, qui ont suscité une coopération avec Pratt & Whitney forment un cas particulier. Hormis cet exemple, les technologies sélectionnées de part et d'autre de l'Atlantique sont trop similaires pour laisser beaucoup d'intérêt aux échanges de savoir-faire.
+De même, du point de vue financier, la production spatiale n'est pas suffisante pour que son regroupement sur l'autre continent amène des économies d'échelle.
+Enfin, l'éventuelle volonté des gouvernements de lancer une coopération internationale dans le domaine spatial, trouve son expression hors du domaine commercial et industriel. En effet, la plupart des applications spatiales sont duales, et dès lors très délicates à organiser dans un cadre multinational. Les institutionnels choisissent plutôt des programmes scientifiques comme celui de Station Spatiale Internationale pour lancer un partenariat à signification politique.
+La rigidité des procédures américaines d'exportation de technologies et de matériels sensibles est une cause supplémentaire de difficulté des échanges industriels. Elle tient avant tout à l'attitude des parlementaires et à l'action parfois contradictoire des lobbies. Les espoirs d'évolution dans ce domaine n'ont pas abouti jusqu'à présent, mais renaissent avec chaque session parlementaire.
+Les systèmes de satellites et de lanceurs sont gouvernés par différentes procédures d'exportation, selon qu'ils sont considérés comme des armements ou simplement des matériels à usage dual. Dans les années 1990, plusieurs firmes américaines ont été accusées d'avoir transmis des technologies balistiques protégées à la Chine, dans le cadre d'exportation de satellites américains devant être lancés sur des fusées chinoises Longue Marche. Le Congrès a alors resserré les procédures d'exportation, au grand dam des constructeurs de satellite américains.
+L'administration Bush est arrivée au pouvoir avec le projet de faire assouplir ces procédures par le Congrès, mais la session parlementaire 2001 n'a abouti à rien. La session 2002 devrait reprendre le dossier.
+Aux Etats-Unis, les exportations d'armement et de matériel à usage dual sont gouvernées par des systèmes différents. La loi fixe les grands principes. Des règlements établissent ensuite la liste précise des matériels considérés (liste des munitions, liste des matériels à usage dual, ... ). Enfin, les policy directives fixent l'attitude pratique des services qui traitent des demandes. Ces dernières ne sont pas toujours rendues publiques et peuvent même parfois ne pas faire l'objet d'un texte formel.
+La loi ACEA elle-même n'est pas remise en question. Ce sont les ITAR qui font l'objet de fréquentes modifications et de constantes critiques. Dans sa plate-forme électorale, le président avait indiqué qu'il souhaitait modifier les réglementations d'exportation, sans néanmoins préciser sa démarche.
+Les règlements d'application, dits Export Administration Regulations, établissent cette liste et sont adoptés par le Département du Commerce. A nouveau, une procédure de consultation du Département d'Etat et du Département de la Défense est prévue.
+Les procédures d'exportation de satellites forment deux cas particuliers, l'un pour les satellites de télécommunication, l'autre pour les satellites d'observation. Dans les faits, seule la première catégorie fait l'objet de fréquentes exportations.
+Mais en 1990, le Congrès a souhaité renforcer la position des entreprises américaines, dans une perspective de conquête des marchés extérieurs. Le président Bush a transféré une partie des satellites de communication sur la liste des matériels duaux en 1992, et le président Clinton y a porté l'ensemble de ces satellites en 1996. Leur exportation était dès lors contrôlée par le Département du Commerce, selon une procédure plus simple et plus rapide.
+Dans la seconde moitié des années 1990, divers scandales ont éclaté. Les entreprises américaines Loral et Hughes ont été accusées d'avoir illégalement transmis à la Chine des technologies balistiques, lors du lancement en 1996 de satellites américains sur des lanceurs Longue Marche . En 1998, le Congrès a ramené le pouvoir d'attribution des licences d'exportation au Département d'Etat (Strom Thurmond Act du 17 octobre 1998) et les satellites de télécommunication sont revenus sur la liste de munitions ITAR à compter du 15 mars 1999. Il faut noter toutefois que les transferts de technologies frauduleux étaient intervenus à l'occasion de l'exportation de satellites sous le régime ITAR d'avant 1992 !
+La décision de 1998 a eu des répercussions sur les marchés spatiaux. Compte tenu de l'ampleur politique des scandales, le service responsable au sein du Département d'Etat a traité les dossiers de demande de licence d'exportation de manière tatillonne et extrêmement lente. Certains clients étrangers ne peuvent attendre plusieurs années avant de savoir s'ils pourront acheter un satellite américain et ont préféré s'adresser à d'autres fournisseurs. Cela a bien sûr gêné les constructeurs de satellites américains.
+Symétriquement, il est devenu difficile pour les entreprises étrangères d'obtenir des contrats de lancement de satellites américains. Toutefois, l'aménagement de régimes spéciaux pour les pays Otan et les autres pays alliés, ainsi que pour l'entreprise Arianespace, lève les obstacles majeurs à l'exportation de satellites américains vers l'Europe et à leur lancement par l'entreprise européenne.
+Il reste difficile pour les constructeurs de satellites américains d'exporter vers le reste du Monde et les entreprises de lanceurs de ces régions restent pénalisées.
+Le 3 mai 2001, Dana Rohrabacher, président de la sous-commission Espace et Aéronautique de la commission Science de la Chambre des Représentants et Howard Berman, représentant démocrate de Californie, ont introduit une proposition de loi (H.R. 1707), demandant que les licences d'exportation des satellites de communication soient à nouveau accordées par le Département du Commerce.12 Plus précisément, c'est le hardware nécessaire à la construction de ces satellites qui devait être transféré de la liste des munitions à la liste des matériels duaux.
+Pendant l'été, cette proposition est devenue un amendement à la proposition de loi visant à réformer l'exportation du matériel dual (Export Administration Act). La proposition de loi et son amendement se sont ensuite enlisés dans les débats de fin d'année.
+Il n'est pas sûr qu'une telle mesure aurait bénéficié aux entreprises européennes, car elle réintroduisait une plus large concurrence -de la part des constructeurs de satellites américains et de la part des lanceurs du reste du monde- sur un marché étroit.
+La question de l'exportation des satellites de télécommunication ne devrait pas être soulevée pendant la présente session. La situation internationale s'est fortement modifiée pour les Etats-Unis depuis l'année dernière et, même si la Maison Blanche poursuit sa réflexion sur le sujet, l'assouplissement des procédures d'exportation n'est pas à l'ordre du jour.
+Vers 1992, dans les premières années qui ont suivi la fin de la guerre froide, la robuste industrie américaine de l'observation spatiale a pu craindre que les agences de renseignement nationales lui commandent désormais moins de satellites d'observation dans l'avenir. La question de la commercialisation et de l'exportation d'imagerie et de systèmes clef en main s'est alors posée.
+Les satellites d'observation spatiale voient leurs exportations gouvernées par une loi particulière, le Land Remote-Sensing Act (actuellement dans une version de 1992). Une Presidential Decision Directive (PDD-23) de 1994 établit une procédure distincte pour l'exportation de systèmes clef en main et pour l'exportation d'imagerie :
+Le Département d'Etat, après consultation du Département de la Défense et du Département du Commerce décide de l'exportation de systèmes de satellite d'observation clef en main. Les satellites d'observation figurent donc sur la liste des munitions ITAR et ce, quelle que soit leur résolution (très haute pour des satellites d'observation de type militaire, ou très basse pour les satellites de météorologie).
+Il a été prévu un temps d'introduire une distinction entre les satellites d'une résolution supérieure à 10 mètres, dont l'exportation aurait été autorisée par le Département du Commerce et les satellites d'une résolution inférieure, qui auraient été gouvernés par le Département d'Etat, mais cette mesure n'est jamais entrée en vigueur.
+Concrètement, il n'y a jamais encore eu de cas d'exportation de systèmes de satellites d'observation clef en main, même de météorologie. Les Emirats Arabes Unis avaient demandé à acheter un satellite d'observation à haute résolution en 1992, c'est-àdire avant la PDD-23, mais la demande a été refusée. Les exportations américaines restent jusqu'à aujourd'hui limitées aux satellites de télécommunication 13.
+Après consultation du Département d'Etat (Bureau of Political Military Affairs), du Département de la Défense (assistant secretary for C3-I), du Département de l'intérieur (chargé des questions d'environnement) et des agences de renseignement, le Département du Commerce (NOAA), attribue les autorisations d'opération et de vente d'imagerie par les entreprises américaines.
+Il n'y a pas de changement envisagé pour l'instant sur ce type de procédures d'exportation. La Maison-Blanche a cependant mis en place un comité de réflexion sur l'observation spatiale et les implications de la commercialisation d'imagerie sur la sécurité nationale. Les recommandations de ce groupe pourraient toucher aux questions d'exportation des satellites imageurs et de l'imagerie elle-même.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+LE CENTRE FRANÇAIS SUR LES ÉTATS-UNIS (CFE)
+Policy Paper du CFE
+Après les scandales financiers de l'année 2002 - Enron, WorldCom, etc. - les pouvoirs publics américains et les différents acteurs des marchés financiers ont mis en ?uvre un ensemble de mesures destinées à restaurer la confiance des investisseurs. Le Sarbanes Oxley Act introduit des réformes majeures dans les domaines de la comptabilité et de la gouvernance des sociétés cotées. Il est accompagné par d'autres textes réglementaires tout aussi importants, notamment dans le domaine des normes comptables. Ces nouvelles dispositions ont de multiples conséquences pratiques dans le quotidien des entreprises américaines, qui ont dû s'y adapter au fur et à mesure de leur entrée en vigueur au cours des derniers mois. Leur efficacité, c'est-à-dire leur contribution à un retour durable de la confiance, devra être appréciée sur le long terme.
+Following the financial scandals of 2002 - Enron, WorldCom, etc. - US public authorities and various interested parties associated with the financial markets took a number of measures designed to restore investor confidence. The Sarbanes-Oxley Act introduced major accounting and governance reforms for listed companies. In addition to this Act, several other regulatory texts have been introduced, particularly in the area of accounting norms. These new measures have many practical implications for the daily running of US companies, which have had to adapt to the changes as they have been introduced over the past few months. The effectiveness, that is to say the impact that they have on restoring confidence, will have to be assessed over the long term.
+L'année 2002 a été marquée par une série de scandales financiers qui ont ébranlé la confiance de l'investisseur américain - autant dire du citoyen - dans l'intégrité et la transparence des marchés financiers. L'enchaînement des faits, tout d'abord. La faillite d'Enron était déclarée en décembre 2001, celle de Global Crossing en janvier 2002. Pour son rôle dans l'affaire Enron, le cabinet d'audit Arthur Andersen était mis en examen en mars. En juin, Enron reconnaissait avoir versé un total de 310 millions de dollars en espèces à ses dirigeants au cours de l'année 2001 et WorldCom corrigeait ses comptes de 3,8 milliards de dollars. Le 21 juillet, la faillite de WorldCom était déclarée. Le 24, la Securities and Exchange Commission (SEC) portait plainte contre les dirigeants d'Adelphia, accusés d'avoir dissimulé 2,3 milliards de dollars de dettes dans des sociétés non consolidées. En août, l'ancien Chief Executive Officer (CEO) de ImClone était mis en examen pour délit d'initié. En septembre, c'était au tour du CEO et du Chief Financial Officer (CFO) de Tyco d'être mis en examen pour corruption : il leur était reproché d'avoir détourné 600 millions de dollars, dont 170 millions de prêts personnels accordés par la société. Enfin le 5 novembre 2002, Harvey L. Pitt, président de la SEC et champion du laisser-faire réglementaire, était contraint de démissionner.
+Tous ces scandales se sont produits dans un contexte économique morose, très différent de l'euphorie des années 1990 : la " bulle Internet " a éclaté ; les profits boursiers ne sont plus là pour inciter les investisseurs à l'indulgence envers les dirigeants d'entreprises un peu trop désinvoltes avec les règles de l'éthique. La crise de confiance est profonde et risque de retarder le retour à la croissance. Pour tenter de la surmonter, l'Administration et le Congrès américains ne sont pas restés passifs : le Sarbanes-Oxley Act, signé par le président George W. Bush le 30 juillet 2002, a introduit des réformes majeures dans les domaines de la comptabilité et de la gouvernance d'entreprise. Il constitue le plus important ensemble de mesures législatives relatives au reporting financier et au contrôle interne depuis le Securities Act de 1933 et le Securities Exchange Act de 1934. De nombreuses dispositions ont suscité l'intérêt des médias et de l'opinion publique : à titre d'exemple, les directeurs généraux (CEO) et les directeurs financiers (CFO) ont désormais l'obligation de certifier par écrit non seulement que l'information financière rendue publique par leur société est complète et exacte, mais encore qu'ils ont mis en oeuvre des contrôles et des procédures encadrant la publication de cette information.
+Cependant pour important qu'il soit, le Sarbanes-Oxley Act n'est pas la seule innovation affectant la gouvernance des entreprises américaines. Tout un ensemble de textes ont été élaborés et mis en application au cours des derniers mois, notamment par la SEC et le Financial Accounting Standards Board (FASB). Le Sarbanes-Oxley Act s'inscrit ainsi dans un mouvement plus vaste de réforme des pratiques comptables des sociétés cotées, qui vise à un retour à la rigueur après l'exubérance des années 1990.
+Au-delà des multiples conséquences pratiques de la loi dans le quotidien des entreprises, la gravité de la crise mérite que l'on s'attarde à étudier le processus par lequel les médias, le monde politique et Corporate America y ont réagi. Fallait-il faire confiance au jeu spontané des mécanismes d'autorégulation du marché ou choisir la voie du volontarisme législatif et réglementaire ? Les lignes qui suivent n'ont pas l'ambition de trancher ce débat théorique ; leur objectif est plus modeste : rappeler le contexte des réformes mises en oeuvre par le Sarbanes-Oxley Act, en décrire le contenu ainsi que celui des autres changements intervenus au même moment, notamment dans le domaine des normes comptables et formuler quelques observations sur la manière dont les acteurs de l'économie américaine s'adaptent à leur nouvel environnement.
+Aucun des acteurs traditionnels des marchés financiers n'a été épargné par les scandales de l'année 2002. Héros déchus de la libre entreprise, les CEO occupent le premier rang au banc d'infamie. Le 24 juillet 2002, trois membres de la famille Rigas, dont John Rigas, le patriarche qui avait fondé le groupe de télécommunications Adelphia en 1952, ont été arrêtés. Ils sont accusés de fraude financière massive et surtout d'avoir " pillé " Adelphia pour leur profit personnel. Kenneth Lay, le président du courtier en énergie Enron, Jeffrey Skilling, le CEO, et Andrew Fastow, le CFO, sont rendus responsables de la disparition des milliers d'emplois du groupe et de celle, partielle ou totale, de l'épargne des actionnaires. La presse s'est plu à détailler avec une précision féroce les avantages financiers consentis, au détriment des actionnaires de la société, à Dennis Kozlowski, le CEO de Tyco : son appartement de New York à 18 millions de dollars, les 11 millions nécessaires à sa décoration et jusqu'à un rideau de douche au prix extravagant.
+Mais les " pirates de la nouvelle économie " ne sont pas les seuls coupables. Les complaisances du bureau d'Arthur Andersen à Houston, chargé d'auditer les comptes d'Enron, ont causé la chute du cabinet tout entier. Ni le départ des dirigeants compromis, ni le secours de Paul Volcker, l'ancien président de la Federal Reserve (Fed), n'ont pu sauver l'un des plus prestigieux cabinets internationaux d'audit et de conseil. C'est justement ce mélange des genres entre deux fonctions très différentes, l'audit et le conseil, qui est en cause. Le cabinet est soupçonné d'avoir continué de certifier les comptes d'Enron pour ne pas perdre le flux de commissions générées par les autres services rendus au groupe : en 2000, les services d'audit rendus par Arthur Andersen à Enron ont produit 25 millions de dollars de commissions, contre 27 millions pour les services " non-audit ". Cette situation est représentative d'une évolution qui affecte l'ensemble de la profession : en 1988, 55 % des revenus des 5 grands cabinets provenaient des services comptables et d'audit et 22 % des services de conseil. En 1999, ces chiffres s'élevaient respectivement à 31 et 50 %.
+La branche conseil des cabinets d'audit n'est pas le seul prestataire de services à avoir fait preuve d'une trop grande créativité. Les banques d'investissement sont mises en cause elles aussi pour avoir vendu aux entreprises clientes des montages financiers toujours plus inventifs et toujours plus risqués. La presse n'a pas manqué de montrer du doigt les millions de dollars de commissions gagnés par Citigroup et JPMorgan pour leurs services d'ingénierie financière auprès d'Enron.
+Une autre catégorie de professionnels des banques d'investissement est vivement prise à partie : les analystes. Ils conseillent les investisseurs en émettant des recommandations - buy, sell ou neutral, par exemple - en conclusion des rapports de recherche publiés sur les sociétés qu'ils suivent. Ils sont supposés agir en toute indépendance à l'égard des sociétés en question. Or l'expérience des derniers mois a montré que ce principe était loin d'être toujours respecté. Eliot Spitzer, Attorney General de New York, s'est illustré dans le combat judiciaire pour revenir à des pratiques plus saines. Plusieurs banques d'affaires employant des analystes ont ainsi été condamnées par les tribunaux. Le cas de Jack B. Grubman, en charge du secteur des télécommunications chez Salomon Smith Barney, est représentatif : il a maintenu sa recommandation en faveur de l'achat (buy) du titre WorldCom bien après que le cours se fut effondré. En septembre 2002, Salomon a dû payer une amende de 5 millions de dollars pour avoir publié des rapports de recherche ayant induit en erreur les investisseurs. Néanmoins, J.B. Grubman a pu quitter Salomon dans des conditions financières très avantageuses. Certains analystes, et parmi eux les stars de la profession, ont donc émis des recommandations qui ont fait perdre beaucoup d'argent à leurs clients. Dès lors, leur compétence et leur honnêteté sont devenues suspectes.
+Quant aux agences de notation, de nombreux observateurs estiment qu'elles n'ont guère fait preuve d'une plus grande lucidité : Moody's et Standard and Poor's, qui constituent un quasi-duopole, et Fitch qui, aux Etats-Unis, détient une part de marché plus modeste, ont été accusées d'avoir réagi avec une extrême lenteur à la dégradation de la situation financière de certaines grandes sociétés, tout particulièrement de celle d'Enron qui n'a été classée below investment grade que le 28 novembre 2001, quatre jours avant que la faillite ne soit déclarée. Or leur intime connaissance de la réalité financière des entreprises notées aurait dû leur permettre de mieux anticiper ces événements.
+S'il n'est plus possible de se fier aux CEO, aux auditeurs, aux analystes, aux banquiers d'affaires, et jusqu'aux stars de la télévision, alors à quel saint vouer le marché ? Jamais à cours d'imagination, l'Amérique s'est découvert un nouvel intercesseur, le whistle-blower. A la fin 2002, Time Magazine a nommé Sherron Watkins, Coleen Rowley et Cynthia Cooper " personnes de l'année ". Les trois femmes ont été consacrées whistle-blowers, celles qui ont " sifflé l'alarme ". Si Coleen Rowley est l'officier du bureau du Federal Bureau of Investigations (FBI) à Minneapolis qui a alerté sa hiérarchie sur les activités de Zacarias Moussaoui avant les attentats du 11 septembre 2001, les deux autres se sont illustrées dans le domaine de la libre entreprise. Sherron Watkins est cette vice-présidente d'Enron qui, au cours de l'été 2001, a écrit au président Kenneth Lay pour l'avertir des pratiques comptables douteuses de son groupe. En juin, Cynthia Cooper a informé le conseil d'administration de WorldCom des pertes de 3,8 milliards de dollars dissimulées par la comptabilité de la société. Selon Time Magazine, qui est allé jusqu'à comparer leur courage à celui des héroïques pompiers de New York, S. Watkins et C. Cooper n'ont pas hésité à risquer leur carrière au nom de l'intégrité professionnelle.
+La crise de confiance est donc bien réelle. Les premières victimes sont les salariés des sociétés déchues, licenciés par milliers. Ils sont doublement touchés car leurs fonds de pension sont affectés par l'effondrement du cours des titres de leur ex-employeur. Mais l'onde de choc est ressentie par tous les propriétaires de ces titres, au premier rang desquels les banques créditrices, dont le cours en bourse a accusé l'" effet Enron ". L'impact sur les marchés financiers est donc à la fois profond et durable.
+L'affaire Enron, dans tous ses développements, est une sorte d'anthologie des irrégularités comptables que de trop nombreux acteurs des marchés financiers américains ont acceptées avec complaisance au cours des dernières années. Financements non consolidés alors qu'ils auraient dû l'être, conflits d'intérêts, profits gonflés artificiellement, violations des principes du code d'éthique, rien ne paraît manquer à la liste.
+C'est ainsi que les Special Purpose Entities (SPE), entités juridiques qui ne font pas partie du périmètre de consolidation des sociétés, ont connu leur heure de gloire dans les médias. Enron en a utilisé une multitude dans le cadre de plusieurs opérations douteuses. Il s'agissait le plus souvent de partnerships domiciliés dans des paradis fiscaux comme les îles Caïmans. Andrew Fastow, le CFO d'Enron, en était le General Partner et en assurait la direction, ce qui lui permettait de percevoir à titre personnel d'importantes commissions. L'un de ces SPE, étudié en détail par le Subcommittee on Oversight and Investigations du Congrès dans sa session du 14 mars 2002, donne une assez bonne idée de leur fonctionnement.
+Enron avait investi dans une société d'Internet, Rythms, dont les titres avaient connu une progression spectaculaire, lui permettant de réaliser une plus-value estimée début 1999 à environ 300 millions de dollars. Les titres étant reconnus en valeur de marché à l'actif du bilan d'Enron, ce profit était susceptible de disparaître si les cours de Rythms s'effondraient. En raison de restrictions réglementaires, Enron n'était pas autorisé à vendre ses actions Rythms immédiatement. Pour protéger ses gains, le groupe pouvait acheter une option de vente des titres (put) à un prix d'exercice établi préalablement. Or aucune contrepartie indépendante n'aurait été prête à garantir ainsi le cours d'actions extrêmement peu liquides, volatiles et par conséquent extrêmement risquées. En juin 1999, un SPE fut donc créé spécialement à cet effet, sous le nom de LJM. LJM s'engagea à couvrir le risque des actions Rythms en vendant à Enron un put à cinq ans avec un prix d'exercice de 56 dollars par action. Pour pouvoir assumer ses engagements, LJM reçut 3,4 millions d'actions Enron. Le montage n'était pas viable économiquement, car, si les cours de Rythms et d'Enron chutaient simultanément, le SPE risquait de se trouver dans l'incapacité de faire face à ses engagements au titre du put. Cela revenait, pour Enron, à se garantir lui-même. Pourtant le cabinet Arthur Andersen, auditeur d'Enron, accepta le schéma qui lui fut présenté par Fastow. Le conseil d'administration, consulté lui aussi en juin 1999, leva les dispositions du code d'éthique qui interdisaient à Fastow d'agir en tant que General Partner de LJM. Enron put ainsi gonfler artificiellement ses profits de l'année 1999.
+Mais l'utilisation systématique des SPE ne s'arrêta pas là. Enron s'en servit aussi pour dissimuler l'ampleur de son endettement. Comme de nombreuses sociétés du secteur de l'énergie, Enron était autorisé à reconnaître des revenus futurs dérivés de contrats " prépayés " dans lesquels l'acheteur paye d'avance des marchandises - pétrole, gaz ou électricité - qui lui seront livrées à une date ultérieure, parfois sur plusieurs années. Bien que légale dans le cadre des contrats de fourniture d'énergie, cette pratique fut utilisée agressivement dans plusieurs autres domaines.
+Des actifs d'Enron furent ainsi vendus à des SPE contrôlées par Fastow, autorisant le groupe à reconnaître un profit immédiat. Bien entendu, l'endettement contracté par ces SPE dans le cadre de ces arrangements n'apparaissait pas dans les comptes consolidés du groupe. Ce montage a permis à Enron de gonfler artificiellement ses profits et de dissimuler une part importante de ses dettes : pour l'année 2000, les profits opérationnels réels étaient inférieurs de 50 % au montant déclaré dans ses états financiers, et l'endettement total réel, supérieur de 40 %.
+Un tel écart entre l'image comptable et la réalité économique ne laissait pas tout le monde indifférent. Dans un mémo daté du mois d'août 2001, Sherron Watkins, vice-président au sein de la direction financière d'Enron, informa le président Kenneth Lay du risque d'implosion présenté par l'échafaudage de plus en plus fragile des SPE. Le cabinet d'avocats Vinson & Elkins fut chargé d'enquêter sur la base de ces allégations. S. Watkins s'opposa à cette sélection, car le cabinet avait été retenu comme conseil juridique dans le montage d'un certain nombre de SPE. Lay passa outre à cette objection. Le rapport préliminaire publié par Vinson & Enkins le 21 septembre s'abstint de porter un jugement sur les pratiques comptables de Fastow. La lettre de S. Watkins ne produisit donc aucun résultat concret - sinon d'attirer sur elle l'attention de ses supérieurs hiérarchiques, qui envisagèrent de la licencier et demandèrent même à ce sujet l'avis de... Vinson & Elkins. Elle fut finalement mutée dans un autre service. Son témoignage devant un comité du Congrès, quelques mois plus tard, lui valut l'admiration des médias et la satisfaction, sans doute amère, de voir sa lucidité et son courage reconnus par certains de ses anciens collègues.
+Mises en lumière dans leurs moindres détails lors des auditions du Congrès, les pratiques qui avaient cours au sein de la direction financière d'Enron étaient contraires à l'orthodoxie comptable à plusieurs titres. En utilisant des entités hors bilan, le groupe a réalisé des profits fictifs. L'endettement et les engagements contractés à travers ces entités n'ont pas été reportés dans les états financiers consolidés. En conséquence, les informations financières publiées à destination des marchés financiers étaient loin de donner une " image fidèle " de la situation financière réelle du groupe.
+La chute d'Enron a suscité une réflexion de fond sur le danger d'échec systémique des mécanismes d'autorégulation des différentes catégories d'intervenants, dirigeants, membres du conseil d'administration, auditeurs, comptables, juristes, banquiers. Elle a aussi mis en lumière les dysfonctionnements du contrôle interne, en particulier les rapports de force qui réduisent les whistle-blowers au silence. Si les dirigeants de WorldCom ou d'Adelphia n'ont pas eu l'imagination créatrice de ceux d'Enron, les autres scandales de l'année 2002, par leur nombre et leur ampleur, ont pu donner le sentiment que la réputation de transparence des marchés financiers américains était, sinon usurpée, du moins très exagérée.
+Dans ce contexte, le Congrès a éprouvé la nécessité d'agir pour restaurer la confiance. La loi signée par le président en juillet 2002 - officiellement Corporate and Auditing Accountability, Responsibility and Transparency Act - est connue sous le nom de ses deux promoteurs au Congrès. Paul S. Sarbanes, sénateur démocrate du Maryland depuis 1977, est aujourd'hui Ranking Member - c'est-à-dire le plus Senior des membres issus de la minorité démocrate - du comité chargé des affaires bancaires, le Senate Banking, Housing and Urban Affairs Committee. Au moment de la signature de la loi qui porte son nom, avant que les élections de novembre 2002 ne renversent la majorité, il en était le président. Michael G. Oxley, représentant républicain de l'Ohio depuis 1981, préside quant à lui le comité de la Chambre des représentants sur les services financiers, le House Committee on Financial Services.
+La loi, préparée sous le patronage de deux vétérans du Congrès, un démocrate et un républicain, bénéficie donc en apparence d'un large support bipartisan, dans la grande tradition parlementaire américaine. Son élaboration, pourtant, ne s'est pas faite dans l'unanimité, et des considérations de politique conjoncturelle ne sont pas étrangères à son adoption au cours de l'été.
+Si Enron avait sensibilisé certains membres du Congrès à la nécessité d'agir pour restaurer la confiance, ce fut sans doute WorldCom, quelques mois plus tard, qui fit pencher la balance du côté des partisans de la réforme. Un premier projet de loi présenté par Michael Oxley avait été voté par la Chambre des représentants le 24 avril 2002. Cependant le texte final reprend essentiellement les dispositions, plus restrictives, d'un document présenté début avril par le sénateur Sarbanes devant le Senate Banking, Housing and Urban Affairs Committee. Les débats du Congrès se sont étendus sur plusieurs semaines. Le comité du Sénat y a consacré une dizaine de sessions, recevant les contributions de nombreux experts : l'ancien président de la Fed, Paul Volcker, d'anciens et actuel présidents de la SEC, d'universitaires, représentants des cabinets d'audit et des grandes sociétés américaines.
+Le projet de loi a été adopté séparément par les deux chambres du Congrès en juillet. Dans un discours prononcé au Sénat le 8, Paul Sarbanes en énonçait les objectifs : " Cette législation est conçue pour traiter les faiblesses systémiques et structurelles qui, je pense, ont été mises en lumière au cours des derniers mois et qui montrent un échec de l'audit et un effondrement du sens des responsabilités des entreprises et des banques d'affaires. " La loi fut signée par le président le 30 juillet. L'exécutif républicain avait d'abord regardé avec méfiance l'initiative des parlementaires. La conversion tardive de l'administration est bien le signe qu'une action publique était devenue indispensable pour rétablir la confiance dans le bon fonctionnement des marchés financiers. Le discours du président le 9 juillet à Wall Street, avec ses admonestations moralisatrices et ses menaces de prison pour les dirigeants délinquants, avait déçu. La presse avait à nouveau évoqué les conditions dans lesquelles, bien avant son arrivée à la Maison-Blanche, George W. Bush avait vendu les actions de la société Harken Energy juste avant l'effondrement de leur cours. Le paraphe apposé au bas du Sarbanes-Oxley Act venait donc opportunément rappeler à l'investisseur-électeur que le président n'était pas indifférent à ses malheurs boursiers.
+Dans son discours prononcé à l'occasion de la cérémonie de signature, le président insistait sur la nécessité d'un retour à la morale, dans le style qui est le sien : " Faire prendre des risques à un investisseur en le trompant, cela s'appelle du vol. Les dirigeants des entreprises doivent comprendre le scepticisme éprouvé par les Américains et prendre des mesures pour définir des critères clairs du bien et du mal. Ceux qui enfreignent les règles salissent un grand système économique qui offre des opportunités à tous. " Il poursuivait en mettant l'accent sur les aspects répressifs de la loi : " Plus d'argent facile pour les criminels d'entreprise, mais des temps difficiles. "
+Une fois la loi signée, certaines de ses provisions sont entrées en application immédiatement, d'autres à la fin du mois d'août. La mise en oeuvre des dernières a été confiée à la SEC, qui a reçu mission de les traduire en une série de textes réglementaires à publier au cours des mois suivants. L'activité législative a continué dans des domaines plus spécifiques. Michael Oxley a ainsi récemment demandé au General Accounting Office (GAO) de préparer un rapport sur les commissions des fonds mutuels (mutual fund fees). L'objectif est notamment d'étudier la transparence de ces commissions, les conditions dans lesquelles les ordres de bourse sont dirigés de manière préférentielle sur certains courtiers, etc. Dans un discours prononcé le 15 janvier, ce dernier plaçait sa proposition dans la ligne tracée par la loi qui porte son nom : " Il s'agit d'un effort de bon sens pour restaurer la confiance des investisseurs, dans l'esprit des réformes mises en oeuvre par le Sarbanes-Oxley Act de l'année dernière. " Bien que cette proposition du représentant Oxley ne soit pas d'une ampleur comparable à celle de la loi signée durant l'été 2002, elle témoigne du souci des législateurs américains de poursuivre leur action dans le domaine de la réglementation financière.
+Mais le débat politique n'a pas pris fin le jour de la signature de la loi. Les démocrates exigeaient depuis longtemps le départ du président de la SEC, Harvey Pitt. Le 25 octobre, la Commission annonçait la composition du Public Company Accounting Oversight Board (PCAOB), organe de surveillance des cabinets d'audit institué par la loi. Ses cinq membres étaient présentés comme des modèles de compétence et d'intégrité. Le juge William H. Webster, Partner du cabinet d'avocats Milbank Tweed, ancien directeur du FBI et de la Central Intelligence Agency (CIA), expert souvent appelé à participer ou à diriger des missions d'enquête sur des sujets sensibles, devait en être le premier président. La presse révéla bientôt que Webster avait siégé au comité d'audit de US Technologies, une société accusée d'avoir présenté des informations financières incorrectes. Comment lui faire confiance pour diriger le conseil chargé de réformer et de surveiller la profession comptable ? Webster dut démissionner. En novembre, George W. Bush saisit l'opportunité présentée par la victoire républicaine aux élections de mi-mandat pour remplacer Harvey Pitt, démissionnaire le 5 novembre, par William H. Donaldson, dans le cadre d'un vaste mouvement de changements aux postes économiques et financiers les plus élevés de l'administration. Depuis son entrée en fonction, le nouveau président de la SEC a proclamé à plusieurs reprises sa volonté de restaurer la confiance des investisseurs, et ses déclarations semblent prises au sérieux par la presse. Son premier succès a été de convaincre le très respecté William J. McDonough, président de la New York Federal Reserve, d'accepter de diriger le PCAOB. Annoncée en avril, cette nomination devait devenir effective à la mi-juin.
+La législation américaine sur les sociétés cotées en bourse n'est pas récente. La création de la SEC en 1934 répondait à un souci analogue de restaurer la confiance des investisseurs, ébranlée par la crise boursière de 1929. Le Securities Act de 1933, le Securities Exchange Act de 1934, le Trust Indenture Act de 1939 et l'Investment Company Act de 1940 datent de l'Administration Roosevelt. Le Securities Act, en particulier, précise que les informations diffusées lors d'une émission de titres, notamment les états financiers de la société émettrice, ne doivent être ni frauduleuses ni trompeuses.
+Le Sarbanes-Oxley Act s'inscrit donc dans une tradition ancienne. Il vise à réformer en profondeur la gouvernance des entreprises en instituant un organe de surveillance des sociétés d'audit, en renforçant l'indépendance des auditeurs, en les rendant plus responsables, et en améliorant la qualité de l'information financière mise à la disposition du public.
+La loi établit tout d'abord le PCAOB, dont les cinq membres sont nommés par la SEC, en consultation avec le président de la Fed et le secrétaire au Trésor. Deux de ses membres doivent être des experts comptables certifiés (Certified Public Accountants ou CPA). Pour garantir leur indépendance, la loi stipule qu'ils ne doivent recevoir aucune rémunération en provenance d'une société d'audit. Les cinq membres du PCAOB devaient être nommés par la SEC avant le 28 octobre 2002.
+Chargé de superviser les auditeurs des sociétés cotées, le PCAOB exerce son autorité dans plusieurs domaines :
+Mais le Sarbanes-Oxley Act ne se contente pas d'instituer un organe de surveillance à l'échelle de la profession. Il s'attache aussi à réformer le fonctionnement interne des sociétés cotées en bourse, en modifiant la composition et le fonctionnement de leurs comités d'audit. Ces comités doivent être composés de Directors ne recevant aucune rémunération en provenance de sociétés d'audit ; trois au moins de ces Directors doivent être indépendants ; un au moins doit être un Financial Expert, notion que la SEC était chargée de définir.
+Le rôle des comités consiste désormais à superviser le travail effectué par les cabinets d'audit, à établir des procédures pour instruire les plaintes relatives au contrôle interne de la société et à résoudre les conflits éventuels entre les auditeurs et le management de la société.
+La loi interdit aux cabinets qui auditent les comptes d'un émetteur de fournir, en même temps, des services d'une autre nature. Ces services prohibés incluent notamment la tenue des comptes de la société, le management ou la gestion de ses ressources humaines, les services de courtage, de conseil en investissement ou d'investment banking, les services d'évaluation, le conseil en systèmes d'information. Les autres types de services, s'ils ne sont pas prohibés a priori, doivent néanmoins être approuvés par le comité.
+Innovation qui a eu un grand écho médiatique, le CEO et le CFO des sociétés cotées doivent désormais certifier par écrit, en y apposant leur signature, les rapports annuels et trimestriels. Plus précisément, ils doivent certifier non seulement l'exactitude des états financiers et de l'information financière publiés par leur société, mais encore que les procédures de reporting et les contrôles internes ont été définis et sont mis en place, et que toute information financière matérielle est bien portée à leur connaissance. Enfin ils doivent identifier, le cas échéant, les faiblesses matérielles de ce reporting. En cas de violation de ces obligations, les peines prévues par la loi sont lourdes : 1 million de dollars et 10 ans d'emprisonnement en cas de violation consciente (knowingly) de ces obligations, 5 millions de dollars et 20 ans en cas de violation volontaire (willfully). Ces dispositions sont entrées en vigueur immédiatement.
+Elle aussi d'application immédiate, une des dispositions de la loi stipule que les procédures d'instruction des plaintes relatives au contrôle interne doivent garantir l'anonymat des salariés qui portent à la connaissance du comité d'audit d'éventuelles irrégularités comptables. Par ailleurs, elle institue des peines très lourdes pour quiconque exercerait volontairement des représailles, un licenciement par exemple, à l'encontre d'un salarié ayant communiqué des informations à la justice. Ces dispositions visent à protéger les whistle-blowers dont le rôle s'est avéré si important dans les affaires Enron et WorldCom.
+L'activité boursière des membres du conseil d'administration et des dirigeants des sociétés cotées est strictement encadrée. Ceux-ci voient leur capacité d'émettre des ordres en bourse restreinte lors des périodes de blackout pour les fonds de pension et doivent déclarer, dans leurs rapports annuels et trimestriels, s'ils ont adopté un code d'éthique pour certaines catégories d'employés, notamment les principaux cadres de leur direction financière, et, le cas échéant, expliquer pourquoi ils ne l'ont pas fait. Si une société émettrice est amenée à corriger ses états financiers à la suite d'une violation matérielle, le CEO et le CFO doivent rembourser personnellement les rémunérations et profits perçus au cours de la période de 12 mois qui suit l'émission ou la publication du document non conforme.
+Dans le domaine de la comptabilité, les rapports annuels des sociétés doivent déclarer toutes les opérations hors bilan d'importance significative, ainsi que les relations avec des entités non consolidées qui pourraient à l'avenir avoir un impact financier matériel. Ils doivent aussi inclure un rapport sur le contrôle interne.
+La loi inclut d'autres dispositions, notamment dans les domaines suivants :
+Avec quelques adaptations mineures, la loi s'applique bien sûr aux sociétés étrangères dont les titres sont cotés sur les marchés américains.
+De nombreuses dispositions de la loi donnaient instruction à la SEC d'émettre de nouvelles réglementations. Ces instructions étaient assorties de dates limites. La SEC avait ainsi quelques mois pour adopter des règles définitives au sujet des comités d'audit (avant le 26 avril 2003), au sujet des autorisations relatives aux services de conseil rendus par les sociétés d'audit (avant le 26 janvier 2003), et pour définir la notion d'" expert financier " au sein des comités d'audit (avant le 26 janvier 2003). Dans l'ensemble, ce calendrier a été respecté. A la fin du premier trimestre de l'année 2003, la plupart des dispositions du Sarbanes-Oxley Act sont entrées en vigueur, à cette réserve près que certaines nouvelles obligations déclaratives, notamment celles qui portent sur les entités hors bilan, concernent l'exercice se terminant le 15 juin et ne seront donc " visibles " dans les états financiers des entreprises qu'après cette date.
+La notion d'" expert financier " au sein des comités d'audit avait suscité beaucoup de commentaires lors du vote de la loi. Sa définition a été formulée dans un texte adopté par la SEC le 15 janvier 2003 : l'" expert financier " doit être capable de comprendre le rôle des comités d'audit, les procédures du contrôle interne et de reporting, les états financiers et les principes comptables ; il doit pouvoir porter un jugement sur l'application de ces derniers et avoir une expérience préalable dans le domaine de la préparation, de l'audit ou de l'analyse des états financiers. La SEC va jusqu'à préciser les conditions dans lesquelles cette expérience doit avoir été acquise - le fait d'avoir siégé dans un comité d'audit par le passé ne constitue pas nécessairement une expérience suffisante pour y demeurer en tant qu'" expert ".
+Alors que la SEC déclinait les dispositions générales du Sarbanes-Oxley Act dans une série de textes d'application, un domaine laissé de côté par la loi faisait l'objet d'une réforme profonde dont l'origine peut être attribuée à l'" effet Enron " : les normes comptables. La comptabilité des sociétés américaines est régie par un ensemble de normes connues sous le nom de US GAAP, les United States Generally Accepted Accounting Principles. Les US GAAP sont du ressort exclusif du FASB, un organisme rattaché à la SEC depuis sa création en 1973. Sa mission est de définir des standards de comptabilité et de reporting financier dans l'intérêt de l'ensemble des utilisateurs de l'information financière, investisseurs et créditeurs. Le FASB est en principe indépendant, mais il est parfois accusé de ne pas être insensible aux pressions politiques, ainsi lorsqu'il s'est abstenu, dans les années 1990, d'édicter de nouvelles règles, plus contraignantes, au sujet des stock-options. La critique la plus fréquemment adressée au FASB est d'être trop lent à s'adapter au changement et de publier des normes beaucoup trop complexes.
+Au fur et à mesure que les mécanismes de la " comptabilité créative " d'Enron étaient dévoilés dans la presse et portés à la connaissance du public, le FASB a dû prendre conscience de la nécessité de réformer les normes s'appliquant aux financements hors bilan et aux SPE. Aux Etats-Unis, le régime général de consolidation est défini par un texte datant de 1959, ARB 51. Ce texte applique le principe selon lequel le contrôle d'une entité est exercé par le détenteur d'une majorité des actions assorties d'un droit de vote : si une filiale est détenue à plus de 50 % par sa maison-mère, elle doit donc être consolidée sur le bilan de cette dernière. Des textes plus récents étaient venus préciser cette règle générale. Ils instauraient une exception pour une catégorie spécifique, les Qualifying Special Purpose Entities (QSPE). Ces QSPE étaient définies comme des entités dont le contrôle n'était pas assuré par un vote de la majorité des propriétaires des fonds propres. Le contrôle de la QSPE pouvait être exercé par un ou plusieurs sponsors lui apportant un support financier. C'était à l'apporteur du plus grand support, principal bénéficiaire de la QSPE, de consolider ce dernier sur son bilan. A contrario, pour que le sponsor ne consolide pas la QSPE, il lui fallait démontrer qu'il n'en était pas le principal bénéficiaire et n'en exerçait pas le contrôle. Concrètement, au-dessus d'un seuil minimum de 3 % de fonds propres, les QSPE ne devaient pas être consolidées sur le bilan du sponsor. Le minimum de 3 % était supposé suffisant pour assurer l'indépendance financière, présente et future, de l'entité. Or ces normes comptables se sont avérées inefficaces pour empêcher Enron de recourir massivement aux SPE et dissimuler ainsi, dans des entités hors bilan, une part importante de son endettement. Une réforme de leur statut a donc paru nécessaire.
+Mais, en s'attaquant au statut des QSPE, le FASB risquait de faire plusieurs victimes collatérales. De nombreuses entités sont en effet structurées comme des QSPE de manière parfaitement légitime. C'est en particulier le cas des véhicules de titrisation qui, aux Etats-Unis, jouent un rôle essentiel dans le financement des entreprises industrielles et des institutions financières. Une entreprise peut ainsi vendre à un conduit de papier commercial (Asset Backed Commercial Paper Conduit, ABCP Conduit) créé spécialement à cet effet tout ou partie de son poste de créances commerciales existantes et futures. Ce conduit se finance à court terme sur le marché du papier commercial, à un coût beaucoup moins élevé que celui d'un crédit bancaire classique. Dans la plupart des cas, une banque assure la gestion de ces conduits, qui ne sont pas autonomes dans leurs décisions. L'entreprise cédante réduit ainsi la taille de son bilan et s'assure d'une source de financement à bon marché. La banque sponsor conserve son rôle d'analyse et de décision dans le processus de crédit, mais le financement n'apparaît pas sur son bilan.
+Les conduits ne sont pas les seuls véhicules de titrisation qui ont pu se développer en s'accommodant des contraintes du régime des QSPE. La plupart des Collateralized Debt Obligations (CDO), qui sont des véhicules d'investissement indépendants jouant un rôle majeur sur le marché des prêts bancaires, ont des fonds propres supérieurs à 3 %. Leur sponsor détient souvent moins de 50 % de ces fonds propres et la gestion en est assurée par une société de services spécialisée, filiale du sponsor, dont les droits sont strictement limités dès lors qu'il s'agit de prendre des décisions déterminantes pour la vie de la CDO.
+L'impact de normes comptables trop restrictives risque donc d'être sévère sur des marchés organisés précisément pour assurer un financement déconsolidé à leurs intervenants. Les premières propositions, émises par le FASB fin juin 2002, ont suscité un vif débat dans les milieux professionnels concernés, qui avaient jusqu'au 30 août pour formuler leur réponse. De nombreux acteurs, juristes, banquiers, analystes des agences de notation notamment, évoquant le risque d'une disparition pure et simple de pans entiers du marché de la titrisation, ont accusé le FASB de réagir maladroitement aux pressions du Congrès soucieux de rassurer à tout prix les investisseurs.
+Le texte final, publié le 17 janvier 2003, est connu sous le nom de FIN 46 (FASB Interpretation Number 46). Il tient compte, en partie, des débats qui ont suivi la publication du projet initial. FIN 46 abandonne la notion de QSPE. Il définit un nouveau type d'entité, les Variable Interest Entities (VIE) et précise dans quelles conditions ils doivent être consolidés. Il s'agit tout d'abord de savoir si une entité est bien une VIE, et ensuite d'identifier son principal bénéficiaire, qui devra le consolider sur son bilan.
+Si une entité présente l'un des critères suivants, alors elle entre dans la catégorie des VIE :
+Une fois qu'il a été établi qu'une entité est une VIE, par opposition à une Voting Interest Entity toujours régie par la règle des 50 %, son bénéficiaire principal doit être identifié. Il s'agit de l'entité qui absorbe la majorité des pertes anticipées et reçoit une majorité des profits résiduels. C'est à elle de consolider la VIE sur son bilan.
+Le texte énumère un certain nombre d'exceptions aux règles générales, et surtout assortit le seuil minimum de 10 % de fonds propres d'une précision très importante : s'il est démontré, au moyen d'un modèle quantitatif, que le pourcentage de fonds propres est supérieur au montant anticipé des pertes futures (expected loss), l'entité n'est pas une VIE mais une Voting Interest Entity qui sera consolidée sur le bilan du détenteur de la majorité de ces fonds propres. Cette exception tient compte des arguments avancés par les professionnels de la titrisation lors de la phase de consultation qui a suivi la publication du projet initial du FASB. Le passif du bilan de certains véhicules de titrisation, notamment celui de la plupart des CDO, est en effet structuré de manière à ce que le pourcentage de fonds propres, généralement inférieur à 10 %, soit néanmoins supérieur à la perte anticipée, calculée sur la base des caractéristiques de l'actif en termes de risque de crédit, de maturité, de rentabilité et de diversification. Il est donc raisonnable de penser que beaucoup de CDO ne seront pas qualifiées de VIE et n'auront pas à être consolidées.
+Paradoxalement, l'impact des nouvelles normes comptables, dont les ambitions sont plus modestes que celles de la grande réforme de la gouvernance d'entreprise votée par le Congrès, se révèle beaucoup plus direct. L'application de FIN 46 a été immédiate pour les VIE créées après le 31 janvier 2003. Pour celles dont la création est antérieure, les nouvelles règles sont entrées en vigueur à partir du 15 juin 2003. Les différentes parties concernées en sont donc encore au stade de l'analyse et de l'interprétation. A court terme, les conduits de papier commercial sont les plus touchés. La reconsolidation de leurs encours aurait un impact considérable sur la taille du bilan et les ratios financiers des banques américaines sponsors de ces conduits. Les montants en jeu sont en effet énormes : le marché des conduits de papier commercial approche 700 milliards de dollars d'encours totaux, et les premières banques américaines actives dans ce domaine (Citigroup, Bank of America, Bank One) pourraient avoir à reconsolider chacune plusieurs dizaines de milliards de dollars d'encours de papier commercial. A ce stade, les banques n'ont pas encore arrêté une position définitive et poursuivent leurs discussions avec le FASB et les cabinets d'audit. Mais ce climat d'incertitude s'est déjà traduit par un ralentissement significatif de l'activité. Comme ces conduits sont de gros acheteurs de titres obligataires émis par les CDO, la demande pour ce type de papier en est affectée à son tour. Les banques étrangères, européennes notamment, qui ne sont pas soumises à FIN 46, bénéficient ainsi d'un avantage comparatif non négligeable. Il y a là, du point de vue des institutions financières américaines, un effet pervers dont les conséquences à moyen terme restent à mesurer.
+L'effet du Sarbanes-Oxley Act est sans doute à la fois plus profond et moins visible à court terme. Certes les entreprises américaines ont dû immédiatement se mettre en conformité avec leurs nouvelles obligations. Elles ont réagi en créant rapidement des comités d'audit qualifiés et indépendants, en instituant un reporting immédiat des ordres de bourse passés par les membres de leur conseil d'administration et par certaines catégories de salariés, en établissant et en documentant des procédures de contrôle interne, et en permettant l'audit des ces procédures. Dans un article paru le 17 mars 2003, BusinessWeek a tenté de faire le point sur les conséquences du nouvel environnement juridique pour les directeurs financiers des grandes entreprises américaines. Le magazine insiste sur la considérable charge de travail supplémentaire représentée par leurs nouvelles obligations déclaratives et sur les conséquences financières sévères auxquelles ils sont désormais exposés à titre personnel. Selon une enquête d'opinion commanditée par le magazine et réalisée auprès de 214 CFO et de 75 CEO choisis parmi les dirigeants des 1 500 sociétés cotées suivies par Standard & Poor's, " 91 % des CFO pensent que leur travail est en train de devenir plus difficile et 62 % déclarent travailler plus longtemps. Cependant, ils sont peu nombreux à vouloir démissionner, peut-être parce que leur position dans l'entreprise s'améliore. Plus d'un tiers, 36 %, disent qu'ils sont désormais davantage sur un pied d'égalité avec le CEO, tandis que seulement 28 % disent qu'ils en sont encore loin. " Le fait que les CFO aient à s'engager par écrit renforce leur poids politique dans l'entreprise ; l'argument " c'est moi qui signe Sarbanes-Oxley " leur permet de surmonter bien des objections dans les discussions stratégiques. Leurs relations avec le comité d'audit devraient devenir plus étroites et leurs échanges plus rigoureux que par le passé. Pour les CFO qui parviendront à passer le test, la réforme pourrait bien finir par apparaître comme une étape déterminante dans la progression de leur carrière. De leur point de vue, le tableau est donc loin d'être entièrement négatif, même si " près d'un tiers des CFO ne pensent pas que les nouvelles règles établies par le Sarbanes-Oxley Act ou imposées par la SEC rendent un autre Enron moins probable ".
+Mais CFO et membres des directions financières ne sont pas les seules catégories d'employés des sociétés cotées auxquelles la loi a imposé des responsabilités supplémentaires. Les juristes eux aussi sont concernés, en particulier par les dispositions relatives à la protection des whistle-blowers. Dans son édition de mars 2003, le Journal of the American Corporate Counsel Association (ACCA) illustre par une petite histoire les nouvelles obligations du juriste d'entreprise : " Vous vous asseyez pour siroter votre café du matin, et le téléphone sonne. A l'autre bout de la ligne, un employé vous informe qu'il croit que la société a surestimé ses profits et que ses rapports à la SEC étaient incorrects. Vous enquêtez sur ces allégations et découvrez qu'elles sont peut-être vraies. Le lendemain matin, le manager de l'employé vous appelle en demandant l'autorisation de le licencier pour des "problèmes de performance". On dirait que vous n'êtes pas le seul à qui il a parlé. Et maintenant, que faire ? " L'ACCA recommande à ses lecteurs de sensibiliser leur entreprise à l'importance d'un bon programme de compliance interne, d'adapter le code d'éthique et les définitions de fonction des managers, d'établir des procédures d'investigation, de mettre en place un programme de formation au sujet des nouvelles dispositions de la loi et enfin de documenter par écrit les " problèmes de performance " invoqués par un manager pour licencier l'un de ses collaborateurs, afin que ce dernier ne puisse pas se prévaloir indûment de la protection accordée aux whistle-blowers. Quant à ces derniers, ils se plaignent souvent de ne pas bénéficier d'une protection suffisante, même depuis l'entrée en vigueur du Sarbanes-Oxley Act, et d'être toujours soumis à l'arbitraire de leur hiérarchie.
+L'exemple des CFO et des juristes montre que les entreprises américaines ne font que commencer à s'adapter à leur nouvel environnement juridique et réglementaire. Il faudra du temps pour que le comportement quotidien de Corporate America soit modifié de manière perceptible. Aux yeux de nombreux observateurs, les réticences sont bien réelles. S'ils reconnaissent les progrès accomplis au cours des derniers mois, ils demeurent sceptiques sur la volonté des entreprises américaines de jouer le jeu de la transparence. Pourtant des associations professionnelles ont pris des initiatives qui vont dans la direction souhaitée par les partisans de la réforme. Ainsi l'Association of Investment Management Research (AIMR), qui rassemble de nombreux analystes financiers, travaille depuis longtemps sur ces sujets, en concertation avec la SEC notamment. Dans le domaine de la formation universitaire des futurs acteurs de la vie économique, un " cas Enron " figure au programme de plusieurs diplômes " MBA ", qui comportent d'ailleurs souvent des cours d'éthique.
+La contribution des universités et des centres de recherche ne se limite pas à sensibiliser les futurs CEO et CFO à leurs nouvelles responsabilités. Les acteurs du monde académique jouent un rôle important dans l'évolution d'un paysage juridique, réglementaire et comptable qui demeure extrêmement mouvant. Certains se déclarent satisfaits de la nouvelle loi et font confiance aux mécanismes d'autorégulation des marchés pour s'ajuster spontanément et restaurer la confiance des investisseurs. D'autres la trouvent trop timide et réclament des mesures plus contraignantes, comme par exemple une prohibition absolue, pour un cabinet, d'exercer les fonctions d'audit et de conseil auprès d'une même entreprise, ou la rotation systématique des cabinets d'audit. Sur ces deux derniers points, Robert Litan, responsable des études économiques de la Brookings Institution, souligne que c'est avant tout l'indépendance des cabinets d'audit à l'égard du management de la société qui est en jeu. Cette indépendance est désormais mieux protégée par leur rattachement au comité d'audit, qui est une émanation du conseil d'administration. Quant à la rotation systématique des cabinets, Robert Litan rappelle que la profession est déjà très concentrée - après la disparition d'Arthur Andersen, les cinq grands ne sont plus que quatre - et que rien ne permet d'exclure, dans le processus de sélection périodique, un accord entre le cabinet sélectionné et le management. Dans son jugement global sur le Sarbanes-Oxley Act, Litan reste prudent. Avant que la loi ne soit votée, le marché avait, selon lui, commencé à faire fonctionner les mécanismes d'autorégulation. Les procès ne font que commencer et les peines, vraisemblablement très lourdes, qui seront prononcées devraient avoir un effet dissuasif sur l'ensemble des acteurs. Mais, si la loi ne résout pas tous les problèmes et occasionne des dépenses supplémentaires pour les entreprises, elle devrait contribuer à restaurer la confiance.
+Plus que d'un mandat donné par les électeurs américains à leurs représentants au terme d'un débat de fond sur la gouvernance d'entreprise, l'ensemble des réformes adoptées au cours des derniers mois résultent de la conjonction de la pression des médias, des convictions anciennes mais isolées de quelques législateurs, de l'opportunisme politique de la plus grande partie de leurs collègues et des membres de l'Administration et du souci de certains organes de régulation, notamment le FASB, de se défendre des critiques dont ils étaient l'objet. L'objectif proclamé de ces réformes est de " rendre impossibles de nouveaux Enron " et de restaurer ainsi la confiance des investisseurs. Il est encore trop tôt pour tenter un bilan définitif et l'appuyer sur un comptage statistique du nombre des " affaires ". Bien des aspects, abordés très brièvement ou ignorés dans le cadre de cette étude, mériteraient d'ailleurs d'être analysés de manière beaucoup plus approfondie - notamment les conséquences de ces nouvelles règles pour les entreprises étrangères. Les effets à moyen terme de la réforme, lorsqu'ils pourront être mesurés, alimenteront le débat théorique entre les partisans du jeu spontané des mécanismes d'autorégulation et ceux du volontarisme législatif. Quelle que soit l'issue de ce débat, il ne faut pas perdre de vue que ces scandales ont fait surface à un moment de l'histoire récente -la fin de l'année 2001 et le début de l'année 2002 - qui est aussi celui où l'on observe un sommet dans la courbe des défauts parmi les entreprises américaines. De " nouveaux Enron " sont toujours susceptibles d'apparaître, ainsi lorsqu'au début du mois de juin le président de Freddie Mac a été remercié pour avoir refusé de coopérer avec une mission d'audit interne sur les pratiques comptables de la société. Le marché est devenu beaucoup plus sensible aux questions d'éthique : Richard Grasso, le président du New York Stock Exchange (NYSE), a dû démissionner le 17 septembre à la suite de la révélation de son salaire par la presse : le montant, très élevé, en était déterminé par un Board constitué de représentants de sociétés dont le NYSE était chargé d'assurer la surveillance. Et dans le domaine judiciaire, Eliot Spitzer poursuit son combat contre les pratiques de trading frauduleuses sur les titres de certains mutual funds. Mais la fréquence des scandales est aussi, et sans doute avant tout, fonction de la conjoncture économique. C'est le retour de la croissance qui permettra de tourner la page, de revenir au bull market et de restaurer durablement la confiance des investisseurs. Il y faudra bien plus que des textes de loi et des normes comptables.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Institut Français des Relations Internationales
+Le programme de développement de Doha conjuguait trois demandes divergentes des membres de l'OMC : les pays en développement voulaient rééquilibrer en leur faveur les accords existants ; les Etats-Unis voulaient un nouveau cycle de libéralisation ; l'Europe le voulait aussi mais en l'équilibrant par un enrichissement des règles économiques mondiales sur les « sujets de Singapour ».
+Cancun a fait éclater ces ambiguïtés et l'échec de la conférence pourrait engendrer une panne durable de l'OMC. Cette dernière doit affronter deux grands défis.
+Un défi systémique est lié aux limites de la « méthode de fabrication » du consensus international, que l'OMC avait de facto héritée du GATT. L'approche mercantiliste de la négociation a échoué à équilibrer enjeux de libéralisation et de régulation. Le «consensus censitaire » qui privilégiait le pouvoir des grandes puissances commerciales affronte les rapports de force nouveaux créés par des stratégies d'alliance inattendues. La « diplomatie non-gouvernementale » s'est professionnalisée - de Johannesburg à Cancun - et occupe les vides laissés par l'assistance du Nord au commerce des pays les plus pauvres.
+Un défi stratégique est lié au doute sur la pertinence même de la libéralisation multilatérale comme paradigme de croissance. A Cancun, la géographie des peurs opposait : l'agriculture du Nord à la paysannerie du sud ; les industries du sud au géant chinois ; la doctrine libre-échangiste des institutions multilatérales aux attentes concrètes des pays en développement sur le terrain de l'aide.
+Ce doute est profond et, au-delà de Cancun, pourrait se figer dans une préférence collective pour le statu quo actuel à l'OMC.
+Ce statu quo serait porteur de menaces. Une multiplication des contentieux emporterait un transfert de responsabilité du « législateur » vers le « juge » commercial international et pourrait engendre des tensions politiques et économiques minant le système d'échange ouvert. La prise de distance américaine vis à vis du multilatéralisme et la montée de la tentation protectionniste, notamment contre la Chine, accroît la portée d'une telle menace. Dans ce contexte, l'alternative d'accords commerciaux régionaux de libéralisation a de quoi séduire, mais pourrait accentuer la marginalisation économique des pays les plus pauvres.
+Un effort de relance des négociations de Doha est donc nécessaire. Les diplomates peuvent y contribuer en recherchant de nouvelles méthodes permettant d'atteindre plus souplement le consensus : la piste des schémas de «coopération renforcée » ou « accords plurilatéraux » offre une piste sans doute plus féconde que celles d'une renégociation des thèmes de l'agenda de Doha, ou de l'engagement de l'OMC dans une réforme institutionnelle d'envergure.
+Mais l'effort de relance n'aboutira pas sans remise en chantier d'un consensus politique multilatéral sur le fond. Pour espérer surmonter les ambiguïtés du programme de Doha, une mise à jour du partage des responsabilités globales entre acteurs du Nord et du Sud sera nécessaire. Répartir équitablement le poids des efforts de libéralisation suppose : de simplifier les équations mercantilistes de la négociation à l'OMC ; d'introduire des bases objectives de différenciation de chaque niveau de développement ; de systématiser l'effort d'aide indispensable à l'accompagnement des processus d'ouverture au Sud.
+Liesse des ONG, communiqués officiels de victoire ou d'amertume, interrogations des opinions, doutes sur le sens de l'échec. Rien ne s'est passé à Cancun comme anticipé. Il n'y a pas eu réellement de négociations : le débat n'a démarré que tardivement, pour avorter très rapidement. Les alliances ne sont plus ce qu'elles étaient : la fracture agricole a eu lieu, mais autour de coalitions nouvelles, opposant les anciens rivaux transatlantiques aux pays émergents réunis par le très jeune " G21 " qu'emmenait le Brésil. L'échec a été formellement constaté sur un enjeu de règles : celui qui opposait les pays les plus pauvres du " G90 ", aux partisans du lancement de négociations nouvelles sur les " sujets de Singapour ". Comble d' " imprévu ", les comportements contestataires s'invitaient formellement dans l'enceinte de l'OMC par des manifestations jusqu'ici inconnues de ce club à l'ambiance traditionnellement feutrée, loué par ses habitués pour l'esprit d'efficacité et la " mentalité d'affaires " qui préside d'ordinaire à ses travaux : des négociateurs expérimentés ont été choqués par les applaudissements de discours officiels parfumés d'un tiers-mondisme que l'on croyait suranné, qui, dénonçant la " rhétorique de résistance ", qui, la " dérive onusienne ", qui, -maléfice suprême ?-, la " CNUCEDisation " de l'OMC.
+Echec pour tous ou succès de certains ? Cancun marque certainement un tournant dans la gouvernance de l'organisation car les rapports de force nouvellement établis resteront dans les mémoires, sinon dans la forme des nouvelles alliances. L'échec, déjà provoqué à Seattle par les pays en développement, pouvait avoir des allures accidentelles. Mais leur démonstration de force était voulue et assumée à Cancun, y compris au prix du résultat atteint. Coup d'arrêt au programme de développement de Doha ? Peu évidentes sont les voies d'une relance du cycle de négociation et, plus globalement, du système commercial multilatéral créé depuis l'instauration de l'OMC. Tenter d'éclairer ces voies de relance suppose, comme toujours, de revenir préalablement sur les causes de l'échec.
+Les auspices initiaux de la conférence de Cancun étaient plutôt favorables. Le travail préparatoire était bien avancé. Un accord d'étape paraissait d'autant plus atteignable que l'on avait significativement vidé son projet de l'essentiel de ses ambitions de substance, en prévoyant de reporter à plus tard les échéances délicates du chiffrage des concessions économiques réciproques. Surtout, un compromis avait été atteint, avant Cancun, sur la douloureuse question de l'articulation entre droit des brevets - protégé par l'OMC- et l'assouplissement de l'accès aux médicaments génériques essentiels pour permettre aux pays en développement d'affronter les grandes crises sanitaires qui les frappent. Devenue test de la capacité de l'OMC à intégrer les préoccupations du développement et les considérations humaines élémentaires, la question n'avait pu être résolue qu'au prix d'un ralliement, tardif et conditionnel, des Etats-Unis, du fait de la résistance de leur industrie pharmaceutique au projet de compromis depuis longtemps accepté par les autres membres de l'OMC. Juridiquement, cet accord demeure le seul résultat concret et attendu de Cancun, avec l'adhésion à l'OMC de deux nouveaux membres, pays moins avancés, le Cambodge et le Népal.
+Trois grands thèmes du programme de Doha formaient le c?ur des discussions et conditionnaient l'accord sur le futur du cycle. Il s'agissait d'adopter une " approche-cadre ", pour préparer les futures " modalités " (i) de libéralisation du commerce agricole, (ii) de réduction des barrières aux échanges industriels, (iii) de négociations de règles internationales nouvelles sur les sujets dits " de Singapour ", regroupant la facilitation des échanges, la transparence des marchés publics, l'investissement et la concurrence.
+Enfin, la question du coton devait se révéler primordiale dans la relation Nord-Sud, bien que non abordée explicitement par le programme de Doha. Elle avait été introduite quelque mois plus tôt dans l'ordre du jour par le Président Blaise Compaoré, portant à Genève la parole de quatre pays d'Afrique de l'Ouest -Bénin, Burkina-Faso, Mali, Tchad- : ces derniers demandaient l'élimination en trois ans des subventions à la production de coton pratiquées par les pays développés et l'instauration d'un mécanisme de compensation financière des dommages subis par les producteurs africains, durant la période transitoire.
+Le traitement de ces sujets devait mettre aux prises des alliances de pays relativement classiques et bien repérées : les grands exportateurs agricoles contre l'Union Européenne et ses quelques alliés, dont la Corée et le Japon ; en matière industrielle, les pays développés contre les pays en développement - à l'exception des pays les moins avancés - ; sur les sujets de Singapour, essentiellement l'Europe et toujours ses alliés de l'Asie développée - Japon, Corée -, contre plusieurs grands pays en développement, au premier rang desquels l'Inde, la Malaisie et les Philippines, emmenant dans leurs sillages la plupart des pays africains.
+Le scénario escompté pour produire un accord ne s'est pas réalisé : des raisons tactiques, systémiques et stratégiques expliquent une spirale d'échec.
+La conférence de Cancun s'est ouverte sur fond de désaccord, portant essentiellement sur la partie agricole du document devant servir de base aux conclusions des ministres. Le texte préparé par le Président du Conseil Général de l'OMC s'inspirait largement d'un projet d'accord, proposé conjointement par les Etats-Unis et l'Union Européenne, qui étaient parvenus, in extremis, à un rapprochement de leurs positions, ce que les PED souhaitaient depuis longtemps. Paradoxalement, ce rapprochement a provoqué un rejet de la part d'un groupe de pays en développement, le " G21 " ou " G 20+ ". Hâtivement formé avant Cancun, à l'initiative du Brésil, rejoint par l'Inde, la Chine et l'Afrique du Sud et soutenu par plusieurs pays en développement, le G21 proposait un texte alternatif sur l'agriculture. Simultanément, les pays africains ont raidi l'ensemble de leurs positions - notamment sur l'accès au marché et les questions de Singapour - mais surtout, indiqué faire d'un progrès sur la question du coton la condition sine qua non d'un succès à Cancun.
+Dès lors, les trois premiers jours ont été consacrés à des discussions procédurales informelles sur la manière de concilier les textes devant servir de base de travail, sur fond de menaces d'échec formulées par les plus hautes autorités brésiliennes, en cas de non prise en compte des positions du " G21 ". Un compromis a été proposé par les organes dirigeants de l'OMC, permettant à la négociation de démarrer, pour échouer 24 heures plus tard. Le Président de la Conférence, M. Derbez, Ministre des Affaires Etrangères Mexicain, décidait de clôturer les débats, après avoir constaté un blocage sur le premier thème qu'il avait mis à l'ordre du jour : les questions de Singapour.
+A qui la faute ? Les explications tactiques abondent sur les responsabilités de l'échec. Nombre comportent des éléments plausibles, d'autres sont fausses, certains faits sont troublants. Trois " théories du complot " ont ainsi été esquissées faisant alternativement porter la responsabilité de l'échec à l'Europe, au G21 et aux Etats-Unis. Qui s'en tient aux faits connus doit constater que les conditions de clôture de la conférence de Cancun étaient surprenantes, voire anormales.
+L'ordre du jour des débats prévoyait en effet de discuter des " sujets de Singapour " et de l'agriculture : la conférence a été interrompue après discussion du premier sujet, avant que le second n'ait pu être abordé. Après deux ans d'enlisement des négociations de Doha, l'agriculture représentait clairement le sujet central du cycle, conditionnant aux yeux de tous les participants les possibilités d'accord sur les autres. Les questions de Singapour n'apparaissaient que comme "variable dépendante ", conditionnée par l'agriculture. L'interruption de la conférence sur ce sujet fut choquante : la capacité à surmonter le blocage ne pouvait être totalement appréciée avant discussion de la question agricole.
+Par ailleurs, le blocage n'opposait pas les grands acteurs du débat : l'Europe, principal proposant des quatre sujets de Singapour, l'Inde, principal opposant. L'Europe avait accepté d'abandonner les deux sujets considérés comme les plus contentieux - concurrence et investissement -. Cette proposition se révélait inacceptable pour le " groupe des 90 " - qui réunissait les pays africains et les PMA - et raidissait la Corée. Formellement donc, alors que le c?ur du débat opposait les partenaires transatlantiques au G21 sur l'agriculture, la conférence de Cancun aurait échoué sur un conflit Corée - Afrique concernant les sujets de Singapour. Enfin, le temps ne pressait pas, la plupart des délégations ayant prévu de pouvoir prolonger le séjour à Cancun. Quelques mois plus tôt, un Ministre appelait ses collègues de l'OCDE à réussir le cycle de Doha en y reconnaissant " l'entreprise d'une génération ". L'entreprise a été interrompue à 15 heures...
+A qui profite le crime ? A personne, si l'on admet que le programme de Doha est porteur de bénéfices potentiels importants pour l'économie mondiale. A court-terme, le succès diplomatique revendiqué par certains pays du Sud est à rapporter à leur échec économique : les politiques agricoles des grands pays développés n'ont trouvé à Cancun aucune raison de se réformer. Les producteurs de coton africain n'ont emporté du Mexique aucun motif d'espoir.
+Depuis l'instauration du GATT, le libre-échange progressait aux rythmes de cycles de négociations, paradoxalement mus par le mercantilisme de l'échange de concessions réciproques d'une valeur commerciale équivalente. Relativement naturelle pour échanger des baisses de protection douanière sur les biens industriels, cette méthode est devenue plus complexe lorsque l'Uruguay Round en a élargi le champ aux secteurs de l'agriculture et des services, auxquels venaient s'ajouter des règles : l'équivalence des concessions inter-sectorielles devenant plus complexe à apprécier, le principe d'" engagement unique " a été posé pour garantir la capacité de chacun à apprécier l'équilibre du résultat final.
+La mise en oeuvre des résultats du cycle d'Uruguay a toutefois engendré une profonde frustration des PED. Pour eux, les grands acquis théoriques demeuraient pratiquement inexistants dans le domaine des services, faibles en termes de libéralisation agricole et lointains (2005) en termes de démantèlement des quotas textiles. Par contre, les nouvelles disciplines élaborées en matière de propriété intellectuelle, évaluation en douane, mesures sur l'investissement liées au commerce, devaient trouver une application plus rapide.
+Le cycle de Doha a repris la méthode d'Uruguay, en engageant, dans un grand marchandage global, les questions d'accès au marché, qui impliquent des sacrifices économiques immédiats et les questions de règles, qui recèlent un potentiel d'amélioration du bien-être à long terme, mais exigent des efforts administratifs coûteux. A la lueur de l'expérience d'Uruguay, les PED ont logiquement conclu que la négociation des règles des sujets de Singapour, devrait être préalablement " payée ", en espèces sonnantes et trébuchantes, d'abord agricole. Les pays développés approchaient les sujets de Singapour de manière différente. Au-delà de ses seuls intérêts mercantiles, l'UE portait les quatre sujets en y voyant les ingrédients nécessaires à l'affirmation du rôle de l'OMC comme centre de gouvernance économique mondiale, producteur de bien commun par le droit. Grand investisseur et commerçant, le Japon avait une approche plus mercantile et pratique, en privilégiant l'investissement et la facilitation des échanges. Les Etats-Unis retenaient une approche plus pragmatique encore, se concentrant sur les résultats qui leur paraissaient atteignables et utiles - transparence des marchés publics et facilitation des échanges - et préférant poursuivre hors de l'OMC, par accords bilatéraux, les deux autres objectifs de régulation. Tous les pays développés avaient, par contre, un point commun : celui de refuser de " payer " par davantage de libéralisation agricole (impliquant des ajustements à coût politique immédiat élevé) l'élaboration de règles de droits (dont le bénéfice économique potentiel se diffuse à moyen ou long terme).
+La méthode mercantiliste, issue des négociations du GATT, a rencontré à Cancun ses limites, pour traiter simultanément des enjeux de libéralisation et de régulation.
+Lors de la création de l'OMC, les négociateurs pouvaient se référer à deux modèles de gouvernance. Celui de l'ONU, fondé globalement sur le " suffrage universel " et l'égalité des Etats à l'assemblée générale - sous réserve du Conseil de Sécurité - était aussi celui de l'ancien GATT. Celui des institutions économiques et financières de Bretton Woods était par contre fondé sur le " suffrage censitaire ", lié au stock de capital détenu. Issus du GATT, qui était resté essentiellement un " club de riches " aux intérêts économiques comparables, la plupart de ces négociateurs admirait l'efficacité du deuxième système.
+Mais, malgré son caractère économique, la mission de l'OMC reposait sur un fondement différent de celle de Bretton Woods : si par construction les pays riches peuvent seuls mobiliser les capacités de financement des déséquilibres macro-économiques et du développement des pays pauvres, le commerce est censé être un bien commun accessible à tous, pour peu que ses conditions soient libres. Tout l'enjeu de l'OMC est donc de définir les règles qui permettront à chacun de mieux intégrer le système mondial d'échange, en réduisant le protectionnisme qu'il subit de la part des autres. Confier aux grandes puissances le pouvoir " censitaire " de définir les règles reviendrait à leur demander d'auto-évaluer leur niveau de protection. Le système n'aurait aucun intérêt pour les autres participants. La règle de l'égalité était donc inévitable.
+L'OMC a hérité des défauts des deux systèmes : formellement instituée sur un modèle ONUSIEN, dotant chaque Etat d'une voix et d'une prise de décision majoritaire, elle fonctionne en réalité par consensus, mais ne possède ni " conseil de sécurité " ni de système de pondération reflétant l'importance économique des acteurs. Dès lors, la pratique de la négociation à l'OMC s'est informellement inspirée d'un modèle censitaire : une entente entre les plus grands acteurs du commerce mondial, les partenaires transatlantiques d'abord, " Quad " ensuite, était, jusqu'ici, suffisante pour aligner tous les membres sur un consensus.
+L'adhésion massive des PED, à partir des années 1980 et après la création de l'OMC, a doublement changé la donne. D'abord au plan politique : sur 148 membres de l'OMC, une vaste majorité est formée par des PED disposant chacun d'une voix, dont ils ont découvert le pouvoir à Seattle, avant de l'utiliser à Cancun.
+Qu'en est-il du rapport de force économique ? On peut penser que l'affirmation du G21 reflète la montée en puissance des économies émergentes dans le commerce mondial. Au début du cycle d'Uruguay (1986), les pays aujourd'hui groupés par le G21 représentaient quelques 6% des exportations mondiales de biens et services ; à la veille du cycle de Doha (2000) leur part relative avait pratiquement doublé pour atteindre plus de 11 % du commerce total, proportion à comparer au poids individuel des Etats-Unis (12,1%), du Japon (6,4%) du Canada (5,5%) et de l'UE (39%) : ces quatre membres de la " Quad " pèsent ensemble pour près des deux tiers du commerce total. Mais ces indicateurs sont trompeurs si on n'isole pas le cas de la Chine, qui n'est entrée à l'OMC qu'en 2001, à Doha. Il est frappant de constater que, sans la Chine, le rapport des forces commerciales entre les pays de la Quad et le G21 est resté pratiquement inchangé depuis le cycle d'Uruguay : si politiquement le Brésil a été identifié comme le leader du G21, économiquement la crédibilité de ce nouveau groupement dépend largement de la participation de la Chine.
+Celles des ONG qui ne refusaient pas en bloc l'existence de l'OMC, particulièrement dans le monde anglo-saxon, revendiquaient depuis plusieurs années des moyens d'influence sur une institution qui ne leur reconnaissait pas de statut. Avant le cycle de Doha, cette revendication se concentrait sur le mécanisme de règlement des différends. Depuis le lancement du cycle, elle porte également sur les négociations. Cancun a manifesté l'évolution des méthodes d'intervention de certaines grandes ONG, évolution déjà très perceptible, dans la sphère de l'ONU, lors du sommet de Johannesburg : celles-ci assistent ou influencent des petits états, dépourvus de capacités suffisantes de négociation, pour orienter l'agenda. Oxfam revendique ainsi d'avoir contribué à l'élaboration du dossier du coton, qui a eu une influence psychologique décisive sur le sort de la conférence de Cancun.
+A cette assistance technique, les ONG de terrain ajoutent leur capacité de sensibilisation politique des populations. A Cancun, plusieurs ministres africains ont indiqué sans voile qu'ils se trouveraient politiquement le dos au mur si aucun mouvement n'était fait sur le dossier du coton, apportant avec eux des pétitions de dizaine de milliers de producteurs, ou, comme la Ministre du Sénégal, une résolution votée à l'unanimité de son parlement. Le Commissaire européen à l'agriculture, M. Fischler, ne s'est pas trompé sur le rôle de ces nouveaux acteurs : il imputait une partie de la responsabilité de l'échec de Cancun à certaines ONG, avant d'estimer que la redéfinition des relations entre membres de l'OMC et ONG devait être la première priorité de réforme de l'organisation.
+La question stratégique posée par Cancun est de savoir si les membres de l'OMC estiment encore avoir un intérêt à promouvoir une libéralisation multilatérale globale. L'échec de Cancun a révélé les doutes fondamentaux des participants à la négociation.
+La première nouveauté de Cancun a été l'alliance transatlantique sur l'agriculture. Loin d'être dérisoire par rapport aux attentes des PED et notamment des PMA, la proposition euro-américaine n'en consacrait pas moins une approche globalement conservatrice, pérennisant les politiques agricoles menées dans les pays les plus riches. Les partenaires transatlantiques n'étaient peut-être pas les plus défensifs et certainement pas les plus immobiles. Leur entente stratégique représentait donc un élément profondément nouveau dans le système d'alliance traditionnel. Le Japon et la Corée avaient mal accepté ce rapprochement - " trahison " - de l'Europe avec les Etats-Unis.
+L'alliance agricole transatlantique avait été rendue possible après l'accord de Luxembourg de juin 2003 qui, en réformant la PAC, permettait de trouver un point d'intersection aux trajectoires inversées des politiques agricoles européennes et américaines depuis l'Uruguay Round. Depuis 1992 et avec " agenda 2000 " les subventions européennes s'étaient considérablement " américanisées " en progressant régulièrement sur deux axes : la réduction du niveau de soutien aux prix et, surtout, le " découplage " progressif des aides. Inversement, depuis le Fair Act de 1996 et le Farm Bill de 2002, le régime de soutien américain s'était considérablement " européanisé ", d'une part du fait de l'augmentation massive des concours publics au revenu agricole, d'autre part du fait de la tendance au " recouplage " partiel des aides américaines, en particulier via le nouveau mécanisme des " marketing loans ".
+L'" approche-cadre ", c'est à dire une approche non chiffrée, proposée par l'Europe et les Etats-Unis comme base de négociation agricole consacrait donc globalement l'état de fait atteint des deux côtés de l'Atlantique. Elle prévoyait un effort de réduction des soutiens internes les plus directement liés aux quantités produites, dans des limites des marges de manoeuvres disponibles après le " Farm Bill " et la réforme de la PAC. Elle ne retenait pas l'objectif d'élimination globale des subventions à l'exportation, mais traitait pour la première fois avec parallélisme les objectifs de réduction des subventions à l'exportation américaines (aide alimentaire, crédits à l'exportation) et européennes (restitutions aux exportations) et en admettait l'élimination pour les productions " sensibles " des PED. Elle proposait une formule mixte de réduction des droits de douane agricole, distinguant les efforts à réaliser entre " produits sensibles " des " produits normaux " et " non sensibles ", pour donner des flexibilités à chaque participant.
+Le texte soumis par l'OMC comme base de discussion s'inspirait largement de l'approche transatlantique, mais renforçait ses exigences dans le sens souhaité par les PED, en particulier sur les ambitions de réduction des subventions internes et l'élimination des subventions aux exportations. Il fut radicalement rejeté par le " G 21 ", qui ne parvenait à réaliser une synthèse entre les intérêts de ses membres offensifs et défensifs sur la protection douanière, qu'en réclamant de faire porter l'intégralité des efforts de réforme agricole aux pays développés.
+Les négociateurs américain et européen ont eu beau jeu de prophétiser l'implosion de ce groupe hétéroclite, " mariage de la carpe et du lapin ", le G21 a montré à Cancun que son ciment n'était pas de plus mauvaise qualité que celui qui avait permis aux partenaires transatlantiques de s'entendre sur les subventions et de surmonter, optiquement, la profonde divergence de leurs intérêts en matière d'accès au marché.
+Les deux côtés partageant leur ambiguïté sur le niveau de libéralisation à atteindre en matière de droits de douane agricoles, la question des subventions devenait logiquement centrale. Elle était radicale pour les pays du G21. Ces derniers représentent une majorité de la population mondiale, dont une forte proportion, voire une majorité pour la plupart, vit en milieu rural. Leur structure d'exportation révèle une sur-proportion des produits agricoles bruts et des denrées alimentaires par rapport au poids de ces produits dans le commerce mondial. Dans ces conditions, comme le relève D. Cohen à propos des soutiens dans les pays développés, "quel que soit le canal par lequel transitent les aides, ces subventions sont une mauvaise nouvelle pour les autres paysans du monde, qu'ils aient vocation à être exportateurs ou pas ".
+Enfin, les partenaires transatlantiques convergeaient objectivement pour cantonner le dossier des subventions au coton dans le cadre global de la négociation agricole, sans le distinguer des autres produits, pour ne pas risquer de créer un précédent ouvrant la voie à d'autres négociations sectorielles. L'Europe donnait quelques signaux d'ouverture et indiquait qu'elle s'apprêtait à réformer son régime de subvention dans ce secteur, l'un des absents de la réforme de l'été 2003. Les Etats-Unis proposaient de globaliser le sujet en traitant l'ensemble des problèmes de la filière, allant de la fibre au vêtement. Intellectuellement intéressant et habile, cet argumentaire apparaissait trop grossièrement comme un simple contre-feu tactique, visant à " noyer " la demande africaine dans une négociation plus complexe. La proposition américaine fut néanmoins reprise dans son intégralité par les autorités de l'OMC, entraînant une radicalisation irréversible des pays africains, qui voyaient ainsi disparaître leur seul intérêt à négocier pour un succès à Cancun. En accompagnement de cette fin de non recevoir, le projet de déclaration suggérait benoîtement d'encourager " la diversification des économies dans lesquelles le coton représente une majorité du PIB ".
+La deuxième nouveauté fondamentale de Cancun a été la volonté d'une grande partie des pays du Sud, en particulier d'Afrique et de Méditerranée, de conserver les avantages liés aux préférences douanières accordées par leurs grands partenaires du Nord. Compte-tenu de leur part très faible dans le commerce mondial, la compétitivité globale et le potentiel de l'industrie chinoise leur apparaissent désormais comme une menace majeure pour leurs créneaux d'industrialisation naissante ou récente.
+Le révélateur de cette menace a été le secteur du textile et de l'habillement. Le grand acquis de l'Uruguay Round, pour les industriels du Sud, avait été l'engagement de démantèlement du système de quotas commerciaux issus de l'ancien " accord multi-fibre ". Trop longtemps attendue, la disparition de ces quotas limitant leur capacité d'exportation est, paradoxalement, devenue la hantise de nombre de petits pays producteurs, à mesure que se profilait l'échéance de leur suppression totale au 1er janvier 2005. Face à la montée en puissance très rapide de la Chine dans ce secteur, les quotas sont devenus des garanties de débouché plutôt que des obstacles à leurs exportations. Une fois ces quotas disparus, seule une préférence douanière leur apparaît de nature à compenser le différentiel de compétitivité avec la Chine. Or, le niveau des préférences douanières dont ils bénéficient dans le cadre des accords passés avec les pays de la " Quad " serait mécaniquement réduit par une réduction générale des droits de douanes à l'OMC. En extrapolant sur la compétitivité de leurs autres industries face à " l'atelier global ", ces pays concluent à la menace d'une réduction tarifaire multilatérale.
+Paradoxalement, c'est donc, en partie, du fait des préférences qu'ils leurs accordent, que les pays du Nord ont perdu " leur " Sud à Cancun. Aucun des grands réseaux naturels de solidarité économique - Europe et pays ACP ; Etats-Unis et pays latino-américains - n'a fonctionné : le G90, qui s'opposait à l'Europe sur les " sujets de Singapour ", réunissait majoritairement les pays ACP ; les membres du G21 étaient majoritairement latino-américains et liés par des accords préférentiels ou engagés dans des négociations de libre-échange avec les Etats-Unis.
+Le droit de l'OMC dispose théoriquement de tous les outils et garde-fous permettant de gérer avec souplesse l'intensité et le rythme des politiques d'ouverture entre pays de niveaux de développement différents : ces éléments sont d'ailleurs des objets de négociation majeurs dans le cadre du programme de Doha, tant au titre de la " mise en oeuvre " - ajustement des conditions d'application des accords précédents - que du " traitement spécial et différencié " -prise en compte des contraintes particulières des PED dans les négociations -.
+Mais la doctrine sur laquelle repose l'organisation se limite fondamentalement à professer les bienfaits du libre-échange sur la croissance, tout en admettant la nécessité d'en ajuster le rythme en fonction des situations particulières. Les institutions de Bretton Woods ont également fondé une partie de leur argumentaire pour le développement sur la libéralisation commerciale. Cancun a montré les limites du pouvoir de conviction cette seule doctrine.
+En 2002, la Conférence de Monterrey avait formulé un nouveau consensus international sur les stratégies de développement. Ce consensus de Monterrey mettait globalement à jour l'ancien " consensus de Washington " en lui ajoutant deux éléments nouveaux : une affirmation de la responsabilité des pays en développement dans l'amélioration de leur gouvernance et performances institutionnelles, un engagement de contrepartie des pays du Nord à accroître leur aide au développement. Dans la sphère commerciale ce consensus trouve des points d'application très naturels et concrets : la participation à l'effort de libéralisation et de renforcement des règles contribue à l'amélioration des systèmes institutionnels locaux, si elle est préparée et accompagnée par l'aide au développement. Faute d'aide, les pays demeurent dépourvus de capacités administratives à négocier et mettre en oeuvre leurs engagements juridiques. Les conditions concurrentielles demeurent inégales sans d'investissement dans l'infrastructure productive nécessaire à l'essor de leur compétitivité.
+Le lien entre politique commerciale et politique d'aide n'a pourtant pas encore été correctement investi par les grands bailleurs d'aide. Si ce lien est théoriquement établi dans les politiques régionales de l'UE, il demeure pratiquement inexistant dans sa politique multilatérale. Un effort de systématisation a été entrepris à l'OMC, depuis les conférences de Singapour et Doha (1996 - 2001), relayées par la Conférence des Nations-Unies sur le commerce des PMA (2000), mais demeure principalement cantonné au terrain de l'assistance technique. Or cette forme d'aide ne permet guère d'aborder les problèmes fondamentaux des pays les plus pauvres face à la libéralisation : la capacité à exporter est différente de la capacité à négocier en ce qu'elle relève globalement de la défaillance des infrastructures, de la formation de la main d'oeuvre, de l'absence de systèmes de contrôle sanitaire...
+Les institutions de Bretton-Woods ont commencé à intégrer la problématique du commerce dans leurs programmes. Mais les efforts engagés par la Banque Mondiale se sont jusqu'ici plutôt traduits par des études - visant essentiellement à démonter les gains potentiels de la libéralisation multilatérale, en particulier dans l'agriculture - que sur des programmes concrets de constructions de capacités exportatrices. Le FMI est resté très longtemps réticent à contribuer à la recherche de solutions spécifiques au problème de l'impact sur les finances publiques de la perte de recettes douanières pour les pays en développement réalisant des efforts de désarmement tarifaire multilatéral.
+FMI et Banque Mondiale ont annoncé à Cancun de nouvelles propositions, intéressantes mais encore vagues, sur ces terrains : sans doute trop peu trop tard. Les pays en développement ne perçoivent donc pas encore les manifestations concrètes des efforts d'assistance qui les aideraient à s'engager en confiance dans de nouvelles entreprises de libéralisation.
+Il est à peu près acquis que Cancun a enterré l'espoir d'une conclusion du cycle de Doha dans les délais fixés, au 1er janvier 2005. Deux grandes échéances officielles sont aujourd'hui prévues : une réunion du Conseil Général de l'OMC, en décembre 2003, une conférence ministérielle qui devrait se tenir, en principe à Hong-Kong, vers fin 2004. Entre les deux, l'élection présidentielle américaine risque de figer toute dynamique de négociation. Une reprise rapide est d'autant moins vraisemblable qu'américains et européens ont indiqué rester pour l'instant sur l'expectative. Face aux menaces du statu quo et aux limites des idées de relance technique, la réflexion s'impose sur les conditions de relance politique du cycle.
+L'interruption du cycle de Doha à Cancun emporte une menace immédiate pour l'OMC : celle du transfert de responsabilité du " législateur " vers " le juge ", de la négociation de règles vers le mécanisme de règlement des différends, en particulier en matière agricole.
+Au 31 décembre 2003 expirera la " clause de paix ", adoptée avec la conclusion de l'Uruguay Round, qui protégeait temporairement les membres de l'OMC du risque de contentieux contre leurs régimes de subvention à l'agriculture. En cas d'accord à Cancun, cette clause aurait du logiquement être prolongée pour garantir un climat serein de négociation. Du fait de l'échec de Cancun, on peut s'attendre à ce que les membres de l'OMC cherchent à obtenir, par le contentieux, les objectifs de réforme agricole non atteints par la négociation. D'ores et déjà, deux panels ont été constitués en 2003 à l'initiative du Brésil, l'un contre le régime de subventions aux exportations de sucre de l'UE, l'autre contre le régime de subvention au coton des Etats-Unis.
+Indépendamment de la clause de paix, les tensions liées aux contentieux sont déjà fortes. Les Etats-Unis ont lancé une dispute très sensible pour l'opinion publique, contre le régime communautaire d'autorisation de mise sur le marché des OGM. De son côté, l'Europe se dirige vers la mise en oeuvre de sanctions commerciales contre les Etats-Unis, faute de mise en conformité de ces derniers avec les décisions de l'ORD (organe de règlement des différends de l'OMC) dans l'affaire du FSC/ETI, ou, du fait de la vraisemblable prochaine confirmation en appel de la condamnation de la mesure de sauvegarde adoptée en 2002 par le Président Bush dans le secteur de l'acier.
+Compte-tenu de l'importance des enjeux politiques en cause, une multiplication des contentieux commerciaux, en alternative aux négociations, pourrait achever d'affaiblir ce qui reste de l'OMC : la crédibilité du système de règlement des différends serait minée par une multiplication des cas de non-respect de ses décisions ; les objectifs mêmes de l'organisation seraient minés par la montée en puissance de rétorsions commerciales croisées liés à ce non-respect. La recherche d'une forme de pacte de " modération ", sinon de " non-agression ", apparaît donc comme un préalable à tout espoir de reprise des négociations multilatérales.
+Ce risque apparaît d'autant plus réel que l'administration Bush a adressé plusieurs signaux de défiance vis à vis du multilatéralisme commercial. Le forum de l'OMC ne se voit pas reconnaître de prééminence sur les autres forums de négociation dans la politique commerciale américaine ; les Etats-Unis se sont affranchis de ses règles en 2002 pour protéger leur secteur de l'acier et se montrent extrêmement réticents à mettre en oeuvre les décisions de l'ORD les condamnant : une mise en conformité est aujourd'hui attendue dans 5 affaires importantes gagnées par l'Union Européenne.
+Les facteurs de tensions s'accumulent également dans les relations commerciales sino-américaines : depuis longtemps formulées par le secteur du textile-habillement, les demandes de protection pourraient se multiplier dans l'industrie américaine, sous l'influence notamment du facteur monétaire (sous-évaluation estimée par les autorités américaines de la parité du Yuan contre dollar). Le déficit des paiements courants des Etats-Unis, nourri par le déficit commercial, apparaît de moins en moins soutenable au niveau atteint en 2003 (plus de 5% du PIB). Alors que les Etats-Unis demeurent le principal facteur de croissance mondiale, le risque d'une montée du protectionnisme américain apparaît très réel.
+La conjugaison d'une UE contrainte de mettre en oeuvre des sanctions commerciales contre les Etats-Unis pour faire respecter les décisions de l'ORD et d'une montée du protectionnisme américain, représenterait une menace pour l'économie mondiale.
+Faute d'accord multilatéral, les puissances commerciales peuvent privilégier la voie bilatérale ou régionale pour promouvoir leurs objectifs de libéralisation. De fait, les premières déclarations des autorités américaines tendent déjà à privilégier cette seconde voie après l'échec de Cancun : M. Zoellick a indiqué qu'il choisirait ses pays interlocuteurs entre " can do " et " won't do ". L'Union Européene avait choisi de renoncer au lancement de nouvelles initiatives de négociation de libre-échange, bilatérale ou régionale, pendant la durée du cycle de Doha. Après Cancun, la Commission a également fait savoir qu'elle souhaitait prendre le temps de la réflexion et du débat interne pour examiner toutes les options et envisager de réorienter éventuellement dans ce sens la politique commerciale de l'Union Européenne.
+La théorie économique reste divisée sur les mérites respectifs du régionalisme et du multilatéralisme. Les gains potentiels de la libéralisation multilatérale apparaissent supérieurs à ceux de la libéralisation sur une base régionale. Ces derniers se partagent traditionnellement entre " effets de création " - qui débouchent sur un accroissement du commerce global -, et " effets de détournement " de la richesse - qui se matérialisent par une simple substitution de sources d'approvisionnement. L'enjeu de l'articulation entre multilatéralisme et régionalisme est donc de maximiser les effets de création et limiter les effets de détournement. Le droit de l'OMC prévoit des dispositions pour garantir la complémentarité des deux dynamiques.
+Sous cette réserve, il n'y a en soi rien de choquant à l'idée de poursuivre une option régionale ou bilatérale. L'Union Européenne en incarne elle-même le meilleur exemple historique et son réseau d'accord avec les pays tiers régit d'ores et déjà près de 80% de ses échanges extérieurs, par un régime de libre-échange ou d'ouverture préférentielle de son marché. Economiquement, l'Union Européenne aurait probablement intérêt à progresser, au-delà des engagements de l'OMC, par de nouvelles initiatives régionales : en effet, seules échappent aujourd'hui à son réseau de préférences réciproques, ses relations avec les deux zones les plus dynamiques du monde, l'Asie de l'Est (" ASEAN + 3 ") et l'Amérique du Nord.
+Les pays les plus pauvres et en particulier l'Afrique pourraient être les principales victimes d'un nouvel essor du régionalisme de la part des grandes puissances commerciales.
+D'abord, parce qu'un tel mouvement contribuerait vraisemblablement à intensifier la tendance à la structuration de l'économie mondiale autour du triangle Chine / Asie de l'Est - Union Européenne - Etats-Unis, risquant de confiner l'Afrique subsaharienne, qui représente moins de 1% des échanges commerciaux globaux, dans le " syndrome du chômeur de longue durée ", suivant le mot du Premier Ministre Ethiopien, M. Zenawi. L'affirmation d'une alternative régionaliste crédible au multilatéralisme signerait de facto une forme de " Yalta institutionnel " dans la globalisation : aux pays commerçants de négocier entre eux des accords de commerce, aux institutions de Bretton Woods de s'occuper du " traitement social " des pays les plus pauvres.
+Ensuite, parce qu'en cas d'initiatives dans leur direction, le rapport de force bilatéral serait naturellement peu favorable aux économies les plus pauvres. Cette réalité est évidente dans le rapport Nord-Sud, comme l'ont montré, immédiatement après Cancun, les pressions américaines sur les pays d'Amérique Centrale et andine pour qu'ils sortent du G21 : le Costa-Rica, la Colombie et le Pérou ont annoncé leur retrait du groupement, après avoir entendu les menaces du Président de la Commission des Finances du Sénat américain. Mais cette menace existe de manière tout aussi évidente du fait de l'apparition de nouveau rapports de force et de stratégies protectionnistes " Sud-Sud ". Un indicateur révèle ce nouvel état de fait : une majorité des enquêtes d'antidumping initiées dans le monde, oppose aujourd'hui des pays en développement entre eux.
+Le parlement européen ne s'est pas trompé sur cette menace en réaffirmant clairement sa priorité au multilatéralisme dans sa résolution sur les résultats de Cancun.
+L'échec de Cancun a ouvert trois débats sur les moyens de relancer les négociations commerciales en trouvant de nouvelles méthodes pour parvenir à forger un consensus.
+On pourrait estimer que les sujets de Singapour ayant formellement provoqué l'échec, leur suppression de l'ordre du jour permettrait de le surmonter. La tentation pourrait être la même sur l'ensemble des sujets sur lesquels aucun progrès n'a été constaté depuis le lancement du programme de Doha : commerce et environnement, indications géographiques, questions de mise en oeuvre, certains groupe de travail. L'idée de recentrer l'OMC sur son " c?ur de métier ", la libéralisation de l'accès aux marchés, est récurrente chez les négociateurs. Elle répond fondamentalement à la vision américaine du cycle de négociation à laquelle s'opposait initialement une " conception européenne de la mondialisation " marquée par la recherche d'un équilibre entre libéralisation et régulation des échanges mondiaux.
+Il paraît douteux qu'une telle approche suffise à relancer les débats : d'une part, parce que malgré leur rôle formel dans l'échec, les sujets de régulation n'étaient pas au c?ur des enjeux de Cancun ; d'autre part, parce que la proposition d'abandon des deux sujets les plus difficiles (investissement, concurrence) n'avait pas permis de débloquer la négociation sur place.
+En réalité, les ambiguïtés de l'agenda de Doha reflétaient un équilibre entre trois grandes approches : celle d'une majorité de PED qui souhaitaient limiter les discussions à l'existant, à travers les thèmes de la mise en oeuvre des accords d'Uruguay et les questions de développement ; celles des tenants d'un pur cycle de libéralisation ; celles des partisans d'un renforcement du rôle de l'OMC dans la gouvernance multilatérale. Il est à craindre que toute altération de cet équilibre ne revienne à ouvrir une boîte de pandore et éloigne d'autant la perspective d'une reprise des négociations de substance.
+La pondération de l'importance des sujets de l'ordre du jour pour chaque participant ne pourra évoluer réellement qu'au regard des perspectives de progression des différents sujets par la voie régionale ou bilatérale. C'est déjà l'approche américaine, qui privilégie les accords bilatéraux pour traiter de l'investissement. C'est déjà largement l'approche européenne, qui s'efforce de faire reconnaître la protection de ses indications géographiques via ses négociations bilatérales ou régionales : si celles-ci lui permettent d'atteindre ses objectifs, la pression pour des progrès à l'OMC se réduira en la matière.
+De fait, l'OMC se reconnaît déjà à deux vitesses par le jeu du principe de traitement spécial et différencié qui autorise une asymétrie d'engagements de la part des pays en développement face aux pays développés. Le consensus était également globalement atteint à Cancun sur l'idée d'exonérer les pays les moins avancés de tout engagement contraignant en matière de libéralisation de l'accès au marché industriel. Le Président de la République française a également proposé à ses partenaires du G8 l'idée d'un " régime commercial spécifique pour l'Afrique ", idée reprise à son compte par l'Union Européenne au sommet d'Evian, mais qui avait rencontré l'opposition des Etats-Unis. Après l'échec de Cancun, la France a relancé cette idée.
+L'idée est donc présente et le droit de l'OMC offre d'autres techniques que le traitement spécial et différencié pour différencier le niveau d'obligation entre membres. La principale est celle des accords dits " plurilatéraux ", dont les obligations ne lient que ceux des membres qui l'acceptent, sous réserve du consensus de tous pour recourir à cette technique dérogatoire ; une possibilité équivalente consisterait à prévoir des clauses d'entrée ou de sortie (" opt-in " ou " opt-out ") de la négociation de certains accords, par dérogation au principe " d'engagement unique ".
+Le recours à ces techniques pourrait être fécond pour contribuer à une relance de la négociation, et surmonter en particulier l'impasse mercantiliste liant les sujets de Singapour aux questions d'accès au marché. S'agissant de règles sur l'investissement et la concurrence, ayant vocation à représenter un bien collectif, il serait intellectuellement justifiable de les développer par une stratégie incitative, fondée sur le volontariat, sachant que les pays en développement nourrissent de grands doutes sur l'intérêt de telles règles pour leurs stratégies de croissance.
+De fait, l'intérêt économique d'un régime multilatéral de l'investissement pour les pays en développement reste par exemple controversé : sa mise en place, à l'OMC, sur une base volontaire, par certains pays, permettrait d'en mieux évaluer les effets. On peut alors faire le pari que si ces règles révèlent leur intérêt, les effets de concurrence et d'émulation joueraient à plein si certains PED décidaient d'y souscrire : l'Inde s'imaginerait-elle pouvoir rester hors d'un accord auquel souscrirait la Chine ? Pour créer une dynamique de confiance et d'incitation, les pays développés pourraient s'engager à faire bénéficier l'ensemble des membres de l'OMC des engagements qu'ils prendraient dans ce cadre. Enfin, une approche volontaire répondrait à la contestation des sujets de Singapour par la plupart des mouvements de la société civile, dénonçant la volonté d'imposition de nouvelles normes aux pays en développement. Le principal risque d'une telle approche serait politique en ce qu'elle pourrait accentuer la bipolarisation Nord-Sud et un désengagement des pays développés de l'OMC, pour lui préférer d'autres cadres, par exemple celui de l'OCDE. Le risque paraît réduit compte-tenu de l'échec fracassant de l'AMI en 1998. En tout état de cause, l'enceinte de l'OMC offrirait plus de chances de succès à une telle démarche que celle de l'OCDE, parce qu'elle offre davantage de garanties procédurales aux pays en développement. Ceux-ci auraient d'abord à accepter le principe d'ouvrir ou non de telles négociations " plurilatérales ", de décider s'ils souhaitent ou non y participer, de souscrire ou non des engagements à la conclusion.
+L'Union Européenne a ouvert le débat sur la modernisation de l'OMC, qualifiée de " médiévale " par le Commissaire Lamy. Les Etats-Unis ont d'emblée indiqué qu'un tel débat serait une perte de temps. Bis repetita placent, la question de la réforme de l'organisation avait été mise à l'ordre du jour après Seattle. Des progrès ont d'ailleurs été réalisés depuis en matière de transparence interne et externe des débats. A la lueur de l'échec de Cancun, de nouvelles questions sont ouvertes, sur lesquelles un progrès paraît souhaitable, en particulier concernant les pouvoirs respectifs du Président des conférences ministérielles et du Directeur Général de l'Organisation, dans l'organisation des débats et des procédures de consultation.
+Mais la question centrale reste celle de la méthode de production d'un consensus entre 148 pays sur plus de 20 sujets de négociation. De facto, malgré la contestation ouverte à Seattle, l'OMC n'a jamais pu se passer de l'ancienne pratique du GATT, dite des " green room ", réunions informelles, restreintes aux principaux membres de l'organisation, pour élaborer les projets de consensus. C'est d'ailleurs en " green room " qu'à été décidé l'arrêt de la conférence de Cancun, avant officialisation en réunion plénière.
+L'institutionnalisation de cette pratique, la définition de ses règles, procédures, garanties de transparence du résultat des débats représenterait le principal enjeu pour surmonter les contradictions du " consensus censitaire " et améliorer le fonctionnement institutionnel. Mais les chances de parvenir à l'élaboration d'un tel " conseil restreint " à l'OMC apparaissent extrêmement limitées. Techniquement, elle supposerait de s'accorder sur la représentativité des grandes catégories de pays et d'intérêts, impliquant de figer les alliances et sur l'établissement de procédures de consultation interne aux groupes de pays représentés par un mandataire.
+Le débat sur les voies d'une relance technique du cycle reproduit donc très largement ceux qu'avait engendré l'échec de Seattle, sans réelle traduction concrète depuis. Il comporte des éléments utiles, mais ne pourra occulter les préalables politiques à la relance du cycle du développement.
+Les ambiguïtés politiques qui avaient permis de construire l'agenda de Doha ont fonctionné comme " deal breaker " à Cancun, révélant les divergences de conception Nord-Sud sur le partage des responsabilités commerciales globales, la priorité économique de l'agriculture, l'apport de la libéralisation au développement. Aucun progrès vers un consensus ne paraît désormais possible sans affronter ces grandes questions politiques et éliminer les ambiguïtés.
+Compte-tenu de l'asymétrie des niveaux de développement, le sens moral voudrait sans doute que les pays développés assument la responsabilité d'une relance du cycle de Doha, en offrant de nouvelles concessions sur le terrain agricole. Indépendamment des résultats de Cancun, la Commission européenne s'est d'ores et déjà engagée dans une proposition de réforme des organisations communes des marchés du sucre, du coton, du tabac et des produits méditerranéens. Si ces propositions aboutissent, elles lui confèreront une marge de manoeuvre nouvelle. La proposition française au G8 d'un moratoire sur les subventions aux exportations déstabilisatrices pour les marchés africains pourrait également être utilement retravaillée.
+Mais le sens commun suggère le réalisme. Les Etats-Unis ont voté en 2002 une loi agricole et vont entrer en période électorale : hormis la découverte d'un intérêt sécuritaire, rien ne paraît aujourd'hui susceptible de venir faire évoluer leurs positions de négociation. L'UE vient de réformer la PAC et l'échec de Cancun pourrait affaiblir la stratégie réformatrice de la Commission, qui liait les négociations de l'OMC aux résultats des réformes agricoles internes. Le Japon reste également en posture très défensive sur l'agriculture. Aucun pays développé ne fera donc de nouvelle concession unilatérale. Inversement, aucun pays en développement ne peut réalistement espérer obtenir satisfaction à l'OMC sans prendre le moindre engagement en contrepartie : la stratégie agricole du G21 demandant tous les efforts aux pays développés ne peut déboucher que sur une impasse.
+L'enjeu pour l'OMC est donc de forger de nouvelles bases d'accord politique permettant d'envisager une relance globale de ses travaux. L'hypothèse de la convocation d'une réunion ministérielle extraordinaire de l'OMC début 2004 a été envisagée. On voit mal comment une telle réunion pourrait parvenir à un accord technique sur les mêmes bases qu'à Cancun. Une réunion de ministres, dans un forum à caractère purement politique, pourrait par contre être utile et les institutions de Bretton Woods devraient y être associées. Trois débats doivent être affrontés pour tenter de reconstruire un consensus politique sur la libéralisation multilatérale
+Face à la difficulté des membres de l'OMC à évaluer l'équilibre des concessions globales à entreprendre au titre de l'agenda de Doha, un accord politique pourrait être recherché sur la définition d'équilibres intermédiaires, demeurant unis entre eux par le principe d'engagement unique.
+Les subventions agricoles du Nord et le protectionnisme industriel au Sud sont en accusation : Cancun a donc montré qu'il n'y aurait pas d'accord agricole possible sans accord industriel. Or, la plupart des membres de l'OMC expriment un niveau d'ambition inversement proportionnel, entre l'agriculture et l'industrie. Le premier enjeu d'un nouveau compromis politique doit donc être d'admettre que les efforts de libéralisation devront être proportionnels dans les deux secteurs, sur la base la plus ambitieuse possible. Ces champs de négociations sont suffisamment balisés et le travail technique de préparation de Cancun était suffisamment avancé pour que soit éclairé l'équilibre commercial des concessions réciproques.
+Les négociations relatives aux services peuvent alors relever d'une logique sectorielle propre dans laquelle le compromis Nord-Sud devra être essentiellement recherché entre progrès de l'ouverture aux investissements et aux mouvements temporaires de main d'oeuvre.
+Sur les sujets de Singapour, l'option d'accords plurilatéraux devrait être examinée et la négociation de ces sujets de Singapour mise en balance avec celle des autres règles : les pays en développement ont un intérêt direct au renforcement des disciplines sur l'antidumping, aux questions de mise en oeuvre et de traitement spécial et différencié ; les Etats-Unis réclament l'élimination des subventions aux pêcheries et s'intéressent à deux sujets de Singapour ; le Japon et l'UE demeurent motivés par les quatre sujets, ainsi que, pour cette dernière par l'environnement.
+L'OMC vit sur un modèle hybride et dépassé, en ne reconnaissant que trois catégories de pays : pays développés, pays en développement et pays les moins avancés : la catégorie des pays en développement est subjective puisqu'elle relève purement d'une " auto-déclaration " ; la catégorie des PMA est objective et relève de critères précisément définis au sein de l'ONU. Ces catégories ne permettent pas de différencier le niveau de responsabilité économique que doivent prendre les pays émergents dans leurs engagements à l'OMC : Singapour, Chine, Cameroun, Côte d'Ivoire et Thaïlande sont par exemple dans la même catégorie ; le Mexique et la Corée du Sud sont simultanément membres de l'OCDE et pays en développement à l'OMC. Les pays en développement les plus riches partagent avec les plus pauvres l'intégralité des bénéfices du traitement spécial et différencié des pays en développement.
+Les pays développés voudraient dès lors introduire des mécanismes de " différenciation " pour tenir compte des évolutions intervenues au sein du groupe des pays en développement. Ces derniers refusent radicalement toute évocation directe et indirecte du sujet. Ce conflit porte une responsabilité majeure dans l'échec de Cancun : il empêche tout avancée forte sur la question du traitement spécial et différencié de la libéralisation, particulièrement en matière agricole.
+Or, aucun pays développé n'envisagera d'accorder les mêmes concessions et flexibilités au Cameroun qu'au Brésil ou à l'Inde. Inversement, les pays émergents ont beau jeu de faire porter l'ensemble de la responsabilité de la libéralisation aux pays développés. Le cas du coton est révélateur : Brésil et Inde soutiennent - à juste titre - la demande africaine d'élimination des subventions américaine et européenne mais entretiennent simultanément des droits de douanes très élevés sur leurs propres importations de coton, brut ou transformé.
+Cette question est aujourd'hui " explosive " parce que politiquement centrale. Faute de réussir à engager un débat constructif, les ambiguïtés structurelles du programme de Doha ne pourront, au mieux, être surmonté que via des compromis globaux " Nord-Sud " fondés sur des concessions minimales : c'était l'approche tentée à Cancun.
+Renforcer l'intérêt des PED à participer aux négociations commerciales et leur fournir plus de " confort " face aux coûts de l'ouverture suppose de développer des stratégies d'aide liant beaucoup plus directement les programmes d'assistance aux pays aux efforts de libéralisation entrepris. La Banque Mondiale a commencé à intégrer cette dimension, en particulier dans sa stratégie envers les pays méditerranéens unis à l'UE par un accord d'association et en systématisant l'intégration de la dimension commerciale dans la formulation de ses stratégies pays. Le FMI a par ailleurs annoncé à Cancun une approche cadre pour aider les pays en développement à affronter les déséquilibres de balance des paiements liés à l'ouverture commerciale.
+L'amplification de cet effort et la systématisation du lien entre commerce et aide passe d'une part, par l'affirmation politique d'une véritable coresponsabilité de l'OMC et des institutions dans la poursuite de l'agenda de libéralisation multilatérale des pays en développement, d'autre part, par la mise en place de nouveaux moyens de financement du développement. C'est le sens de l'engagement de principe exprimé en septembre 2003 par le Directeur Général du FMI et le Président de la Banque Mondiale pour développer un programme global de réponse aux besoins d'ajustement et d'investissement résultant de la libéralisation entreprise par les pays en développement. Il importe que cet engagement trouve une matérialisation rapide dans des programmes-cadres, précis, concrets et visibles.
+L'Europe et les Etats-Unis, qui avaient su converger à Monterrey dans l'annonce d'un accroissement de leur effort d'aide au développement, ou au G8 d'Evian dans l'annonce de moyens supplémentaires pour la lutte contre le Sida, devraient exercer ensemble un " leadership " sur ce terrain : la question mériterait d'être inscrite à l'ordre du jour de leur coopération, dans le cadre des structures de dialogue économique et commercial bilatéral mise en place par le " nouvel agenda transatlantique " de 1995.
+Enfin, peut-on prendre au sérieux l'idée de " compensation financière " temporaire des effets du protectionnisme, deuxième volet de la demande des pays d'Afrique de l'Ouest pour traiter le dossier du coton. Intellectuellement l'idée relève de la problématique classique du principe " pollueur-payeur " : le protectionnisme des uns produit des externalités négatives pour les autres, susceptibles d'être réduites par un mécanisme de désincitation financière. Sur cette base, la recherche de ressources financières nouvelles liant enjeux commerciaux et aide au développement pourrait concrètement être envisagée à court-terme à partir d'un mécanisme "d'amende " ou de " compensation financière négociée ", en cas de refus de mise en conformité après une condamnation à l'OMC. Face au risque de multiplication des contentieux et au déséquilibre des rapports de force entre économies riches et pauvres dans la mécanique des rétorsions commerciales, cette piste alternative des sanctions financières mériterait d'être mieux explorée.
+C'est aussi parce qu'il n'a pas suffisamment investi le champ de l'aide liée à la libéralisation commerciale que le système commercial a perdu le " Sud " à Cancun et que les ONG caritatives ont occupé la place laissée vide.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+C'est devenu presque une tradition : chaque premier ministre en Israël entame sa législature en relançant l'option " Le Liban d'abord ". Dès son élection et la formation de son gouvernement en juin 1996, Benyamin Netanyahou a tenté de négocier via les Syriens un retrait israélien unilatéral du Liban-sud assorti de garanties de sécurité draconiennes, sans offrir aucune contrepartie sur le Golan, si ce n'est une vague promesse d'une réouverture des négociations syro-israéliennes interrompues en mars 1996. Manoeuvre tactique de la part d'un gouvernement qui a annoncé haut et fort sa détermination de ne céder aucun pouce du Golan ou prélude à un revirement de stratégie par rapport à la politique suivie par les travaillistes sous Itzhak Rabin puis Shimon Pérès, avec l'aval à peine déguisé des Américains, et qui n'envisageait de règlement au Liban-sud que dans le cadre d'un accord de paix global avec la Syrie ?
+Un an et demi après l'arrivée de l'équipe de Benyamin Netanyahou au pouvoir, l'option " Le Liban d'abord " semble avoir fait long feu. Cet écran de fumée s'est rapidement dissipé : le Liban n'est pas plus une priorité pour le présent gouvernement qu'il ne l'a été pour son prédécesseur. Loin de marquer une rupture avec la politique libanaise suivie par l'État hébreu depuis l'instauration de la zone de sécurité au sud Liban en 1985, cette initiative ressemble davantage à une manoeuvre tactique visant tout à la fois à " tester " l'acteur syrien, à montrer à l'opinion publique israélienne que le gouvernement tente de trouver une issue à l'inextricable problème libanais et à rectifier auprès de la communauté internationale une image négative de fossoyeur politique et juridique du processus de paix en se déclarant prêt à se conformer " sous certaines conditions " à la légalité onusienne, en l'occurrence à la résolution 4251. Ces " conditions " - un redéploiement progressif à négocier contre des garanties de la part de l'État libanais de désarmer la résistance libanaise et l'ouverture de négociations de paix séparées avec l'État hébreu - reproduisent dans leur formulation générale le schéma du traité israélo-libanais avorté du 17 mai 1983, qui, quinze ans plus tard, fait figure d'anathème pour le couple syro-libanais qui s'est formé à l'issue des accords de Taëf en 1989.
+Fait significatif, l'option " Le Liban d'abord " omettait délibérément de faire mention d'un retrait simultané du Golan. Au contraire, cette " ouverture " en direction du Liban s'accompagnait d'une volonté claire de clore les négociations syro-israéliennes, voire d'en annuler tous les acquis et les avancées, en niant formellement qu'un quelconque engagement formel ait été pris par Itzhak Rabin dès 1994 concernant le principe d'un retrait du Golan. Selon Benyamin Netanyahou, il ne s'agirait là que d'" hypothèses " parmi d'autres posées sur la table de négociations. Le gouvernement actuel ne s'estime donc ni politiquement, ni juridiquement lié par des promesses ou engagements qui n'ont fait l'objet de documents écrits, signés et ratifiés. Dès juin 1996, le Premier ministre exprimait cette position sans ambiguïté : " Le gouvernement considère le plateau du Golan comme vital à la sécurité de l'État ; le principe de la souveraineté israélienne sur le Golan est à la base de toute forme d'accord avec la Syrie ". En même temps qu'il fermait la porte à toute négociation avec Damas, celui-ci demandait donc implicitement aux Syriens de l'aider à s'extirper du bourbier libanais.
+Alors que le gouvernement précédent avait totalement avalisé le principe de la " concomitance des deux volets ", syrien et libanais, Benyamin Netanyahou lançait un véritable défi à la Syrie en tentant de dissocier les deux occupations du Golan et du Liban-sud. Si cette manoeuvre était diplomatiquement prévisible, en revanche ce qui est plus étonnant depuis le retour au pouvoir du Likoud, c'est la prudence certaine dont il fait preuve dans sa gestion de la politique libanaise. Cette retenue contraste avec le discours musclé tenu tant à l'égard de la Syrie ou de l'Iran, co-parrains du Hezbollah, qu'à l'égard de l'État libanais menacé et sommé quotidiennement de se comporter en acteur souverain et d'étendre son autorité sur l'ensemble de son territoire faute de s'attirer les foudres de la puissante machine militaire israélienne.
+Alors que l'on aurait pu en toute logique, dans un contexte non plus de gel mais de régression du processus de paix, s'attendre à une " réactivation " des options militaires israéliennes notamment au Liban, c'est l'inverse qui prévaut sur le terrain. Non que le Sud meurtri par plus d'un quart de siècle de guerre, dite de " faible intensité ", connaisse une période de répit. Mais le bilan plus que mitigé de la dernière opération israélienne en territoire libanais, appelée " Raisins de la colère ", a contribué avant même la victoire électorale de Benyamin Netanyahou à un rétrécissement des options israéliennes au Liban. En effet, le nouveau premier ministre hérite d'une situation ingérable au Liban-sud que son intransigeance vis-à-vis de la Syrie ne fait qu'accroître.
+Le triangle syro-libano-israélien s'est rigidifié selon un schéma désormais bien connu où le Liban, bien que reconnu aux termes des accords de Taëf comme un État pleinement souverain, demeure le théâtre central où s'affrontent les deux acteurs syrien et israélien. Si cette configuration triangulaire n'a rien de bien nouveau, en revanche, les paramètres en ont été substantiellement modifiés par rapport au modus vivendi syro-israélien instauré au lendemain du redéploiement israélien de 1985 . Au " dialogue de la dissuasion " dont la principale vertu avait été de prévenir tout risque d'escalade incontrôlé entre les deux armées présentes sur le sol libanais, s'est substitué un déséquilibre stratégique notable au détriment de la partie israélienne. Le piège du Liban-sud s'est refermé sur l'État hébreu : aucune option militaire ne semble viable et une issue politique est plus que jamais fonction de la volonté syrienne.
+Cet article se situe précisément à ce tournant. Il vise à apporter un éclairage prospectif sur l'évolution, à moyen terme - dans les six ans à venir - de ce triangle syro-libano-israélien en fonction des scénarios qui nous semblent les plus plausibles. L'analyse de la configuration actuelle, les enjeux du volet syro-israélien du processus de paix et l'imbrication étroite du couple syro-libanais dans les dynamiques de ce triangle serviront de canevas à ces scénarios de crise.
+L'année 1994 constitue probablement un tournant dans les négociations syro-israéliennes qui piétinaient depuis le lancement du processus de paix à Madrid en octobre 1991. Trois événements majeurs vont contribuer à en relancer la dynamique : la rencontre à Genève entre Hafez al-Assad et le président Clinton au cours de laquelle le président syrien exprime officiellement son engagement pour la paix ; l'acceptation en juillet 1994 par Itzhak Rabin (jamais confirmée officiellement) du principe d'un retrait israélien du Golan jusqu'aux lignes du 4 juin 1967 ; et la signature de l'accord de paix jordano-israélien qui donne à la partie israélienne les coudées plus franches pour avancer sur le volet syrien. La définition de la position israélienne, résumée par la formule de Itzhak Rabin devenue célèbre depuis " la profondeur du retrait (du Golan) sera proportionnelle à la profondeur de la paix ", a permis de lever toute ambiguïté sur la reconnaissance par la partie israélienne de la résolution 242 des Nations unies comme la base des négociations de paix avec la Syrie. Itzhak Rabin a ainsi donné satisfaction à Hafez al-Assad qui exigeait comme point de départ des négociations un engagement israélien ferme sur un retrait total du Golan. Dès le départ, il était clair que Hafez al-Assad n'accepterait pas moins que ce que Anouar al-Sadate avait obtenu. La rétrocession du Golan dans sa totalité constitue un objectif vital pour le président syrien pour des raisons symboliques et de légitimité - réparer l'honneur perdu de la défaite de 1967 alors qu'il était ministre de la Défense. La partie israélienne voulait compenser la perte du Golan par des mesures de sécurité drastiques, seul moyen d'obtenir l'adhésion de l'opinion publique israélienne à un accord de paix avec la Syrie. La normalisation devait en outre être pleine et entière : ouverture des frontières, libre circulation des hommes et des biens, échange d'ambassades... Mais ce sont véritablement les pourparlers engagés à Maryland, de décembre 1995 à février 1996, qui ont permis d'avancer sur les quatre dossiers litigieux : l'étendue du retrait, les arrangements de sécurité, la normalisation des relations, et le calendrier de mise en oeuvre. Les discussions avaient comme base un document de travail élaboré et rédigé par les Américains, intitulé " Objectifs et principes des arrangements de sécurité " (Aims and Principles of Security Arrangements) qui réaffirme le principe selon lequel la sécurité de l'une des deux parties ne doit pas être aux dépens de la sécurité de l'autre partie.
+En l'espace de quelques mois à peine, Israéliens et Syriens auraient accompli des progrès fulgurants dans leur marche vers la paix. Une nouvelle ère allait s'ouvrir pour la région grâce à la " clef " syrienne sans laquelle il n'y a pas de paix globale viable au Moyen-Orient. L'État hébreu allait pouvoir consolider les acquis obtenus sur les autres volets du processus de paix et se désengager progressivement du Liban-sud. L'un des principaux objectifs israéliens était bien entendu de s'extirper de ce triangle infernal dans lequel l'état de guerre froide avec la Syrie l'avait enfermé au Liban-sud. Mais l'année 1996 ne sera pas celle de la paix syro-israélienne. Nous examinerons plus loin les perceptions et les interprétations syriennes et israéliennes de ce " rendez-vous manqué " avec l'histoire. Mais ce court épisode des négociations avortées est riche d'enseignements quant à la mécanique de fonctionnement de ce triangle. En effet, alors que la Syrie gère son couple avec le Liban sur la base de la concomitance et l'indissociabilité des deux volets, la partie libanaise a brillé par son absence avant de disparaître complètement du paysage des négociations. Il est vrai qu'en s'accrochant avec entêtement à l'application inconditionnelle de la résolution 425, la délégation libanaise s'est engagée, dès l'ouverture du processus à Madrid en 1991, dans un dialogue de sourds avec les représentants israéliens qui refusaient de négocier sur la base d'une résolution qui n'offre, selon eux, aucune garantie de sécurité pour l'État hébreu. Mais l'explication de l'inexistence des négociations libano-israéliennes réside ailleurs. Au moment où les pourparlers syro-israéliens démarrent sur des bases encore incertaines, le Liban - et non sa partie sud -constitue paradoxalement le seul point non litigieux entre les deux parties. Les projets grandioses du tandem Begin/Sharon au pays du Cèdre ne constituent plus aujourd'hui qu'une parenthèse amère dans une politique qui, depuis l'entrée des troupes syriennes au Liban en 1976, s'est appuyée avec constance sur le " dialogue de la dissuasion " entre Damas et Tel-Aviv. Au-delà de ses aspects techniques, ce modus vivendi était bâti sur une reconnaissance mutuelle par ces deux puissances d'intérêts de sécurité vitaux dans ce pays. Loué par les uns pour sa fonction stabilisatrice, dénoncé par les autres pour son cynisme à l'égard d'un pays réduit à n'être plus qu'une zone-tampon, cet accord a été sérieusement menacé par l'opération " Paix en Galilée " en 1982 dont l'un des objectifs majeurs était d'éliminer toute présence syrienne du Liban en y installant un État dominé par les maronites et allié d'Israël. Le redéploiement israélien en 1985 renouait avec la politique libanaise suivie par l'État hébreu dans les années 70 privilégiant le maintien du statu quo dans les relations avec Damas et limitant le champ de son intervention à la zone de sécurité qu'elle a établie depuis dans le sud du Liban.
+La réalité stratégique du couple syro-libanais n'a pas constitué - et ne constituera pas - un obstacle dans les négociations syro-israéliennes. Résignés et même soulagés pour certains d'une prise en charge syrienne du Liban, les Israéliens soutiennent dans leur quasi-unanimité l'option d'un retrait conditionnel du Liban-sud qui renforcerait la sécurité de la frontière nord de l'État hébreu. L'un des leitmotivs des responsables politiques et des représentants de l'intelligentsia est qu'Israël n'a aucune visée territoriale ou revendication idéologique au Liban et particulièrement dans sa partie sud. L'autre réalité est le sentiment mélangé de désillusion, d'amertume et de ressentiment à l'égard des Libanais et plus particulièrement des maronites. David Kimche, qui a pris une part active aux négociations israélo-libanaises et à l'élaboration du traité avorté du 17 mai 1983, parle de terrible déception alors que Yossi Olmert, avec beaucoup moins de distance et de retenue, affirme qu'aucun Libanais, qu'il soit chrétien ou musulman, ne mérite que lui soit versé une seule goutte de sang israélien.
+La version syrienne la plus élaborée et la plus détaillée en est fournie par le principal négociateur syrien, ambassadeur de Syrie à Washington, Walid al-Moualem. La responsabilité de l'échec des pourparlers de Wye Plantation est rejetée sur la partie israélienne et plus spécifiquement sur Shimon Pérès qui a décidé, dans la foulée, la suspension des négociations, l'organisation d'élections anticipées et le déclenchement d'une vaste offensive au Liban en avril 1996.
+Selon l'ambassadeur syrien, Itzhak Rabin et Shimon Pérès avaient chacun leur style et obéissaient à un rythme de négociations différent. Le premier était méfiant, réticent, avançait prudemment et à petits pas. Devenu Premier ministre, Shimon Pérès était mû par un sentiment d'urgence. Il désirait entrer en campagne électorale avec un accord syro-israélien clefs en main. Les deux pierres d'achoppement sur lesquelles butait l'accord final étaient liées aux arrangements en matière de sécurité et à la nature de la " normalisation ". Les exigences israéliennes en matière de sécurité étaient jugées inacceptables pour les Syriens qui réclamaient l'application du principe de symétrie concernant les postes de surveillance avancés et les zones démilitarisées. Sur le dossier de la normalisation, les Syriens opposaient à la vision israélienne d'une " paix chaude ", une normalisation graduelle, en faisant prévaloir qu'il est encore prématuré pour l'opinion publique syrienne d'assimiler et d'accepter un passage brutal d'une situation de guerre à une situation de paix. Sur le volet du retrait du Golan et de sa profondeur, Walid al-Moualem et le président Assad lui-même ont affirmé que les Israéliens, conformément à la condition posée par les Syriens comme préalable à la poursuite des négociations, s'étaient dès 1994 engagés sur le principe d'un retrait jusqu'aux lignes du 4 juin 1967.
+Si l'on a une version monolithique prévisible en Syrie, les Israéliens en revanche sont partagés sur l'interprétation et les implications de cette opportunité manquée. Le débat oppose ceux qui croient que la paix était une option stratégique réelle pour la Syrie à ceux qui restent convaincus que les objectifs de Hafez al-Assad, une situation de non-belligérance, étaient fondamentalement différents de la paix telle que la conçoivent les Israéliens. Pour les tenants de la première thèse, un accord sous le forme d'une " Déclaration de principes " était sur le point d'être conclu. L'opportunité manquée serait due à une erreur de calcul de la part du président Assad qui n'a pas voulu comprendre et entendre qu'il était de sa tâche de convaincre l'opinion publique israélienne, très réticente et en majorité encore opposée à un retrait total du Golan, de son engagement réel pour la paix. Une rencontre au sommet avec Shimon Pérès aurait contribué à créer une dynamique propre. En refusant d'effectuer ce geste symbolique en direction des Israéliens, il aurait contraint celui-ci à suspendre les négociations et à provoquer des élections anticipées. Pour les tenants de l'autre thèse, le président syrien a fondamentalement peur de la paix en raison de ses implications sur la stabilité du régime et sur le poids stratégique régional de la Syrie. Son adhésion au processus de Madrid et au principe de " La terre contre la paix " n'aurait été qu'une manoeuvre tactique pour empocher les dividendes que lui valait en soi sa posture de négociation. À l'inverse, la paix aurait à terme contribué à la " banalisation " de l'acteur syrien en réduisant considérablement sa valeur stratégique.
+L'un des enjeux du débat porte, comme de coutume en Israël, sur la personnalité de Hafez al-Assad. De plus en plus de voix s'élèvent qui considèrent que le président syrien constitue un obstacle à la paix et qu'Israël devrait attendre l'après-Assad avant de relancer un quelconque processus de négociations avec la Syrie. Certaines figures traditionnelles du Likoud, tel Yossi Olmert, mettent en cause la légendaire habileté politique et man?uvrière du président syrien en affirmant que celui-ci n'a jamais su transformer les " cartes " dont il disposait en atouts tangibles. De l'autre côté du spectre politique, des personnalités telles que Itamar Rabinovitch, principal négociateur et fin connaisseur des questions syriennes, ne disent pas autre chose en qualifiant Hafez al-Assad d'" homme du passé ", foncièrement conservateur et qui n'a jamais réussi à bien saisir les réalités de la société et de la politique israéliennes.
+Personne n'est en mesure aujourd'hui de confirmer ou d'infirmer la thèse courante selon laquelle si Shimon Pérès avait remporté les élections, une " Déclaration de principes " aurait été signée en l'espace de quelques mois, prélude à un accord de paix global. Rétrospectivement, il est assez troublant de constater que l'opinion publique israélienne ne conserve pas le sentiment d'une opportunité historique manquée avec la Syrie. Est-ce parce que Hafez al-Assad a, avec consistance, refusé de s'adresser directement à elle comme le lui demandait avec insistance la partie israélienne ? En outre, Itzhak Rabin s'était engagé à soumettre cet accord sur le Golan à référendum, prenant par là un gros risque, la société israélienne n'étant guère acquise à la formule " La paix en échange de la terre " appliquée à la Syrie. Enfin, deux visions quasi irréconciliables de la paix continuaient à s'opposer : la paix est conçue par Damas comme un moyen de contenir Israël dans ses frontières, alors que pour la partie adverse la paix constitue une fin en soi devant se traduire par une normalisation totale des relations tout en garantissant à l'État hébreu les conditions optimales de sécurité.
+Selon toute probabilité, un arrangement était sur le point d'être conclu bien qu'il soit difficile d'en déterminer les termes et le contenu. Les responsables israéliens qui ont été très impliqués dans les négociations sont très évasifs sur le sujet. Selon Itamar Rabinovitch, il n'y aurait eu aucun accord entre les deux parties sur les postes de surveillance avancés ou sur les zones démilitarisées. En outre, la délégation israélienne aurait bien demandé un redéploiement de l'armée syrienne mais non une réduction de la taille des forces armées, contrairement aux affirmations de la délégation syrienne. Quant au retrait du Golan, il n'aurait été abordé que de façon très hypothétique. La récurrence du terme " hypothétique " dans le discours officiel israélien, de droite comme de gauche, s'agissant du principe même du retrait laisse quelque peu sceptique quant à l'imminence de cette paix manquée. Il est évident que la grande prudence stratégique de Hafez al-Assad et ses réserves idéologiques concernant le processus de normalisation avec l'État hébreu ne sont pas seules en cause. Les perceptions israéliennes de la Syrie restent fondamentalement négatives et il n'est pas sûre qu'une poignée de main entre Shimon Pérès et Hafez al-Assad aurait suffi à calmer les craintes des Israéliens, nourries par trente ans de campagne selon laquelle renoncer au Golan, c'est renoncer à la sécurité de la Galilée. Enfin, on semble déceler quelques notes discordantes entre Shimon Pérès et Uri Savir d'un côté, et Itamar Rabinovitch -qui avait été nommé par Itzhak Rabin - de l'autre. Bien qu'il n'en ait jamais fait état publiquement, Itamar Rabinovitch ne semblait partager ni l'empressement de Shimon Pérès à vouloir conclure un accord, ni son enthousiasme pour donner un contenu nouveau plus économique et culturel aux négociations dans le cadre de sa vision du " Nouveau Moyen-Orient ".
+L'anecdote qui illustre bien la distance " psychologique " qui séparait les deux parties, syrienne et israélienne, est celle relative à la volonté de Shimon Pérès, en pilote averti, de " voler haut et vite " (to fly high and fast). Il usait de cette métaphore pour convaincre ses interlocuteurs syriens qu'il était dans leur intérêt et leur sécurité réciproques d'accélérer le rythme des négociations et d'en changer les modalités, en provoquant une rencontre au sommet avec Hafez al-Assad et en élevant les négociations directes au niveau des chefs d'État et de gouvernement. À cela, les Syriens rétorquaient qu'il était certes important de " voler " mais qu'il était tout aussi important de ne pas se tromper sur le lieu et le moment de l'atterrissage.
+Les deux scénarios identifiés et analysés ici sont ceux qui déterminent une configuration spécifique du triangle syro-libano-israélien, avec ses prolongements sur les situations internes, et ses implications régionales et internationales propres : le scénario du statu quo et l'option d'un retrait israélien du Liban-sud. Ces deux cas de figure comportent des variantes intermédiaires que sont les risques d'escalade militaire et même de guerre ouverte ou les percées et les progrès sur le front diplomatique. Néanmoins, l'effondrement de la dynamique et de l'architecture du processus de paix israélo-arabe a réduit l'éventail des options. Le triangle syro-libano-israélien se situe aujourd'hui dans cette zone grise, intermédiaire, entre l'option de la paix et celle de la guerre, mais qui reste une zone de crise et de turbulences.
+Le scénario de " ni guerre, ni paix " est sans aucun doute le plus plausible aujourd'hui concernant l'évolution à moyen terme du triangle syro-libano-israélien. La perspective d'une reprise des négociations s'éloigne au fur et à mesure que la confusion politique s'accroît en Israël. Contrairement à ce qui se passe sur le front intérieur, en Palestine, il n'y a pas ici de sentiment d'urgence pour Israël, sauf au Liban-sud. Mais le gouvernement de Benyamin Netanyahou semble bien déterminé à ne céder sous aucun prétexte aux pressions qu'exerce Damas via le Hezbollah pour ramener la partie israélienne à la table des négociations, sur la base de la paix en échange du double retrait du Golan et du Liban-sud. D'ailleurs, le Premier ministre estime que le Golan ne constitue pas une priorité pour le président Assad. La stabilité interne, le rôle de la Syrie au Liban, ses relations avec les États-Unis et son poids régional sont, selon lui, des enjeux autrement plus vitaux.
+Parallèlement, les deux puissances israélienne et syrienne redoublent de vigilance pour éviter l'escalade et la confrontation militaire directe. Le retour de part et d'autre au discours belliqueux et radical qui caractérisait les relations entre les deux États avant Madrid, les rumeurs de surarmement et de mouvements de troupes, ne sauraient faire oublier que, depuis la guerre d'octobre de 1973 et les accords de désengagement sur le Golan, la frontière syro-israélienne est, comparée au foyer de tension permanent du Liban-sud, un îlot de paix.
+Certains stratèges israéliens, minoritaires, ont pourtant élaboré des scénarios de conflit entre Damas et Tel-Aviv, qui se fondent sur l'hypothèse centrale que la situation de statu quo n'est viable ni pour l'une ni pour l'autre des deux parties soumises à des échéances internes et à des pressions internationales croissantes. Il ne fait pas de doute que la Syrie maintiendra au Liban-sud une pression militaire indirecte aussi forte que le lui permettent les lignes rouges fixées par l'accord de cessez-le-feu d'avril 1996 - sans impliquer ses 35 000 soldats stationnés au Liban - et aussi longtemps que le gouvernement israélien en place refusera de reprendre les négociations là où elles se sont arrêtées. Délimitée géographiquement à la zone de sécurité, la guerre d'usure que se livrent le Hezbollah (1 500 hommes) et l'armée israélienne épaulée par l'ALS (Armée du Liban-sud qui compte 2 500 hommes), comporte certes des risques de dérapage, comme en 1993 et 1996, lors des deux opérations " Justice rendue " et " Raisins de la colère ". Néanmoins, les règles du jeu scrupuleusement respectées par Israël et la Syrie depuis l'entrée des troupes de Damas en 1976 - règles que la création du Comité de surveillance du cessez-le-feu n'a d'ailleurs fait que formaliser vingt ans plus tard - ont instauré des mécanismes efficaces d'endiguement de ces risques. Une escalade militaire généralisée dont le Liban-sud serait le détonateur ne pourrait, dans le contexte actuel, que venir d'une décision stratégique israélienne visant à en découdre par la force avec le Hezbollah, pacifier sa frontière nord sans avoir à payer un quelconque prix à la Syrie. Mais le syndrome libanais en Israël pèse de tout son poids, psychologique certes mais également politique. La succession de revers que continue à subir Tsahal à l'intérieur même de sa zone de sécurité ne fait que raviver ce sentiment d'échec et d'impuissance, relançant le débat public interne sur le maintien de la zone de sécurité, sur lequel nous reviendrons plus loin. Outre les fortes résistances de l'opinion publique à toute nouvelle expédition chez le petit voisin au nord, le gouvernement israélien doit également compter avec les oppositions et les divisions qui se sont développées au sein de son propre état-major sur l'opportunité d'une nouvelle action militaire pour " casser " le statu quo actuel et y imposer un nouvel ordre garantissant la sécurité " absolue " à la fois des populations du nord mais également celle des soldats de Tsahal. Que ce soit une opération punitive massive prenant en otage la population civile libanaise (à l'instar des " Raisins de la colère ") ou l'extension de la zone de sécurité vers le nord ou encore une attaque ciblée contre les positions de l'armée syrienne au Liban : aucune de ces trois variantes de l'option militaire n'apparaît dans le contexte actuel comme une stratégie gagnante. Aucune ne semble susceptible d'échapper à la logique de l'enlisement qui, depuis 1982 - 1985, est perçue comme une " malédiction " proprement libanaise où l'arme militaire finit par se retourner politiquement contre son utilisateur.
+En outre, il va sans dire que le contexte régional et international actuel ne se prête guère à une nouvelle action militaire israélienne au Liban. Le désengagement et la passivité relatives de l'Administration américaine au Proche-Orient sont incontestablement l'un des éléments du statu quo actuel. Dans le même temps, les conséquences diplomatiques du blocage du processus de paix et les réalignements géostratégiques qui se dessinent au Moyen-Orient, en même temps que la vague croissante d'anti-américanisme dans le monde arabe, n'augurent rien de bien rassurant à terme pour les intérêts et la position des États-Unis dans la région. L'activisme diplomatique tous azimuts que déploie la Syrie pour parer aux risques d'isolement que l'élection de Benyamin Netanyahou avait à un moment fait craindre, notamment par le biais de la consolidation des liens stratégiques avec la Turquie, a porté ses fruits. Le soutien réitéré apporté par l'Égypte et l'Arabie Saoudite à Damas, leur dénonciation quotidienne de la politique israélienne et de la complaisance américaine, leur refus de participer au sommet économique de Doha de novembre 1997, puis leur participation au sommet de la Conférence islamique à Téhéran un mois plus tard, constituent autant de signaux d'urgence lancés à Washington par ses deux alliés les plus fiables dans la région. Il est peu probable qu'à un moment où la capacité de médiateur de l'Administration américaine est sérieusement mise en cause par ses partenaires arabes, celle-ci avalise une action militaire israélienne au Liban. Échaudé par le coup de poker électoral qui a précipité Shimon Pérès dans la désastreuse opération " Raisins de la colère ", Washington ne voudrait en outre surtout pas prendre le risque de condamner ainsi le volet syrien des négociations, ce qui signerait l'arrêt de mort du processus. Tant que la partie syrienne continuera à se montrer disposée à reprendre les négociations avec Israël sur la base de " ce qui a été conclu à Wye Plantation ", les responsables américains veilleront à éviter toute escalade militaire dont l'objectif premier serait pour le gouvernement israélien d'imposer par la force l'option " Le Liban d'abord ". Le maintien du statu quo est un pis-aller aujourd'hui pour Washington qui a tant investi dans le processus de paix et qui peut se targuer d'avoir réalisé de remarquables percées sur le dossier syro-israélien en un laps de temps assez court, compte tenu de l'antagonisme profond qui opposait les deux parties. Il n'est pas question de revenir sur les acquis de Wye Plantation, qu'il faut geler en attendant que le verrou israélien se débloque, soit par un bouleversement de la donne interne, soit par un changement de l'état d'esprit de la communauté juive américaine et de ses puissants groupes de pression dans le sens d'une plus grande fermeté à l'égard du gouvernement actuel afin qu'il réactive le processus de paix.
+À ce jour, il n'y a donc pas eu ce dangereux glissement que beaucoup redoutaient, entre le retour à un état de guerre froide entre Israël et la Syrie et une détérioration incontrôlable de la situation au Liban-sud. L'autre front, celui du Golan, pourrait-il se rallumer dans ce contexte de regain de tension ? Le gouvernement israélien pourrait-il être tenté de porter le conflit en territoire syrien pour résoudre le dilemme dans lequel il se retrouve pris aujourd'hui au Liban-sud du fait de sa propre intransigeance sur le Golan et de l'absence d'une alternative militaire crédible pour sortir du bourbier libanais ? Cette option ne recueille pratiquement pas d'échos en Israël même parmi les milieux les plus " syrophobes " au sein de la coalition gouvernementale qui, redoutant l'ouverture d'un nouveau front sur le Golan, préconisent d'infliger enfin un coup fatal à la présence syrienne au Liban. Toutes les opérations israéliennes dans ce pays n'ont effectivement jamais pris pour cible les positions de l'armée syrienne dans la Békaa (à l'exception des frappes préventives de 1982), alors même que c'était Damas et non Beyrouth qui était politiquement visée. Il est peu probable que l'option militaire contre la Syrie, avec toutes ses conséquences incontrôlables en termes de sécurité pour l'État hébreu, fasse plus d'émules au sein de l'opinion publique comme de l'establishment militaire et politique, et ce, tant que Hafez al-Assad continuera, comme il l'a toujours fait, de se conformer aux fameuses lignes rouges au-delà desquelles il exposerait son pays à la supériorité militaire écrasante de Tsahal.
+Certains stratèges israéliens, minoritaires, n'écartent pourtant plus l'éventualité d'une guerre limitée que déclencherait le président syrien pour sortir de l'impasse politique devenue intenable. Les tenants de ce scénario reprennent à contre-pied une thèse communément partagée - par des hommes politiques aussi différents que Itamar Rabinovitch et Benyamin Netanyahou - selon laquelle Hafez al-Assad n'aurait jamais été pressé de signer un accord de paix sur le Golan. Au contraire rétorquent ceux-là, le président syrien se trouve aujourd'hui dans la même situation d'urgence que Yasser Arafat ou que Shimon Pérès à la veille des élections qui allaient sceller politiquement son sort. Il partagerait également ce même sentiment d'amertume et de frustration d'avoir laissé la " victoire " lui échapper alors qu'il était si proche du but : le retour du Golan sous souveraineté syrienne. Privé d'options diplomatiques pour libérer le Golan et face à l'inertie de la communauté internationale, Hafez al-Assad pourrait être tenté par une opération militaire sur le modèle de la guerre d'octobre 1973, sous la forme d'une incursion limitée au Golan dans la zone du mont Hermon, forçant ainsi Américains et Européens à intervenir rapidement pour prévenir les risques d'escalade et relancer les négociations. Ce scénario reste peu convaincant, ne serait-ce que par la place centrale qu'il accorde à la psychologie du président syrien qui, arrivant au seuil de son existence et à l'heure terrible des bilans, opterait brutalement pour un revirement de la stratégie qui a été la sienne depuis 1973 et qui a été globalement gagnante en termes de poids régional, pour se précipiter tête baissée dans une confrontation militaire avec Israël, dans une ultime tentative de jouer quitte ou double : c'est-à-dire récupérer le Golan ou perdre tous les acquis engrangés jusque-là, dont la mainmise sur le Liban. En outre et sans être un fin stratège, on voit mal selon quelle logique Israël céderait à une pression militaire syrienne sur le Golan, en acceptant de reprendre les négociations selon les conditions posées par Damas, alors que la guerre d'usure au Liban-sud n'a pas à ce jour entamé l'intransigeance du gouvernement israélien. Le président Assad - qui a toujours dans ses calculs accordé une place centrale aux équilibres stratégiques - sait qu'une tentative syrienne pour occuper par la force une partie du Golan entraînera une riposte israélienne dévastatrice. Les conditions qui prévalent aujourd'hui sont en outre radicalement différentes du contexte régional et international qui a permis à Anouar al-Sadate de récolter les fruits politiques d'une opération militaire limitée dans ses objectifs. Le président égyptien disposait alors d'atouts stratégiques majeurs qui font défaut à Hafez al-Assad - et qui expliquent d'ailleurs le choix historique de la Syrie de renoncer à la parité stratégique avec l'État hébreu et d'accepter l'option de la paix : l'effondrement de l'Union soviétique, le découplage des divers volets égyptien, jordanien et palestinien, la disparition d'un " front " arabe commun, etc. Enfin, une défaite militaire de cette taille infligée à l'armée syrienne risquerait fort de provoquer un cataclysme interne. La dernière chose que souhaiterait le président syrien est de se retrouver piégé dans une confrontation militaire avec Israël.
+Hafez al-Assad continuera à privilégier l'option actuelle de " ni guerre, ni paix " que la Syrie a connue de 1974 à 1991 avant qu'elle ne se rallie au processus de Madrid. La suspension des négociations a évidemment considérablement réduit ses options. Néanmoins, le président Assad a une longue expérience de ces situations de statu quo et il sait comment en exploiter les failles et tourner à son profit le processus de " pourrissement " actuel, pour préparer les conditions de nouvelles négociations de paix. Loin de le réduire à l'impuissance ou à la passivité, la perpétuation de ce scénario le poussera de plus en plus à jouer de sa capacité de nuisance en agissant sur quatre leviers : faire payer Israël un prix de plus en plus lourd au Liban-sud ; geler tout processus de normalisation entre Arabes et Israéliens et renforcer son soutien aux mouvements d'opposition aux accords d'Oslo ; jouer sur les tensions entre Tel-Aviv et Washington ; et enfin rentabiliser au mieux les deux cartes, iranienne et irakienne.
+Le scénario du statu quo réduit donc plutôt qu'il ne favorise les risques d'escalade militaire. En revanche, il n'est pas immuable en ce sens que l'on est entré, non pas dans une situation de gel du processus de paix, comme l'auraient souhaité ses architectes américains, mais dans une phase de régression. En effet, si certains acquis semblent aujourd'hui irréversibles, tels les deux accords de paix égypto-israélien et jordano-israélien, la paix des peuples régresse de façon assez inquiétante. Pour certains, cela relève d'une vision romantique et angélique de la réconciliation historique des sociétés arabes et israélienne, bien éloignée des véritables impératifs et intérêts politiques, économiques et stratégiques censés guider le processus de paix. Mais, si les États arabes peuvent décider de faire la paix dans un premier temps sans leurs peuples, ils ne peuvent la faire contre eux. Le raidissement et même la radicalisation des opinions publiques arabes vis-à-vis d'Israël ont aujourd'hui des réminiscences d'une époque que l'on croyait révolue depuis une dizaine d'année : celle du refus du fait accompli israélien. Un tel état de chose, s'il se prolongeait, aurait des incidences politiques et stratégiques dans la mesure où la marge de manoeuvre des États arabes se retrouverait progressivement réduite vis-à-vis d'Israël mais aussi de Washington. Déjà affaiblis sur le plan interne, ils seront de plus en plus contraints à répondre de leurs choix face à des sociétés qui ne voient guère se matérialiser les dividendes de la paix et face à une contestation politique interne, majoritairement islamiste, opposée à la normalisation avec l'État hébreu. Autant que l'évolution politique interne en Israël ou la question de l'après-Assad, cette donnée est essentielle dans l'évaluation des différents scénarios et de leur probabilité.
+La principale clef du statu quo actuel réside sans aucun doute en Israël. En dépit de l'opposition virulente de l'ensemble des élites - hommes politiques, intellectuels, armée, services de sécurité et de renseignements - et d'une position de plus en plus inconfortable au sein de son propre parti, le Premier ministre semble être passé maître dans l'art de la survie politique. Si le maintien de Benyamin Netanyahou au pouvoir et sa réélection en l'an 2000 semblent constituer une garantie contre la reprise des négociations syro-israéliennes, rien ne permet d'affirmer aujourd'hui qu'un changement de la donne politique israélienne, à moyen terme, débloquera l'impasse actuelle. Dans tous les cas de figure envisagés, motion de censure contre le gouvernement (qui requiert 61 voix au sein de la Knesseth) ou contre le Premier ministre (80 voix), provoquant des élections anticipées dans le premier cas, et la nomination d'un nouveau chef de gouvernement dans l'autre, il est probable que le Golan et la paix avec la Syrie ne constitueront pas des enjeux prioritaires tant au niveau de l'opinion publique que de la classe politique. Ce désintérêt s'explique par le fait que ces enjeux ne sont pas pour l'heure vitaux pour la sécurité d'Israël. Il est vrai que la frontière syro-israélienne est la plus sûre, à telle enseigne que le Golan et le lac de Tibériade sont aujourd'hui les lieux de villégiature privilégiés des Israéliens, les colons eux-mêmes se reconvertissant massivement dans le secteur touristique.
+En dépit de ses professions de foi préélectorales que le Golan restera israélien et qu'il s'y emploiera pour cela, la position de Benyamin Netanyahou sur la paix avec la Syrie est plus ambivalente qu'il n'y paraît. Ainsi, à la veille de la première tournée dans la région du secrétaire d'État américain, Madeleine Albright, au mois de septembre 1997, des rumeurs persistantes ont circulé dans les médias israéliens sur des messages secrets que le Premier ministre aurait fait parvenir à Hafez al-Assad, via Dennis Ross et/ou Uzi Arad, son conseiller politique, pour examiner les possibilités d'une reprise des négociations avec la Syrie. Le Premier ministre aurait proposé une version édulcorée de la formule lancée par Itzhak Rabin et reprise par Shimon Pérès, selon laquelle la profondeur du retrait n'est plus proportionnelle à la profondeur de la paix, mais aux garanties de sécurité que Damas est prête à concéder à l'État hébreu sur le Golan. Bien que le cabinet du Premier ministre ait confirmé la nouvelle, il a refusé d'en divulguer la teneur. Benyamin Netanyahou est prisonnier non seulement de son approche idéologique - que l'on peut résumer concernant la Syrie par " la paix avec le Golan " - mais également de ses impératifs de survie politique au quotidien. Toute concession sur le Golan risque en effet de provoquer l'effondrement de sa propre coalition. Avigdor Kahalani, ministre de la Sécurité intérieure et leader du parti de la " Troisième voie ", l'un des officiers ayant combattu sur le Golan, est formellement opposé à toute forme de restitution du plateau vital, selon lui, pour la sécurité de l'État hébreu.
+Impensable à la veille de l'opération " Raisins de la colère ", ce scénario avec toutes ses variantes fait désormais partie du domaine du " politiquement " envisageable. Il a été retenu ici en raison de l'évolution du débat en Israël sur le Liban qui, en moins de deux ans, a acquis une acuité sans précédent. Le tabou qui, depuis 1982, inhibait la liberté de débattre de la politique libanaise de l'État hébreu a été levé. L'audience que recueille l'option du retrait unilatéral du Liban-sud s'est élargie de façon spectaculaire en l'espace de deux ans à peine. Les causes sont liées à la prise de conscience, déjà latente mais accélérée par le bilan négatif des " Raisins de la colère ", du fait qu'Israël n'a pas les moyens de gagner cette guerre d'usure au Liban-sud et que la zone de " sécurité " est devenue en soi une source d'insécurité où de jeunes soldats israéliens continuent de payer de leur vie une politique que certains jugent " archaïque " et dépassée. Une autre raison fondamentale à cette remise en question de la légitimité même des arguments sécuritaires, qui justifient le maintien de la zone de sécurité, est liée à l'arrêt net et brutal du processus de paix avec la Syrie. Tant que les négociations syro-israéliennes semblaient en bonne voie et sur le point d'aboutir à un accord global, incluant le règlement du problème libanais, les victoires de la guérilla remportées par le Hezbollah avaient moins d'importance. L'impasse au Liban-sud était vécue comme un mal nécessaire mais provisoire. Alors qu'aujourd'hui l'option de la paix avec la Syrie semble durablement enterrée, des voix de plus en plus nombreuses s'élèvent en Israël pour réclamer une révision de la politique libanaise et une redéfinition de ses objectifs à la lumière de la situation actuelle. Ce sentiment d'urgence au Liban-sud est exacerbé aussi par le nouveau cadre imposé par l'accord de cessez-le-feu qui a mis un terme à l'opération " Raisins de la colère " d'avril 1996 et a contribué à rétrécir considérablement le champ des options israéliennes. Cet arrangement impose des conditions restrictives à l'armée israélienne rendant à terme sa position intenable. Le système dans le cadre duquel opère l'armée israélienne au Liban-sud est devenu de plus en plus rigide, ne serait-ce qu'en raison de l'existence du Comité de surveillance du cessez-le-feu qui bride l'action de l'armée israélienne et neutralise en grande partie sa puissance de feu en lui interdisant de s'en prendre aux civils. En outre, la présence d'Américains et de Français au sein de ce comité a de facto contribué à une forme d'internationalisation du conflit. Sur le plan militaire et en dépit des récentes déclarations du ministre de la Défense sur les " bons résultats " obtenus par l'armée israélienne grâce à la mise en oeuvre de tactiques de combat plus performantes, Tsahal reste astreint à une position défensive face au Hezbollah dont les méthodes de guérilla se sont considérablement affinées au cours de ces dix dernières années et qui semble contrôler parfaitement le terrain. Pour la première fois depuis l'instauration de la zone de sécurité, le nombre de tués israéliens a dépassé en 1997 celui des Libanais, civils et combattants du Hezbollah confondus.
+La question du maintien de la zone de sécurité est devenue un facteur de division aussi bien parmi la classe politique qu'au sein de l'état-major de l'armée qui se garde pourtant d'étaler au grand jour ses discordances internes. L'option du retrait unilatéral, total ou partiel, provoque un débat public particulièrement vif entre partisans et opposants. Les prises de position sur cette question transcendent les lignes de clivages traditionnels Likoud/Parti travailliste et finissent par brouiller encore davantage un échiquier politique déjà confus. Ainsi, si la " colombe " travailliste, Yossi Beilin, et le " faucon " du Likoud et ministre des Infrastructures nationales, Ariel Sharon, soutiennent tous deux l'option du retrait unilatéral, leurs motivations sont loin d'être les mêmes. L'architecte de l'opération de 1982 " Paix en Galilée ", qui rejoint par là les positions du parti de la " Troisième voie ", est favorable à un retrait unilatéral, à la seule condition qu'il ne soit pas négocié avec les Syriens. L'objectif est non seulement de priver la Syrie de son atout-maître, mais également de dissocier les deux volets libanais et syrien. Il ne s'agit plus de l'option " Le Liban d'abord ", mais de l'option " Le Liban seulement ". Le retrait se transforme alors en une carte contre la Syrie. Mais l'un des arguments majeurs de Ariel Sharon reste qu'Israël doit pouvoir décider en toute liberté du moment, des modalités et des conditions d'un retrait. Yossi Beilin et d'autres, dont l'" Association des 4 mères " de soldats israéliens servant au Liban-sud, s'appuient davantage sur des arguments de type humanitaire pour démonter le raisonnement stratégique et sécuritaire qui sous-tend le maintien de cette zone-tampon. Le nombre de soldats israéliens tués au Liban (1 200 environ depuis 1982) et le bilan chaque année un peu plus élevé devraient, selon eux, inciter les responsables israéliens à changer de politique. Ils soutiennent que Tsahal serait bien plus en mesure de défendre la sécurité de l'État d'Israël à partir du territoire israélien. À l'extrême gauche de l'échiquier politique, on retrouve des opposants au retrait tels que le député Yossi Sarid (Meretz) - l'un des plus virulents critiques de l'opération " Paix en Galilée " - qui redoute dans ce cas de figure un déluge de katioushas sur le nord d'Israël, contraignant l'armée israélienne à revenir en force au Liban en y lançant une invasion massive, terrestre et aérienne.
+Le consensus apparent au sein des forces armées sur la nécessité de maintenir cette zone-tampon aussi longtemps qu'Israël et la Syrie ne sont pas parvenus à un accord politique semble sérieusement ébranlé. Le doute commence à gagner un nombre croissant d'officiers supérieurs du Commandement de la région nord quant à l'efficacité d'une politique dont le but déclaré est de protéger la sécurité de la frontière nord d'Israël sans pour autant exposer la vie des soldats israéliens. Bien que ces responsables militaires ne fassent aucune déclaration publique sur une nécessaire révision de la stratégie israélienne au Liban, certaines " fuites " laissent à penser que l'option d'un retrait unilatéral fait de plus en plus d'émules jusqu'aux plus hauts échelons de la hiérarchie militaire. De l'avis de ces militaires, l'enlisement de Tsahal au Liban-sud commence à affecter sérieusement le moral des troupes alors que l'assurance et la combativité du Hezbollah ne font que se renforcer sur le terrain. À l'inverse, l'ALS censée au départ être la cheville ouvrière de tout le dispositif israélien au sud est devenue au fil du temps et plus précisément depuis deux ans un allié de moins en moins fiable et de plus en plus difficile à gérer et à contenir. Plusieurs sources, israéliennes et autres, font état de défections de plus en plus nombreuses en son sein de jeunes combattants qui vont grossir les rangs du Hezbollah et/ou se transforment en agents doubles transmettant au Hezbollah des renseignements sur les mouvements et les opérations tactiques des troupes israéliennes.
+Contre les tenants de cette thèse, un noyau dur d'officiers continue à défendre fermement le maintien de la zone de sécurité comme un moindre mal. Un retrait sans garantie de sécurité, même avec menaces de représailles massives en cas d'attaques du Hezbollah sur le nord d'Israël, serait un coup de poker aux risques incontrôlables, qui exposerait directement les populations civiles. Les combattants du Hezbollah s'étendraient tout au long de la frontière et tenteraient des opérations d'infiltration en territoire israélien. Le retrait porterait également un coup fatal au prestige de Tsahal vis-à-vis de l'opinion publique israélienne mais également arabe, contrainte pour la première fois de se replier sous la pression d'une guérilla de quelques milliers d'hommes. Ainsi, selon Uri Lubrani, coordinateur des opérations israéliennes au Liban-sud, ce serait pure folie que d'envisager un retrait dans les conditions actuelles, même assorti de mesures sécuritaires et logistiques, impliquant une tierce partie, la France par exemple, qui en garantirait la bonne application. Il est convaincu que le maintien de la zone de sécurité est la situation la moins coûteuse pour Israël en termes de sécurité. Il considère l'option " Le Liban d'abord ", dans toutes ses formulations et déclinaisons, comme mort-née, mais n'est pas partisan pour autant de la réédition d'une attaque de type " Raisins de la colère ".
+La pression croissante de l'opinion publique relayée par le malaise dans les rangs de l'armée face aux succès militaires remportés par le Hezbollah - notamment contre le fameux char d'assaut Merkava, fleuron de l'industrie de l'armement israélienne - inquiète le gouvernement qui a pourtant réitéré par la bouche de son ministre de la Défense, Itzhak Mordechaï, son engagement à respecter les termes du cessez-le-feu d'avril 1996. Néanmoins, la radicalisation de ce débat ne peut manquer à terme de faire éclater les contradictions - et peut-être bien les divisions internes - du gouvernement qui marche, par conservatisme ou absence de consensus interne, dans les pas de son prédécesseur mais sans avoir de direction précise. S'agit-il de ne rien entreprendre au Liban qui puisse y miner l'influence et la prédominance de la Syrie, seule puissance en mesure de garantir une pacification de la frontière nord d'Israël permettant aux troupes de Tsahal de se retirer en toute sécurité ? Mais alors comment résoudre cette contradiction inhérente à la position israélienne qui reconnaît à la Syrie les pleins droits sur le Liban mais ne lui en concède aucun sur le Golan ?
+Les probabilités d'un tel scénario de retrait unilatéral restent minces. En dépit de l'acuité du débat, l'opinion publique ne semble pas dans sa majorité gagnée par l'idée du retrait. L'une des raisons à cela est liée à la perception négative de la notion d'" unilatéral " qui équivaudrait à " inconditionnel ", donc à une forme de reddition de l'armée israélienne. En réalité, aucun des acteurs principaux ne souhaite qu'Israël le mette en pratique, surtout dans sa version inconditionnelle et non concertée : ni les Syriens qui se retrouveraient privés de leur principal levier de pression sur Israël, ni l'État libanais qui redoute l'installation d'un vide stratégique au Liban-sud favorisant les tensions et les règlements de compte intra-libanais, ni Washington et ses alliés arabes - notamment l'Égypte et l'Arabie Saoudite qui ont officiellement avalisé et soutenu la stratégie syrienne sur la " concomitance des deux volets " - convaincus que toute solution politique au Liban-sud doit nécessairement passer par Damas.
+Un tel cas de figure présente pourtant bien des avantages du point de vue israélien, l'isolement du couple syro-libanais n'en est pas des moindres. Non point que l'État hébreu cherche à défaire ce couple ; comme il a été souligné plus haut, aucun dirigeant israélien de droite ou de gauche ne souhaite aujourd'hui s'immiscer dans les relations bilatérales entre la Syrie et le Liban. Mais, en renonçant à sa zone de sécurité, Israël aurait réussi à s'extirper de ce triangle hors duquel le couple syro-libanais perd l'un de ses éléments essentiels de cohésion et de légitimation. Le redéploiement des troupes syriennes, prévu par les accords de Taëf, serait de nouveau à l'ordre du jour. Par ailleurs, il n'est pas du tout sûr, contrairement aux craintes exprimées par les opposants à un retrait unilatéral, que le Hezbollah " poursuive " l'armée israélienne en Israël pour deux raisons majeures. La première est qu'il est très délicat pour la Syrie d'apporter sa caution implicite à des opérations militaires menées en territoire israélien, par crainte à la fois de l'ampleur prévisible de la riposte israélienne et de la réprobation internationale que cela ne manquera pas de susciter, de la part aussi bien des États-Unis et de l'Union européenne que des alliés égyptien et saoudien de la Syrie. La deuxième raison tient à la stratégie proprement interne du Hezbollah qui prime sur toute autre considération d'ordre régional. La direction actuelle du mouvement ne voudrait en aucun cas mettre en péril les bénéfices politiques de plus d'une douzaine d'années de résistance à l'occupation israélienne en " ouvrant ", en cas de retrait des troupes de Tsahal, un nouveau front sur la frontière libano-israélienne. Le capital de sympathie et de soutien dont il bénéficie sur le plan national et l'audience croissante qu'il s'est taillé au sein de la communauté chiite face au mouvement Amal pourraient en être durablement affectés et menacer la survie même du mouvement sur la scène politique libanaise.
+Malgré les avantages qu'elle présente, une telle initiative israélienne constituerait un coup de poker, tant les risques restent grands et imprévisibles. Un bien timide ballon d'essai a été lancé avec l'évacuation par l'ALS d'une douzaine de villages de la région de Jezzine. Cette manoeuvre visait à tester la capacité de l'État libanais à reprendre le contrôle des zones " libérées ", dans l'hypothèse d'un retrait par étapes (autre variante du retrait unilatéral). Face à l'absence de réaction de la part tant du Hezbollah que de l'armée libanaise, le gouvernement israélien semble pour l'heure avoir renoncé à la carte " Jezzine d'abord ". Mais cette option comme celle d'un retrait total restent ouvertes. Beaucoup dépendra de la configuration future des rapports de forces internes en Israël dont il est difficile de saisir les contours, et de l'évolution de la relation avec Washington. Une impasse prolongée sur le dossier palestinien peut également pousser le gouvernement israélien à cette forme de fuite en avant en évacuant ses troupes de la zone de sécurité. Il n'est pas exclu que Benyamin Netanyahou ait, en son for intérieur, déjà pris cette décision et qu'il attende le moment opportun pour abattre une carte qu'il estime gagnante. L'ALS prend très au sérieux la possibilité d'un retrait subit et non concerté de Tsahal, comme le prouvent les déclarations de son commandant, Antoine Lahad, qui, pour la première fois, a publiquement menacé Israël de représailles en cas de retrait unilatéral.
+Mais, si un tel retrait s'effectuait dans le contexte actuel de blocage diplomatique, même sous la bannière de la résolution 425, il ne contribuerait certainement pas à désamorcer le climat de tension. L'État libanais serait bien en peine de reprendre le contrôle du Liban-sud, bien que, techniquement, l'armée soit aujourd'hui tout à fait en mesure de remplir le rôle prévu par les accords de Taëf. Il devra faire face à un grave dilemme en cas de retrait : soit laisser le champ libre au Hezbollah - sur instructions syriennes -, soit déployer l'armée libanaise dans une région qui échappe totalement depuis 1978 à l'autorité du pouvoir central et remplir le rôle de garde-frontières au bénéfice d'Israël. La Syrie, quant à elle, célébrera à grands renforts de médias et de déclarations triomphalistes la " libération " du Liban-sud comme la victoire de la résistance libano-syrienne. Mais le temps des festivités passé, le président Assad devra relever ce défi qui met à plat sa stratégie de négociation face à Israël. Il pourrait opter pour l'escalade mais encore faudrait-il qu'il puisse justifier au regard de la communauté internationale la poursuite d'actions de " résistance " en territoire israélien. Des substituts au Hezbollah - trop identifié aujourd'hui à la résistance libanaise contre l'occupation israélienne -devront être trouvés qui agiront alors sous le slogan " Libérer la Palestine ". Le président Assad pourrait se servir des principaux mouvements d'opposition palestiniens qu'il abrite pour recréer un nouveau " fathland " au Liban-sud, comme aux heures de gloire de la résistance palestinienne au Liban.
+L'autre alternative - qui semble la plus probable - est qu'il prendra sagement le temps de la réflexion, en évitant surtout de se lancer dans une action précipitée qui risquerait de menacer son emprise sur le Liban. Son réflexe premier sera plutôt de chercher à protéger la solidité du couple syro-libanais même s'il doit dans le même temps mettre entre parenthèses son " combat " pour libérer le Golan. Il sait qu'il dispose d'atouts non négligeables en cas de retrait unilatéral israélien. Le premier d'entre eux et le plus important est que personne - ni la troïka libanaise, ni les pays arabes, ni Israël, ni l'Iran, ni les États-Unis, ni même la France ou l'Union européenne - n'exigera de la Syrie qu'elle se conforme enfin aux dispositions des accords de Taëf qui prévoient le redéploiement puis le retrait des troupes syriennes, selon un échéancier bien précis mais sans cesse repoussé en raison des " conditions exceptionnelles " que traverse le Liban, autrement dit l'occupation israélienne et la nécessité vitale d'y mettre un terme. La crainte réelle d'un basculement du Liban dans la guerre civile agit comme un repoussoir pour tous les acteurs régionaux ou internationaux impliqués directement ou indirectement sur la scène libanaise. Même l'Iran - qui figure en tête de la liste des " rogue states " établie par l'Administration Clinton - ne serait pas favorable à une rupture du statu quo intercommunautaire libanais issu de Taëf qui a considérablement amélioré la position et le poids de la communauté chiite. Il est important de souligner à cet égard, contrairement à la perception largement partagée en Israël, que Téhéran reste un acteur extérieur au triangle syro-libano-israélien et que son influence sur le Hezbollah a été démesurément exagérée. Il ne s'agit pas de nier la réalité des faits, à savoir que ce mouvement est né en 1985 de l'alliance syro-iranienne au Liban, à un moment où il y avait une véritable prolifération de milices au Liban. Mais ce mouvement a réussi à se hisser au rang de parti politique et à s'affirmer, à travers sa participation au jeu électoral et sa forte représentation parlementaire, comme un acteur à part entière sur la scène politique libanaise - pour autant bien sûr que l'on puisse qualifier de vie politique, l'immobilisme et la paralysie qui frappent les institutions de la IIe République libanaise. En tout état de cause, le jeu de Téhéran au Liban a toujours soigneusement évité de heurter de front ou de court-circuiter le " maître et seigneur des lieux " syrien. Les États-Unis s'abstiendront également d'exercer des pressions dans ce sens pour les raisons qui ont été évoquées plus haut - ménager la Syrie dans l'espoir d'un déblocage du processus de paix - et parce qu'ils ne font guère confiance à la capacité de l'État libanais à assurer la paix civile et à imposer son autorité sur l'ensemble du territoire. Quant aux Israéliens, ils seront plus que sensibles aux arguments que la Syrie ne manquera d'agiter comme autant d'épouvantails contre d'éventuelles pressions pour qu'elle retire ses troupes du Liban. Le premier de ses arguments concerne la " porosité " de la frontière libano-israélienne : seule Damas est aujourd'hui en mesure de contrôler les groupes potentiels qui voudront se lancer dans de nouvelles opérations de guérilla en territoire israélien. Le deuxième argument, tout aussi porteur, est lié à la question des 300 000 réfugiés palestiniens au Liban dont le sort est de plus en plus incertain, compte tenu à la fois du refus de l'État libanais d'envisager une quelconque solution d'" intégration " et du déraillement du processus d'Oslo. Là encore, le rôle de la Syrie peut s'avérer vital. Enfin, la position commune de la France, de l'Union européenne et de la majorité des pays arabes est que la Syrie doit demeurer une partie centrale de tout accord ou " désaccord " dans le cas d'un retrait unilatéral israélien...
+Le triangle syro-libano-israélien est aujourd'hui complètement verrouillé par l'impasse du processus de paix. Des trois parties prenantes à ce jeu triangulaire, c'est sans conteste l'acteur israélien qui détient la clef d'un " déblocage ". Au terme de cette étude, il semble probable que l'option du statu quo l'emportera côté israélien, tout au moins jusqu'aux prochaines élections législatives. Mais la scène politique israélienne reste confuse et son évolution, même à court terme, demeure imprévisible ; ce qui n'est pas sans déconcerter les amateurs de scénarios que nous sommes et qui avons appris qu'une démocratie offrait plus de transparence et de lisibilité au niveau de sa politique extérieure et de sa sécurité qu'une autocratie, et qu'elle était naturellement plus encline à opter pour la paix. Il n'est pas de notre propos ici d'analyser les mutations sociopolitiques diverses que connaît l'État d'Israël. Mais le processus de paix et son accélération en l'espace de trois ans à peine ont eu l'effet d'un séisme sur une société contrainte de se redéfinir dans son double rapport à son environnement resté étranger et à son identité propre. Le refus de l'assimilation que prône Benyamin Netanyahou n'est que l'une des expressions de ce choc historique. Il n'est dès lors pas acquis que son départ suffise à remettre sur les rails le processus de paix. Ehoud Barak, secrétaire général du Parti travailliste, lui-même, se garde bien de s'engager clairement sur le sujet. Homme secret, il fait très peu de discours et se présente toujours comme le successeur de Itzhak Rabin. On suppose qu'une fois au pouvoir et disposant d'une majorité confortable, il donnerait la priorité au volet palestinien. Concernant les négociations avec le couple syro-libanais, il adoptera à n'en pas douter la même approche que Itzhak Rabin et Shimon Pérès, à savoir que la Syrie reste le passage obligé de tout règlement global. Au mois d'août 1997, il avait envoyé par l'intermédiaire de la délégation d'Arabes israéliens, en visite à Damas, une lettre au président syrien dans laquelle il s'engageait à suivre la voie de la paix tracée par Itzhak Rabin.
+Hafez al-Assad qui, à cette occasion, a loué les vertus d'homme de paix du président du Parti travailliste, continuera à observer avec beaucoup d'attention les évolutions politiques internes en Israël. À mi-parcours entre la suspension des négociations début mars 1996 et la fin du mandat de Benyamin Netanyahou en l'an 2000, le président syrien n'a de meilleur choix que celui d'attendre en tablant sur le fait que le temps joue contre le premier ministre israélien et discrédite les options qu'il défend, en démontrant qu'il n'y aura pas de sécurité pour l'État hébreu sans paix réelle. Et cette paix doit passer par la restitution du Golan et l'évacuation du Liban-sud tout en préservant l'une des victoires les plus éclatantes de Hafez al-Assad : la consolidation de son hégémonie au Liban.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Cet article a été traduit par May Chartouni-Dubarry.
+Il a fallu beaucoup de temps et de longs débats internes à la Syrie avant d'accepter l'idée que le processus de négociations bilatérales et multilatérales, lancé lors de la conférence de Madrid en 1991, pouvait à terme déboucher sur une paix réelle avec Israël. En effet, une large partie de l'élite politique comme intellectuelle redoutait les conséquences de la paix et de la " normalisation " sur la position régionale de la Syrie, sa stabilité interne et sa situation économique. Damas est demeurée pendant un long moment sceptique quant à la volonté réelle d'Israël de parvenir à un accord équitable et satisfaisant pour les deux parties. Ce n'est qu'en 1995 que les responsables syriens ont commencé à croire qu'une base commune pouvait être trouvée avec le gouvernement travailliste. Et de fait, les négociations tenues à Maryland de décembre 1995 à janvier 1996 ont été beaucoup plus sérieuses et poussées que tous les " rounds " précédents. C'est à ce moment-là, semble-t-il, que les Syriens ont pris la décision de s'engager pleinement dans le processus de paix.
+Mais les choses allaient se dérouler autrement que prévu. La victoire de Benyamin Netanyahou aux élections de 1996 a pris les responsables syriens par surprise ; ils ne l'avaient évidemment ni souhaitée, ni intégrée dans leur stratégie de négociation comme une éventualité plausible. Mais rien ne pourra les contraindre aujourd'hui à renégocier avec le gouvernement du Likoud ce qui avait été déjà négocié avec ses prédécesseurs ou de revenir sur les bases de l'accord tel qu'il semblait se préciser avec les travaillistes, autrement dit un retrait israélien " total " du Golan en échange d'une paix " totale ".
+Par conséquent, le scénario le plus probable, aussi longtemps que le Likoud demeurera au pouvoir, est la prolongation de la situation de " ni paix, ni guerre " entre la Syrie et Israël, autrement dit la poursuite de la guerre d'usure au Liban-sud avec toujours les risques d'escalade généralisée et d'une confrontation directe entre les forces israéliennes et syriennes. À court et moyen termes, le scénario le plus improbable reste celui d'une reprise des négociations menant à terme à un accord de paix syro-israélien, en raison soit d'un changement de l'équipe au pouvoir en Israël, soit d'un revirement de stratégie de la part du gouvernement actuel.
+Cette étude tente, pour chacun de ces deux cas de figure, d'analyser les implications qui pourraient en résulter sur la situation interne de la Syrie, sa position et sa stratégie régionales, en mettant plus particulièrement l'accent sur les relations avec le Liban. La " question de la succession " du pouvoir syrien actuel sera également abordée. Enfin, quelques suggestions seront faites concernant plus spécifiquement la politique européenne vis-à-vis de la Syrie, du volet syro-israélien des négociations et du " couple " syro-libanais.
+Le lecteur devra garder à l'esprit les limites inhérentes à ce genre d'exercice. Les scénarios développés ici et leur probabilité de réalisation se fondent certes sur des informations et une analyse objectives. Il n'en demeure pas moins que les sociologues et politologues ne sont pas pourvus de dons de voyance qui rendraient leurs prévisions infaillibles.
+En supposant que le gouvernement de Benyamin Netanyahou se maintienne au pouvoir en Israël, il est probable que l'impasse actuelle du processus de paix persiste surtout au niveau de son volet syrien. Cela d'autant plus que la prolongation de cette situation instable de " ni guerre, ni paix " - qui prévaut d'ailleurs entre Israël et la Syrie depuis 1974 - est perçue par beaucoup, notamment parmi les responsables de la politique moyen-orientale à Washington, comme étant la plus favorable. Pour la ligne " dure " israélienne, un traité de paix avec la Syrie n'a jamais été considéré comme valant la perte du Golan ; les dirigeants syriens sont à cet égard honnêtes quand ils affirment que, pour eux, le temps ne presse pas. Si les deux parties peuvent s'accommoder du statu quo actuel, elles ont un égal intérêt à éviter la guerre ouverte et réussiront en toute probabilité - comme l'expérience passée tend à le démontrer - à le faire.
+L'intransigeance israélienne et l'impasse du processus de paix ont contribué jusque-là à renforcer la position de la Syrie vis-à-vis de ses alliés dans la région. Dans le court et moyen termes au moins, les alliés arabes de la Syrie, autrement dit ses partenaires de la déclaration de Damas (l'Égypte et les États du Conseil de coopération du Golfe), continueront à lui apporter leur concours politique et financier. Damas pourra également compter sur le soutien moral et politique de la Ligue arabe, dont l'expression la plus forte a été la décision prise en 1996 de lier le processus de normalisation avec Israël aux progrès accomplis au niveau des deux volets syro-israélien et israélo-palestinien. La reconnaissance de ce lien entre la " normalisation " régionale et les négociations bilatérales avec l'État hébreu conjure pour la Syrie le spectre de l'isolement dans le cadre d'un " Nouveau Moyen-Orient " façonné par Israël, la Jordanie, certains États arabes du Golfe et du Maghreb auquel se joindrait peut-être la Turquie. Ce lien vient également rappeler aux Israéliens que Damas (autant que Gaza) demeure le passage obligé vers l'établissement de relations économiques et commerciales avec le monde arabe. Quant aux relations syro-iraniennes, elles ne sont pas tributaires de l'attitude de la Syrie vis-à-vis d'Israël mais sont fondées plus largement sur des intérêts communs. Il n'en demeure pas moins que le gel actuel des relations entre la Syrie et Israël supprime un facteur de tension potentiel entre les deux alliés. Le timide rapprochement esquissé avec l'Irak répond en large partie aux craintes que suscite le renforcement de l'alliance stratégique entre Israël et la Turquie. Il ne faut cependant pas s'attendre à voir se former une contre-alliance syro-irakienne. La méfiance réciproque reste forte entre Damas et Bagdad, et il est probable que les responsables syriens limiteront leurs relations avec le régime irakien en fonction de ce que leurs alliés arabes du Golfe jugeront acceptable.
+Sur le plan international, les relations de la Syrie ne seront pas affectées outre mesure par l'impasse actuelle et cela tant que Damas continuera à faire la preuve de son engagement en faveur de la paix. L'Administration américaine, qui n'est pas sans ignorer que la collaboration de la Syrie est essentielle pour relancer le processus, ne cédera probablement pas aux pressions du Congrès en faveur d'un durcissement de la politique américaine à l'égard de Damas. Pour l'Union européenne, un accord syro-israélien reste la clef de la paix et de la stabilité au Moyen-Orient et en Méditerranée. Conscients que leur contribution au volet syro-israélien des négociations est limitée, l'UE, et certains États européens individuellement, continueront à favoriser une plus grande participation de la Syrie et d'Israël dans le cadre des projets de coopération euro-méditerranéenne, et notamment la négociation d'un accord d'association entre l'UE et la Syrie. Damas considère cette initiative européenne comme un moyen d'intégrer la mondialisation économique via l'Europe plutôt que par le biais d'un " Nouveau Moyen-Orient " dominé par Israël. La Syrie acceptera l'assistance européenne pour accompagner le processus de réformes mais ne tolérera pas qu'on en lui dicte le rythme - que ce soit l'Europe plutôt que la Banque mondiale n'y changera rien. En outre, tant que le volet syro-israélien demeurera bloqué, il est peu probable que la Syrie soit soumise à des pressions américaines, européennes ou arabes pour desserrer son emprise sur le Liban.
+Selon la vision " realpoliticienne " de Damas, la configuration des rapports de force au Machrek reste essentiellement dominée par la compétition entre les deux principales puissances régionales : Israël et la Syrie. Dans cette perspective, les acteurs arabes " secondaires " - la Jordanie, les Palestiniens et le Liban - devraient dans leur intérêt propre accepter de se placer sous la houlette syrienne. Toute forme de relations que l'une de ses parties engagerait avec l'État hébreu, stratégique ou économique, sans coordination préalable avec Damas, contribuerait à affaiblir le camp arabe. Depuis que l'OLP et la Jordanie ont choisi de faire cavalier seul, la carte libanaise est devenue encore plus vitale pour Damas qui veille jalousement à travers son emprise sur tous les aspects de la politique libanaise à prévenir toute tentative de dissocier les deux volets syrien et libanais, à l'instar de l'option israélienne du " Le Liban d'abord " et de ses différentes variantes. La Syrie dispose des moyens nécessaires pour empêcher le Liban de s'engager dans une négociation séparée avec Israël et mettra toute l'énergie nécessaire afin que le règlement du problème libanais soit partie d'un accord global syro-israélien. En l'absence de progrès dans les négociations entre Damas et Tel-Aviv, la stratégie syrienne consistera à maintenir une pression constante, quoique limitée, sur Israël, à travers son soutien conditionnel au Hezbollah et autres groupes de résistance, mais toujours en évitant d'exposer les forces armées ou le territoire syriens.
+Il existe deux éventualités, quoique peu probables, qui pourraient bouleverser cette situation. La première est celle d'un retrait unilatéral des forces israéliennes du Liban - en application de la résolution 425 du Conseil de sécurité des Nations unies - avec menace de représailles massives en cas d'attaques en territoire israélien. L'autre possibilité serait une escalade de la violence entre les forces israéliennes et le Hezbollah qui pourrait amener Israël à lancer une attaque de large envergure contre le Liban et contre des cibles syriennes. Dans ces deux cas de figure, la Syrie se retrouverait dans une situation embarrassante. Elle pourrait difficilement dénoncer un retrait israélien du Liban-sud mais, dans le même temps, elle deviendrait de facto responsable de la sécurité de la frontière nord d'Israël sans avoir en contrepartie gagné l'engagement d'un retrait israélien du Golan. Damas pourrait être tentée de faire avorter une telle manoeuvre israélienne en encourageant le Hezbollah à intensifier ses activités. Une initiative de ce type serait néanmoins pleine de risques, dans la mesure où Damas serait condamnée par la communauté internationale pour avoir fait échouer une démarche de paix. Sans oublier qu'une intensification des activités du Hezbollah finirait par provoquer une escalade généralisée avec cette fois des raids israéliens contre des cibles syriennes. Damas pourrait difficilement s'abstenir de riposter au cas où ses troupes seraient attaquées, mais elle n'est pas sans ignorer les lourdes pertes que cela lui coûterait.
+En réalité, il est peu probable que le gouvernement Netanyahou veuille appliquer la résolution 425 en se retirant unilatéralement et sans conditions du Liban-sud. Sa proposition " Le Liban d'abord " visait à parvenir à un règlement sur le front libanais assorti de garanties syriennes. Dans le même temps, Damas a tout intérêt à éviter une escalade incontrôlable au Liban-sud et considère que le Comité de surveillance du cessez-le-feu remplit parfaitement cette mission en contenant le conflit dans ses limites propres. Une guerre ouverte conduirait à une défaite syrienne. Israël réussira sans aucun doute à bouter la Syrie hors du Liban, mais elle devra dans le même temps renoncer à son projet de normalisation de ses relations avec l'ensemble du monde arabe pour une décennie, ou plus encore, et prendre le risque de s'exposer à des attaques à l'intérieur même de son territoire et peut-être aussi à une guerre d'usure sur les deux fronts, libanais et syrien. Par conséquent, les deux parties israélienne et syrienne n'ont aucun intérêt à laisser se développer un tel scénario.
+Sur le plan de la situation interne au Liban, l'impasse actuelle du processus ne peut que renforcer la détermination de la Syrie à maintenir la forme de stabilité très spécifique qu'elle a contribuée à asseoir dans ce pays. Cela se traduit par un soutien actif au gouvernement libanais dans ses efforts pour développer son appareil de sécurité et pour imposer d'une main de fer l'ordre public et la sécurité interne dans les régions sous son contrôle effectif ; cela exclut la zone de sécurité occupée par Israël et certaines zones de combat périphériques. Mais le type même de stabilité que Damas cherche à promouvoir au Liban y limite singulièrement les perspectives de changements politiques. Le régime syrien préfère collaborer avec le même groupe de personnes sur le long terme ; il n'a aucun intérêt à encourager une alternance au niveau du pouvoir libanais et veillera à maintenir l'équilibre actuel entre les principaux piliers de la coalition gouvernementale. Les élections législatives de 1996 ont illustré clairement cette stratégie de maintien du système en place. Il y a certes eu de " vraies " élections dans la mesure où il existait une large marge de compétition et de choix possibles. Néanmoins, l'influence syrienne a joué un rôle décisif, et parfois ouvertement, dans la finalisation des listes électorales dans les zones sensibles de manière à y garantir une place pour toutes les forces proches du régime issu de Taëf, tout en maintenant un savant équilibre entre les différents candidats. De la même manière, un deuxième renouvellement du mandat du président Hraoui n'est pas à exclure. Dans le même temps, Damas se gardera d'intervenir dans la définition de la politique économique et sociale au Liban, à la seule condition que la main-d'oeuvre et les produits syriens soient épargnés par les mesures de nature protectionniste que le gouvernement libanais jugera bon de prendre. La Syrie a tout intérêt à ce que le processus de reconstruction aboutisse en raison à la fois des opportunités de travail que ce marché pourrait offrir aux chômeurs en Syrie et, à plus long terme, de la contribution libanaise à la modernisation de l'économie syrienne. Bien que certains Syriens considèrent le Liban un peu comme le Hong-Kong de la Syrie, l'objectif de Damas n'est pas de réaliser une union politique avec ce pays et encore moins de l'annexer. L'une des raisons principales à cela et non des moindres est qu'une telle initiative contribuerait à bouleverser tant l'équilibre régional que la situation intérieure des deux pays - des risques que le régime syrien cherche à tout prix à éviter.
+Bien que la prolongation pour une période indéfinie de cette situation de " ni guerre, ni paix " convienne à la majeure partie de l'establishment syrien, elle n'augure rien de bon à moyen et long termes pour les perspectives de développement du pays. En effet, cette situation ne peut que favoriser l'immobilisme sur le plan interne à un moment où la Syrie devrait s'engager dans des réformes politiques et économiques vitales pour affronter les défis de la prochaine décennie et au-delà. Dans la prochaine décennie, l'économie syrienne devra chaque année gérer quelque 200 000 à 250 000 nouveaux arrivés sur le marché de l'emploi (actuellement, celui-ci ne peut en absorber que la moitié) ; cela dans un contexte de baisse des revenus pétroliers, d'un épuisement probable des réserves pétrolières, d'une sévère crise de la balance des paiements - à moins d'attirer les investisseurs étrangers et de renforcer la flexibilité et la compétitivité des industries de production syriennes - et enfin dans un contexte de risques d'une paupérisation accrue. Afin de faire face à l'ensemble de ces défis, la Syrie devra relancer et accélérer le train de réformes économiques timidement entreprises à la fin des années 80 et au début des années 90 mais qui a évité de s'attaquer aux enjeux les plus sensibles tels que la privatisation des banques, le développement du marché boursier, ainsi que la libéralisation des investissements commerciaux et industriels. La Syrie devra en outre développer ses ressources humaines - ses étudiants, ses technocrates, sa main-d'oeuvre en général, ainsi que ses élites intellectuelle, administrative et bureaucratique. Enfin, dans le but de créer un environnement propice aux investisseurs locaux et internationaux, la Syrie devra également se conformer aux règles d'un État de droit, avec un gouvernement responsable et un système juridique fiable.
+Toutefois, la prolongation du rapport de forces existant sur les plans interne et externe - l'absence de progrès dans les négociations et le maintien du pouvoir actuel - n'incitera pas le régime syrien à prendre les décisions nécessaires pour accélérer les réformes économiques et encore moins politiques. D'abord, la configuration politique interne n'est pas de nature à y encourager les forces en faveur d'un changement. La marge de manoeuvre de ceux qui militent pour des réformes en profondeur est limitée ; toute initiative dans ce sens menacerait les intérêts et les privilèges de larges secteurs de la base de soutien au régime. On ne peut non plus compter sur des soulèvements de nature politique ou sociale. La Syrie est pratiquement devenue un État dépourvu d'opposition (sérieuse) ; la situation économique connaît une amélioration certaine comparée aux années 80 et le régime sera probablement en mesure de prévenir toute crise d'envergure dans les prochaines années - en cas d'urgence, l'Arabie Saoudite et le Koweit restent toujours disposés à apporter leur aide. Le Président lui-même a gagné en popularité du fait de sa capacité à stabiliser le pays et à gérer au mieux le processus de paix comme les relations de la Syrie avec le reste des pays arabes.
+Deuxièmement, les décisions fondamentales de nature à provoquer l'opposition d'une grande partie de la bureaucratie ou d'autres piliers du régime ne peuvent être prises que par le sommet, c'est-à-dire par le Président lui-même. Cependant, pour Hafez al-Assad, la politique économique reste secondaire, à moins d'avoir une incidence ou un lien directs avec la sécurité de l'État ou du régime. Le président syrien est peut-être conscient du besoin impérieux de réformes dans son pays, mais il n'entreprendra rien qui puisse mécontenter la principale base de soutien à son régime tant que le processus de paix n'aura pas abouti. Le régime syrien est convaincu, semble-t-il, qu'aussi longtemps que l'éventualité d'une guerre contre Israël n'est pas totalement écartée, il serait très mal avisé de démanteler les fondements de l'économie étatiste, tel le secteur de l'industrie publique, et ce, quels que soient ses dysfonctionnements propres. Hormis quelques mesures de changement purement formelles, le régime se gardera bien d'engager le pays sur la voie de réformes d'ordre structurel susceptibles de provoquer un mouvement de mécontentement social ou de favoriser l'émergence de centres de pouvoir économiques autonomes - comme cela pourrait être le cas avec une privatisation massive ou avec l'établissement d'un secteur bancaire privé.
+Troisièmement, la nature et la structure du pouvoir en Syrie ne changeront pas tant que persistera la menace d'une confrontation militaire. Le pluralisme contrôlé permet à certains réformateurs à l'intérieur du régime et aux milieux d'affaires de faire entendre leur voix. Mais aucune véritable mesure de libéralisation politique - telle que l'autorisation de créer des partis politiques indépendants du Front national progressiste dirigé par le Ba'th, une compétition électorale entre ces partis ou une presse indépendante - ne sera envisagée ou tolérée tant que les conditions régionales exigeront de la Syrie qu'" elle serre les rangs ". Enfin, le président Assad ne modifiera pas la composition de l'équipe au pouvoir sans la perspective de résultats positifs concrets au niveau du processus de paix. Certains des fidèles du président Assad ont atteint l'âge de la retraite et sont sur le point d'être remplacés. Une nouvelle génération d'officiers de l'armée et des services de sécurité ont été formés pour prendre la relève. Les personnalités-clefs telles que Abdel-Halim Khaddam, Hikmat al-Shihabi, Mustafa Tlas et quelques autres conserveront néanmoins leurs fonctions ne serait-ce que pour aider le président syrien à gérer le processus de paix. Cela est d'autant plus probable que ce processus est aujourd'hui extrêmement précaire. Des personnalités plus jeunes, telles que l'ambassadeur de Syrie à Washington, continueront à mener l'essentiel des négociations mais le rôle de la vieille équipe au pouvoir formée de militaires d'expérience et de confiance, ainsi que de " gestionnaires " politiques, restera indispensable pour gérer les véritables défis : soit la finalisation et le succès des négociations, soit, dans le pire des cas, l'effondrement de celles-ci menant à la confrontation militaire.
+L'ensemble de ces facteurs vont dans le sens de la continuité ; ils contribuent également à rendre la Syrie fiable et permettent à ses partenaires comme à ses adversaires de calculer et de prévoir l'attitude de ses dirigeants. Cela est important pour une issue heureuse au processus de paix. Dans le même temps et paradoxalement, cet état de choses favorise l'immobilisme qui caractérise la vie politique en Syrie, la peur du changement, et augmente les risques de se retrouver loin derrière les autres acteurs régionaux qui ont d'ores et déjà commencé à se préparer pour intégrer la nouvelle division du travail au Moyen-Orient.
+La Syrie a réitéré à maintes reprises et de façon explicite sa volonté de reprendre les négociations avec Israël. Des discussions sérieuses - et non pas le type de négociations purement formelles qui ont dominé la période allant de Madrid à la défaite du gouvernement Shamir - ne sauraient cependant être envisagées sans un changement de majorité en Israël ou, perspective plus improbable, sans un revirement dans la stratégie du gouvernement de Netanyahou vis-à-vis de la Syrie et d'un éventuel retrait du Golan. Dans les deux cas, les négociations ne reprendront pas nécessairement " là où elles ont été suspendues " (comme le réclame officiellement la Syrie), mais plus vraisemblablement sur la base d'un accord de principe selon lequel l'objectif du processus est de parvenir à une " paix totale " en échange d'un " retrait total ". À cet égard, la formule de Itzhak Rabin " la profondeur du retrait sera proportionnelle à la profondeur de la paix " est aujourd'hui perçue par des responsables au sein des services de sécurité en Syrie comme un principe rationnel et opérationnel. Si les deux parties en manifestaient une égale volonté politique, il ne faudrait pas plus d'un an, et peut-être moins encore, pour parvenir à un règlement. Celui-ci comprendra sans aucun doute des arrangements de sécurité, tels que les dispositions concernant la présence de forces internationales sur les hauteurs du Golan ; un calendrier fixant les étapes du retrait israélien (militaires et colons compris) ; le principe de la normalisation des relations ; et un compromis sur la définition des frontières qui permettra à la Syrie de récupérer la majeure partie des territoires à l'ouest de ladite " frontière internationale " de 1923 (qui correspond à la frontière séparant les territoires sous mandat britannique et français), mais pas nécessairement jusqu'aux " lignes du 4 juin 1967 ". Parallèlement à la phase finale des négociations syro-israéliennes, les deux parties mettront au point les arrangements concernant spécifiquement le Liban. Ceux-ci, quoique négociés officiellement entre les deux délégations libanaise et israélienne, définiront les termes d'un accord de paix et d'un retrait israélien de la zone de sécurité au Liban-sud, les modalités du désarmement du Hezbollah et de la mise en oeuvre des garanties de sécurité à la frontière nord d'Israël.
+Une percée significative dans les négociations de paix syro-israéliennes ouvrirait la voie à une normalisation entre l'État hébreu et le monde arabe dans son ensemble. L'impossibilité pour Israël d'établir des liens avec les États arabes plus périphériques tant qu'il n'a pas satisfait aux revendications territoriales de la Syrie constitue en fait l'un des atouts-clefs de Damas dans le cadre de négociations futures avec Tel-Aviv. Même en cas de paix, il ne faut pas escompter un développement significatif des relations économiques et sociales entre ces deux États qui, en tout état de cause, resteront tributaires de la lutte d'influence et de prééminence régionale qui continuera pendant un temps encore à les opposer. La Syrie mettra donc en garde les autres États arabes, et notamment les pays du CCG (Conseil de coopération du Golfe), contre une normalisation trop hâtive avec Israël. Néanmoins, avec la restitution de ses territoires, Damas perdra l'un de ses principaux moyens de pression sur les États arabes du Golfe qui, sans pour autant lui retirer leur soutien, ne se sentiront plus redevables à la Syrie qui a toujours su monnayer sa position dans le conflit israélo-arabe. Au contraire, les États du CCG seront même en mesure d'exiger de la Syrie en contrepartie qu'elle soutienne sans ambiguïté leur politique et leurs intérêts dans la région. Plutôt que de continuer à lui apporter une aide financière, ils rechercheront les opportunités d'investissement, poussant ainsi la Syrie à créer un environnement économique plus favorable.
+Dans un contexte de paix, la Syrie demeurera un acteur central au Moyen-Orient comme au sein de la Ligue arabe. N'étant plus soumise à la menace directe d'une guerre avec Israël, elle verra sa sécurité renforcée et son intégrité territoriale rétablie. Ses relations avec la Jordanie et l'OLP connaîtront une amélioration sensible dans la mesure où les sources de tension avec ces deux acteurs régionaux étaient causées par les divergences autour du processus de paix. Quant à ses liens avec l'Égypte et le CCG, tout porte à croire qu'ils demeureront solides. Washington honorera la signature d'un traité de paix syro-israélien en rayant la Syrie de la liste des pays " soutenant le terrorisme ", en lui apportant une aide économique limitée et en n'opposant plus son veto aux programmes de la Banque mondiale. L'Europe, enfin, effacera sans doute une grande partie de la dette syrienne.
+Dans le même temps, la Syrie verra son importance stratégique se réduire. Elle sera peut-être enfin considérée par l'Occident comme un pays ami mais perdra en contrepartie son statut d'acteur essentiel. Bruxelles, par exemple, continuera à insister sur le rôle de la Syrie en tant que partenaire à part entière dans le cadre du projet euro-méditerranéen, mais aucun traitement privilégié ne lui sera concédé au cas où elle refuserait de se conformer aux mêmes conditions que les autres pays arabes (application graduelle du libre-échange, introduction d'un régime d'État de droit, etc.). On peut également supposer que les pressions politiques sur la Syrie se renforceront, notamment de la part des États-Unis, pour un retrait ou un redéploiement significatif de ses troupes au Liban une fois le Hezbollah désarmé.
+Un accord de paix syro-israélien ne fera sans doute aucune référence explicite au Liban. Israël acceptera, selon toute vraisemblance, un maintien des troupes syriennes dans ce pays pour une période intérimaire, afin de s'assurer du désarmement effectif du Hezbollah et des autres groupes de résistance. Néanmoins, sur le moyen et long termes, la Syrie sera forcée d'adopter un profil plus bas au Liban, non pas tant suite à des pressions israéliennes ou occidentales - qui irriteront certes Damas mais auxquelles elle saura résister - que pour des raisons inhérentes aux évolutions internes propres à la Syrie et au Liban. L'impératif purement stratégique pour Damas de maintenir des positions militaires avancées au pays du Cèdre faiblira une fois que les troupes israéliennes auront évacué le Liban-sud. Sans la supprimer complètement, un accord de paix réduira de façon significative la menace d'une attaque sur la Syrie à partir du territoire libanais et particulièrement de la Békaa. En outre, un retrait israélien et le désarmement du Hezbollah contribueront à renforcer la stabilité interne au Liban. Il y aura donc d'autant moins de raisons pour les troupes syriennes de remplir le rôle de forces de police.
+Le régime syrien est également conscient du fait que l'opposition à la tutelle syrienne ira croissant une fois le Liban débarrassé de l'occupation israélienne. Il procédera sans doute à une révision " rationnelle " de sa politique libanaise. Par la suite, le degré d'interférence de la Syrie dans les affaires intérieures de son petit voisin dépendra, en large partie, de la capacité des hommes politiques libanais à rompre avec cette tradition historique consistant à entraîner de façon active les acteurs extérieurs dans leurs conflits internes. S'ils réussissaient à se prendre en main et à résoudre les problèmes politiques et sociaux de leur pays sans " assistance " étrangère, on pourrait s'attendre à ce que le redéploiement, sans cesse reporté, des troupes syriennes ait enfin lieu dans un contexte de " réduction graduelle " de la domination politique de Damas sur le Liban. La réduction graduelle signifie que la Syrie veillera à maintenir une certaine influence sur les affaires politiques et de sécurité de ce pays, principalement en plaçant des hommes de confiance aux postes les plus sensibles au sein de l'armée libanaise et du Deuxième Bureau, en soutenant des forces politiques ayant fait la preuve de leur loyauté envers Damas et enfin en opposant son veto à l'" ascension " politique de personnes connues pour lui être ouvertement hostiles et qui brigueraient des postes gouvernementaux haut placés. De plus, la série d'accords conclus entre les deux États et qui couvrent tous les domaines de la coopération (tels que la sécurité, le commerce, le travail, l'agriculture, la santé et le partage des eaux de l'Oronte) garantira la pérennité des intérêts de la Syrie au Liban et préservera le caractère privilégié de ses relations avec ce pays même avec la fin de son système de tutelle actuel. Néanmoins, une réduction plus hâtive et même désordonnée de la présence et de l'influence syriennes n'est pas à exclure au cas où se produirait un changement de régime brutal à Damas.
+Contrairement aux affirmations de certains observateurs, le président Assad n'a plus besoin de maintenir le pays dans un état de guerre pour des raisons de légitimité interne. Son régime jouit d'une popularité plus grande aujourd'hui qu'il y a dix ou quinze ans. Sa gestion du processus de paix - en engageant son pays sur la voie de la paix régionale mais sans s'y précipiter tête baissée - semble recueillir l'assentiment des partisans du pouvoir comme de ses opposants. La perspective d'une paix avec Israël a dès le départ été présentée à l'opinion publique comme " la paix des braves " et surtout pas comme une mise au rabais des aspirations nationales du peuple syrien.
+La concrétisation de la paix entre les deux États conduira certainement à des évolutions significatives sur la scène politique syrienne. En tout premier lieu, le président Assad devra procéder à des changements de personnes au sein de son équipe. Cela ne soulèvera pas trop de difficultés dans la mesure où ses vieux fidèles seront d'ici là complètement exténués et probablement soulagés de prendre une retraite bien méritée. Le sentiment d'un grand nombre au sein de l'establishment syrien est que cette équipe aura fait son temps au moment où le Golan sera libéré. Le Président lui-même ne se retirera sans doute pas de la vie politique, mais s'appliquera à promouvoir à des postes de responsabilité des éléments plus jeunes, notamment parmi les officiers supérieurs travaillant en étroite coopération avec son fils et quelques technocrates " modernistes " ayant une expérience du secteur privé. Deuxièmement, une fois le traité de paix conclu (et probablement avant qu'il ne soit ratifié par le Parlement), Hafez al-Assad cherchera à se rallier le soutien officiel des institutions plus traditionnelles du régime, à savoir le parti Ba'th et le Front national progressiste. Il est quasi certain qu'une conférence générale du Ba'th aura lieu, afin d'intégrer en son sein la jeune génération de dirigeants et avaliser l'accord de paix. Cela ne pourra se faire sans procéder à certains amendements dans les statuts et les principes du parti, très marqués par les références à l'éternel conflit avec l'entité sioniste, et ouvrira ainsi la voie à une libéralisation significative du système politique. Cela est d'autant plus probable que, jusque-là, les rigidités du système ont été justifiées par la permanence de l'état de guerre. La primauté de la confrontation avec Israël et l'impératif de serrer les rangs pour y faire face font partie des arguments légitimant le maintien de la loi d'urgence et la restriction des activités politiques au seul et unique Front national progressiste. Nombreux sont ceux qui, en Syrie, s'attendent à ce que la paix avec Israël conduise à l'instauration d'un régime plus ouvert, plus libéral et même démocratique. Ces attentes sont, nous semble-t-il, quelque peu exagérées. Aussi longtemps que le président Assad tiendra les rênes du pays, il n'y aura pas d'auto-dissolution du régime sur les ruines duquel s'élèverait une véritable démocratie. Plus vraisemblablement, quelques mesures seront prises dans le sens d'un renforcement du processus de pluralisme contrôlé lancé par le régime dans la première moitié des années 90. Le modèle à suivre en l'occurrence sera probablement celui de l'Égypte - et non pas celui de la Turquie, comme le souhaiteraient certains libéraux en Syrie -, c'est-à-dire un régime aux structures encore fondamentalement autoritaires mais qui introduirait une certaine dose de pluralisme et quelques rudiments de base d'un État de droit, ce qui le rendrait plus " fréquentable " sur la scène internationale. Troisièmement, le régime entreprendra d'accélérer le train des réformes économiques. L'argument sécuritaire justifiant le maintien d'un secteur public pléthorique ne jouera plus avec la fin de l'état de guerre. Une privatisation sélective sera discutée et certains des dossiers clefs qui ne peuvent être tranchés que par le haut, comme l'établissement d'un marché financier, finiront par attirer l'attention du Président lui-même. De plus, un accord de paix syro-israélien, loin d'engendrer un " Nouveau Moyen-Orient " intégré, créera nécessairement de nouvelles formes de compétition entre les économies régionales. Dans la mesure où la paix renforcera la stabilité de la région, les investisseurs internationaux commenceront à songer sérieusement à y placer leurs capitaux, et les acteurs régionaux entreront en compétition pour attirer ces investisseurs potentiels. La Syrie, comme d'autres, devra déployer de véritables efforts pour moderniser et ouvrir son économie afin de créer un environnement plus attractif pour les milieux d'affaires. Ce sont les facteurs politiques internes qui détermineront la rapidité et l'efficacité avec lesquelles la Syrie répondra à ces pressions structurelles. Un changement qualitatif, quoique limité, au niveau du personnel compétent, lui permettra de relever ces défis. Il est significatif de constater qu'au sein de l'élite politico-intellectuelle syrienne, les partisans de la libéralisation économique comme ses opposants se rejoignent pour établir un lien très clair entre la " paix régionale " et " la réforme interne ".
+Toute initiative dans le sens du changement se heurtera à certaines résistances. Il y aura des divergences d'opinion au sein du parti Ba'th, de la machine bureaucratique et des syndicats. Au niveau de l'appareil de sécurité, il n'y aura vraisemblablement pas d'opposition significative. Les militaires auront leur mot à dire dans la phase finale des négociations et ils considéreront le traité de paix comme étant en grande partie le leur ; par ailleurs, nombreux sont ceux qui, au sein des services de sécurité, ont pris la mesure de l'urgente nécessité de réformer le système politique et l'économie en Syrie. Dans le même temps, Hafez al-Assad fera en sorte de protéger les intérêts corporatistes de l'appareil de sécurité. Dans ce contexte, il ne fait pas de doute que le président syrien réussira à passer outre aux oppositions émanant de la base de pouvoir traditionnelle du régime.
+Quant à l'État hébreu - et contrairement à ce que pensent certains Israéliens -, il lui sera plus facile, et probablement moins risqué, de faire la paix avec Hafez al-Assad que de tenter de négocier et de conclure un traité de paix avec ses successeurs. Le régime qui succédera à celui de Hafez al-Assad sera, quel qu'il soit, moins stable. Il devra en premier lieu faire la preuve de sa légitimité nationaliste à travers une surenchère dans la rhétorique populiste et ne sera de ce fait certainement pas disposé à faire davantage de concessions sur le dossier des négociations avec Israël. Les conditions syriennes pour la paix resteront donc grosso modo les mêmes. Le président Assad et la signature qu'il apposera au bas d'un traité de paix garantiraient - dans la mesure où il existe des " garanties " en politique internationale - ce que tout autre successeur serait incapable de faire : à savoir la pérennité d'un accord et son respect même en cas de changement de régime, ainsi que la bonne mise en oeuvre de toutes les dispositions concernant la normalisation et les arrangements de sécurité.
+Dans la mesure où le régime syrien est fortement personnalisé, un changement au sommet pourrait bien bouleverser l'équilibre interne et tout au moins ouvrir une ère nouvelle pour la Syrie en y modifiant l'ordre des priorités politiques. Le régime qui succédera à celui-ci sera, selon toute probabilité, plus libéral et donnera la priorité aux réformes politiques et sociales plutôt qu'aux questions de politique régionale. Le successeur de Hafez al-Assad sera moins expérimenté que l'homme qui a présidé aux destinées de la Syrie depuis 1970. Il lui sera extrêmement difficile de maintenir le rôle que la Syrie a réussi à jouer pendant un quart de siècle au Moyen-Orient et cherchera de ce fait à " comprimer " sa politique régionale. La façon la plus aisée de s'y prendre est de limiter l'engagement politique et militaire au Liban - en cantonnant les forces syriennes dans une mission sécuritaire et en se désengageant de la vie politique interne du Liban - ou même d'y mettre un terme. La Syrie ne pourra plus en tout état de cause exercer le même droit de regard sur les affaires intérieures libanaises. Néanmoins, cela n'empêchera pas le développement des relations syro-libanaises, plus particulièrement dans le domaine de la coopération économique et technique.
+Ces prévisions se basent sur l'hypothèse selon laquelle l'arrivée au pouvoir du successeur de Hafez al-Assad (à la suite du décès de ce dernier ou, moins vraisemblablement, de son renversement ou de sa propre démission) se déroulera sans graves troubles internes ou régionaux. La pseudo-question de la succession en Syrie a été débattue pendant plus d'une décennie et demeure l'objet des spéculations les plus diverses. L'enjeu central du débat porte sur la manière dont la succession aura effectivement lieu. Deux scénarios s'affrontent. Le premier affirme que la mort du Président fera immanquablement basculer la Syrie dans l'anarchie, les conflits interconfessionnels et même dans une longue guerre civile avec les risques d'éclatement du pays en mini-États communautaires. Selon ce même scénario, l'installation d'une situation d'anarchie en Syrie conduirait vraisemblablement à un départ précipité et même désordonné des troupes syriennes du Liban. Selon que le pouvoir central réussisse ou non à conserver le contrôle de ses troupes, celles-ci soit seront acheminées pour reprendre en main la capitale ou d'autres parties du territoire syrien, soit refuseront de se soumettre et tenteront de s'emparer de toute parcelle d'autorité ou de territoire qui sera à leur portée. Même si la Syrie ne devait pas se désintégrer en de petites entités ou tomber dans un scénario à la libanaise et même si l'autorité du pouvoir central devrait être rétablie à l'issue de la guerre civile, l'État syrien serait de toute manière considérablement affaibli comparé à aujourd'hui, se rapprochant davantage de la Syrie des années 50 que de l'acteur-clef qu'il était devenu au Moyen-Orient sous Hafez al-Assad.
+Bien que l'on ne puisse pas écarter complètement le scénario de l'anarchie, il est loin d'être le plus réaliste, ou même le plus honnête intellectuellement. Il exprime, au moins en partie, une forme de " wishful thinking " de la part de ceux qui le défendent.
+Le scénario alternatif - que l'auteur considère comme le plus plausible - part de l'hypothèse selon laquelle l'État syrien sera tout à fait capable de faire face à la fois à la mort du Président et à un changement de régime. Ni les affrontements interconfessionnels, ni une situation d'anarchie, ni moins encore la guerre civile ne constituent des options sérieuses et cela pour de nombreuses raisons. La plus importante est que la légitimité de l'État n'est plus remise en cause aujourd'hui -comme c'était le cas dans les années 50 et 60 - et un sentiment d'appartenance nationale s'est développé dans l'ensemble du pays. Toutes les composantes ou presque de la société syrienne, la bourgeoisie et l'appareil de sécurité inclus, ont intérêt au maintien de l'État, de sa stabilité et, autant que possible, de son poids régional. La quasi-situation de guerre civile qui a prévalu de 1979 à 1982 constitue une expérience qu'aucun des plus importants acteurs sociétaux ne souhaiterait revivre. L'intérêt général à éviter toute forme de déstabilisation est tel que l'on ne saurait exclure, dans le cas d'une vacance du pouvoir présidentiel, que les institutions de l'État jouent pleinement leur rôle. Ainsi, dans le but de prévenir les risques de chaos, les responsables militaires et de la sécurité respecteraient les dispositions constitutionnelles réglant le problème de la succession, comme ce fut le cas en Égypte lorsque Anouar al-Sadate succéda à Gamal Abdel Nasser. À la différence des années 60, il n'existe plus aujourd'hui un corps d'officiers hautement politisé dont l'objectif serait de bouleverser les structures socioéconomiques existantes. L'appareil sécuritaire s'est transformé en une force conservatrice, capable de préserver à la fois ses intérêts corporatistes et les structures sociétales actuelles. De plus, l'armée syrienne a démontré jusque-là un degré de cohésion interne certain. Au cas où les officiers de l'armée viendraient à douter de la capacité d'un régime civil post-Assad à remplir son rôle, ils auraient probablement recours à une prise de pouvoir militaire. De même, on ne saurait sous-estimer la capacité des différentes branches des services de sécurité à gérer une situation politiquement tendue que ne manquerait pas de provoquer une disparition soudaine du Président. En dépit de leurs divergences d'intérêt dans d'autres domaines, les principaux " barons " de la sécurité en Syrie voudront coûte que coûte conserver le contrôle de la rue et sauront parfaitement s'y prendre.
+Même parmi ceux qui estiment une transition relativement douce du pouvoir syrien actuel plus probable que le scénario du chaos, il existe des différences sur l'identité même du successeur de Hafez al-Assad : serait-ce, avec l'accord tacite ou explicite des forces de sécurité, un autre officier alaouite, peut-être même le fils du président, Bachar, ou alors un responsable politique ou militaire sunnite ? Toutes les réponses restent spéculatives. Et bien que la question de savoir qui sera aux commandes en Syrie soit d'une grande importance, l'avenir de ce pays - de son évolution interne comme de son poids régional - ne dépend ni de l'enjeu confessionnel (si le prochain président est alaouite ou sunnite), ni de la nature et de la forme de la succession au pouvoir actuel, " dynastique " (au cas où Bachar al-Assad succéderait à son père) ou plus républicain. Il faudrait plutôt s'interroger sur la future élite politico-administrative qui sera en charge des affaires du pays. Pour gérer efficacement les défis internes et régionaux à moyen terme, la Syrie devra se doter de dirigeants politiques et administratifs (à tous les échelons du pouvoir et pas seulement au sommet) dont la vision du monde soit radicalement différente de celle de la classe politique actuelle. Cette nouvelle élite devra adopter une approche qualitativement différente de l'État, de l'économie et de la notion de sécurité nationale : elle devra penser en termes de citoyenneté plutôt qu'en termes de contrôle, en termes de compétence plutôt que de favoritisme et enfin en termes de sécurité mutuelle plutôt que d'équilibres à somme nulle.
+L'Europe a un intérêt réel à établir une relation de partenariat solide avec la Syrie et à l'intégrer dans une architecture de sécurité euro-méditerranéenne. Le but de cette étude n'est pas de fournir une liste de prescriptions à l'intention des responsables européens. Seules quelques suggestions sont proposées sur les principes qui, selon l'auteur et à la lumière des scénarios décrits plus haut, devraient guider les politiques européennes vis-à-vis de la Syrie.
+L'UE et certains États européens pris individuellement ne pourront jouer qu'un rôle très limité dans le processus de négociations entre Israël et la Syrie. La Syrie, tout comme le Liban et les Palestiniens, fait peut-être davantage confiance à l'UE qu'aux États-Unis. Mais, connaissant les limites des pressions que l'Europe est en mesure d'exercer efficacement sur l'État hébreu, ils continueront à solliciter la médiation américaine lorsqu'ils estimeront qu'une intervention extérieure de poids est nécessaire pour finaliser un accord. La politique méditerranéenne de l'Europe peut néanmoins apporter une contribution spécifique au processus de paix, en fournissant notamment le cadre d'un dialogue permanent même quand les négociations directes sont dans l'impasse. Afin de corriger cette perception d'un Occident globalement plus favorable à l'État hébreu, il est tout aussi important que l'Europe maintienne fermement ses positions de principe soutenant une paix globale qui garantirait à la fois la sécurité d'Israël, le droit des Palestiniens à l'autodétermination et le rétablissement de l'intégrité territoriale de la Syrie et du Liban. L'Europe devrait exprimer très clairement sa volonté d'apporter un soutien financier et technique à un éventuel accord de paix (y compris l'engagement de troupes de certains États européens ou l'envoi d'un contingent européen dans le cadre de forces de maintien de la paix dans le Golan ou au Liban-sud, au cas où les pays concernés le souhaiteraient). Dans le même temps, l'UE devrait tenter de faire entendre aux Israéliens que, s'ils désirent réellement parvenir à un règlement satisfaisant avec la Syrie, ils seraient beaucoup plus avisés de négocier aujourd'hui avec Hafez al-Assad plutôt que d'attendre ses successeurs éventuels.
+La politique méditerranéenne de l'Europe et les relations bilatérales syro-européennes constituent un élément fondamental de la nouvelle configuration régionale au Moyen-Orient de l'après-paix. Ces deux facteurs alimentent les attentes de la Syrie (comme celles d'autres pays) sur ce que sera et à quoi ressemblera l'environnement régional au lendemain d'un règlement du conflit israélo-arabe. De ce fait, en traitant la Syrie comme la pierre angulaire du partenariat euro-méditerranéen, l'UE peut et devrait s'employer à calmer les craintes syriennes d'une marginalisation dans le cadre d'un " Nouveau Moyen-Orient ", selon l'idée chère à Shimon Pérès et à rassurer la Syrie sur l'importance du rôle qu'elle sera amenée à jouer dans la nouvelle division régionale du travail en période de paix.
+L'un des principes directeurs de la politique européenne devrait être de traiter avec le Liban comme avec une entité autonome et indépendante - et non point comme une annexe de la Syrie. L'Europe ne peut et ne doit pas consentir à ce que Damas exerce un droit de regard sur les relations libano-européennes. L'Europe doit également être très claire sur le fait qu'elle considère la présence militaire syrienne au Liban comme légitime mais provisoire - et légitime seulement dans la mesure où elle demeure provisoire et dans le cadre défini par les accords de Taëf.
+La politique de l'Europe à l'égard de la Syrie devrait concentrer ses efforts pour aider ce pays à s'adapter à un environnement régional en mutation. La Syrie n'est pas un État pauvre et l'aide financière européenne dont elle bénéficie, bien qu'appréciée, n'atteindra jamais ni le niveau ni l'adéquation de l'aide en provenance des pays arabes du Golfe. Là où l'Europe est mieux équipée que les riches alliés pétroliers de la Syrie, c'est au niveau de l'aide qu'elle peut apporter pour lui permettre de développer son système légal et institutionnel, son infrastructure éducative et, surtout, ses ressources humaines (dans le secteur privé comme dans l'administration publique) afin qu'elle soit en mesure de faire face aux défis d'un système international et régional plus compétitif.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+On a trop souvent tendance à oublier que l'accord de Taëf - mettant fin à la guerre du Liban - comprenait presque sur pied d'égalité deux volets consacrés à l'interne et à l'externe ; tandis que le premier incluait un ensemble de réaménagements de l'édifice institutionnel et politique, le second était consacré à la souveraineté libanaise avec, pour partie principale, les lignes directrices des futures relations libano-syriennes. On a aussi trop tendance à oublier que c'est au moment où ces mêmes accords de Taëf devenaient effectifs qu'un nouvel ordre stratégico-politique s'ébauchait au Moyen-Orient dans la foulée de la deuxième guerre du Golfe et que c'est, surtout, à ce même moment que s'annonçaient les voies du processus de paix entamé quelque temps plus tard à Madrid. Cet enchaînement faisait d'ailleurs un bien curieux écho à quantité d'analyses averties, récurrentes dans les milieux libanais depuis 1975, ainsi qu'à des certitudes populaires bien ancrées, selon lesquelles il ne saurait y avoir de solution au conflit libanais sans solution durable de la question israélo-arabe.
+Si les causalités sont loin d'être aussi directes - et les déterminismes aussi simples - entre les deux dossiers belligènes, il n'en demeure pas moins frappant qu'à l'heure où le processus de paix semble durablement enlisé, la question d'un avenir viable pour le Liban peut être à nouveau légitimement posée aujourd'hui. Dans un premier temps, par sa structure à deux étages, l'accord de Taëf faisait de la Syrie le garant principal de l'application des réformes et y liait ainsi en partie sa présence dans ce pays. Dans un deuxième temps, et par le fait d'évolutions régionales et plus proprement libanaises qu'il n'y a pas lieu de rappeler ici, la Syrie faisait passer son rôle libanais à un stade supérieur, devenant un acteur interne de la vie politique libanaise, quitte à y apparaître parfois comme le décideur exclusif. L'entrée de la Syrie dans le processus de paix, sans en être l'explication unique, est sans doute pour beaucoup dans ce processus de tutellisation rampante. Elle l'est, d'abord, par l'acquiescement implicite dont cette tutellisation fait l'objet de la part des États-Unis, parrains et architectes en chef des négociations, soucieux de rassurer le plus possible Damas quant à son principal acquis régional à l'heure où tout, dans la région, connaît des transitions aussi rapides qu'imprévisibles. Elle l'est, ensuite, par le fait que cet acquis devient de plus en plus précieux pour la Syrie après les paix séparées d'Oslo et de Wadi Arba qui voient les Palestiniens et la Jordanie échapper à la coordination arabe telle que la comprend Hafez al-Assad. Ainsi laissé par la majeure partie de la communauté internationale en tête-à-tête avec son puissant voisin syrien, le Liban voyait le temps mort de la négociation l'effacer graduellement comme sujet sur le plan diplomatique, et son tuteur mettre à profit cette fenêtre d'opportunité pour institutionnaliser son emprise et rendre l'ingestion le plus difficilement réversible. D'où l'hypothèse la plus partagée, et qu'il s'agira de soumettre à l'examen ici, selon laquelle un déblocage des négociations et l'aboutissement à un règlement syro-israelien ne manqueraient pas de se traduire par un affaiblissement de l'emprise syrienne sur le Liban, et par un meilleur recouvrement par ce dernier des chances de sa viabilité économique et politique.
+Le présent article se propose donc d'explorer les avenirs possibles du Liban dans un tel contexte, en prenant en considération les champs politico-sécuritaires et socioéconomiques. Aux niveaux de la situation du Sud, de la relation régissant le couple syro-libanais, des institutions et forces politiques internes, et de la reconstruction et du socioéconomique, le diagnostic de l'effet pervers de l'état actuel de " ni paix, ni guerre " qui se prolonge dans la région sur la situation libanaise conduira à constater une déperdition croissante de la réalité libanaise en termes de souveraineté et de vitalité politique. Si l'ordre actuel au Liban est celui de la fin d'un état de guerre, il est encore loin d'être celui d'une pleine paix civile dont le sens s'imposerait à tous. À partir de cet état des lieux, il s'agira alors d'examiner, par une approche aussi prospective que possible, les probabilités d'inversion de la dégradation en cours, et ce, en cas de reprise sérieuse des négociations de paix et en cas de percée réelle sur le volet syro-israélien.
+Sept ans après le début du processus de paix ouvert à Madrid en 1991, la situation du Liban comme acteur étatique et comme négociateur à part entière a quelque chose d'ironiquement paradoxal. De tous les États appelés à se joindre à la négociation, le Liban était en effet le seul dont la lettre d'invitation faisait figurer autre chose que la seule résolution 242 comme base de règlement de son contentieux avec Israël. Fort, lui, d'une autre résolution du Conseil de sécurité (la 425), il s'écartait ainsi insensiblement du principe directeur de la négociation, à savoir " La terre contre la paix ", pour - du moins la diplomatie libanaise l'a-t-elle pensé un moment - aller devant les instances internationales réclamer tout simplement, serait-on tenté de dire, un retrait israélien inconditionnel du sud du Liban. À ceux qui, au sein de la classe politique libanaise issue de Taëf, considéraient alors qu'en entrant dans un forum où les retraits étaient conditionnés par des traités de paix, le Liban perdait sa carte diplomatique maîtresse, ou encore à ceux qui, au sein de la même classe, estimaient que l'attitude du Liban constituait un écart à leurs yeux inacceptable par rapport à la stratégie syrienne résumée par la résolution 242, la diplomatie libanaise répondait par un argumentaire en deux temps : la 425 devra uniquement assurer un retrait militaire du Sud et cette étape ne sera que technique. C'est alors que le Liban se joindra à ses pairs arabes, étape politique et diplomatique, pour signer avec eux, et pas avant, une paix " juste et globale " basée sur la résolution 242. Pour logique qu'il soit, cet argumentaire occultait deux choses : d'une part, il n'intégrait pas réellement ce qui se passait au même moment sur le terrain, c'est-à-dire dans le Sud occupé, où la résistance opérée par le Hezbollah doublait la dynamique politique des négociations libano-israéliennes par une logique militaire qui finirait, forcément, par imposer d'autres temporalités et d'autres équations. L'argumentaire n'admettait pas assez, d'autre part, que l'objet de ses propres négociations, le Sud, ne soit plus exclusivement sien, mais revête maintenant une fonctionnalité essentielle dans la stratégie négociatrice syrienne, comme l'un des derniers leviers à même d'amener Israël, sous la pression des coups portés par la résistance, à débloquer l'impasse sur le Golan d'abord et à y concéder davantage ensuite. C'est l'alignement graduel de la position officielle libanaise sur ce dernier point, ainsi que l'instrumentalisation à outrance par la Syrie de la carte libanaise, qui vont progressivement mettre un terme à la singularité et à la distinction offerte au Liban par la résolution 425 et miner son existence comme acteur régional autonome. Alors que les négociations libano-israéliennes s'arrêtent définitivement au bout du 12e round, la Syrie reprend les siennes en incluant dans ses dossiers la question du Sud ; négociations dont elle tient quand même le Liban informé - a posteriori, il est vrai. La " concomitance des deux volets " (Talazum al-masarayn), comme l'appelle désormais le lexique officiel libanais, devient dès lors l'unique doctrine diplomatique du pays ; seulement, elle n'est nullement comprise comme un parallélisme résultant de la coordination entre deux acteurs étatiques agissant de concert, mais comme l'attente libanaise passive que quelque chose se débloque sur le front syrien pour pouvoir revenir dans le jeu. De cette subordination en découlent alors bien d'autres, qui ont pour résultat de dévoyer le rapport existant au départ entre la présence syrienne au Liban et les dynamiques internes en cours dans ce pays. À l'équation de Taëf qui liait la mise en oeuvre des réformes au redéploiement militaire syrien et à la redéfinition des " relations privilégiées ", succède une équation qui, implicitement, fait de la présence syrienne une fonction de la donne régionale. D'où l'évidence selon laquelle le temps mort des négociations est un temps durant lequel se perpétue et s'aggrave le rapport inégal syro-libanais, avec les conséquences politiques et économiques internes qui en résultent.
+Il est désormais admis que la carte libanaise est l'atout régional le plus précieux entre les mains de la Syrie. Aussi, c'est sur le couple syro-libanais que se concentreraient pressions des uns et réactions des autres pour tenter de modifier le statu quo, et dans un contexte pareil, l'utilisation du terrain libanais pour amener la Syrie à plus de souplesse dans la négociation n'est pas à exclure. L'éventail des instruments est à ce niveau multiple, empruntant le biais du socioéconomique et de la dette libanaise croissante, jouant sur le ressentiment politique du camp chrétien, ou prenant aussi le visage de la " légalité internationale " en ouvrant plusieurs registres sur lesquels le Liban est perçu comme en manquement (drogue, asiles de terroristes recherchés, ou encore droits de l'homme non respectés...). Un degré supérieur de pression serait par ailleurs celui de la déstabilisation sécuritaire de faible ou moyenne intensité. Face aux cas de figure évoqués, l'alternative de Damas serait de s'agripper avec encore plus de force à son acquis régional. Dans ces cas extrêmes, le recours de la Syrie elle-même à la violence n'est pas totalement à exclure. Toutefois, une logique de ce type est lourde de risques, ne serait-ce que parce qu'elle mettrait en lumière une carence essentielle du rôle dévolu par la communauté internationale à la Syrie au Liban, à savoir celui de mettre à profit le temps de sa gestion libanaise pour y consolider la paix civile.
+En cas de blocage prolongé dans la région, et aussi éloignée qu'une telle éventualité puisse paraître, le retour de la violence armée sur la scène libanaise ne saurait être exclu. L'ancienne équation " paix libanaise si paix régionale " redeviendrait alors opératoire. Nombre de dynamiques internes libanaises se prêtent d'ailleurs à un tel appel belligène. La guerre s'est achevée sur un sentiment de réconciliation incomplète ; perçu ou réel, ce sentiment exprime l'idée que la guerre a clairement fait des vainqueurs et des vaincus. À d'autres niveaux aussi, beaucoup de comptes sont encore à régler entre les différentes factions libanaises, et leur règlement par les armes n'est pas - comme on pourrait le penser -unanimement rejeté, si les conditions régionales le permettaient - en assurant l'approvisionnement en armes et les prolongements d'alliances. De telles attitudes trouvent des relais jusqu'au sein du pouvoir, dont les pratiques ont généralisé un regain de crispation communautaire devenue depuis sept ans une véritable culture politique dominante. Aussi, force est de constater qu'aujourd'hui au Liban s'expriment dans certains milieux, et se lisent à certains indices, des perceptions qu'un climat semblable à celui de l'année 1975 couve sous la cendre... Bien sûr, d'autres forces travaillent les sociétés civile et politique libanaises ; des forces qui tentent de démontrer que la guerre a été une véritable leçon et que la violence ne saurait rien régler. La transversalité de ces forces est toutefois encore bien faible et leur impact limité à certains cercles élitaires, sinon marginal. Il l'est d'autant plus que les partenaires extérieurs du Liban, ignorant trop souvent ces dynamiques pourtant dignes d'être investies, préfèrent se donner pour seul interlocuteur un Liban certes officiel, mais lourdement hypothéqué.
+L'éventualité d'un regain de tension violente au Liban acquerrait plus de consistance encore - mais aussi plus de complexité - si elle venait à se greffer sur, ou à avoir lieu à un moment où la situation interne syrienne risque de se compliquer en raison de la transition délicate que ne manquera pas d'ouvrir la succession du président Assad. Ce texte n'est bien sûr pas le lieu d'envisager des scénarios de cet ordre, mais il est nécessaire de remarquer que l'imbrication des espaces politiques libanais et syrien a atteint un degré tel qu'il est difficile d'en séparer les dynamiques strictement internes et d'en délimiter des effets circonscrits. Le va-et-vient entre ces deux espaces est loin d'être à sens unique ; depuis vingt ans maintenant que le pouvoir syrien pratique et fréquente le Liban, ses crises et ses modes de production sociales et politiques, nul ne sait plus très bien qui des deux acteurs a le plus teinté l'autre. Dans ce domaine comme dans d'autres, plutôt que de parler uniquement de domination à sens unique ou d'hégémonie unilatérale, il conviendrait aussi de parler de convergence entre deux régimes et deux types de fonctionnement. Dans un cas de figure comme celui-ci, l'espace libanais ne serait plus un espace neutre où se projette seulement la puissance syrienne, mais un espace où se projettent également les rivalités des " barons " de cette puissance. Plus encore, plusieurs indices montrent que le Liban est aussi pour eux un espace-ressource et - par procuration - un vivier de forces d'appoint pour leurs propres luttes d'influence.
+En cas de blocage persistant et durable au niveau des négociations, et si la dégradation sécuritaire était exclue - la Syrie ne pouvant ainsi contribuer à nier sa propre raison d'être au Liban -, Damas a tout de même largement d'autres moyens de s'y assurer le contrôle quasi exclusif, pour un temps du moins, en profitant de sa maîtrise devenue inégalée de toutes les ressources du jeu local. Dans pareil cas de figure, il faut s'attendre à la perpétuation sous égide syrienne des modes de gestion politique en cours aujourd'hui au Liban, sans exclure, de plus, de brusques durcissements sur des dossiers sensibles ou à même de le devenir.
+L'ensemble de l'édifice politique mis en place au Liban depuis Taëf est dans ce sens parfaitement instrumentalisable. D'abord, la " troïka " présidentielle - née d'un enchevêtrement savamment dosé des pouvoirs et des prérogatives entre les deux branches de l'exécutif, et entre elles et le législatif - est une structure doublement propice. Elle est génératrice de divisions durables et infinies d'une part, permettant, à chaque fois, à Damas d'en réconcilier in extremis les acteurs. Elle est, d'autre part, génératrice d'immobilisme et de statu quo décisionnel, ce qui permet, à chaque fois aussi, à Damas de trancher pour l'option qui a sa faveur. En perpétuant ainsi le besoin d'arbitrage syrien, la structure constitutionnelle libanaise assure à la Syrie un " monitoring " permanent et sans failles, tout comme elle la prémunit contre tout risque de dérapage et contre toute velléité - de quelque partie libanaise qu'elle émane - d'élargissement de marge de manoeuvre. Le pouvoir étatique ainsi tenu, le contrôle s'étend par la suite à l'ensemble de la classe politique institutionnelle ou à l'activité agréée ou admise. Au terme de deux scrutins législatifs, d'un long travail de pénétration du terrain qui dure depuis parfois deux décennies, d'innombrables retournements d'alliances entre les forces locales sur la scène libanaise et d'une connaissance profonde des ressorts de la sociologie politique libanaise, Damas peut être assurée aujourd'hui de contrôler la quasi-totalité des membres du Parlement, des partis politiques en exercice, des forces, groupes et associations à capacité mobilisatrice plus ou moins notable. Elle profite, de surcroît, en cela de la dislocation des forces traditionnellement opposées à sa politique libanaise (les Forces libanaises, l'ossature de certaines anciennes brigades de l'armée, le mouvement aouniste, certains groupes islamistes, des réseaux arafatistes ou proches de l'OLP, les sympathisants du Ba'th irakien rival...). Enfin, maîtresse des échéances diverses, Damas peut, tour à tour, les utiliser pour renforcer et consolider ses instruments de contrôle (élections législatives, par exemple) ou, au contraire, pour les geler et les annuler afin d'éviter des tests difficiles ou gênants selon la conjoncture (élections municipales, jusque-là ; élection présidentielle de 1995). Aussi, au nom des " circonstances (régionales) exceptionnelles " et des " dangers qui menacent la sécurité nationale et la paix civile ", le déficit démocratique ne cesse de se creuser au niveau de l'exercice du pouvoir, mais aussi - de façon croissante - à celui de l'exercice et de l'expression des libertés et des droits fondamentaux.
+Dans un tel contexte, l'équilibre actuel - imposé mais fluctuant, entre les trois principales forces politiques libanaises que représentent Rafiq Hariri, le Hezbollah et l'armée libanaise - est appelé à perdurer. Concernant ce triangle, il est possible de parler de trois projets politiques sensiblement divergents en termes d'objectifs, de stratégies et d'alliances locales et régionales. Leur compétition et leurs différends restent toutefois pour l'heure inscrits dans une équation de conflit et de coopération très précisément rythmée et dosée par l'impératif de leur subordination à ce que les libanais appellent désormais le " plafond syrien " (As-saqf as-sury).
+Par son ambitieux projet de reconstruction, et la dynamique économique que cela provoque et entretient, Rafiq Hariri joue sur un besoin syrien de stabilité économique et sociale au Liban dans la période d'attente qu'imposent à tous les négociations. C'est cette logique qui a largement présidé à sa nomination comme Premier ministre en 1992, à l'issue des élections législatives controversées auxquelles il n'avait pas directement pris part, et à un moment où la crise économique libanaise atteignait la côte d'alerte. Certes, par ailleurs, Rafiq Hariri incarne et représente bien d'autres aspects et bien d'autres fonctionnalités. Présent dans les coulisses du jeu politique libanais depuis près de quinze ans, son entregent, sa surface financière et ses réseaux lui confèrent une possibilité non négligeable de convertir l'ensemble des forces politiques de la guerre en forces de gouvernement. D'autre part, sa facette saoudienne, ses relations d'affaires et personnelles avec plusieurs dirigeants du Golfe, d'autres parties du monde arabe et de certains pays industrialisés, constituent des atouts sur lesquels Damas peut s'appuyer pour gérer la période difficile d'adaptation aux nouvelles règles du jeu international, de négociations et de gestion de la carte libanaise dans un environnement volatil.
+Considérant la centralité que la résistance au sud occupe dans la stratégie négociatrice syrienne, le Hezbollah acquiert une place prépondérante, et souvent à part, dans le jeu politique libanais. Son exception provient bien sûr de l'activité militaire qu'il est désormais pratiquement le seul à entreprendre contre Israël, ce qui l'a exempté de se soumettre à la dissolution des milices à la fin de la guerre. Mais elle provient aussi de ce qu'il est l'expression la plus évidente de l'alliance syro-iranienne. D'un point de vue strictement libanais, les analyses et les degrés d'acceptation du fait que représente le Hezbollah sont multiples et diverses. " Contre-société " potentiellement dangereuse (car porteuse de projet de théocratisation de la vie politique) pour les uns, vecteur d'ingérence syro-iranienne (à l'origine de la prolongation de l'épreuve du Liban-sud) pour d'autres, le Hezbollah est aussi considéré par beaucoup comme un parti politique - aux spécificités certes notables - somme toute parfaitement intégré au jeu politique libanais, voire banalisé. Ce qui est invoqué à cet égard est l'entrée du parti dans le paysage parlementaire dès 1992, ses positions relativement modérées sur plusieurs questions internes et ses relations très largement étendues à toutes les parties libanaises : autant de caractéristiques qui font de lui une force semblable à d'autres forces dites de " l'opposition institutionnelle ". Il reste évident que l'importance du Hezbollah s'impose à tous, ne serait-ce qu'en raison de sa fonction - en concurrence avec le mouvement Amal - d'encadrement et de mobilisation effective et symbolique d'une partie de la communauté chiite, et de la place qu'occupe désormais cette dernière dans tous les équilibres libanais.
+La fin de la guerre a fait apparaître un besoin pressant de sécurité. L'armée libanaise, devenue au fil du conflit l'un de ses acteurs majeurs, se voit alors confier, en étroite collaboration avec les troupes syriennes stationnées au Liban, le rôle de gardien de l'ordre et de la paix civile. À la croissance numérique qu'un tel rôle impose, s'ajouteront par la suite d'autres fonctions que l'armée se donnera. Face au projet de la résistance et à ses débordements potentiels, l'armée joue - vis-à-vis des parrains du processus - le rôle de garant, afin que les termes de tout arrangement soient respectés ; corollairement, elle suggère, également aux partenaires étrangers, qu'en cas de défaillance soudaine de la présence armée syrienne - pour des raisons qu'il n'est pas possible de discuter ici - elle serait prête à remplir le vide sécuritaire, mais aussi à parer à toute potentielle défaillance politique. Face au projet " tout-économique ", l'armée se donne une image de creuset intégrateur de la nation et de ses générations montantes, multipliant publications, camps de jeunes et campagnes diverses de civisme. Plus encore, face à la dégradation de l'image de la classe politique libanaise, elle se pose aussi en recours possible, en jouant de surcroît sur une opinion dont de vastes segments ne seraient pas hostiles à un scénario bonapartiste.
+Représentant la reconstruction, la résistance et la sécurité, ces trois forces expriment - parfois lourdement - des divergences découlant de leurs logiques intrinsèques, mais dont les expressions reflètent aussi les positions nuancées de leurs propres alliés et protecteurs respectifs au sein du leadership syrien, quant aux politiques à suivre au Liban ou envers le dossier régional. Les membres de ce leadership, en retour, jouent de ces différences, afin de mettre en avant telle ou telle option en fonction de l'état d'avancement du processus lui-même.
+La divergence la plus flagrante, la plus profonde aussi, est celle qui oppose Rafiq Hariri au Hezbollah. En la matière, tout ou presque a été dévoilé durant les deux semaines d'avril 1996, lors de l'opération " Raisins de la colère ". Pour le Premier ministre dont la priorité absolue est son projet de reconstruction, la libération du Sud doit - autant que possible - être obtenue par la négociation. La résistance est en ce sens coûteuse, au sens propre du terme, surtout si elle devait mener Israël à exécuter sa menace de destruction des infrastructures, en riposte à sa vulnérabilité au Sud. D'autre part, c'est la véritable opposition entre deux " projets de société " qui sépare les deux forces, les valeurs sociétales véhiculées par le Hezbollah pouvant difficilement s'acclimater avec l'imagerie du Liban de demain incarnée par les technocrates d'une économie de services, extravertie et dépendante. En présentant sa bataille législative à l'été 1996 comme étant celle de la " modération contre l'extrémisme ", Rafiq Hariri pointait aussi bien cela du doigt. Aussi, il fait peu de doute que le modus vivendi entre la formation islamiste et Rafiq Hariri doive presque exclusivement à la pression syrienne.
+Entre Rafiq Hariri et l'armée libanaise, les crises ont été tout aussi fréquentes et pas toujours feutrées. Des promotions d'officiers - dont le numéro deux des renseignements militaires - bloquées par le Premier ministre, aux accusations directes lancées aux " services " pour leur immixtion dans plusieurs manifestations de la vie civile, en passant par les manoeuvres médiatiques et politiciennes visant à promouvoir l'image du commandant en chef de l'armée comme présidentiable hors-cadre donc hors-calibre, la liste des confrontations évitées mais ajournées est longue. Par deux fois, Rafiq Hariri ira jusqu'à sous-entendre que l'une des raisons essentielles de la crise économique est à rechercher dans le budget démesuré alloué aux forces armées et au traitement de la troupe. Effectivement, en absorbant une bonne partie des milices dissoutes, l'armée a vu ses effectifs s'hypertrophier depuis le début de la décennie. Mais à ce développement numérique correspond aussi un changement assez profond de structure, l'armée se présentant aujourd'hui comme un corps où les officiers sont en surnombre et où les avantages sociaux et matériels qui leur sont conférés sont en croissance constante. D'instrument militaire, l'armée est en passe de devenir un véritable corps social, doté de ses logiques propres et de ses revendications corporatistes. Par ailleurs, se greffent sur ces évolutions des lectures politico-communautaires de la troupe. Alors que, traditionnellement au Liban, l'armée était considérée comme l'un des outils privilégiés de l'hégémonie maronite, elle est aujourd'hui perçue comme le vecteur d'une ascendance chiite au sein des appareils de l'État. Plus profondément, c'est là encore deux quasi-" projets de société " qui s'affrontent et qui cherchent, chacun, à se placer d'ores et déjà comme l'acteur de réserve idéal en cas de règlement régional.
+En cas d'avancée des négociations, non seulement ces équilibres seront modifiés, mais la nature et l'action mêmes de chacun de ses acteurs (pour deux d'entre eux du moins) seront appelées à varier sensiblement. La déflation du conflit israélo-libanais poussera sans aucun doute vers une plus grande conversion du Hezbollah en force exclusivement politique et vers une plus grande intégration de cette dernière dans les rouages institutionnels. C'est en ce sens qu'une ligne de plus en plus affirmée au sein des cadres du parti prône, depuis un certain temps déjà, la " libanisation ", c'est-à-dire une plus grande distance à prendre par rapport aux impératifs stratégiques proprement iraniens, même si la filiation idéologique et spirituelle avec Téhéran n'est pas à remettre en question. La Syrie aura - encore plus qu'actuellement - un rôle essentiel à jouer dans ce processus, en faisant accepter à son allié local les logiques du règlement régional et en obtenant probablement pour lui, en compensation, des concessions substantielles à l'intérieur du système libanais. Dans le cas contraire, la conversion du Hezbollah pourrait s'avérer plus problématique. L'option du désarmement forcé du Hezbollah serait alors imposée à la Syrie ou encore à l'armée libanaise. Tant l'une que l'autre ont déjà eu des affrontements avec le Hezbollah : en 1987, lorsque l'armée syrienne ne put entrer dans la banlieue sud qu'après un assaut qui fit 27 morts dans les rangs du Hezbollah ; et, en septembre 1993, lorsque l'armée libanaise tira sur des manifestants du parti qui protestaient contre la signature des accords d'Oslo, faisant 13 morts dans leurs rangs. Si les ranc?urs se sont depuis éteintes, elles pourraient être suscitées à nouveau. La reconversion pourrait d'autre part être freinée - ou compliquée - par la relance, de la part des États-Unis le plus probablement, de demandes judiciaires concernant des affaires passées de " terrorisme " et pouvant atteindre certains cadres aujourd'hui bien en vue du Hezbollah, dont des parlementaires. Cette dernière éventualité étant bien entendu sujette à l'état des relations libano-américaines et syro-américaines à ce moment là. Quant à la coexistence du Hezbollah avec le projet Hariri dans un système où ce dernier, toutes choses étant égales par ailleurs, sera une force probablement plus autonome, elle sera sans doute fonction de l'état des relations entre la Syrie, les États du Golfe - essentiellement l'Arabie Saoudite - et l'Iran. Il faut toutefois se figurer ce que pourrait devenir le Hezbollah comme force politique interne, si la carte de la résistance au Sud ne faisait plus partie de son arsenal discursif et mobilisateur. Dans ce sens, le parti a déjà entamé une diversification de ses thèmes d'action et de revendication, en se portant présent sur les fronts de la revendication sociale et des libertés publiques où il montre d'ailleurs une capacité notable à lier des alliances avec des forces très disparates sur l'échiquier politique libanais, jouant en cela d'une forte légitimité acquise sur le champ de bataille. Par ailleurs, une reconcentration du parti sur des thèmes politiques proches de ceux des autres mouvements islamistes de la région - avec lesquels le Hezbollah est d'ailleurs en relation - n'est pas à exclure ; elle a toutefois pour limite de faire alors réapparaître un clivage communautaire entre les deux grandes familles de l'Islam.
+Quant à l'armée, son rôle dans l'après-règlement continuerait d'être crucial. Aussi, au nom de la nécessité d'assumer l'engagement sécuritaire au Sud, elle plaidera probablement pour un accroissement de ses effectifs et de ses moyens, surtout si elle devait à la fois assurer le déploiement dans la partie méridionale et dans le reste du pays. C'est sur cette économie des forces armées que joue d'ailleurs l'argument de la nécessité d'un maintien des troupes syriennes au Liban après la paix. Le déploiement de forces étrangères de maintien de la paix dans le cadre des arrangements à prévoir serait en ce sens un moyen de sortir de cette logique. C'est du reste en se présentant comme la force concrète de substitution à l'armée syrienne que l'armée libanaise tente de promouvoir son image tant auprès des franges anti-syriennes de l'opinion qu'auprès - plus discrètement - des Etats-Unis dont elle a traditionnellement toujours été très proche. À cet égard, le travail de contrôle syrien à l'oeuvre au sein de l'armée depuis 1991, et dont attestent le traité de défense commune et les sessions d'entraînement des officiers libanais en Syrie, est supposé constituer pour Damas la garantie que les forces armées libanaises ne seront pas entraînées, comme elles l'ont souvent été, dans des actions hostiles à la politique libanaise. C'est pourquoi il serait à craindre qu'en cas de divergences sérieuses entre la Syrie et les parties tierces, autour de la gestion du terrain libanais en situation de paix, l'armée ne soit l'objet de polarisations. À plus long terme, il serait cependant plus probable que la pacification de la région entraîne une diminution de l'importance de l'armée dans l'équation politique, même si elle devait conserver l'essentiel de ses acquis sociaux. À cet égard, il faut rappeler que ce débat est propre à l'ensemble des États de la région : la démobilisation entraînera-t-elle un recul d'influence des militaires dans la vie politique des sociétés concernées ou, au contraire, cette influence sera-t-elle appelée à s'affirmer, parfois sous l'encouragement des parrains de la paix, pour garantir les engagements pris ? Dans le cas du Liban, un facteur supplémentaire s'ajoute à cela. La coexistence entre l'armée et le projet Hariri, toujours en cas de pacification, pourrait se faire sur le mode " taiwanais ", c'est-à-dire celui de la nécessité d'assurer les investisseurs étrangers et leurs capitaux contre des risques de mécontentement social...
+En cas de percée sur le volet syro-israélo-libanais des négociations et en cas de desserrement de l'emprise syrienne sur le Liban, la relève libanaise et la viabilité politique du pays dépendraient encore d'autres facteurs, largement internes. Les hypothèques à ce niveau sont nombreuses. En premier lieu, la grande fragmentation de la société libanaise, aggravée par quinze années de guerre, et dont l'histoire montre qu'elle est une source récurrente d'appel à l'ingérence extérieure dans les affaires du pays mais aussi de ses communautés. La classe politique libanaise reflète, amplifie et sans doute recrée les conditions de cette fragmentation ; elle y ajoute un égoïsme indépassable et une culture politique souvent étroite et " paroissiale ". En contrepartie, une contre-élite foncièrement différente - et à même de jouer des rôles de nature et d'envergure qualitativement autres - n'a pas émergé ou, du moins, n'est pas prête d'être structurée autour de projets lisibles et repérables. Pour une bonne part, elle est d'ailleurs le fait de personnalités de l'ancienne classe politique ou de ses héritiers, souvent marquée par des velléités revanchardes. Des personnalités politiques se détachent pourtant, et contribuent encore, par des positions courageuses et notables, à préserver un minimum d'immunité à la vie politique libanaise. Leur action reste toutefois individuelle et le moindre de leurs échecs n'est pas justement cette incapacité à fédérer des positions par ailleurs attendues par une large part de la société. Le poids de la tutelle et celui des blocages régionaux sont certainement à cet égard un facteur à prendre en compte. Il reste que la nécessité de recréer les circuits de recrutement et de mobilité d'une nouvelle élite politique, mais aussi administrative, est pressante si le Liban doit, dans un Proche-Orient pacifié, affronter des défis d'un tout autre ordre que ceux qu'il a connus jusqu'ici. Dans ce sens, l'un des atouts majeurs du projet Hariri est justement de pouvoir se présenter comme un vecteur politique de transversalité dans la société libanaise et comme porteur d'une modernisation - certes coûteuse et autoritaire. Reste que la culture politique suggérée tant par son discours que par certaines des mesures prises depuis cinq ans laissent entrevoir une distance certaine entre ce projet et des pratiques pleinement démocratiques. Quoi qu'il en soit, la principale limite du projet Hariri reste dans sa propre surévaluation. En accréditant - ou ne laissant se confirmer - la thèse de la " non-alternative " (La badil) à ce projet, le Liban court le risque - auquel il a jusque-là échappé - d'aligner son système politique sur celui de l'ensemble des États arabes de la région, dont la principale hypothèque sur l'avenir est justement, en raison du manque total d'alternance et de la non-circulation de leurs élites, leur difficulté à entrevoir avec sérénité la succession politique ou naturelle de leurs dirigeants.
+La perpétuation du statu quo actuel se paie d'ores et déjà en forte déperdition du potentiel économique libanais. Il est difficile de ne pas voir que l'essentiel du projet économique engagé après la guerre, et qui prendra une ampleur et une vitesse grandissantes à partir de 1992 avec l'arrivée directe au pouvoir de Rafiq Hariri, est basé sur l'hypothèse, faite alors, que la paix serait installée dans l'ensemble de la région quelque deux à trois ans plus tard. Au moment de son entrée en fonctions en octobre 1992, le Premier ministre promettait aux Libanais des réalisations considérables pour le printemps suivant. La plupart des rapports rédigés au tout début des années 90 prévoyaient la réduction quasi totale du déficit public libanais dès 1994 - 1995, un taux de croissance soutenu de 8 à 9 % à partir de ces mêmes années, le début du passage de l'investissement public en travaux d'infrastructure à des investissements plus productifs, etc. Il est facile de constater aujourd'hui le caractère plus qu'optimiste de ces projections et de ces promesses. Bien sûr, la réparation de l'infrastructure physique du pays a été largement entamée. Elle est toutefois encore insuffisante alors qu'une majeure partie des sommes qui lui étaient allouées ont été dépensées. Ces dépenses comprennent une large part de coûts et de frais non pris en compte au départ, et que l'on peut sans risque attribuer à la situation alarmante de l'administration, mais aussi et surtout aux blocages et nuisances politiques - locales et régionales - qu'il s'agit chaque fois de surmonter ou de contourner financièrement. Alors que le coût global de la reconstruction était censé se chiffrer à environ 20 milliards de dollars, la seule dette publique libanaise - interne et externe - atteint déjà 13 milliards de dollars.
+En cas de blocage durable des négociations, il faut s'attendre à la perpétuation de la morosité économique, à la dégradation de l'état des finances publiques, à l'accroissement de la dette - ou au moins de son service - sans décollage réel de l'activité productive. Les taux d'intérêt élevés, outils d'une politique monétaire restrictive destinée avant tout à la défense de la stabilité de la monnaie nationale, découragent une bonne partie des investissements productifs au plan local, réduisent le niveau de la consommation et gonflent artificiellement la bulle spéculative foncière. Les investisseurs étrangers, lorsqu'ils s'installent au Liban, le font en " stand-by ", par le biais de petites structures, mobiles et peu coûteuses, dans une logique de prise d'options au cas où les choses se débloqueraient dans la région. Quant aux capitaux libanais à l'étranger, estimés à plus de 30 milliards de dollars, et sur lesquels beaucoup d'espoirs se fondent, il s'agit d'abord de voir quel est leur degré de mobilité, quel est encore leur degré de " libanité " et, enfin, quelles sont les conditions politiques que leurs détenteurs attendent pour les diriger vers leur pays d'origine. Dans le même temps, les pesanteurs et blocages politiques rendront pratiquement impossibles et vaines les tentatives de réforme administrative - si elles ont lieu. Ainsi, la corruption qui grève les finances publiques est appelée à perdurer. Un déficit accru par le fait que la situation sociale devenant de plus en plus critique, il sera difficile à l'ensemble de la classe politique de priver le corps social des fonctionnaires de la prébende que constituent pour eux l'emploi public et ses avantages en nature. Ces considérations macroéconomiques se traduisent douloureusement sur le niveau de vie des Libanais. Si la classe moyenne à l'assise autrefois large n'en finit pas de s'étioler depuis le début de la guerre, l'après-guerre a vu se développer une nouvelle pauvreté aux proportions objectivement alarmantes. C'est dire que le blocage persistant de la situation régionale aura donc pour effet d'entamer sérieusement la crédibilité et l'image - au départ très avantageuses - de Rafiq Hariri comme opérateur économique et comme homme miracle de la convalescence libanaise d'après-guerre. Si cette situation s'envenimait, ses effets pourraient même s'avérer politiquement dangereux et devenir, par contrecoup, des facteurs de crise économique syrienne, ne serait-ce que par le biais du marché de l'emploi que le chantier libanais offre au surplus de main-d'oeuvre syrienne. Ce n'est d'ailleurs là pas la moindre des fonctions syriennes du projet Hariri, à savoir celui de générateur de prospérité pour la Syrie.
+En dépit de tous ces signaux négatifs, l'économie libanaise garde quand même de grandes ressources de viabilité si le blocage régional était levé. Certes, comme tous les autres États de la région, le Liban aura à vivre des adaptations difficiles et parfois douloureuses, la nouvelle division régionale du travail imposant sacrifices et contraintes de type nouveau. Il est d'ores et déjà probable que le Proche-Orient économique dans l'après-paix se dessinera autour de deux ensembles plus ou moins intégrés, dont les relations seront sujettes aux considérations politiques, mais aussi à celles de l'avantage comparatif. Si la première de ces zones regroupe les " trois " - Palestine, Jordanie et Israël -, une zone " à deux " devra lui faire contrepartie, regroupant la Syrie et le Liban. Dans ce sens, les dynamiques à l'oeuvre dès maintenant dans le couple syro-libanais sont essentielles et constituent autant de chances que de pesanteurs. Si la perception actuellement dominante est celle du modèle Chine/Hong-Kong, et s'il est vrai qu'à maints égards, le Liban remplit pour la Syrie la fonction d'un espace économique compensatoire, il n'en demeure pas moins que le fonctionnement optimal de cet ensemble pour le bénéfice des deux parties comporte ses conditions. Il appartiendra donc au pouvoir libanais de rééquilibrer la mise en oeuvre des traités économiques entre le Liban et la Syrie, en faisant jouer pleinement la règle des avantages comparatifs, en réduisant les protectionnismes appuyés sur les rapports de force inégaux entre les deux pays et en s'éloignant - le plus tôt serait le mieux - de pratiques plus proches de la prédation économique que la Syrie exerce sur certains secteurs libanais. À ce niveau, le problème de la main-d'oeuvre syrienne, dont les estimations les plus prudentes chiffrent la ponction à un minimum de 1 milliard de dollars par an, se pose en termes particulièrement complexes, tant il mêle les considérations économiques à d'autres, plus psychosociologiques, engageant des représentations dangereusement négatives de l'autre. Par ailleurs, le Liban peut être envisagé par la Syrie aussi comme un espace de spécialisation par procuration. Certains faits signalent déjà que plusieurs entreprises libanaises servent dès aujourd'hui d'école à des cadres syriens formés pour la plupart à l'étranger. Au sens plus large, d'ailleurs, l'entrée dans le marché libanais de la reconstruction d'un certain nombre d'entrepreneurs syriens contribue à l'acquisition par ces derniers de réflexes propres à une économie de marché ouverte et plus compétitive.
+Les conditions économiques de la paix imposeront au Liban une double adaptation : avec l'économie syrienne, mais aussi avec celle d'Israël. Dans ce sens, plusieurs secteurs devront être sacrifiés, d'autres développés plus encore et mieux dans une perspective de spécialisation et d'excellence (banque, hospitalisation, système éducatif, informatique et télécommunication...). À plus long terme, et si les blocages étaient véritablement levés, la possibilité que le Liban serve d'espace intermédiaire entre le marché israélien et les marchés arabes - et plus spécifiquement syrien - ne peut pas être exclue. De pareilles perspectives ne manqueront pas, cependant, de placer les entrepreneurs libanais dans des situations de tension, difficiles à tenir si les échanges commerciaux continuaient d'être idéologisés dans une logique de refus de normalisation totale même après la paix.
+Relever ces défis nécessite dès maintenant que le Liban s'engage sur la voie de certaines corrections et réformes de son environnement économique et social. Les conditions du miracle économique des années 50, 60 et 70 ont drastiquement changé et la guerre n'y est certainement pas pour peu. À titre d'exemple uniquement, l'économie libanaise devra progressivement accommoder un nombre croissant de nouveaux venus sur son marché du travail, en raison d'une pyramide des âges en rajeunissement constant depuis un certain temps. Le système éducatif et de formation professionnelle devra retrouver son rôle central de qualification. C'est de lui, ainsi que d'un système fiscal plus juste, que dépend la recréation d'une classe moyenne importante. Une grande partie des entreprises devront moderniser leurs structures organisationnelles et consolider leur capitalisation ; à l'ère de la compétition régionale et de la mondialisation, il y a peu de place pour des entreprises essentiellement familiales et parfois sous-capitalisées. L'avantage comparatif du Liban en termes de tourisme ne pourra être exploité si des actions résolument volontaires n'étaient entreprises pour arrêter la dégradation catastrophique de son environnement naturel...
+L'économie libanaise dans un Proche-Orient en voie de pacification, voire même le couple économique syro-libanais dans un tel environnement, sera aussi largement dépendant de ce que les négociations multilatérales dessineront comme cadres et comme contraintes. Concernant le Liban, cela est vrai pour deux domaines au moins : celui de l'eau et celui des réfugiés. Si la position officielle israélienne, maintes fois réitérée, est de n'avoir aucune visée territoriale sur le Liban, cela ne saurait exclure que des arrangements concernant l'eau libanaise ne soit mis sur la table des négociations. À tort ou à raison, le Liban est présenté comme un pays excédentaire en eau, dans une région où sa rareté fait loi. À cet égard, Israël pourrait invoquer le précédent du traité libano-syrien de partage des eaux de l'Oronte, où le Liban s'est montré légèrement généreux, pour exiger à son tour, et sur d'autres cours d'eau, le droit à l'utilisation de certaines quantités. Pareil point renvoie à la question plus globale des négociations multilatérales et à ce qui y attend le Liban.
+Pour politiquement défendable que soit la position libanaise de boycott des négociations multilatérales, celle-ci aura eu jusque-là, et aura davantage encore à l'avenir, un prix plus élevé pour le Liban que pour le partenaire syrien, dans la mesure où le Liban est concerné de façon vitale par le dossier des réfugiés où se joue le sort des quelque 300 000 Palestiniens stationnés sur son sol. S'il peut continuer à s'en tenir à une stricte rhétorique juridique en la matière, le Liban ne pourra pas longtemps ignorer qu'en cas de paix, ce genre de question sera plutôt réglée selon des modes de transnationalité, modes qui revisiteront sans doute largement les principes traditionnels du droit international public au profit de mécanismes juridiques plus souples et plus inventifs aujourd'hui envisagés sans lui. Si l'absence aux négociations multilatérales a ses raisons, un palliatif momentané serait, pour le Liban, d'être aussi présent que possible au sein d'autres forums - multilatéraux mais moins chargés diplomatiquement et politiquement. Outre que le Liban, s'il y était traité comme acteur autonome réaffirmerait ainsi son identité diplomatique, il y gagnerait aussi par le fait que ses représentants prendraient là le pouls de ce qui se prépare pour lui et pour la région dans différents domaines.
+À cet égard, on peut légitimement s'inquiéter de l'état d'" impréparation " du négociateur libanais en ce qui a trait à certains dossiers techniquement pointus. Sur des questions cruciales comme celle de l'eau, des réfugiés palestiniens, de l'intégration économique ou des futurs systèmes de sécurité collective, le consensus national est loin d'être formé, l'accumulation de connaissances et d'expertises est embryonnaire, la mise à contribution des spécialistes est au mieux informelle et dispersée, quand elle n'est pas simplement écartée pour des raisons de conformité politique. Le temps mort depuis l'arrêt des négociations libano-israéliennes aurait pu être mis à profit pour avancer sur la maîtrise de ces dossiers. Dans ce sens, en se montrant aussi craintif et réticent à l'encontre de toute présence d'experts libanais dans des cénacles internationaux portant sur ces sujets, Beyrouth se prive d'opportunités sérieuses de construction de capacités négociatrices futures.
+Si, selon certaines analyses, la Syrie peut - ou préfère - s'accommoder de l'état de " ni paix, ni guerre ", le Liban, lui, a clairement intérêt à un déblocage et à une issue rapides des négociations. Là n'est pas la moindre de ses différences avec la Syrie. Le Liban joue aujourd'hui sa viabilité dans une course contre la montre et chaque jour passé dans la situation actuelle se paie cher : en vies humaines au Sud, en déliquescence politique à l'intérieur, en marasme économique, en ponction de plus en plus lourde opérée par son protecteur sur ses ressources, en désenchantement tous les jours plus profond que vivent ses citoyens.
+Est-ce à dire que c'est dans la paix que réside la seule clef de l'entier recouvrement du Liban ? La relation syro-libanaise dans sa forme actuelle est sans doute appelée à se prolonger pour un temps encore. Il s'agit là d'un processus tissé sur le long terme, dont les configurations sont fluides et à même d'accommoder les pressions exogènes. La Syrie a créé au Liban des facteurs de contrôle durable, dont le moindre n'est pas sa maîtrise du complexe que constituent l'élite politique et une partie importante des forces sociales effectives. Le Document d'entente nationale mettant fin à la guerre devait être compris, au départ, comme un arrangement intérimaire, adaptable et améliorable, une plateforme offrant des perspectives ouvertes sur des relations syro-libanaises plus mutuellement bénéfiques et sur des équilibres internes plus novateurs. Toutefois, la conjoncture régionale et internationale des premières années de la décennie 90, ainsi que les rapports de force interarabes et intra-libanais, avaient alors laissé le champ libre à une lecture unilatérale - et fermée - par la Syrie du sens de l'accord de Taëf et avaient ainsi gravement dévoyé la relation syro-libanaise. L'impact simple et direct d'une percée réelle du processus de paix sur cette relation reste donc limité, contrairement à ce qu'un " wishfull thinking " largement répandu chez les Libanais laisserait croire. Quand bien même un tel processus entraînerait le retrait, le redéploiement ou l'allégement des effectifs militaires syriens au Liban, d'autres types de contrôle pourraient aisément s'y substituer ou en prendre le relais. Dans ce sens, si le retrait militaire syrien est nécessaire, il n'est en aucune façon suffisant. Un véritable rééquilibrage des relations syro-libanaises reposera largement sur la capacité qu'auront - à partir des données du Liban actuel - de nouvelles forces sociales et politiques à mettre à profit les marges offertes par la nouvelle donne régionale, par la vitalité économique du pays, et par leur formulation commune d'un projet de vie politique - où les Libanais seront réconciliés autant avec eux-mêmes qu'avec leur environnement, pour réaffirmer une véritable souveraineté libanaise.
+Celle-ci ne devra, en aucun cas, se reconstruire contre la Syrie ou sur le ressentiment aveugle envers elle. De telles tendances existent. En effet, malgré le côté incantatoire des déclarations officielles libanaises sur la fraternité qui caractérise désormais les relations entre les deux pays, malgré le slogan du président Assad lui-même selon lequel Libanais et Syriens sont " un seul peuple dans deux États ", l'aspect idyllique d'une telle relation est démenti par les détails du vécu quotidien. Les échauffourées sanglantes de la Cité sportive, qui ont opposé au mois de juin 1997 les supporters des équipes syrienne et libanaise de football, ne sont qu'un spécimen des ranc?urs accumulées entre les deux sociétés, où se mêlent l'économique et le social à l'identitaire et au patriotique.
+Aussi, l'avenir d'une réelle coopération syro-libanaise qu'exige un Proche-Orient en paix passe, en grande partie, par un travail de réajustement des perceptions croisées de ces deux sociétés. D'une part, la Syrie a été véritablement intériorisée par la représentation collective libanaise comme le démiurge et le régulateur des crises, comme la partie prenante et l'arbitre, omnisciente, omnipotente et omniprésente. De l'autre côté, on oublie parfois que le Liban a fini par devenir partie intégrante du système syrien lui-même. Le régime du Mouvement rectificatif du président Assad vit avec le Liban - et avec sa crise - sans interruption aucune depuis au moins 1976. Une grande partie de son édifice politique et militaire s'est structuré au Liban, s'est même parfois structuré par le Liban. Il est vrai que des pratiques uniformisées de part et d'autre de la frontière ont peut-être progressivement lissé les deux espaces ; mais elles ont aussi exacerbé les plus petites différences. C'est justement entre ces deux extrêmes, celui de la fusion et celui du rejet, que le Liban et la Syrie - seuls mais ensemble - devront réapprendre à vivre.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+A la fin des années 1980, un consensus semble se dégager en France autour de l'idée de la fin de ce que l'on appelait l'" exception française ". Les clivages idéologiques irréconciliables et l'atmosphère de guerre civile larvée ont disparu, tandis que les grands conflits sociaux, mais aussi l'engagement et la participation politique, sont en net déclin. C'est pourquoi l'apparition d'une forte contestation de la mondialisation constitue une véritable surprise, tant pour les observateurs que pour les acteurs eux-mêmes. Elle paraît contredire cette forme de " fin de l'histoire " à la française, c'est-à-dire cette reconnaissance quasi généralisée des principes de l'alternance démocratique, mais aussi, et surtout, de l'économie de marché. On peut dès lors se demander si cette contestation témoigne d'un retour de cette fameuse " exception française " ou si elle est seulement le symptôme des difficultés traversées par une société confrontée aux défis de l'actuel processus de mondialisation.
+La contestation française de la mondialisation n'est pas tant singulière par ses caractéristiques, que par son influence notable sur la société et sur le débat politique. Cette contestation à la française est née, en grande partie, dans le sillage du débat sur Maastricht, mais aussi de la réapparition de mouvements sociaux importants, avec les actions des " sans " (logement, travail, papier) et surtout les grèves du secteur public fin 1995. La création, en juin 1998, d'ATTAC et son succès rapide, l'intense campagne menée par la Coordination contre l'AMI (Accord multilatéral sur l'investissement négocié à l'OCDE) et le démontage du restaurant McDonald's à Millau par des militants de la Confédération paysanne en août 1999 en réaction à la décision américaine de surtaxer des produits agricoles français, font de la France à travers ses figures médiatiques, notamment celle de José Bové, l'un des hauts lieux de la lutte contre la " mondialisation libérale ", avant même l'organisation des manifestations de Seattle à l'occasion de la conférence ministérielle de l'Organisation mondiale du commerce (OMC) en novembre-décembre 1999. Elle le reste et le sera tout particulièrement en 2003 puisqu'elle devrait accueillir deux des grands événements de l'année sur le front contestataire : les manifestations à l'occasion du sommet du G8 à Evian du 1er au 3 juin 2003, et le Forum social européen, qui se déroulera à Saint-Denis du 29 octobre au 3 novembre 2003.
+Il n'existe pas pour autant un mouvement antimondialisation en France. On doit davantage parler d'une mouvance ou d'une nébuleuse de groupes souvent très disparates par leurs structures, leurs objectifs ou leurs effectifs que d'un mouvement structuré. En outre, la contestation française apparaît plutôt altermondialiste qu'antimondialiste, dans la mesure où les protestataires défendent une autre mondialisation que l'actuelle " mondialisation libérale ". Ses acteurs apparaissent donc assez diversifiés et éloignés des clichés réduisant la critique de la mondialisation en France aux groupes ou aux personnalités les plus visibles lors des manifestations à l'occasion des sommets internationaux ou des réunions propres aux contestataires (Forum social mondial et, aujourd'hui, Forum social européen) ou dans les médias, à savoir José Bové et ATTAC. En effet, les activités protestataires ne se résument pas à ces manifestations. Les groupes s'expriment également à travers une intense activité de lobbying auprès des " décideurs " ou du grand public en réalisant un certain nombre de campagnes sur des thèmes spécifiques comme la dette, la taxe Tobin ou les organismes génétiquement modifiés (OGM) ; une activité d'information, d'analyse, de pédagogie et de publications ; et de contre-expertise sous la forme d'une surveillance et d'une évaluation de la politique menée par diverses institutions (nationales ou internationales) ou par des entreprises, fondement d'un véritable contre-pouvoir.
+Ainsi, bien plus qu'ATTAC et la Confédération paysanne de José Bové, les groupes les plus impliqués dans les campagnes sont d'abord des organisations de solidarité international (OSI), souvent d'origine confessionnelle, telles Agir ici, AITEC, Artisans du monde, le CCFD, le CRID, Peuples solidaires, le Réseau Afrique-Europe Foi et justice, RITIMO, Solagral ou Terre des hommes, ou d'autres ONG, comme des groupes écologistes (Les Amis de la Terre et Greenpeace) et l'association de défense des droits de l'homme de Danielle Mitterrand, France Libertés. En fait, la mouvance contestataire française est composée de trois types de groupes : les ONG, les mouvements sociaux et les " nouveaux groupes contestataires ".
+Les ONG appartenant à la mouvance sont des organisations spécialisées dans l'aide au développement et la lutte contre la pauvreté dans les pays du Sud ou la protection de l'environnement. Mais d'autres ONG tendent également à s'impliquer dans la critique de la " mondialisation libérale ", comme celles qui défendent les droits de l'homme, la condition féminine ou les minorités sexuelles. Elles s'expriment principalement par le biais de campagnes, surtout axées sur l'amélioration de la situation des pays du Sud (développement durable, annulation de leur dette, lutte contre la politique menée par les institutions financières internationales). Une part notable de la contestation française, à l'instar de la situation existant dans d'autres pays, est ainsi composée d'organisations d'origine confessionnelle, rappelant que l'Église est également un pôle important de critique du capitalisme. Les mouvements sociaux comprennent des mouvements de défense des exclus - les " sans " -, des mouvements paysans et des syndicats radicaux, comme Sud-PTT. Ils s'expriment en particulier par le biais de manifestations, souvent assez spectaculaires, mais aussi de campagnes contre l'OMC. Enfin, les nouveaux groupes contestataires, contemporains de la mondialisation, ont été spécifiquement créés en liaison avec ce thème. Ils comprennent des associations, comme ATTAC, des réseaux, des observatoires et des " groupes de surveillance " qui s'expriment par le biais de campagne, de publications ou de promotion de telle ou telle action. Ils sont surtout présents dans la lutte contre l'OMC.
+On peut distinguer parmi eux des groupes réformistes, qui sont dans une logique d'engagement plus que d'affrontement face aux " acteurs " de la mondialisation (gouvernements, entreprises, institutions internationales) et qui acceptent d'entrer dans des mécanismes de consultation mis en place par ces derniers, et des groupes radicaux qui, eux, sont plutôt dans une logique d'affrontement et se refusent à tout compromis avec le " système ". Pourtant, concrètement, leurs différences apparaissent beaucoup plus floues, en tout cas plus de degré que de nature.
+Ces groupes incarnent une certaine continuité historique avec les formes de contestation passées (ouvrière, intellectuelle, " anarchiste ", mais aussi celle de l'Église) et dans la tonalité de leurs critiques. Mais ils s'inspirent également de courants plus contemporains, comme les mouvements " post-matérialistes " des années 1960 - 1970 ou la mouvance ONG. Par ailleurs, ils ont une structuration inédite et de nouveaux objectifs. A la différence de la contestation ouvrière et marxiste d'autrefois, les groupes protestataires actuels n'aspirent plus au " Grand soir ", c'est-à-dire à une forme de prise de pouvoir politique et de transformation radicale de la société par la force, ou de toute révolution de type socialiste impliquant, par exemple, une appropriation collective des moyens de production. Ainsi, personne, au sein de la mouvance contestataire, ne défend l'expérience soviétique en tant que modèle alternatif au capitalisme. Un groupe comme ATTAC affirme même ne refuser ni l'existence du marché, ni celle de l'entreprise privée. Leur objectif réside donc plutôt dans la formation de contre-pouvoirs efficaces, et non dans la prise de pouvoir politique ou même une éventuelle participation gouvernementale.
+La contestation française présente donc de nombreuses similitudes avec la nébuleuse contestataire internationale, mais aussi quelques particularités, avec d'un côté, une quasi absence de think tanks, de groupes spécialisés sur la mondialisation, d'organisations radicales de jeunesse et de pôle alternatif et, de l'autre, une surreprésentation des mouvements paysans et la singularité d'ATTAC. Elle se structure également autour des grandes campagnes internationales (contre l'OMC et les institutions de Bretton Woods, et en faveur de la taxe Tobin et de la remise de la dette du Sud), mais aussi sur des thèmes spécifiques, comme l'Europe, la défense des services publics ou les OGM, souvent sur fond d'antiaméricanisme.
+Il existe une contestation à la française. Son influence est tangible tant sur la société que sur le discours politique. Elle peut être mesurée par le nombre d'adhérents ou de sympathisants des groupes protestataires. Le cas d'ATTAC est particulièrement emblématique de ce point de vue. L'association compte aujourd'hui environ 30 000 adhérents et 230 comités locaux, y compris dans les universités et les grandes écoles. Les résultats aux élections professionnelles des syndicats appartenant à la mouvance montrent que ces groupes ont une représentativité certaine dans des secteurs qui tendent à fournir une grande partie des soutiens à la contestation de la mondialisation en France : l'agriculture, le secteur public et l'enseignement. La Confédération paysanne a obtenu 28 % des suffrages lors des élections aux chambres d'agriculture en janvier 2001. Le syndicat Sud obtient des scores importants lors des élections de représentants des salariés au conseil d'administration de grandes entreprises du secteur public (second syndicat à la Poste et à France Télécom, troisième à la SNCF) ou même d'entreprises privées (second syndicat chez Michelin). Enfin, la FSU est la première fédération syndicale du personnel enseignant, mais aussi de la fonction publique de l'État. Les succès éditoriaux (ouvrages de José Bové, de Susan George, de Viviane Forrester ou de Pierre Bourdieu, l'évolution des ventes du Monde diplomatique) ou le nombre important de signataires de pétitions (110 000 en faveur de la taxe Tobin, 520 000 pour l'annulation de la dette) et de manifestants (par exemple à Millau lors du procès des militants de la Confédération paysanne en juin 2000) en sont également les symptômes.
+Les enquêtes d'opinion soulignent enfin que la perception des contestataires et surtout de leurs principales propositions est largement positive et tend même à dépasser les clivages partisans traditionnels, sauf si ces groupes sont bien identifiés à gauche. Ainsi une très importante majorité des personnes interrogées est favorable à la taxe Tobin et à l'annulation de la dette. On ne peut pas parler pour autant de France contestataire. Les Français ne sont pas majoritairement et foncièrement hostiles à la mondialisation, et n'apparaissent pas globalement partisans d'une fermeture économique et culturelle. Ils se montrent néanmoins plutôt inquiets face aux conséquences les plus négatives de ce processus et tendent à soutenir les propositions de régulation et d'" humanisation ".
+L'influence des contestataires est également évidente sur la politique et sur le débat. Mais elle apparaît faible sur la décision politique à proprement parler. En effet, au-delà de leur impact très notable sur le discours politique, leur effet sur la décision paraît assez limité. Ceci est illustré par l'étude de deux cas où la France a joué un rôle fondamental : l'échec des négociations sur l'Accord multilatéral sur l'investissement (AMI), suite à son retrait, et l'adoption d'une législation sur la taxe Tobin. Dans le premier cas, considéré comme la première " victoire " des contestataires, leur rôle sur la décision française a été beaucoup plus réduit que ce qu'ils affirment eux-mêmes, tandis que dans le second, la législation adoptée n'a aucune incidence pratique et le gouvernement, malgré une rhétorique plutôt favorable, s'est montré fermement opposé à toute mise en place effective d'une taxe Tobin. En fait, l'étude du processus de décision indique que les contestataires sont influents lorsque deux conditions sont réunies : lorsqu'ils font la promotion de micro propositions concrètes et techniques sur lesquelles le gouvernement français peut avoir prise, et lorsqu'ils utilisent un relais politique, comme c'est le cas de la Gauche socialiste au sein de la gauche française.
+En définitive, leur influence la plus notable est sur le débat. La grande victoire des contestataires français est, en effet, d'avoir réussi à influencer la perception globale de la mondialisation en France et à définir les termes mêmes du débat. Les résultats des élections présidentielles et législatives de mai-juin 2002 en ont, par exemple, été une illustration. La gauche au pouvoir, écartelée entre, d'une part, une approche pragmatique et réaliste de l'économie de marché et de la mondialisation et, d'autre part, un discours souvent assez proche des thématiques des contestataires, a certainement souffert électoralement de ces contradictions, alors qu'un grand nombre de sympathisants de gauche étaient séduits par le discours contestataire défendant une " gauche de gauche ". Cette influence est également perceptible dans les débats au sein d'une gauche en crise suite à ces défaites, en particulier chez ceux qui souhaitent que sa pratique s'adapte à son discours et qui reprennent à leur compte nombre d'analyses et de propositions contestataires.
+Malgré sa vigueur, la contestation en France n'a pourtant, pour le moment, pas véritablement modifié les trois grandes tendances durables de la société française : la pacification idéologique, sociale et politique. Elle ne constitue donc pas le ferment d'une nouvelle " exception française ", celle-ci n'ayant pas vraiment créé de nouvel antagonisme idéologique fondamental autour de la mondialisation et les Français, globalement, n'étant pas opposés à son processus. La contestation apparaît en fait comme le symptôme d'une crise, celle de la difficile adaptation du " modèle social français " - crise d'adaptation de l'économie, de la société et du gouvernement, au sens large du terme - et du " modèle républicain " - crise de la représentation, de la démocratie représentative et du politique - au contexte contemporain marqué par la mondialisation. Elle soulève également l'un des principaux défis économique, social et politique en liaison avec les effets de la mondialisation, à savoir l'intégration économique,
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Le Centre français sur les Etats-Unis
+CFE
+POLICY BRIEF DU CFE
+15 JANVIER 2003
+Les dernières élections de mi-mandat sont en opposition avec les schémas électoraux traditionnels : ce point a été souligné à maintes reprises dans la presse. La victoire du GOP (Grand Old Party) s'inscrit en faux contre cette " loi d'airain " de la démocratie américaine selon laquelle le parti du Président au pouvoir perd des sièges aux élections de mi-mandat. L'élection de 2002 rejoint en ceci les précédents de 1934 et de 1998, où des Présidents démocrates ont réussi à enregistrer des gains électoraux durant leur mandat. A chaque fois, l'Exécutif a pris avantage de cette situation pour faire passer son programme dans des conditions aisées. Le cas de FDR est, de ce point de vue, exemplaire. En 2002, le résultat de Bush est d'autant plus surprenant que le Législatif est rarement de la même orientation politique que le Président, et ce de manière de plus en plus fréquente depuis la fin des années soixante.
+A un premier niveau, il semble ainsi que l'élection de 2002 mette un terme aux blocages partisans trop souvent caractéristiques de la vie politique américaine. Le Parti républicain est maintenant en position de totale responsabilité, tandis que le souvenir de la dernière présidentielle s'efface et, avec lui, le discrédit qui entachait à la fois la Cour Suprême et la Présidence. Néanmoins, dans les faits, cette conclusion exagère l'impact de la victoire républicaine. Comme on le verra, la fin d'un Congrès démocrate est loin d'être suffisant pour modifier les équilibres institutionnels : le mandat de Bush est fragile, et les contraintes qui pèsent sur ses décisions restent puissantes. A partir d'un bilan ponctuel de ces élections, on tentera donc de valider notre évaluation plus générale.
+Les élections mettaient en jeu les 435 sièges de la Chambre des Représentants, 34 sièges au Sénat, et 36 postes de Gouverneurs. Malgré le second tour de l'élection sénatoriale en Louisiane le 7 décembre dernier et l'élection d'une Sénatrice démocrate, les résultats définitifs constituent une victoire assez nette pour les républicains : ils détiennent dorénavant une majorité de 51 sièges au Sénat (47 démocrates), de 228 sièges à la Chambre (203 démocrates), et de 26 Gouverneurs (24 démocrates). Ainsi, ils possèdent maintenant tous les leviers institutionnels du pouvoir - la Cour Suprême étant majoritairement conservatrice depuis les années quatre-vingt -, ce qui constitue une configuration extrêmement rare à l'aune de la pratique politique des vingt dernières années. Le " divided government ", l'opposition partisane entre Congrès et Présidence, caractérisant la vie politique américaine de façon particulièrement marquée depuis la fin des années soixante. Bush Jr. se retrouve maintenant en position de force ; et tous les commentateurs ont souligné la facilité que cela lui procurait dans la lutte anti-terroriste, aussi bien que dans la gestion de la crise irakienne. Nous allons ici nous pencher sur les conséquences purement partisanes et politiques sur la scène publique américaine.
+Mais auparavant, il faut immédiatement souligner que ce succès est imputable à la stratégie individuelle du Président Bush. Il s'est personnellement impliqué dans le déroulement de la campagne, en jouant pleinement sur les règles localistes du scrutin. En première approche, il semble que cette participation individuelle extrêmement forte, en proportion inverse de sa fragilité issue de 2000, ait eu des conséquences positives pour les républicains. Sa popularité personnelle très solide (60% de satisfaits) a rejailli sur son parti. Néanmoins, une analyse plus fine révèle rapidement que le comportement du Président a surtout eu des conséquences sur le camp adverse, celui des démocrates. Ils ont été privés de toute marge de manoeuvre pour se distancier d'un Président qui n'a pas hésité à jouer la carte nationaliste pour s'assurer une vaste popularité. C'est donc d'abord la focalisation sur le Président, sensible pendant toute la campagne, qui a conduit à la défaite des démocrates. Leur absence de message fort a été flagrante. Tout comme le manque de figure charismatique pour se faire entendre, à l'exception, contestable, de Tom Daschle, Sénateur démocrate du Dakota du Sud (depuis 1986), et actuel président du groupe démocrate au Sénat (Senate Minority Leader depuis 1995). Si on prend les trois grands thèmes importants - les impôts, la sécurité du territoire (homeland security), et l'Irak - les démocrates ont apporté la preuve de leurs divisions, tout particulièrement en ce qui concerne la sécurité du territoire. En effet, la réorganisation de l'Etat fédéral impulsée par l'équipe Bush a une conséquence sociale lourde : elle conduit à modifier le statut de plusieurs catégories de fonctionnaires fédéraux, dans le sens de la remise en cause de certains de leurs acquis sociaux. Le mouvement de consolidation des structures fédérales à l'oeuvre se traduit concrètement par le regroupement des fonctionnaires fédéraux sur le plus petit dénominateur social commun. Etant donné le poids des syndicats au sein du Parti démocrate, on aurait pu s'attendre à une réaction vigoureuse de leur part. Or il n'en a rien été. Le discours nationaliste l'ayant très largement emporté de part et d'autre, il s'est avéré être un piège électoral particulièrement efficace pour les démocrates. Au niveau des classes moyennes modérées, les électeurs se sont tournés de préférence vers l'original plutôt que vers la copie : ils ont suivi les républicains plutôt que les démocrates. A l'inverse, au niveau des électeurs traditionnellement démocrates, le parti a souffert de son manque d'affirmation, de sa faible différenciation par rapport au GOP. Sur les autres sujets, le Président est aussi en mesure de mettre en oeuvre son programme. Il peut créer son fameux " Ministère de la Sécurité du Territoire ". Il va pouvoir aussi faire pérenniser plus facilement son programme de baisse des impôts : Thomas Daschle n'est plus en position de s'opposer. De même, d'autres projets devraient bénéficier de cette nouvelle configuration politique : celui de la privatisation des retraites (Social Security), ou encore l'exploitation des réserves énergétiques de l'ANWR (Alaska National Wildlife Refugee), chère à un grand nombre des contributeurs de la campagne républicaine.
+En fin de compte, le Parti démocrate donne l'impression d'avoir perdu sur les deux tableaux. Il semble également que les responsables du parti aient, tout comme dans les années quatre-vingt, sous-estimé l'impact du " personnage " politique que s'est construit Bush : celui du Président " proche ", dépourvu de toute prétention intellectuelle, mais honnête, et capable de prendre une décision simple le moment venu. Reagan avait déjà utilisé cette caractéristique de la vie politique américaine, qui revient régulièrement sur le devant de la scène depuis Andrew Jackson dans les années 1830. Dans une période de crise et d'incertitude, les discours de type " Axe du Mal " sont bien perçus par l'électorat, à la différence des flottements enregistrés côté démocrate. Les responsables démocrates ont laissé une impression d'inutile sophistication. On pourrait aisément prendre d'autres exemples en politique interne, mais l'idée resterait la même : les démocrates n'ont pas saisi ce besoin de proximité des électeurs, à la différence d'un Président qui, lui, en use et abuse, notamment avec la lutte anti-terroriste.
+C'est dans ce cadre général que prend place la recomposition des forces au Congrès et au niveau des Etats. Nous aimerions maintenant évoquer quelques-unes des personnalités marquantes qui émergent de cette élection, en commençant par le Congrès, puis en se penchant sur les Gouverneurs. Une fois ce panorama achevé, nous conclurons sur les limites qui, à court terme, vont sans doute conduire le Président à une certaine modération. Enfin, nous tenterons de tirer quelques conclusions générales sur l'état du système politique américain.
+C'est bien sûr au Congrès que la situation évolue le plus, et d'abord pour les démocrates. Face au Président Bush, les démocrates semblent tiraillés entre un besoin de retour aux sources idéologiques et une poursuite de la politique de modération mise en oeuvre par Bill Clinton. Le choix de Nancy Pelosi, élue de San Francisco, comme Minority Leader (responsable de la minorité démocrate) à la Chambre des Représentants, et le maintien de Tom Daschle à la tête du groupe démocrate au Sénat traduisent, respectivement, cette tension. Nancy Patricia d'Alesandro Pelosi est une des plus élues les plus " libérales " de la nation, c'est-à-dire, engagée à gauche. Elle représente le 8ème district de Californie depuis 1987, en étant confortablement réélue à chaque fois. Elle a construit sa carrière sur la lutte contre le SIDA, et la fermeté de sa position vis-à-vis de la Chine. Malgré son opposition au Président Clinton sur de nombreux points - et en particulier la question chinoise - elle est un des plus efficaces contributeurs (fund-raiser) du Parti démocrate. Elle siège par ailleurs à la Commission du Renseignement (Intelligence Committee) depuis le 107ème Congrès, et dans celle d'attribution des crédits (Appropriations Committee) depuis le 102ème Congrès. Dès janvier 2002, elle avait obtenu le poste de Minority Whip, ce qui l'avait propulsé à un des deux postes les plus importants du groupe minoritaire. A première vue, ce sont les contributions financières obtenues par Pelosi qui lui ont valu cette importante promotion. Mais il reste que le message idéologique est également clair : son engagement à gauche est un signal de radicalisation des démocrate.
+Face à cette recomposition démocrate, les républicains ne sont pas en reste. Tout comme chez leurs adversaires, la tendance est nettement à la radicalisation idéologique. Nancy Pelosi doit ainsi apprendre à cohabiter avec le Représentant Tom Delay, Whip du parti, allié indispensable du Speaker J. Dennis Hastert, et élu du Texas depuis 1984. Sa réputation de strict conservateur n'est plus à faire. Malgré ses relations tumultueuses avec l'ancien Speaker Newt Gingrich, c'est bien T. Delay qui a rédigé l'essentiel du programme conservateur de 1994 (Le Contrat avec l'Amérique), en s'en prenant notamment à l'extension du pouvoir fédéral. Il aurait largement contribué à la chute de Gingrich en 1997 et son remplacement par Hastert, le tout avec le soutien du " Majority Leader " Dick Armey. Ce trio - avec T.Delay occupant donc la troisième place - est plus que jamais fermement à la tête du Parti républicain. Hastert est clairement le plus modéré des trois. Ancien professeur d'histoire, Hastert est un élu républicain depuis 1986 pour la 14ème circonscription de l'Illinois. Sa promotion de Chief Deputy Majority Whip à celle de Speaker remonte à 1998, et fut organisée avec comme message explicite de calmer les haines partisanes au sein de la Chambre. On ne peut pas en dire autant du Majority Leader, Dick Armey, nettement plus idéologue. Elu de la 26ème circonscription du Texas depuis 1986, il est un ancien universitaire, économiste, partisan acharné de Reagan, et qui acquiert sa position de prééminence lors du 104ème Congrès. Ses conceptions fiscales extrêmement conservatrices sont connues : il est partisan d'un taux unique d'impôt fédéral sur le revenu - la fameuse " flat tax " à 17% - et s'était violemment opposé à Bush Sr lors de l'augmentation des impôts en 1990. Son activité intellectuelle est encore intense : outre une partie du programme de 1994, il a aussi écrit une série de livres d'actualité sur les nécessaires réformes à mener : Price Theory : A Policy-Welfare Approach (1977), The Freedom Revolution (1995) et The Flat Tax (1996).
+Au Sénat, la situation est plus stable par définition. Mais là aussi, le constat est identique : l'activisme idéologique est de plus en plus marqué, tout particulièrement du côté républicain. Côté démocrate, en effet, le pragmatisme des " Nouveaux démocrates " chers à Bill Clinton semble se poursuivre. Tom Daschle, Senate Minority Leader depuis plusieurs années, représente, avec, jusqu'à récemment, Richard Gephart à la Chambre, une poursuite du pragmatisme clintonien. Le Président trouvait en eux d'utiles relais au sein du législatif, même si les ambitions des uns et des autres pouvaient occasionnellement perturber les relations. Après les derniers résultats, la démission de Gephart a ouvert la voie à Pelosi, Daschle restant seul. Sa pratique des républicains au cours du 104ème Congrès l'a habitué à adopter une position souple, tout en tenant efficacement la base. Il a ainsi pu réformer les règles du Sénat lors du 107ème Congrès dans un sens favorable aux démocrates. Son opposition au programme de Bush Jr est ferme - comme p.ex. sur les baisses d'impôts - mais sans caractère idéologique ou revendicatif comme certains le craignent de Pelosi. Daschle est maintenant considéré comme un des présidentiables démocrates potentiels en 2004, et ce d'autant plus que Gore a officiellement annoncé en décembre dernier qu'il ne se représenterait pas. Mais au sein du GOP, la situation est radicalement différente. Malgré le départ de certains " poids lourds " de la droite républicaine - Jesse Helms (Caroline du Nord) et Strom Thurmond (Caroline du Sud) - la relève est assurée par des élus clairement ancrés à droite : en l'occurrence Elizabeth Dole (élue à 54%) et Lindsay Graham (qui recueille 55% des voix). Le principal responsable du groupe républicain était le Sénateur du Missouri Trent Lott jusqu'en décembre 2002. Elu en 1988, il devient le " Majority Leader " du Sénat en 1996, à la fin du 104ème Congrès, lorsque Bob Dole se lance dans la campagne présidentielle. Son parcours de républicain modéré - il travaillait pour un Représentant démocrate lorsqu'il est arrivé à Washington en 1968 - a été régulièrement marqué par des déclarations embarrassantes. Par ailleurs, son arrivée comme " Majority Leader " a coincidé avec l'érosion de la majorité républicaine. Lott n'a jamais réellement réussi à consolider ses troupes. Ses tentatives pour atteindre un consensus sont fragiles, et ne résistent pas à sa propension à tenir haut et fort des propos trop controversés. Le pragmatisme contrarié de Lott est le résultat direct de l'amenuisement de la majorité républicaine jusqu'en 2002. Qu'en est-il maintenant que le GOP est dans une situation plus confortable, non seulement au Sénat, mais également à la Chambre et au niveau des Etats ? Peut-on s'attendre à une évolution sensible, peut-être plus radicale, du Parti républicain ? Pour l'instant, le nouveau responsable du GOP au Sénat, B. Frist, semble adopter une politique de stricte adhésion à la Présidence Bush. Mais il est encore trop tôt pour dire s'il va s'agir d'une personnalité de transition ou bien s'il pourra s'affirmer.
+Au niveau des Gouverneurs, les changements sont moins massifs qu'au sein du Législatif. Néanmoins, ce n'est pas une fonction à négliger : tous les derniers Présidents d'envergure - Clinton, Bush Sr, Reagan et Carter - ont été des Gouverneurs avant d'atteindre la Présidence. Que ce soit l'Arkansas, la Californie, ou le Texas, l'accession au poste de Gouverneur semble maintenant être un marche-pied efficace pour atteindre le poste le plus élevé du pays. A ce niveau, une autre figure montante du Parti démocrate a acquis une certaine visibilité. Il s'agit de Bill Richardson, qui vient d'être élu Gouverneur du Nouveau Mexique en battant le républicain John Sanchez, 57% à 38%. En Europe, sa réputation vient essentiellement de son action diplomatique, notamment à l'ONU, entre 1997 et 1998. Il était devenu membre de l'équipe présidentielle de Clinton en 1998, comme Secrétaire à l'Energie, avant de se lancer dans une carrière politique nationale. Sa récente élection constitue ainsi son premier succès sur la voie de l'enracinement électoral, un élément qui, jusqu'à présent, avait toujours manqué à ce haut fonctionnaire. Ses prises de position traduisent une modération certaine, même si ses engagements en faveur de la lutte contre la pollution ou l'extension de la couverture-santé (health care) sont solides. A part ce nouveau venu sur la scène étatique, les autres résultats étaient attendus. La réelection de Jeb Bush en Floride n'est pas une surprise étant donné la soutien massif que son Président de frère lui a apporté : 56% contre 43% pour Bill McBride. En Californie, le démocrate modéré Gray Davis a été aisément réélu (48% contre 42% pour son adversaire, Bill Simon), de même que le républicain - lui aussi modéré et lui aussi élu en 1994 - de New York, George Pataki (à 50% contre 33% pour Carl McCall). La seule " surprise " vient peut-être du changement à Hawaï : cet Etat, historiquement démocrate, est passé aux républicains en élisant Linda Lingle à 52% contre 47% pour son adversaire. Les démocrates ont aussi reculé en Géorgie, en Caroline du Sud et dans le Maryland, où leur candidate, Kathleen Kennedy Towsend, est la fille aînée de Robert Kennedy. Ils ne l'ont emporté clairement que dans des Etats industriels comme l'Illinois, le Michigan (avec Jennifer Granholm, une des élues les plus en vue du Parti démocrate), et la Pennsylvanie.
+Au-delà de ces résultats, on peut lire les élections de 2002 comme un effacement des controverses de la présidentielle de 2000. Certes, les attentats du 11 septembre 2001 ont déjà très largement permis au Président d'asseoir sa légitimité. Cette victoire charismatique a d'ores et déjà été mise au crédit du Président. L'apport des dernières élections est un peu différent, mais tout aussi sensible. Comme on le sait, la fragile majorité républicaine du 107ème Congrès (2000 - 2002) avait été remise en cause par la défection d'un Sénateur républicain modéré, qui, en se déclarant non-inscrit, avait fait passer la majorité du Sénat aux démocrates. Cet accident de parcours a maintenant été effacé. Les républicains ont récupéré leur majorité et ne dépendent plus du vote d'un Sénateur non-inscrit. De même, la Cour Suprême a maintenant retrouvé de son prestige, pourtant largement entamé par la " résolution " de la crise de l'élection présidentielle en 2000. Son soutien en faveur du candidat Bush Jr se trouve maintenant validé politiquement. Le Président peut ainsi considérer à nouveau la possibilité de nommer des Juges conservateurs non seulement à la Cour Suprême mais aussi aux cours fédérales inférieures. Alberto Gonzales est de plus en plus cité comme choix potentiel du Président en remplacement de Rehnquist, actuellement Président de la Cour (Chief Justice), ou de la Juge O'Connor. Par ailleurs, le Président pourrait aussi tenter à nouveau de choisir le Juge Charles W. Pickering pour un poste dans une Cour d'Appel, pourtant rejeté par la Commission Judiciaire du Sénat en mars 2002. En clair, et plus généralement, les élections de 2002 constituent une sortie de la crise de légitimité issue de la présidentielle de 2000. Tous les éléments ralentis ou décrédibilisés depuis la début de la Présidence Bush sont dorénavant débloqués politiquement et institutionnellement.
+Néanmoins, malgré cette situation, il semble que le parti du Président doive modérer ses ambitions et gérer un grand nombre de contraintes. Ainsi, en dépit de la victoire des républicains, il faut largement en nuancer l'importance. Les caractéristiques de l'élection sont telles qu'il faut se garder de toute conclusion de long terme quant à la présidentielle de 2004.
+La participation électorale ne permet pas d'avoir une vue complète de l'électorat. La participation s'est établie à 39.3%, en hausse légère de 2 points par rapport à l'an 2000. La participation n'a été véritablement élevée que dans quelques Etats bien précis, comme le Minnesota (avec le soudain décès du Sénateur P. Wellstone et la mobilisation autour de son remplacement), le Dakota du Sud, Etat d'origine de Tom Daschle : dans ces deux cas, la participation a pu atteindre 60%. Certains taux sont par contre curieusement bas. Ainsi des 45% du Maine, où la participation est normalement beaucoup plus élevée. Ou encore, la Floride, dont le taux ne dépasse pas 43%, alors que les enjeux y étaient particulièrement importants. Le Gouverneur de l'Etat, Jeb Bush, ayant en effet bénéficié d'un important soutien du Président, la médiatisation de l'élection a été particulièrement intense. Dans ces conditions, il n'y a pas vraiment de raz-de-marée électoral en faveur du Président, et encore moins de réalignement électoral. Une analyse plus précise confirme aisément ce diagnostic :
+ +Ainsi, la pauvreté des marges électorales, auxquelles s'ajoutent le localisme des débats font de cette élection une victoire républicaine à l'arraché, bien loin de la présentation journalistique sur le thème de " l'exception " historique. En fait, la surréaction médiatique est la grande caractéristique de l'élection de 2002. Les observateurs prévoyant en majorité une continuation de l'effritement des positions républicaines, les quelques gains du GOP ont, au contraire, conduit à accorder trop d'importance à des résultats somme toute ponctuels et/ou difficiles, sans tenir compte d'autres facteurs : la participation électorale et la " fragmentation " du débat nationale, bien sûr, mais aussi des facteurs plus institutionnels.
+Au Sénat par exemple, la vraie majorité n'est pas de 50, mais de 60, puisque c'est là la majorité nécessaire pour empêcher une obstruction parlementaire (filibuster). Dans ces conditions, et malgré le renforcement de la majorité républicaine, la continuité devrait être la règle en pratique ! Le GOP n'a aucune chance d'atteindre ce seuil. D'une manière plus générale, et comme toujours dans le système américain, la complexité de la procédure législative est telle, qu'elle assure une modération des républicains majoritaires. Autre élément qui devrait favoriser la prudence de l'équipe actuelle, la fragilité de la structure électorale du GOP. Le Nord-Est est une partie du pays déterminante pour les futurs succès du GOP : en effet, le Maine ayant élu deux Sénatrices républicaines modérées, Susan Collins et Olympia Snowe, et celles-ci sont tout à fait nécessaires pour n'importe quelle majorité, même simple, au Sénat. Or ces deux élues sont tout particulièrement modérées sur les questions de moeurs (l'une d'elle, Olympia Snowe, est même pro-choice). Dans ces conditions, le Parti républicain ne peut qu'adoucir ses prises de position, afin de conserver ses légers avantages sur les démocrates. Et ceci non seulement dans le domaine social, mais aussi dans d'autres. Ainsi, les derniers changements à la tête de la Commission de l'Environnement (Environment and Public Works) au Sénat en témoignent. La réputation d'opposant systématique à l'EPA (Environment Protection Agency) du nouveau Président, James M. Inhofe, devrait s'altérer devant les nécessités du compromis partisan. Ce schéma devrait se répéter et se généraliser au niveau de la collaboration institutionnelle.
+Les élections de 2002 ne permettent pas de conclure sur un mandat clair pour le Président Bush. Sa victoire, indéniable, est somme toute modeste, et les gains enregistrés au Congrès ne sont pas tels qu'ils permettent au Président d'assurer le passage de ses principales mesures. A l'inverse, l'opinion publique, elle, perçoit bien les républicains comme étant maintenant responsables à part entière. Dans ces conditions, les démocrates peuvent s'assurer un certain rebond électoral s'ils évitent la marginalisation partisane qui est leur principal risque.
+La seule conclusion à long terme que l'on semble pouvoir tirer de ces élections est le quasi-équilibre entre les différentes institutions. Il y a une forme d'entropie institutionnelle qui ressort des chiffres définitifs de l'élection rappelés au début de cet essai. Cette situation est en clair contraste avec les élections de 1994 : l'engagement idéologique avait été tel que les impasses auxquelles cela a conduit ont traumatisé les élus. Depuis lors, les responsables politiques jouent de préférence la carte de la modération, au point que le rapport de force partisan s'équilibre et bloque le processus décisionnel. En effet, la recherche de la modération ne va pas jusqu'à cultiver le consensus avec le parti adverse. Il semble tout simplement que le risque politique ne paie plus sur la scène publique américaine.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Les Etats-Unis disposent seuls, aujourd'hui, de la maîtrise des « espaces communs » : la mer, le ciel, l'espace. Cette maîtrise, rendue possible par une immense puissance économique, fonde leur hégémonie militaire. C'est elle qui leur permet de projeter leurs capacités dans le monde entier et d'empêcher tout adversaire potentiel de le faire. C'est elle aussi qui assure un haut degré de sécurité aux routes aériennes et maritimes utilisées par l'ensemble des Etats, ce qui fait que nombre d'entre eux estiment que l'hégémonie des Etats-Unis sert leurs intérêts, notamment économiques. Mais cette domination, aussi globale soit-elle, n'est pas pour autant totale. Il existe des domaines dans lesquels elle peut être contestée, et les dix dernières années montrent qu'un adversaire inférieur techniquement, économiquement et militairement peut rivaliser sur le champ de bataille avec les Etats-Unis, qu'il s'agisse du combat de rue ou de montagne, de la défense anti-aérienne au-dessous de 15 000 pieds ou du terrorisme.
+Depuis la fin de la guerre froide, les spécialistes de politique étrangère se sont demandé quel nouvel ordre mondial succéderait à la bipolarité Est-Ouest, et quelle nouvelle doctrine remplacerait pour les Etats-Unis celle du containment. Ceux qui pensent que nous sommes arrivés à un " moment unipolaire " de l'Histoire et prônent pour les Etats-Unis une politique de " suprématie ", c'est-à-dire d'hégémonie, l'ont apparemment emporté sur ceux qui pariaient sur l'émergence d'un monde mul-tipolaire et penchaient pour une politique étrangère plus retenue. Certains estiment peut-être que ce " moment unipolaire " sera court ; mais tout montre au contraire qu'il pourrait bien durer. Unipolarité et hégémonie vont cependant durer un certain temps, même si d'aucuns estiment que les Etats-Unis pourraient eux-mêmes contribuer, par indiscipline ou hyperactivité, à en précipiter la fin.
+L'un des piliers de l'hégémonie des Etats-Unis est leur immense puissance militaire. Les seules données économiques suffiraient à leur donner une large marge de supériorité : ce pays dépense plus pour la défense que la quasi-totalité des autres grandes puissances militaires, dont la plupart sont d'ailleurs ses alliés. Certains estiment que les Etats-Unis bénéficient aussi d'un avantage qualitatif unique, décisif, concernant l'utilisation militaire des technologies de l'information - on parle à ce sujet de " révolution dans les affaires militaires ". Ces pages proposent une analyse plus nuancée. D'abord, en définissant les domaines d'intervention dans lesquels les Etats-Unis disposent d'une réelle maîtrise - au sens de " maîtrise des mers ". Puis en se demandant si cette " maîtrise " fonde leur hégémonie et si elle ne pourrait pas être bientôt confrontée à un défi à sa mesure. Enfin, en rappelant qu'il existe encore des zones dans lesquelles cette maîtrise est contestée, ou du moins contestable, par des adversaires grands ou petits.
+L'appareil militaire américain a, aujourd'hui, la maîtrise globale des " espaces communs " : la mer, le ciel, et l'espace. Celle-ci est comparable à la " suprématie navale " chère à Paul Kennedy. Ces " espaces communs " ne relèvent de la souveraineté d'aucun pays et constituent les voies de circulation et d'accès de notre monde. Le ciel appartient en principe aux pays qui se trouvent en dessous, mais rares sont les Etats qui peuvent interdire le survol des avions américains au-delà de 15 000 pieds. La " maîtrise " américaine ne signifie pas que d'autres pays ne peuvent accéder à ces zones en temps de paix, ni qu'ils ne peuvent y déployer des systèmes d'armes si les Etats-Unis n'y font pas obstacle. Elle signifie que les Etats-Unis, plus que tout autre pays, peuvent en faire un large usage militaire ; qu'ils peuvent de façon crédible menacer d'en dénier l'usage aux autres ; et qu'ils peuvent défaire tout Etat qui tenterait par la force de les empêcher d'en disposer : le challenger ne pourrait avant longtemps reconstituer ses forces, tandis que les Etats-Unis n'auraient pas de difficulté à préserver, restaurer, ou renforcer leur emprise après la bataille.
+Cette maîtrise des espaces est le facteur militaire clef de la prééminence globale des Etats-Unis. Elle leur permet d'utiliser de façon plus poussée d'autres éléments de puissance, dont leurs propres forces économiques et militaires, et celles de leurs alliés. Elle aide les Etats-Unis à affaiblir leurs adversaires en restreignant leurs possibilités d'accès au soutien extérieur, économique, militaire ou politique, et leur fournit de puissants atouts pour fixer les conditions d'une bataille éventuelle dans les zones contestées qui seront évoquées ci-après. Elle permet aux Etats-Unis de se jeter dans la guerre sans long préavis, même dans des régions où leur présence militaire est réduite, comme le montre la guerre menée en Afghanistan contre les Talibans après les attentats du 11 septembre.
+La maîtrise des espaces donne aux Etats-Unis un potentiel militaire qui peut être mobilisé au service d'une politique étrangère hégémonique à un point qu'aucune puissance maritime n'a connu dans le passé. Au XIXe siècle, quand la Grande-Bretagne avait la maîtrise des mers, ses capacités de projection de forces n'allaient guère plus loin que la portée des canons des navires de la Royal Navy : celle-ci pouvait transporter une armée un peu partout dans le monde, mais elle avait souvent devant elle, une fois débarquée, un parcours long et difficile ; et sans débarquement, les Britanniques n'avaient qu'une capacité d'influence limitée sur les événements. Les Etats-Unis bénéficient d'une maîtrise des mers similaire et peuvent également transporter partout dans le monde des forces armées importantes. La maîtrise de l'espace exo-atmosphérique leur permet de scruter en profondeur tous les territoires et de collecter sur eux plus d'informations qu'ils ne peuvent en traiter. Dans des conditions favorables, les Etats-Unis peuvent localiser et identifier d'importantes cibles militaires et transmettre rapidement ces données à leurs " tireurs ". Leur puissance aérienne, à terre ou embarquée, peut atteindre des cibles situées très loin à l'intérieur des terres, et les munitions de précision leur permettent souvent de les frapper et de les détruire. Si les forces terrestres s'aventurent à terre, elles rencontrent donc un adversaire affaibli et disposent d'informations fiables, de bonnes cartes et d'une connaissance précise de leurs propres positions. Les Etats-Unis peuvent enfin recourir à des frappes aériennes réactives, précises et destructrices qui garantissent aux troupes terrestres une grande liberté de manoeuvre, même si elles ne déterminent pas toujours à elles seules l'issue de la bataille.
+Quelles sont les origines de cette maîtrise des espaces ? La première, évidente, est tout simplement le poids économique des Etats-Unis - 23 % du produit brut mondial d'après la CIA. A titre de comparaison, la Chine et le Japon, qui sont les deuxième et troisième puissances, n'en représentent respectivement que 10 % et 7 %. En outre, en consacrant 3,5 % de leur budget national à la défense (soit 1 % du produit brut mondial), les Etats-Unis peuvent entreprendre des projets plus importants que n'importe quel autre pays dans le domaine militaire. Les armements et les plates-formes nécessaires pour s'assurer de cette maîtrise des espaces, et en user, sont en effet coûteux : leur conception et leur fabrication reposent sur un énorme complexe scientifique et industriel. En 2001, les Etats-Unis ont engagé autant d'argent pour la recherche et développement (R&D) militaire que l'Allemagne et la France pour la totalité de leur défense. L'utilisation militaire des nouvelles technologies de l'information, domaine où les Etats-Unis excellent, joue ici un rôle-clef. Les systèmes nécessaires à la maîtrise des espaces requièrent des compétences pointues dans l'intégration des systèmes et la gestion de projets industriels à grande échelle, autres domaines d'excellence des Etats-Unis. La conception d'armements nouveaux et de nouvelles tactiques repose sur une expérience accumulée sur des décennies et s'incarne dans la mémoire institutionnelle des centres de R&D, privés et publics, qui oeuvrent dans le domaine militaire. Il faut enfin, pour gérer ces systèmes, un personnel hautement qualifié et très bien formé. Pour toutes ces raisons, un Etat qui voudrait acquérir des capacités militaires concurrençant celles des Etats-Unis devrait s'acquitter de " droits d'entrée " très élevés.
+Les satellites de reconnaissance, de navigation et de communication fournissent aux Etats-Unis l'infrastructure globale nécessaire à leurs opérations militaires. Selon le général Michael Ryan, ancien chef d'état-major de l'U.S. Air Force, les Etats-Unis disposent de 100 satellites militaires et de 150 satellites commerciaux, soit plus de la moitié de tous les satellites aujourd'hui actifs dans l'espace. Le chiffre exact de leurs dépenses spatiales militaires n'est pas disponible, mais un expert l'évalue pour 1998 à un peu moins de 14 milliards de dollars - soit le budget de la NASA. Ce chiffre a sûrement progressé depuis et continuera de progresser compte tenu de l'importance accordée à l'espace par Donald Rumsfeld. Des satellites commerciaux sont certes utilisés à des fins militaires de reconnaissance et de communication ; mais la plupart sont contrôlés par des entreprises américaines ou alliées, et leur exploitation peut être interrompue par les Etats-Unis. Il reste qu'en matière de projection de forces, les Etats-Unis dépendent beaucoup de leurs satellites, et que ceux-ci représentent du même coup une cible particulièrement attrayante pour leurs adversaires. Tous les satellites ne sont cependant pas également vulnérables. La plupart des tactiques et techniques qu'un adversaire plus faible utiliserait contre les Etats-Unis ne fonctionneraient sans doute qu'une fois : par exemple les mines spatiales ou un " micro-satellite " d'interception en orbite. En outre, les Etats-Unis possèdent des capacités anti-satellites naissantes qu'ils pourraient utiliser en cas de conflit. Même sans disposer de tout l'éventail des techniques spatiales, leurs capacités de frappe de précision sont conséquentes et peuvent détruire ou neutraliser les éléments terrestres des forces spatiales adverses. En cas de conflit, les capacités satellitaires des Etats-Unis seraient mises à mal, ce qui compliquerait pour un temps leurs opérations militaires ; mais toute bataille spatiale aurait probablement pour effet de dénier à l'adversaire les moyens d'accéder de nouveau à l'espace.
+La maîtrise des lignes de communication maritimes permet aux Etats-Unis de projeter leur puissance militaire sur de vastes distances. Elle repose à la fois sur les capacités de l'U.S. Navy et sur un réseau très élaboré de bases navales.
+Les sous-marins nucléaires d'attaque (SNA) sont peut-être l'atout essentiel en matière de guerre anti-sous-marine en haute mer, laquelle est elle-même la clef de la maîtrise durable des espaces maritimes. L'Union soviétique a longtemps rivalisé avec les Etats-Unis grâce à sa flotte de SNA, mais elle n'a pu l'emporter. A plus de 1 milliard de dollars pièce (et plus de 2 pour le dernier modèle américain), rares sont les pays qui peuvent s'offrir des SNA modernes : seules la Grande-Bretagne, la France, la Russie et la Chine en produisent - et cette dernière très difficilement. A la fin des années 1990, de nombreux SNA en cours de fabrication sont demeurés dans les chantiers russes : aucun SNA nouveau n'a été mis en service. L'U.S. Navy dispose de 55 SNA, quatre étant en construction. Elle prévoit d'en construire en gros deux tous les trois ans, et de convertir quatre sous-marins nucléaires lanceurs d'engins (SNLE) Ohio en sous-marins dotés de missiles de croisière non-nucléaires en vue d'attaques terrestres. La Navy domine aussi la surface des océans, avec 12 porte-avions (dont neuf à propulsion nucléaire) emportant des avions très performants. A part la France, qui en possède désormais un, aucun autre pays n'a de porte-avions nucléaire. A 5 milliards de dollars le porte-avions de classe Nimitz, on comprend pourquoi. Par ailleurs, le Marine Corps dispose de 12 porte-aéronefs, chacun au moins deux fois plus grand que les trois navires comparables de la Royal Navy (classe Invincible). Pour protéger leurs porte-avions et équipements amphibies, les Etats-Unis se sont équipés, depuis 1991, de 38 destroyers multifonctions de classe Arleigh Burke, d'une valeur de plusieurs milliards de dollars, qui sont en mesure d'effectuer des frappes terrestres et des missions antiaériennes et anti-sous-marines en environnement dangereux. Il s'agit certainement là du navire de surface le plus performant au monde.
+Même si les Etats-Unis ont réduit depuis 1990 leurs forces basées à l'étranger et ont abandonné certaines installations, par exemple aux Philippines, le système de bases hérité de la guerre froide est resté pour l'essentiel intact, et l'expansion de l'OTAN a même fourni des bases supplémentaires dans l'est et le sud de l'Europe. Depuis la guerre du Golfe, l'accès aux régions-clefs a été amélioré, les Etats-Unis ayant développé un réseau de bases aériennes, d'installations portuaires et de centres de commandement dans tout le golfe Persique où troupes et avions se relaient en permanence. Ils ont installé des stocks de munitions et des équipements de soutien et de combat tout autour du monde, sur terre et sur mer, qui représentent l'équivalent de trois divisions et demie. Depuis 1991, les Etats-Unis ont également amélioré de façon significative leurs capacités de transport aérien et maritime sur longue distance.
+Une panoplie d'engins volants spécialisés dans l'attaque, le brouillage et l'acquisition électronique du renseignement donne aux Etats-Unis une capacité de " suppression " (destruction ou neutralisation) des défenses aériennes ennemies (SEAD). Elle limite l'efficacité des missiles sol-air ennemis et d'éventuels chasseurs, et permet aux Etats-Unis d'user, sans trop de risques, du ciel de l'adversaire au-dessus de 15 000 pieds. A cette altitude, leurs avions sont hors de portée des moyens de défense " rustiques ", comme les canons automatiques. Les Etats-Unis possèdent d'importants stocks de munitions aériennes de précision : leurs pilotes peuvent donc, même à cette altitude, détruire de façon fiable des cibles aussi réduites que des chars ou des bunkers. Tout un éventail d'engins tels que les satellites, les avions de reconnaissance et les drones leur fournit aussi des informations, importantes même si imparfaites, sur la localisation et l'identification des cibles majeures. Ces capacités sont apparues durant l'opération Rolling Thunder, au Vietnam (1965 - 1968) ; les résultats présents sont donc le fruit de plus de trois décennies d'effort. Aucun autre Etat dans le monde, à l'exception possible d'Israël, ne dispose de moyens aussi sophistiqués en matière de SEAD ou de frappes de précision.
+La maîtrise des espaces communs est au c?ur de la puissance des Etats-Unis, au point qu'elle est rarement explicitement reconnue... Sa pleine exploitation est rendue nécessaire par les difficultés qui attendent leurs forces au contact de l'adversaire. En dessous de 15 000 pieds, à quelques centaines de kilomètres des côtes ennemies et au sol, les Etats-Unis entrent en effet dans une zone où leur domination est contestée. Les militaires américains espèrent atteindre dans ces zones la même marge de supériorité que celle dont ils disposent dans les " espaces communs ". Mais cela n'est pas le cas, et ne le sera sans doute jamais.
+Les adversaires rencontrés par les Etats-Unis depuis 1990 se sont rarement montrés coopératifs. Ils savent quels sont les points forts de ce pays et s'emploient à les neutraliser. Les militaires américains utilisent le terme de " menace asymétrique " pour désigner le recours par un adversaire aux armes de destruction massive, au terrorisme ou à n'importe quelle autre méthode classique prenant en compte les atouts des Etats-Unis. En inventant un terme spécifique, on tombe cependant dans une sorte de piège logique : les adversaires intelligents sont désignés par un terme spécial, ce qui signifie implicitement que les autres sont censés être stupides. Or, il est peu probable qu'il en aille ainsi, et il est de toute façon dangereux de raisonner de la sorte en matière militaire. En réalité, plus les Etats-Unis s'approcheront du territoire tenu par l'ennemi, plus celui-ci se montrera efficace, sous l'effet de facteurs politiques, physiques et technologiques combinés. Les cas de l'Irak, de la Serbie, de la Somalie, de l'Iran, les embuscades rencontrées en Afghanistan au cours de l'opération Anaconda montrent qu'il est possible de lutter militairement avec les Etats-Unis. Seuls les Somaliens peuvent revendiquer quelque chose qui ressemble à une victoire ; mais les autres ont imposé aux Etats-Unis des coûts inattendus, préservé leurs forces, et souvent survécu à l'affrontement jusqu'à pouvoir hélas colporter entre eux leurs recettes. Ces pays ou entités étaient petits, pauvres, et souvent très en retard militairement. Ces exemples appellent à la prudence.
+Les facteurs essentiels sont ici les suivants. En premier lieu, la guerre a en général pour les acteurs locaux un intérêt politique de premier ordre, souvent bien plus important que celui des Etats-Unis. Leur tolérance à la souffrance est donc plus grande. En deuxième lieu, en dépit de leur taille réduite, ces acteurs supplantent d'ordinaire les Etats-Unis dans une ressource précise : le nombre d'hommes en âge de combattre. Même s'il n'est plus l'élément déterminant de la guerre terrestre, il reste un facteur critique, notamment en ville, dans la jungle ou en montagne. Troisièmement, les " locaux " disposent en général d'un avantage : ils jouent à domicile. Si les Etats-Unis ont constitué au fil des décennies la mémoire institutionnelle qui leur permet de maintenir leur maîtrise des espaces, les acteurs locaux ont fait un travail similaire sur leur propre pays. Ils connaissent intimement le terrain et la météo, et ont mis au point, sur des décennies, voire des siècles, des tactiques et des stratégies adaptées à leurs milieux. Quatrièmement, nombre des chefs militaires de ces Etats ou entités ont été formés dans le monde développé - pendant la guerre froide, la formation militaire fut souvent utilisée comme instrument d'influence politique. Ils ont appris les tactiques en vigueur en Occident, comme l'usage des armes occidentales, et les meilleurs d'entre eux peuvent tourner ces connaissances contre les Etats-Unis. Certains rapports montrent d'ailleurs que les adversaires des Etats-Unis ont échangé leurs expériences. Cinquièmement, l'arsenal nécessaire au combat rapproché, à terre, dans les airs à basse altitude ou dans les eaux territoriales est beaucoup moins coûteux que les armements nécessaires à la guerre dans les " espaces communs ". En outre, la diffusion des capacités économiques et technologiques civiles trouve son parallèle dans le domaine militaire : de nouveaux fabricants apparaissent, cherchant des débouchés à l'export, et l'arsenal pour le combat rapproché connaît un perfectionnement constant. Tous ces facteurs se renforcent et contribuent à créer une " zone contestée ". Dans une telle zone, les interactions entre les Etats-Unis et les forces locales vont souvent prendre la forme d'un véritable affrontement. Tout ceci n'annonce pas forcément une défaite américaine, mais nombre de difficultés.
+Depuis la fin de la guerre froide, l'U.S. Navy a voulu montrer qu'elle offrait des réponses adaptées aux réalités contemporaines. Au début des années 1990, n'ayant plus d'adversaire en mer, elle a commencé à se réorienter afin d'influer sur le combat terrestre. Les premiers documents en ce sens s'intitulent, de façon révélatrice, From the Sea et Forward from the Sea. Le chef des opérations navales a récemment mis l'accent sur les missions de la Navy à proximité du littoral adverse, dans un document de doctrine : Sea Power 219. La Navy admet que le " combat littoral " est une mission différente de celles pour lesquelles elle s'était spécialisée, exigeant compétences et moyens particuliers ; mais elle n'a réalisé que peu de progrès depuis dix ans.
+Nombreux sont les pays experts en combat littoral. La Suède, l'Allemagne et Israël, probablement la Corée du Sud, sont sans doute les meilleurs pour combiner les arsenaux et les technologies les plus modernes, ainsi qu'un entraînement et des tactiques appropriés. La Chine, Taiwan, la Corée du Nord et l'Iran ont développé des forces militaires considérables dans ce domaine, même si tous souffrent de quelques lacunes. Une force structurée pour le combat littoral combine plusieurs éléments : mines, missiles anti-navires, sous-marins diesels, vedettes d'attaque rapides, radars et moyens électroniques, batteries mobiles de missiles sol-air (SAM) à longue portée, avions et hélicoptères. Ces systèmes sont relativement peu coûteux. Ces dernières années, aucune grande puissance n'a eu à combattre une marine côtière de bon niveau, mais les mines et les missiles anti-navires ont touché ou coulé plusieurs navires britanniques et américains depuis 1980, des îles Malouines au golfe Persique.
+Prises séparément, ces armes sont un obstacle et un danger potentiel mortel. Ensemble, elles créent des synergies difficiles à briser, surtout si la nature du " terrain " est favorable à la défense, par exemple dans des eaux closes comme celles du golfe Persique. L'U.S. Navy pourrait sans doute démanteler une défense littorale performante, mais avec du temps et de lourdes pertes en hommes et en matériel.
+En dessous de 15 000 pieds, les avions de combat tactiques sophistiqués et coûteux restent vulnérables à l'action de moyens pléthoriques et peu coûteux comme l'artillerie anti-aérienne automatique (AAA) légère de tout calibre, les SAM, et surtout les systèmes portables à guidage infrarouge comme les missiles américains Stinger. En dépit d'un taux de pertes très bas, 71 % de celles subies par les forces aériennes alliées pendant la guerre du Golfe furent provoquées par l'AAA et des SAM infrarouges à courte portée. Les forces aériennes occidentales volent donc au-dessus de 15 000 pieds afin d'éviter ce type d'armement. Ce qui réduit sensiblement les pertes mais compromet la localisation des forces ennemies au sol, surtout quand elles opèrent en terrain favorable et ont recours au camouflage et aux leurres. Des moyens de défense anti-aérienne simples, peu coûteux, permettent donc de protéger les forces au sol, même s'ils n'abattent que peu d'avions adverses.
+Les moyens de défense anti-aérienne sont encore plus efficaces s'ils sont structurés dans un système de défense anti-aérienne intégré (SDAI), qui relie les systèmes à courte portée, intercepteurs de combat et autres SAM à moyenne et longue portée à des radars, des moyens de renseignement électronique et un système de communication. Dans ce cas, pour que les forces aériennes occidentales puissent opérer sans risque, les radars, les communications et les SAM de l'adversaire doivent être neutralisés ou détruits. Il faut pour cela disposer de toute une panoplie d'instruments, et l'espace aérien adverse ne pourra être pénétré sans risque que si ces moyens sont réunis. Les militaires chargés de la défense anti-aérienne ont appris qu'il leur suffit de survivre pour accomplir une partie de leur mission, à savoir la protection des forces au sol. Aussi ne s'exposent-ils que lorsqu'ils le souhaitent, ce qui n'en contraint pas moins les Etats-Unis à rassembler à chaque fois l'ensemble de leurs moyens SEAD, pourtant rares et coûteux. Les opérations de " suppression " sont détectables par le renseignement électronique et les moyens d'alerte avancée ennemis. La défense peut ainsi " rationner " les attaques et être alertée à l'avance. Si les défenseurs sont suffisamment patients, ils se trouveront de temps à autre dans une situation tactique qui leur permettra d'abattre un avion.
+En 1999, l'armée serbe a montré qu'une AAA de basse altitude et un SDAI bien structuré - quoique obsolète - pour les altitudes moyenne et haute, constituaient un soutien puissant pour des forces au sol tentant de survivre aux attaques de l'U.S. Air Force. Ces forces terrestres présentaient un large éventail de cibles petites et mobiles ; les Serbes surent camoufler leurs tanks, véhicules et canons. Ils usèrent d'une grande variété de leurres pour tromper les pilotes américains, et la plupart des SAM mobiles serbes échappèrent aux attaques. Les Etats-Unis durent donc entreprendre chaque jour des opérations de " suppresion " (SEAD), alertant ainsi les Serbes à l'avance. Certes, le succès de ces derniers ne pouvait être que limité. Qu'il s'agisse de réseaux de transport ou d'infrastructures économiques, les objectifs fixes de grande taille comme les ponts et les centrales électriques ne pouvaient être déplacées ou camouflées, et ils furent donc détruits. S'il fut sans doute décourageant pour les forces serbes d'abattre aussi peu d'avions ennemis, l'OTAN infligea finalement assez peu de dommages aux forces terrestres serbes déployées au Kosovo.
+L'opération Tempête du désert suggère qu'il est peu de forces terrestres au monde qui puissent rivaliser avec l'armée américaine, en terrain ouvert et dans le cadre d'une bataille mécanisée. Mais il est d'autres configurations de combat terrestre : en ville ou en montagne, dans la jungle ou dans les marais. Et les Etats-Unis doivent avoir conscience des difficultés qui peuvent les y attendre. La première est une simple question d'effectifs. Les trois pays désignés comme appartenant à l'" axe du Mal " - la Corée du Nord, l'Irak et l'Iran - ont des armées de conscription. Elles représentent en tout 16 millions d'hommes âgés de 18 à 32 ans. Sans doute ces hommes sont-ils entraînés très inégalement. Mais ce nombre donne tout de même une idée du potentiel dont disposent ces pays : les hommes constituent une importante ressource militaire, ici et ailleurs. La population de la planète devrait passer d'environ 6 milliards en 2003 à 8 milliards en 2025, l'essentiel de cette augmentation touchant les pays en développement. Les futurs fantassins devraient n'avoir aucun mal à s'équiper. Il y aurait dans le monde quelque 250 millions d'armes légères à usage militaire ou policier, y compris les mortiers et les armes antichars portables.
+Les stratèges américains doivent aussi prendre conscience du problème de police qui risque de se poser si les Etats-Unis tentent de conquérir et de réorganiser politiquement des pays peuplés. Occuper par exemple l'Irak, pays de 22 millions d'habitants, et y maintenir l'ordre exigerait la présence sur place de 50 000 hommes, à condition qu'après la victoire, comme le prévoient de façon optimiste les responsables militaires, le ratio policiers/population des Etats-Unis convienne également en Irak (2,3 pour 1 000). Ces 50 000 hommes représentent 10 % des effectifs actifs de l'armée des Etats-Unis, et sans doute un cinquième des troupes de combat. Or le personnel militaire est devenu presque trop cher à recruter aux Etats-Unis. Pour faire des économies, une récente étude du Pentagone suggérait d'ailleurs de réduire les effectifs de 90 000 hommes, soit une division active sur dix : mais cette recommandation n'a pas été retenue.
+Il est tentant de croire que les gros bataillons de l'infanterie légère adverse seront aisément battus par des forces terrestres lourdes et " high-tech ". Les cas de la Somalie et de l'Afghanistan montrent que ce n'est pas si simple. Les forces d'élite envoyées à Mogadiscio en 1993 ont souffert de lourdes pertes, en partie du fait de leurs propres erreurs. Les combattants somaliens se sont battus avec courage et habileté, aidés par l'environnement urbain. Il existe d'ailleurs des " fantassins urbains " encore mieux armés et préparés, comme les Russes l'ont découvert à Grozny. Et les informations trouvées dans les camps d'entraînement d'Al-Qaida en Afghanistan montrent qu'une infanterie peut être formée de façon efficace avec des méthodes relativement simples et " low-tech ".
+L'opération Anaconda, en terrain montagneux, témoigne du succès de cet entraînement. L'adversaire, camouflé, s'y est montré extrêmement habile : une colonne d'alliés afghans a été prise en embuscade de très près. Et tous les moyens de reconnaissance et de renseignement américains n'ont probablement pu localiser que la moitié des positions préparées par l'ennemi dans la vallée de Shah y Kot. Tous les hélicoptères d'attaque envoyés en appui ont été criblés de balles, et l'infanterie a souvent dû se déployer sous des tirs précis de mortier, ce qui explique la plus grande part des deux douzaines de blessés infligées aux Etats-Unis le premier jour. Au bout de plusieurs jours de combat, de nombreux éléments d'Al-Qaida ont pu s'échapper à la faveur du mauvais temps. Durant cette opération, Al-Qaida s'est battue avec des armes simples et très répandues de type soviétique : fusils d'assaut, lance-grenades, mortiers et mitrailleuses. Mais de nouvelles générations d'armes d'infanterie, peu coûteuses, seront bientôt accessibles aux adversaires potentiels des Etats-Unis. En bref, un grand nombre d'hommes en âge de combattre, un terrain favorable, un bon entraînement, et de grandes quantités d'armes peu coûteuses peuvent constituer un défi significatif pour les forces militaires américaines.
+Les Etats-Unis ont jusqu'ici eu la chance de ne combattre que des ennemis disposant seulement d'une des trois capacités de base - aérienne, terrestre ou maritime. Et quand l'adversaire se spécialisait dans l'une d'elles, il n'était pas toujours du meilleur niveau. Les Serbes étaient très efficaces, mais leurs meilleures armes avaient une génération de retard, voire plus. En outre, bien qu'ils se soient battus rudement, la guerre n'avait pour eux qu'un objectif limité. Les Somaliens se sont battus avec ténacité et ont tout simplement chassé les Etats-Unis. Mais ils n'étaient ni aussi bien armés, ni aussi bien entraînés que les combattants d'Al-Qaida dans la vallée de Shah Y Kot. Ces derniers n'étant pas aussi bien armés que le seront certains des adversaires futurs que les Etats-Unis pourraient affronter - ils n'étaient d'ailleurs que quelques centaines sur le champ de bataille. Enfin, les actions menées le long des littoraux par l'U.S. Navy pendant la guerre du Golfe ont bénéficié de conditions tout à fait fortuites, l'Irak ne s'étant pas préparé sérieusement au combat naval.
+On ne peut prédire avec certitude si les Etats-Unis auront un jour à affronter un adversaire doté de l'éventail complet des capacités créant la " zone contestée ". Et s'il venait à se présenter, ils pourraient refuser le défi. A horizon de dix ans, pourtant, il est plausible que l'Iran et la Chine auront acquis la maîtrise de certaines capacités aériennes, terrestres et maritimes. La Corée du Nord est sans doute assez performante dans le domaine du combat rapproché au sol, mais plus médiocre en matière de défense antiaérienne et de combat littoral. Les capacités actuelles de l'Irak sont difficiles à évaluer précisément. La Russie sera probablement la principale source des meilleurs systèmes de défense anti-aérienne vendus dans le monde, mais la Chine ne tardera pas à entrer sur le marché. La Russie vend également des systèmes d'armes très performants pour la défense côtière. Il est d'ailleurs probable qu'elle conservera sa compétence en matière de défense anti-aérienne et qu'elle réinvestira le domaine du combat littoral. Mais elle rencontrera plus de difficultés en matière de forces terrestres, et en particulier d'infanterie.
+Nul ne doute que les Etats-Unis soient aujourd'hui la plus grande puissance militaire du monde, et la plus grande puissance globale depuis l'avènement de la voile. Leur suprématie militaire est à la fois une conséquence et une cause de l'inégale distribution de la puissance aujourd'hui. Si les Etats-Unis n'étaient pas dominants économiquement et technologiquement, ils ne seraient pas la première puissance militaire. Cette domination militaire est aussi la conséquence de certains choix, comme celui d'avoir de vastes budgets d'armement, ou de certains types de dépenses. Les Etats-Unis jouissent d'une supériorité dans les capacités militaires qui leur permet une projection globale de puissance. La maîtrise des espaces communs - air, mer, espace -, leur offre toute une gamme d'options stratégiques dont les autres pays sont privés, bien qu'ils profitent, eux aussi, de ce " bien collectif ". Aussi longtemps que les Etats-Unis feront bon usage de cette maîtrise, nombre d'Etats jugeront que leur prééminence sert leurs intérêts. Il sera donc difficile, pour d'autres, de la remettre en cause avant longtemps.
+Pour autant, il est essentiel que les Etats-Unis ne concluent pas que les capacités qui leur assurent la maîtrise des espaces, ainsi que la possibilité d'accéder à tous les champs d'opérations, leur promettent un même niveau de supériorité dans toutes les circonstances. Pour des raisons démographiques, politiques et technologiques, le " combat rapproché " restera très probablement difficile. Les responsables civils et militaires du Pentagone partent souvent du principe selon lequel la supériorité technologique des Etats-Unis dans les zones " maîtrisées " peut être reproduite dans les zones contestées, pour peu qu'on investisse suffisamment dans la technologie. C'est sans doute une chimère. Les Etats-Unis devraient réfléchir à une stratégie raisonnable, qui leur permette d'exploiter concrètement la supériorité que leur confère la maîtrise des espaces pour créer les conditions les plus favorables aux affrontements dans les zones contestées.
+Une stratégie militaire exploitant pleinement cette maîtrise des espaces n'est pas compliquée dans son principe. La maîtrise des mers permet aux Etats-Unis de rassembler leurs propres forces, et celles de leurs alliés, pour disposer localement d'une supériorité matérielle massive et couper l'adversaire de ses soutiens politiques et militaires. La maîtrise de l'espace exo-atmosphérique permet d'étudier attentivement l'ennemi et d'adapter en conséquence les forces à employer contre lui. La maîtrise de l'air permet d'épuiser prudemment les forces restantes de l'adversaire. Au bon moment, les Etats-Unis et leurs alliés peuvent frontalement défier un adversaire très affaibli dans la zone contestée. Ces éléments, onéreux et durables, de la supériorité des Etats-Unis leur donnent de telles capacités - même si leur mobilisation peut s'avérer lente - que bien peu d'Etats seront tentés de s'y mesurer. Si tel était pourtant le cas, il suffirait aux Etats-Unis de mettre en oeuvre une stratégie exploitant patiemment leur maîtrise des espaces communs : peu d'adversaires pourraient la supporter, ou y résister.
+exploitable et diffusable pour la communauté scientifique
ne peut être utilisé à des fins commerciales
ANNODIS
projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
objectif : création d'un corpus de français écrit annoté discursivement
encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
http://www.tei-c.org/release/doc/tei-p5-doc
A la veille de l'élection présidentielle, un groupe de réflexion a réuni chercheurs et diplomates ayant été impliqués depuis de nombreuses années, dans les relations entre la France et les pays d'Afrique du Nord et du Moyen-Orient et appartenant à des sensibilités politiques différentes. Leur point commun est leur conviction que la France se doit d'entretenir des relations politiques, économiques et culturelles fortes avec les pays d'une zone particulièrement sensible où elle a des intérêts vitaux. Il leur est apparu opportun de faire connaître leur analyse sur la situation actuelle de cette région et de proposer quelques pistes de réflexion qui pourraient être utiles à nos décideurs. Tel est l'objet du rapport joint à cette note de présentation.
+Le Moyen-Orient et, de façon plus générale, la zone qui s'étend du Maroc à l'Afghanistan a toujours été une région sensible où se sont affrontés l'Orient et l'Occident, mais également les grandes puissances. De 1945 à 1989, elle fut le champ clos de la guerre froide sur fond de conflits israélo-arabes, ce à quoi s'est ajoutée la vision missionnaire de la révolution iranienne. Aujourd'hui, après le 11 septembre et les affrontements militaires qui se sont déroulés en Afghanistan, en Irak puis, tout récemment, au Liban, cette zone se trouve au coeur de turbulences d'une ampleur inconnue jusqu'alors qui représentent non seulement pour les pouvoirs en place mais également pour notre sécurité, au sens large, un défi majeur.
+L'Irak est un pays en plein naufrage politique, économique et social ; le Liban est paralysé par le jeu d'influences contradictoires et le spectre de la guerre civile réapparaît ; la sécurité d'Israël a été gravement affectée par son intervention contre le Hezbollah ; la question palestinienne est dans l'impasse ; l'Iran émerge, à travers les communautés chiites et l'affirmation de sa souveraineté nucléaire, comme une menace qui affecte la région et au- delà ; des acteurs non étatiques qui recourent parfois à la violence se sont multipliés ; des Etats se sont écroulés ou se délitent dans une sorte de processus de « somalisation » ; la menace terroriste s'est globalement amplifiée.
+Face à cette situation, les Etats-Unis, piégés en Irak, sont sur la défensive ; l'Europe est politiquement marginalisée même si son appui à la souveraineté du Liban peut être jugé positivement ; la Russie est de retour dans une zone traditionnelle d'influence ; l'Iran s'affirme comme une puissance régionale et un acteur incontournable.
+Il en résulte que les perspectives d'avenir, si les tendances actuelles devaient se confirmer, sont préoccupantes. Après l'échec de la Pax Americana, on peut craindre des évolutions plus radicales : un ordre islamiste, tout au moins dans certains pays, un chaos généralisé. Au mieux se vérifierait une évolution moins extrême comme un processus de dégradation progressif et modulé selon les pays.
+De telles évolutions ne sont pas une fatalité. Pour arrêter l'engrenage de violences dans lequel tombe cette région ou la menace d'une telle évolution, il convient que, du côté des pays occidentaux, se développe une politique plus déterminée et soutenue. La France peut et se doit d'y apporter sa contribution.
+Contribuer plus efficacement à la solution des principales crises régionales, ce qui comporterait les actions suivantes :
+En conclusion, les turbulences qui affectent le Moyen-Orient ont atteint un niveau de haute intensité qui représente, pour les pays occidentaux et, plus spécialement, pour l'Europe, de grands risques, notamment dans le domaine de la sécurité au sens large du terme : accroissement du terrorisme, perturbations dans notre approvisionnement en hydrocarbures, attaques contre nos forces au Liban, dislocation des Etats. En Afrique du Nord, la situation paraît plus contrôlée, mais les menaces sont également présentes et tendent à se renforcer comme l'ont confirmé les attentats d'avril 2007 en Algérie et au Maroc.
+Traditionnellement très présente dans cette région qui lui est si proche, la France, face à une évolution si préoccupante, se doit d'être active et non pas seulement réactive comme elle a tendu à l'être au cours de la période récente. Pour être une année à risques, 2007 peut également constituer une année d'opportunités qu'il nous appartient de saisir.
+Les Etats-Unis, enlisés en Irak, sont conduits à adopter un comportement plus pragmatique dans leur approche de la région et, en particulier sur la question palestinienne, à prendre davantage en compte les vues de leurs partenaires occidentaux. L'Union Européenne, sous présidence allemande, se veut d'ailleurs plus présente tandis que le monde arabe, sous l'impulsion de l'Arabie Saoudite qui a réussi, notamment, à intégrer dans un même gouvernement palestinien le Fatah et le Hamas, évolue vers des positions sur lesquelles nous pourrions nous rejoindre à la faveur d'un dialogue intensifié. En Iran, les éléments les plus durs, dont le chef de file est le Président Ahmadinejad, se heurtent à une contestation interne mesurant les risques d'un isolement international. Aussi l'initiative peut-elle et doit-elle être reprise, en partenariat, notamment, avec ceux qui, en Europe, partagent nos préoccupations, dans une démarche prenant bien entendu en compte le fait que les Etats-Unis demeurent pour la région un acteur incontournable.
+Cinq ans et demi après les attentats du 11 septembre 2001, le bilan de « la guerre contre le terrorisme » paraît bien sombre au Moyen-Orient. Les combats font rage en Afghanistan, le nombre de tués ne cesse d'augmenter, l'influence des talibans s'étend. En Irak, la situation est encore plus préoccupante : le pays s'enfonce dans la guerre civile. Le Liban a été ravagé par le conflit de l'été 2006 et les clivages internes ont débouché sur une guerre civile silencieuse. Enfin, en Palestine, aucune avancée vers un règlement politique n'a été effectuée, tout au contraire. Si l'on ajoute, aux deux « extrêmes », le Pakistan et la Somalie, ainsi que la vaste zone du Sahara, on voit se dessiner un arc de crises ouvertes, une extension du domaine des guerres, une simultanéité de celles-ci, sans précédents dans l'histoire de la région.
+De multiples liens s'établissent désormais entre chacun de ces conflits ; les hommes et les idées circulent d'un bout à l'autre de l'arc. Ainsi, le développement des attentats-suicides en Afghanistan (inconnus pendant les dix ans de lutte contre l'occupation soviétique) est la conséquence directe de l'expérience irakienne ; l'affrontement entre milices chiites et sunnites en Irak a contribué à creuser le fossé entre les deux communautés dans toute la région, particulièrement au Liban. L'autonomie du Kurdistan irakien facilite la reprise des activités du PKK en Turquie. Les ingérences iraniennes au Liban s'accentuent avec les pressions exercées par les Etats-Unis sur le dossier nucléaire. Enfin, la question palestinienne reste, pour les opinions et les dirigeants, l'enjeu symbolique essentiel et sa résolution demeure la condition nécessaire à toute stabilisation de la région.
+Dans ces crises, on assiste à la multiplication des acteurs non étatiques : le rôle des groupes armés en Afghanistan, en Irak, au Liban et en Palestine rend toute solution politique plus complexe que s'il s'agissait de négocier avec des Etats, d'autant que ces groupes sont soumis à la surenchère terroriste d'Al Qaïda. De plus, et la situation à Gaza comme au Liban le prouve, la possession par ces groupes de matériels parfois sophistiqués modifie les rapports de forces militaires : ainsi, pour la première fois depuis la guerre de 1948 - 1949, une fraction importante de la population israélienne a dû abandonner ses foyers ou vivre dans des abris. L'hypothèse d'une « somalisation » d'une partie de la région ne peut être écartée dans un contexte de repli sur des bases communautaires, confessionnelles ou tribales.
+L'affirmation de la puissance iranienne a été amplifiée par les résultats de l'intervention américaine en Irak. En éliminant deux de ses rivaux, le régime de Saddam Hussein et celui des talibans, les Etats-Unis ont favorisé un « déséquilibre » régional. L'Iran inquiète d'autant plus ses voisins sunnites qu'ils agitent la menace d'un « croissant chiite » allant du Liban à l'Iran en passant par l'Irak et la Syrie, sans oublier les communautés chiites du Golfe. La rhétorique anti-américaine et anti-israélienne du président Ahmadinejad rencontre un immense écho dans toute la région, populations sunnites incluses.
+La situation régionale est aussi marquée par l'affaiblissement de la crédibilité et la dégradation de l'image des Etats-Unis, y compris auprès de leurs plus proches alliés. Alors que le Président Bush a encore vingt mois devant lui, montent les interrogations de l'Arabie Saoudite, de l'Egypte et de la Jordanie à l'égard de l'administration américaine qu'ils n'hésitent plus à critiquer ouvertement. On le constate avec l'affirmation d'une diplomatie saoudienne qui a parrainé les accords de La Mecque et tente de réconcilier majorité et opposition libanaise, sur des bases qui ne sont pas totalement conformes à la politique de Washington. Cet engagement de Riyad ne peut cependant masquer ni la faiblesse des pays arabes traditionnels (notamment l'Egypte), ni l'absence de l'Union européenne qui apparaît, sur la plupart des dossiers, soit paralysée, soit à la remorque des Etats-Unis. L'effacement relatif des Etats-Unis offre cependant une occasion à d'autres puissances (la Russie, la Chine, la France, l'Union européenne) de pouvoir jouer un rôle sur tel ou tel dossier.
+Cette situation de crises est d'autant plus préoccupante qu'elle survient dans une région bloquée politiquement, socialement et économiquement. Le Moyen-Orient est la seule partie du monde qui n'a connu aucune alternance politique réelle depuis la chute du mur de Berlin : les mêmes dirigeants (ou leurs fils) sont au pouvoir, appuyés sur des structures clientélistes et répressives d'une indéniable efficacité. D'autre part, les retards dans tous les domaines du développement s'accumulent, comme le rappellent les différents rapports du Programme des Nations unies pour le Développement, suscitant le désespoir des populations, notamment des jeunes et des personnes qualifiées, qui cherchent dans l'émigration à tout prix la solution de leurs problèmes. La principale force d'opposition organisée et disposant d'un soutien populaire est représentée par les mouvements islamistes, notamment les Frères musulmans, qui sont cantonnés aux marges du pouvoir. La rhétorique « nous ou la dictature islamique » maniée habilement par les régimes en place trouve une oreille complaisante aux Etats-Unis comme en Europe, d'autant que les oppositions nationalistes, libérales et progressistes se sont très sensiblement affaiblies. Cette absence totale de perspectives collectives et individuelles alimente aussi les discours d'Al Qaïda et permet à cette organisation terroriste, en fonction de situations locales, de relancer périodiquement des attentats déstabilisants, du Maroc à l'Arabie Saoudite.
+La position singulière de la France en Méditerranée et dans le monde arabe est un legs de l'Histoire. Elle procède tout à la fois de notre présence séculaire au Levant et de la colonisation française en Afrique du Nord. Sur la base de cet héritage s'est développée une politique marquée d'une grande continuité et bénéficiant d'un réel consensus. Notre pays n'en est pas moins confronté dans cette région aujourd'hui à des défis politiques, économiques et culturels majeurs.
+Notre réseau diplomatique reste le plus implanté à côté de celui des Etats-Unis. Notre présence culturelle et commerciale est certes concurrencée, mais demeure primordiale. Des centaines de milliers de Français vivent et travaillent dans la zone. La France y conduit avec presque tous les pays des opérations de coopération ambitieuses (coopération multiforme au Maghreb, politique libanaise, relation étroite avec l'Egypte, coopération militaire avec les pays du Golfe, intérêts énergétiques, etc.).
+La diplomatie française, à l'exception de celle des Etats-Unis, est incontestablement la plus active et la plus constante dans les prises de positions régionales. Elle a à son crédit, de la déclaration de Venise à l'accueil d'Arafat à Paris, de notre action au Liban à notre position sur l'Irak, un ensemble d'initiatives saluées par la communauté internationale. Cette politique arabe et proche-orientale participe à notre image internationale et lui vaut tout à la fois crédibilité, authenticité et soutien, mais aussi contestation dans le camp occidental.
+L'Institut du Monde Arabe à Paris, institution intergouvernementale cogérée avec nos 22 partenaires arabes, est une magnifique vitrine de cette politique avec tout ce qu'elle comporte comme atouts en termes de réalisation mais aussi de difficultés en terme de gestion.
+Au Maghreb, les gouvernements attendent de nous concours et, pour chacun d'entre eux, soutien exclusif. Les populations sont plus attentives à la coopération, à la liberté de circulation et à la situation des immigrés chez nous.
+Au Proche-Orient, nos prises de parole sont scrutées et analysées dans le détail. Nous y sommes attendus, sollicités et espérés tant l'image d'une France compagnon de route des grandes causes arabes demeure encore enracinée.
+L'approche est différente dans le Golfe où nous sommes vus comme un partenaire privilégié pour se soustraire à un tête-à-tête trop exclusif avec les Etats-Unis.
+Les perspectives pour la France dans tous les domaines y sont remarquables. En témoignent tout récemment les opérations du Louvre et de la Sorbonne à Abou Dhabi.
+En dépit des relations nouées par le Président Chirac, de l'investissement personnel et politique consenti pendant les quinze dernières années, la relation semble désenchantée et incertaine.
+Sans doute payons-nous le prix d'une personnalisation excessive et généralisée de la relation politique. Nous avons fait un usage extensif des termes de coopération privilégiée, d'alliances exceptionnelles et de liens personnels au risque de diluer nos priorités, de banaliser notre relation et de donner le sentiment d'une politique plus théâtrale que concrète.
+Mais ce constat, pour être équilibré, doit aussi conduire à reconnaître que la qualité et la chaleur des relations entretenues depuis quinze ans demeureront dans les esprits comme une référence positive, même s'ils s'accompagnent d'une certaine perte de sens de la coopération franco-arabe. Nous n'avons plus, comme au temps du Général de Gaulle, une vision précise de ce qui fait l'originalité, la constance et la force de notre rapport avec le Maghreb ou avec l'Egypte. Il faudra, à l'évidence, reconstruire un système de priorités, redéfinir une perspective, se fixer des objectifs intelligibles et réalisables pour nos opinions afin de combattre également une certaine lassitude de notre propre côté.
+En forçant le trait, nous jouons un rôle majeur dans les problèmes mineurs et un rôle mineur dans les problèmes majeurs. L'exemple palestinien est le plus probant même si le cas libanais semble le contredire.
+A l'échelle de la zone, on peut se demander si nous n'avons pas laissé s'effriter la priorité qui nous lie naturellement au Maghreb. Sans doute la coopération y reste-t-elle importante en chiffres ; mais l'investissement politique, la place dévolue à la relation économique, la valeur de l'aide française ne semblent pas à la mesure de ce que représente et représentera le Maghreb pour notre sécurité, notre prospérité et aussi pour l'harmonie de notre construction nationale au XXIe siècle.
+Plus généralement, nous semblons avoir perdu de vue la cohérence de la construction euro- méditerranéenne. Nous avons laissé ce partenariat s'enliser sans marquer autant que nous aurions pu le faire l'importance majeure qu'il revêt à moyen terme pour la France et pour l'Europe. De même, nous avons semblé nous résigner à ne figurer qu'à la marge dans les problèmes globaux de la région.
+Ainsi, nous avons eu un rôle déclamatoire tout à fait estimable sur les grands conflits palestinien et irakien, mais nous n'avons guère pesé sur le cours des événements, même si notre position sur le dossier irakien, à côté de celle d'autres pays européens et du Vatican, a affaibli tous ceux qui parlaient de la guerre en Irak comme d'un conflit de civilisation. De la même façon, la question iranienne et la défense du Traité de Non Prolifération nous ont permis un ensemble d'initiatives remarquées au niveau européen. Mais nous n'avons pas abordé, comme cela sans doute aurait pu se faire, le problème plus large mais essentiel d'un système de sécurité collective régionale ; et nous n'avons même pas tenté de relancer l'initiative d'une charte de sécurité en Méditerranée dont nous étions pourtant les initiateurs.
+Enfin, sur le plan de la culture, de la communication, du rapprochement des sociétés, nous avons pratiquement abandonné au niveau national comme au niveau européen l'entreprise urgente de constitution d'une politique d'échange et de dialogue avec les sociétés de la rive Sud de la Méditerranée.
+Plus généralement, notre diplomatie demeure marquée par le passé et ne semble pas assumer les défis de la relation euro-arabe dans le siècle qui s'ouvre. Nos partenaires ne sont pas seulement les héritiers de la relation historique de la France du XIXe avec le monde arabe de Mohamed Ali. Nous devons penser qu'ils sont et qu'ils seront de plus en plus des membres des jeunes élites américanisées du Golfe et du Maghreb ou des élites islamisées de la région.
+Tout exercice d'anticipation sur une zone aussi sensible que le Moyen-Orient est à l'évidence très risqué. Il ne peut être abordé qu'avec prudence et humilité. Sur la base de la situation particulièrement préoccupante qui prévaut au Moyen-Orient et des tendances actuelles, plusieurs scénarios peuvent être théoriquement envisagés.
+Dans ce scénario, l'administration Bush atteint ses objectifs. La démocratie s'étend au Moyen-Orient : des gouvernements responsables devant des parlements bien élus s'installent progressivement et remplacent peu à peu les régimes dictatoriaux ou les monarchies absolues. Les politiques de réforme progressent et contribuent à asseoir la prospérité économique et la stabilité politique. Les islamistes jouent le jeu démocratique, s'assagissent, font élire quelques députés dont l'influence reste limitée. Le conflit israélo-palestinien connaît une avancée décisive vers un règlement. Le terrorisme disparaît aussi bien dans la région que dans les pays occidentaux. L'Iran renonce à sa « souveraineté nucléaire » et conclut un accord de coopération dans le domaine civil avec les Etats-Unis et l'Europe. Ce scénario est évoqué pour mémoire tant la réalité est loin des objectifs affichés lors du lancement de l'initiative américaine sur le « Grand Moyen-Orient ».
+Les partis islamistes s'appuient sur la désaffection des opinions envers leurs dirigeants accusés de complaisance envers les Etats-Unis, voire l'Europe. Mobilisant des réseaux d'influence qu'ils contrôlent et forts d'une organisation structurée, ils prennent le pouvoir ou participent à des gouvernements où ils tiennent les postes sensibles dans plusieurs pays : ils imposent un ordre moral et social. Le conflit israélo-palestinien est formulé en termes religieux comme un affrontement judéo-musulman, voire en choc des civilisations. Israël voit sa sécurité menacée par des attentats fréquents et une opposition de plus en plus affirmée des Arabes israéliens gagnés à l'islamisme politique. Sa population diminue en raison d'un flux croissant d'émigrants causé par la peur d'une insécurité généralisée. Le régime des ayatollahs se renforce au profit des éléments les plus conservateurs. L'Iran acquiert des capacités nucléaires lui permettant de se doter de l'arme atomique, ce qui entraîne d'autres puissances régionales à faire de même. Des républiques islamiques s'installent, notamment en Irak et en Egypte. En Arabie saoudite, les éléments les plus rétrogrades de la famille royale contrôlent le pouvoir.
+Dans ce scénario, la situation continue de se dégrader dans tous les pays. Les Etats-Unis s'engagent dans une série d'aventures militaires qui tournent mal, notamment en Iran et peut- être en Syrie. Leurs troupes s'enlisent dans la guerre, se bunkerisent dans quelques places fortes d'où elles ne sortent que par intermittence pour s'en prendre aux repaires d'où attaquent terroristes et insurgés. Al Qaïda et ses émules amplifient leurs actions, y compris dans les pays occidentaux, et déstabilisent des régimes dans la région même. Un certain nombre de pays se fracturent : un Kurdistan indépendant est créé englobant la région de Kirkouk ; le reste de l'Irak est aux mains de différentes milices qui se partagent le contrôle du territoire, ce qui subsiste de gouvernement renonçant à intervenir. L'Arabie Saoudite éclate en quatre pays pratiquement indépendants, le Hedjaz, le Najd, le Najran et le Hasa, ce dernier devenant un protectorat pétrolier américain. La guerre civile reprend au Liban. Les minorités chrétiennes quittent le Moyen-Orient. En Iran, les ayatollahs font face à de graves incidents : la réaction contre le pouvoir islamique tourne à la guerre civile. Compte-tenu de l'insécurité qui rend aléatoire l'exploitation des champs pétroliers et qui décourage les nouveaux investissements, le prix du pétrole dépasse largement 100 $/ le baril. Les acteurs violents non étatiques étendent leur influence, entraînant le Moyen-Orient dans un processus de « somalisation ». Les Territoires palestiniens éclatent en entités contrôlées par le Hamas et les différentes factions du Fatah. Israël, malgré la barrière de séparation, est touché par des attentats de plus en plus fréquents dont certains sont le fait d'Arabes israéliens. En représailles des expulsions sont décidées. Des groupes armés étendent leur influence au Liban, en Jordanie, au Soudan, au Maghreb et dans certaines zones de la péninsule arabique.
+Israël, face aux menaces croissantes provenant de son environnement, décide de reprendre l'initiative en frappant les installations nucléaires iraniennes, d'en finir avec l'Autorité palestinienne et de pourchasser le Hezbollah au Liban.
+Le statu quo, au sens strict du mot, est peu concevable tant les équilibres existant sont précaires ; mais les évolutions sont moins brutales. Les Territoires palestiniens sont progressivement « grignotés » par Israël. Dans certains pays arabes, les pouvoirs en place, se sentant menacés, arrêtent les processus de réforme et l'ouverture politique : les oppositions sont durement réprimées ce qui entraîne des troubles sporadiques. Dans d'autres pays, les « frémissements démocratiques » se poursuivent dans un climat apaisé. Grâce à l'entremise de l'Arabie Saoudite, un calme précaire est rétabli au Liban et dans les Territoires palestiniens sans que les problèmes de fond soient résolus. En Irak, la situation reste difficile mais les violences baissent en intensité sans pour autant que le gouvernement contrôle la situation. Le terrorisme qui se réclame d'Al Qaïda poursuit ses actions sur les différents fronts. Ainsi, comme c'est le cas actuellement, des zones de stabilité (Israël, Syrie, Tunisie, Arabie saoudite, Jordanie, Maroc) côtoient des zones de turbulence plus ou moins contrôlées (Territoires palestiniens, Irak, Afghanistan, Liban). Les zones de turbulences restent circonscrites. Mais la tendance générale est une lente dégradation avec des périodes de crise suivies de rémissions temporaires.
+Dans les faits, il est probable qu' aucun de ces scénarios ne se réalisera, même s'ils ont leur propre cohérence. L'hypothèse la plus probable sera sans doute composite, empruntant des éléments à chacun d'entre eux, avec des situations très variables d'un pays à l'autre. Mais il est certain que le Moyen-Orient restera encore pendant de nombreuses années une zone d'instabilité : l'influence des mouvements islamistes persistera, les ressentiments anti- occidentaux resteront forts, le risque terroriste à l'intérieur et à l'extérieur de la zone perdurera, l'évolution du marché des hydrocarbures restera sensible à la conjoncture politique, le sentiment d'une menace insidieuse persistera dans les pays occidentaux. Le pronostic général reste inquiétant si rien ne vient infléchir les tendances actuelles.
+Malgré un contexte particulièrement difficile, il n'y a pas en Afrique du Nord comme au Moyen-Orient de fatalité. Que faire pour que les évolutions se fassent dans le bon sens? Quelle contribution la France peut-elle apporter à une action internationale visant à faire du Moyen-Orient une région où réformes politiques, paix et développement économique puissent devenir des réalités ?
+Des leçons du passé et de la situation présente on peut tirer quelques principes d'action :
+L'ampleur et la diversité de nos instruments administratifs et financiers au Maghreb est telle qu'un pilotage interministériel spécifique est nécessaire pour en assurer la mobilisation optimale. Il pourrait, à cet égard, être opportun de mettre à l'étude la création d'un « Secrétariat Général de Comité Interministériel » (SGCI) pour le Maghreb destiné à se transformer à terme en « SGCI Méditerranée » qui pourrait être piloté par le ministère des Affaires étrangères.
+Cette gestion interministérielle s'impose d'autant plus que la France se doit d'être « plus maghrébine » que chacun de ses trois partenaires majeurs au Maghreb en prenant elle-même l'initiative de projets nécessaires d'intégration régionale (infrastructures, communication, formation,...) que ces Etats sont trop divisés pour promouvoir à ce stade. Cette capacité de proposition et d'initiative de notre pays s'appuiera sur l'allocation à une enveloppe régionale d'une partie des crédits jusqu'alors déboursés à titre bilatéral. Cette approche régionale doit permettre de renouveler l'engagement de la Commission européenne, le coût du « non- Maghreb » étant évalué à au moins un point de croissance annuelle.
+Parallèlement à cet affichage de la dimension maghrébine de notre action extérieure, il convient d'introduire plus de souplesse dans le dispositif de traitement des crises régionales. La division actuelle des Affaires étrangères en directions géographiques place l'Iran et le Golfe en « Afrique du Nord/Moyen Orient » (ANMO), l'Afghanistan et le Pakistan en « Asie » et les républiques d'Asie centrale en « Europe ». Les problématiques évidemment partagées dans la même zone de crise doivent s'accompagner de la mise en place d'équipes transversales auxquelles seraient associées la direction stratégique et la direction générale de la coopération et du développement (DGCID).
+Par ailleurs, un diplomate de haut niveau pourrait être affecté au suivi permanent des questions islamiques. Il lui reviendrait d'assurer la liaison avec les organisations islamiques internationales (OCI) ou non-gouvernementales, notamment en assistant comme observateur à leurs conférences ou séminaires. Ce « conseiller aux Affaires islamiques » aurait aussi pour mission d'expliquer et de présenter la situation de l'Islam de France qui est trop souvent l'objet de polémiques ou de préjugés à l'étranger.
+La télévision francophone TV5 Monde diffuse ses programmes sur 8 signaux dont l'un, TV5 Orient, est propriété française. Ce signal pourrait être entièrement consacré à une diffusion bilingue arabe-français, le coût d'une rédaction spécifique étant évalué à 9 millions d'euros (l'actuelle rédaction en français de TV5 Monde, forte d'une soixantaine de journalistes, revient à 11 millions d'euros, dont les deux tiers pour la France et un tiers pour les partenaires francophones). Les signaux TV5 Europe et TV5 Asie couvrant respectivement le Maghreb et le Proche-Orient, le public attaché à une diffusion purement francophone n'en serait pas privé par « l'arabisation » de TV5 Orient qui toucherait, en revanche, une audience nettement plus vaste dans une zone formidablement « téléphage ».
+Quant à Euronews, qui est devenue la deuxième chaîne d'information d'Europe en diffusant ses programmes en sept langues, un budget de 4 millions d'euros lui permettrait de disposer d'un signal spécifique en langue arabe. Une dotation supplémentaire de 4 millions d'euros assurerait enfin à RMC-Moyen Orient (au budget actuel de 11,6 millions d'euros) la possibilité de monter en puissance sur internet, processus que la radio américaine Sawa a anticipé habilement, décrochant la première place au Proche-Orient. Ces trois chantiers médiatiques (TV5 Orient, Euronews et RMC-MO) reviendraient à un coût global de 17 millions d'euros. France 24, dont la dotation annuelle est déjà garantie à 80 millions d'euros, pourrait également développer sa diffusion en langue arabe, initialement limitée à quatre heures quotidiennes. Une coordination d'ensemble de ces différents médias s'impose.
+La presse écrite panarabe, dont de nombreux titres étaient installés il y a vingt ans à Paris, est désormais centrée sur Londres. Quant aux chaînes satellitaires du Golfe, de type Al Jazira (Qatar) ou Al Arabiyya (Dubaï), elles ont conquis une popularité impressionnante, entre autres au Maghreb. Les diplomaties anglo-saxonnes, mais aussi Israël, accordent une importance prioritaire à ces médias panarabes, où ils s'efforcent d'intervenir systématiquement en langue arabe. Malgré le préjugé favorable à l'endroit de la France, nous sommes pratiquement absents de ces médias.
+Il convient de mobiliser nos ressources en expertise linguistique et régionale pour occuper de manière beaucoup plus déterminée cet espace stratégique. Une unité spécifique devrait être créée au sein du ministère des Affaires étrangères pour procéder à un travail systématique de veille et de réaction, aujourd'hui trop fragmentaire et ponctuel. Une « public diplomacy » en langue arabe, avec participation aux débats les plus controversés, est essentielle pour retrouver une visibilité télévisuelle et une lisibilité politique. A côté des personnalités qualifiées par leurs fonctions, les experts français, souvent très respectés à l'étranger, devraient naturellement être associés suivant le thème de l'émission.
+La France dispose au coeur de Paris d'un instrument d'influence et de diffusion incomparable que plusieurs pays européens ont décidé d'imiter. L'Institut du Monde Arabe (IMA) est sur le plan culturel un réel succès : Il s'est pleinement intégré au paysage culturel parisien. Il est cependant victime d'une crise structurelle, administrative et financière liée, notamment, à son statut de fondation franco-arabe. Etablissement à caractère culturel, il a besoin pour fonctionner de recevoir comme toutes les institutions de ce type, des subventions. Il couvre ses frais de fonctionnement par des ressources propres qui financent près de 45 % de ses dépenses, ce qui, pour un établissement de cet ordre, représente une performance très satisfaisante. Même si des progrès peuvent être faits dans sa gestion, son déficit chronique est lié essentiellement à l'insuffisance des subventions qu'il reçoit de ses « actionnaires », tant arabes que français. Il importe de le sauver par une réforme tout à la fois financière et juridique : sur le plan financier, un plan de redressement doit être défini en prévoyant une augmentation adéquate de ses moyens ; sur le plan juridique, il convient de dissocier le bâtiment proprement dit, construit et entretenu par la dotation franco-arabe, d'un établissement public de droit français qui serait chargé de la programmation culturelle et de l'animation intellectuelle. Alors que le ministère des Affaires étrangères est aujourd'hui le seul bailleur de fonds de l'IMA, les ministères des Affaires sociales, de l'Education et de la Culture doivent être associés à la gestion et au financement de ce puissant facteur d'intégration et de rayonnement.
+Nous abordons une période nouvelle. Le changement des équipes politiques va nous amener à reconsidérer nos priorités, redéfinir nos objectifs, renouveler nos contacts. Cette réévaluation de notre politique régionale doit sans doute prendre en compte nos acquis qu'il s'agit de consolider ainsi que nos atouts pour en assurer la mise en valeur ; mais elle doit surtout être guidée par une vision de notre relation qui soit plus moderne, plus ouverte, plus audacieuse, en tout cas conforme aux intérêts et aux problèmes de notre région commune aujourd'hui et dans les vingt prochaines années.
+Nous servons assurément en Europe d'aiguillon dans la définition de la politique de l'Union en direction de l'Afrique du Nord et du Moyen-Orient. Nous avons été jusqu'à présent les promoteurs de nombreuses initiatives et les concepteurs d'une approche équilibrée et légaliste des grands conflits moyen-orientaux à laquelle adhère l'essentiel de nos partenaires européens. Le temps d'une Union Européenne à 6 voire à 15 est cependant révolu et il est clair qu'à 25 ou 27 membres de l'Union les consensus européens sont de plus en plus difficiles à trouver sur les politiques les plus innovantes et les projets les plus ambitieux. En raison de ces entraves, il faudra développer des coopérations renforcées à partir de l'Europe du Sud et des pays les plus motivés de l'Europe du Nord pour tout ce qui a trait à la politique méditerranéenne et proche-orientale de l'Union. Or la France a un rôle majeur à jouer dans l'établissement de ces nouveaux groupes ad hoc au sein de l'UE capables de se mobiliser sur des questions aussi variées et complexes que les négociations nucléaires iraniennes (formation E3 regroupant la Grande-Bretagne, l'Allemagne et la France), le processus de paix israélo-palestinien ou la crise syro-libanaise. Notre légitimité sur chacun de ces dossiers est incontestée. Nous bénéficions d'une certaine indépendance de vue, comme nous l'avons témoigné dans la gestion de la crise irakienne, dont probablement la Grande- Bretagne (en raison de son atlantisme) et l'Allemagne (en raison de sa réserve compréhensible sur le dossier israélo-arabe) ne jouissent pas.
+Aussi la France dispose-t-elle en Europe de puissants leviers dont elle doit se servir, en adossant sa politique dans cette région sur des partenaires intéressés et actifs de l'Union (Italie, Espagne, Suède ou Belgique) et également la Norvège :
+
+
Nous n'avons aucun intérêt à l'isolement ou à un revers des Etats-Unis. Nous avons au contraire avantage à une sortie de crise en Irak dans l'ordre, même si nous pensons que cette sortie doit, à court terme, passer par une évacuation programmée des forces américaines. Un repli diplomatique des Américains ne serait pas dans l'intérêt de l'Europe. La défaite des Etats-Unis nuirait d'une manière générale aux positions occidentales ; leur engagement durable et structurant dans la région conforte nos propres positions.
+Notre diplomatie a d'ores et déjà engagé son action au Liban et en Syrie dans un étroit partenariat avec Washington. C'est grâce à notre action commune que nous avons pu obtenir le soutien de la communauté internationale lors des votes de toute une série de résolutions au Conseil de Sécurité qui ont constamment soutenu nos positions quant à la souveraineté et l'indépendance du Liban. C'est également avec l'appui des Etats-Unis qu'a été mise en place la « Finul renforcée » en août 2006, mettant ainsi un terme à la guerre dévastatrice opposant Tsahal au Hezbollah.
+Nous ne devons toutefois pas éluder les différences d'approche qui nous séparent de Washington sur un certain nombres de dossiers, c'est-à-dire ne pas craindre de marquer notre indépendance de vue lorsque celle-ci est conforme à nos intérêts, à notre vision de ce qui nous apparaît être un ordre juste et équitable dans la région et à une approche globale des problèmes qui s'y présentent (ceci s'applique au dialogue nécessairement critique que nous serions amenés à nouer avec les franges islamistes du monde arabe).
+La nouvelle donne en Afrique du Nord et au Moyen-Orient s'accompagne d'un retour spectaculaire de certains acteurs à l'instar de la Russie, trop hâtivement considérée comme sortie du monde arabe et musulman, et d'une percée notable de nouvelles puissances, à savoir la Chine et l'Inde.
+S'agissant de la Russie, l'ère Poutine est désormais marquée par une attitude volontariste qui rappelle les grands moments de la politique soviétique en Egypte et en Syrie et se développe désormais aussi dans les pays du Golfe. Les déplacements de Vladimir Poutine à Alger en mars 2006 pour annoncer l'effacement de la dette algérienne envers son pays (4,7 milliards de dollars) et à Riyad en février 2007, la première visite d'un chef d'Etat russe en Arabie Saoudite, témoignent de cette politique que compte poursuivre Moscou dans la région. Les Russes sont désormais présents, entretiennent avec une autonomie assumée des relations avec leurs partenaires régionaux, en Syrie et en Iran, qui servent leurs intérêts et revendiquent le droit à mener une politique indépendante de celles de leurs partenaires dans le P5 (même s'il ne faut pas y voir un « retour » à la guerre froide).
+La France devra composer avec cette nouvelle donne en mesurant, pour sa propre politique, toute la portée des positions russes vis-à-vis des Syriens (et à travers eux le Hezbollah) et les relations complexes qui unissent Moscou à Téhéran. Il est de notre intérêt de développer notre partenariat avec la Russie afin d'ajuster notre propre stratégie au sein du Conseil de Sécurité. S'agissant de la Chine et de l'Inde, l'avancée de ces nouvelles puissances émergentes est fulgurante dans le Golfe, voire en Egypte, au Maghreb et au Soudan. En l'absence d'une prise en considération sérieuse de ces nouveaux partenaires, nous risquons de voir nos propres positions contestées.
+Nous devons renforcer notre relation avec les modérés arabes, les pousser à se regrouper et développer les liens avec les organisations susceptibles de rassembler les tenants arabes et musulmans d'un réalisme diplomatique, i.e. la Ligue des Etats Arabes et l'OCI. Aussi avons- nous vocation à approfondir notre relation avec l'Egypte, la Jordanie et l'Arabie Saoudite car ce sont nos partenaires naturels pour la résolution des crises graves dans la région, en Palestine bien sûr mais également au Liban où nos troupes sont engagées.
+Notre objectif est aussi de combattre les conditions qui favorisent et accréditent le « choc des civilisations ». Le monde arabe a sa place dans la gestion des affaires du monde. Il doit être incité à traiter des problèmes globaux, à participer au dialogue sur la sécurité régionale. L'idée d'appuyer la demande d'un siège permanent pour le monde arabe au Conseil de Sécurité, même si elle est difficile à mettre en oeuvre, doit être discutée.
+Pour ce dialogue étroit avec le monde arabe et musulman, nous ne devons pas être prisonniers des conflits que nous n'avons pas créés, ni adopter des grilles de lecture comme celle d'une confrontation sunnites/chiites. Nous ne pouvons laisser croire à une quelconque ingérence de la France et de l'Europe dans cette querelle. Nous devons rester en contact étroit avec les sunnites qui dirigent la majorité des pays arabes ; mais nous devons à l'évidence ne jamais ignorer les chiites et leurs positions et entretenir avec eux un dialogue permanent.
+Au-delà de ces précautions, il convient de donner à ce dialogue un caractère constructif. Même si nous ne pouvons en aucun cas souscrire à leurs prises de positions ni approuver telle ou telle de leur politique, nous devons trouver les moyens d'un dialogue critique avec le Hezbollah et le Hamas sans nous laisser entraver par un formalisme soupçonneux. La question est celle de l'utilité du dialogue et du poids que celui-ci peut avoir sur la politique de nos interlocuteurs comme sur leur capacité à accepter des relations moins conflictuelles et à accepter des compromis. C'est ainsi que nous devrons envisager de parler à ces mouvements islamiques en refusant toute caution aux positions incompatibles avec nos principes et en marquant notre opposition aux aspects de leur politique qui nous paraissent de nature à exacerber les tensions.
+Pour ce qui concerne la péninsule arabique, l'Arabie Saoudite et les membres du Conseil de Coopération du Golfe apparaissent, dans cette région troublée qu'est le Moyen-Orient, comme des pays qui conjuguent stabilité, croissance économique et amorce de réformes. En outre, l'Arabie Saoudite, comme on a pu le constater à l'occasion du récent sommet de Riyad, développe une diplomatie active et efficace dans la recherche de solutions aux problèmes que connaît la région. Inquiète des effets de la politique de l'administration Bush, elle tend à prendre ses distances vis-à-vis d'un allié américain qui a déçu et dont la politique est jugée sévèrement. Dans ce contexte, la France devrait renforcer sa présence politique, économique et culturelle dans la péninsule arabique. Elle devrait également se concerter plus étroitement avec l'Arabie Saoudite et appuyer ses initiatives qui vont le plus souvent dans le sens de nos préoccupations.
+Il est clair qu'Israël demeure un partenaire majeur au Moyen-Orient et qu'il convient de se concerter étroitement avec lui. Les relations franco-israéliennes se sont fortement densifiées depuis 2003 - 2004. Une série d'initiatives a permis de surmonter les malentendus du passé, notamment la création de la fondation France-Israël.
+Il est important de ne pas remettre en cause cette évolution et de poursuivre le rapprochement entre les sociétés à la condition, toutefois, que ce rapprochement ne se fasse pas au détriment de :
+
+
Notre comportement vis-à-vis des forces vives est traditionnellement marqué d'une grande prudence, proche de l'inhibition, tenant, notamment, au fait que la préservation de la qualité des relations officielles, c'est-à-dire avec le pouvoir en place, nous apparaît, dans un réflexe diplomatique classique, prioritaire lorsqu'il s'agit d'approcher ce qui ne se situerait pas dans sa mouvance. Dans le cas du Maghreb, s'y ajoute le sentiment qu'une longue familiarité ainsi que la diversité spontanée de nos liens nous dispensent, en quelque sorte, de systématiser une approche vers ce qui constitue pourtant le visage actuel des pays de cette région.
+Il s'agit d'une lacune sérieuse à laquelle nombre de nos partenaires européens et américains se sont efforcés de remédier sans s'encombrer des scrupules qui demeurent les nôtres. Il est temps de réagir en gardant à l'esprit que l'action publique ne couvre, par définition, qu'une partie du champ à exploiter dans une politique d'influence même si elle peut exercer un effet d'entraînement plus général. Dans la diversité des autres parties prenantes, il convient de souligner le rôle que tiennent déjà et peuvent affirmer davantage les collectivités locales ou les ONG qui développent des coopérations particulières avec plus de souplesse dans le choix des partenaires. Elles méritent d'être encouragées, étant entendu que, sans entraver les initiatives, l'efficacité gagne à ce qu'une vue générale des actions engagées puisse être assurée, ce qui suppose l'information de ce centre naturel qu'est l'Ambassade, elle-même offrant, en contrepartie, ses analyses, ses services et, si nécessaire, son entremise. En même temps, on ne peut penser ni souhaiter une « uniformisation » de la politique d'acteurs aussi différents que les ONG, les collectivités locales et l'Etat ; elle serait contraire à l'objectif poursuivi d'une coopération épousant la diversité de la société civile comme de ses attentes et besoins.
+Une des justifications fortes d'un dialogue et d'une coopération ainsi diversifiés dans leur objet comme dans leurs acteurs est, en favorisant les contacts entre les sociétés elles-mêmes, d'encourager leur compréhension mutuelle et l'acceptation d'un échange d'expérience. Notre contribution pourrait ainsi se développer plus aisément dans le domaine de la gouvernance à un moment où existe chez nos partenaires du Sud une réelle demande de réformes et restructuration des administrations. Mais celles-ci, tout en étant à conduire dans la respect des valeurs et cultures locales, ne doivent pas masquer une complaisance vis-à-vis de régimes autoritaires qui s'appuient sur des services non respectueux des Droits de l'Homme à l'heure où nos partenaires s'activent pour nouer des relations avec les mouvements politiques, sociaux, intellectuels au sein des sociétés civiles. Sans verser dans la promotion de la démocratie qui irrite plus qu'elle n'encourage, la France se doit d'exprimer son attachement aux Droits de l'Homme et aux libertés qui sont pour elle des valeurs universelles et, par conséquent, indépendantes des contingences locales.
+Se pose, par ailleurs, le problème des contacts à établir avec les mouvements islamistes. Ceux-ci constituent des acteurs majeurs dans la vie politique et sociale, jouissant souvent d'une influence forte au sein des populations par l'efficacité des services qu'ils mettent à leur disposition et capables, à l'occasion d'élections libres dont nous encourageons, bien entendu, le principe, d'accéder au pouvoir. Ceci étant, certains ne sont pas reconnus, ni admis par les pouvoirs en place ou se disqualifient à nos yeux par leur recours à des méthodes terroristes et par leur rejet violent de ce à quoi nous nous identifions.
+Un dialogue n'en est pas moins nécessaire avec tous les autres qui sont une réalité d'autant que l'expérience (décolonisation, OLP) nous a appris la relativité de nos ostracismes. L'approche ne peut relever, en tout état de cause, que du cas par cas prenant en compte la représentativité du mouvement, son discours et, plus particulièrement, sa position vis-à-vis de la violence, sa relation avec le pouvoir (légalité ou non). Il devrait être acquis que, dès lors qu'un mouvement islamiste est légal et intégré dans le processus politique, comme on en vérifie de nombreux exemples dans le monde arabe, le dialogue devient possible. Reste à en déterminer les modalités.
+Le dialogue doit donc être modulé avec pragmatisme, c'est-à-dire en fonction du mouvement concerné, une grande variété de formules s'offrant autour des suivantes :
+
+
L'important doit être une disposition au dialogue pour autant que l'interlocuteur respecte, lui aussi, ce que nous sommes.
+Depuis les accords d'Oslo, la voie tracée pour le règlement du conflit israélo-palestinien résidait dans un consensus international de soutien à l'édification des institutions d'une entité palestinienne.
+La France y trouvait confortablement sa place et sa politique s'inscrivait dans une politique plus largement européenne ; elle avait en outre la particularité d'un soutien politique au président palestinien Yasser Arafat jusqu'à sa mort en novembre 2004. Les tentatives pour isoler et discréditer le chef de l'Autorité palestinienne au cours des 18 mois qui ont précédé sa mort n'étaient pas suivies en France ; mais ce soutien apparaissait comme de plus en plus personnel et ne s'accompagnait pas d'une vision d'ensemble. La France a été découragée par les dysfonctionnements des institutions de l'Autorité, la corruption qui y régnait et les divisions entre le Fatah et le Hamas. Elle n'a pas su développer, par ailleurs, des relations soutenues avec les acteurs de la société civile, principalement à cause de la faiblesse des mécanismes de diplomatie parallèle que d'autres pays comme la Suède, la Norvège ou même la Grande-Bretagne maîtrisent mieux.
+Cette absence de réflexion stratégique sur une position proprement française ou sur une action visant à influencer l'Europe pour en définir une ont eu pour conséquence que la France n'a pas été en mesure de formuler des vues claires sur les deux développements majeurs des trois dernières années : la politique unilatéraliste préconisée par le gouvernement de Sharon et, deux ans plus tard, la victoire du Hamas aux élections législatives palestiniennes de janvier 2006.
+Devant la première, elle s'est laissé entraîner vers une vision selon laquelle l'unilatéralisme pouvait constituer une approche alternative à la négociation. De même a-t-elle été prise au dépourvu par l'élection du Hamas et a fait le choix de se ranger sur une position européenne qui s'est vite avérée intenable. La politique française a été en somme largement réactive. La diplomatie n'a pas fait usage de la panoplie de moyens disponibles.
+Le soutien humanitaire, aussi généreux soit-il, ne se substitue ni à l'aide aux institutions désormais gelée, ni à des prises de position politiques. Dans la mesure où l'Europe est devenue le premier bailleur de fonds de l'Autorité palestinienne et un partenaire indispensable pour la réalisation de tout progrès sur la voie d'un règlement, les Etats-Unis ne peuvent plus ignorer une position européenne spécifique qui ne soit pas calquée sur la leur. Les Etats-Unis ont été inactifs dans la recherche d'un règlement même si, tout récemment, ils s'efforcent de reprendre l'initiative. La faiblesse actuelle des institutions politiques de l'Europe, mais aussi l'existence du Quartet et le souci de préserver le cadre et le mécanisme diplomatique précieux qu'il représente sont aujourd'hui deux freins à une action plus audacieuse.
+Les termes du débat sur le conflit ont été dangereusement brouillés au cours des cinq dernières années. Un premier travail, au niveau du discours, consistant à reformuler les enjeux et l'argumentaire sur la centralité du conflit israélo-palestinien par rapport aux autres dossiers régionaux semble nécessaire outre qu'il aurait une fonction pédagogique utile. Placer l'accent sur l'occupation et la nécessité d'y mettre fin, aurait trois avantages : repositionner le débat autour du problème de la terre et non des identités religieuses pour redonner ainsi force au courant nationaliste que les pragmatiques de la mouvance islamiste sont prêts à suivre ; découpler l'enjeu de la lutte contre l'occupation de celui du droit à l'existence d'Israël en réaffirmant les droits des deux peuples à vivre chacun dans un Etat viable et à l'intérieur de frontières sûres ; désamorcer le débat qui lie l'opposition à la politique israélienne à la question de l'antisémitisme.
+Pour ne pas se laisser bloquer par les membres réticents de l'Union, il convient d'utiliser le clavier de la diplomatie française pour tester des idées ou options à l'échelle nationale, puis européaniser celles-ci quand elles s'avèrent réussies ou prometteuses. Elles auront alors de plus grandes chances de vaincre les réticences, d'autant qu'elles peuvent aussi s'appuyer sur des acteurs non européens : Russie, Chine, monde arabe, etc.
+Dans cette même perspective dynamique, il nous faut aller au-delà d'une simple observation des tentatives régionales de recherche de compromis pour les accompagner. Les Palestiniens en période de crise se tournent naturellement vers le giron arabe. Le plan de paix arabe offre une porte d'entrée au Hamas pour intégrer un processus diplomatique par étapes. Les conditions du Quartet ne seront pas acceptées par un gouvernement d'union nationale palestinien sans une reformulation des ces exigences ou un rééquilibrage dans le sens d'exigences équivalentes à l'égard d'Israël. Leur maintien figé est de nature à perpétuer l'impasse.
+La France pourrait, conjointement avec d'autres Etats européens, prendre l'initiative d'un tel exercice de reformulation, à mi-chemin entre les textes des accords de la Mecque, du plan de paix arabe et du Quartet.
+Enfin, l'impasse et la logique de force qui prévalent actuellement ont permis à l'acteur iranien de s'introduire au coeur d'un conflit dans lequel il ne devrait pas avoir de rôle majeur. Le dialogue avec l'Iran est utile sur le Liban en raison du soutien de Téhéran au Hezbollah. En revanche, la question palestinienne ne fait pas partie des intérêts légitimes de l'Iran qui ne devrait pas être considéré comme un interlocuteur incontournable ainsi qu'il l'est pour la question irakienne. Le faire serait renforcer son influence régionale sans profit, selon toute vraisemblance, pour la recherche du règlement.
+La situation intérieure libanaise connaît un blocage institutionnel et politique caractérisé par une forte polarisation entre deux blocs, s'appuyant chacun sur des alliés extérieurs.
+Depuis septembre 2004, la France a pris la direction d'un mouvement diplomatique qui a conduit à l'adoption par le Conseil de sécurité de la résolution 1559 appelant au retrait des forces syriennes du Liban. Après l'assassinat de l'ancien Premier Ministre Rafic Hariri, elle a pris clairement position pour la coalition des forces politiques du 14 mars, un bloc dont le principal ciment et l'objectif commun étaient de mettre fin à l'influence syrienne au Liban. Au lendemain de la guerre d'Israël contre le Hezbollah à l'été 2006, elle a su mobiliser un large soutien international pour la mise en place d'une FINUL renforcée et pour la reconstruction du pays dévasté lors de la conférence de Paris 3. Ces trois directions, engagées au cours des trois dernières années, méritent un examen critique, au niveau des objectifs d'une part, du cadre dans lequel la France déploie son activité et des partenaires qu'elle choisit d'autre part, pour envisager les options politiques à venir.
+La France a joui d'un soutien régional et international très vaste dans sa mobilisation pour le retrait de la Syrie et la création d'une commission d'enquête internationale. La légitimité de son action était et demeure très forte, toutes les parties (Hezbollah, Iran et Syrie compris) étant maintenant convaincues que le tribunal est inéluctable. Même si sa mise en place est loin d'être acquise, ses adversaires sont dans l'embarras et espèrent la retarder ainsi que d'en renégocier les modalités. La fermeté affichée par la France a été payante et reste déterminante pour la crédibilité de son engagement en faveur du Liban.
+Un deuxième volet qui bénéficie d'une légitimité équivalente a été son action pour protéger la souveraineté et la sécurité du territoire libanais vis-à-vis d'Israël après les attaques dévastatrices de celui-ci ainsi que son engagement pour la reconstruction du Liban. Cette action renforce le premier volet et reflète une forte cohérence de la politique française en faveur d'un Liban protégé des influences de ses deux puissants voisins. Tant par les objectifs poursuivis que par le choix du cadre (l'ONU), ces deux premiers volets sont un succès incontestable de la diplomatie française et la placent en situation favorable pour continuer à jouer un rôle influent au Liban.
+Le troisième volet, qui concerne l'action sur la scène intérieure, présente un bilan plus mitigé. La France accompagne son activité au niveau international par un soutien au bloc du 14 mars et se trouve étroitement associée à celui-ci. Elle n'a pas de dialogue avec le bloc adverse de l'opposition. Or cette position présente quelques risques : elle rend la politique française tributaire des objectifs des membres de la coalition qui ne sont pas nécessairement tous identiques aux siens ; elle la prive de la marge de manoeuvre nécessaire pour engager un dialogue avec le Hezbollah et les forces qui lui sont alliées ; elle enferme la France dans une position qui lui ôte la possibilité de jouer un rôle de médiation. Les zones grises qui pourraient constituer les termes d'un compromis existent pourtant ; mais la France n'est pas en position de les mettre à profit elle-même pour amener les parties vers ce compromis.
+Cette politique de fermeté sur la question du tribunal international et à l'égard de la Syrie a été payante jusqu'ici. Elle reste justifiée tant que l'accord n'est pas conclu sur le tribunal. Mais celui-ci se trouve étroitement lié à la recherche d'une nouvelle formule politique pour un partage du pouvoir entre les différentes forces en présence. On évoque la recherche d'un nouveau Taëf, modèle qui suggère clairement la nécessité de lier le compromis interne à des arrangements régionaux. En l'absence actuelle de dialogue avec la Syrie, des acteurs régionaux plus éloignés, tels l'Arabie Saoudite, l'Iran et l'Egypte devraient constituer des interlocuteurs naturels pour la France sur le dossier libanais.
+La fonction de médiation entre les différentes forces libanaises est, en effet, le fait de ces acteurs régionaux qui semblent les plus à même de peser sur les différentes parties alors que la France peut difficilement jouer un rôle de même nature faute de la panoplie de moyens dont ceux-ci disposent (liens personnels, familiaux, instruments financiers et discrétion liée à la proximité et aux méthodes des régimes non démocratiques).
+Elle a néanmoins la possibilité d'accompagner plus activement ce processus régional. C'est ainsi qu'elle peut notamment : Engager des contacts avec l'Iran sur le dossier libanais en le dissociant des autres dossiers régionaux. Les hésitations à nouer un dialogue avec celui-ci sur ce dossier méritent d'être réexaminées. Il ne s'agirait pas de le faire en liant les différents dossiers (programme nucléaire, Irak, Palestine et Liban) en vue d'un quelconque « marché » mais sur la base d'une évaluation objective de l'importance des enjeux pour Téhéran dans chacun de ces dossiers. S'il est sûr que l'Iran conservera une position radicale sur son programme nucléaire, il existe de bonnes raisons de penser qu'il est disposé à coopérer pour trouver une solution de compromis au Liban, à la différence de la Syrie. Le soutien de Téhéran au Hezbollah fait certes partie d'une stratégie iranienne d'appui sur la communauté chiite régionale. Mais la guerre de l'été a conduit le mouvement à payer un prix très élevé et à prendre des risques politiques majeurs qui ébranlent son image de force politique nationale oeuvrant pour son intégration dans le jeu politique libanais sur la base d'un nouveau consensus intercommunautaire. L'Iran ne peut instrumentaliser le Hezbollah que dans certaines limites et risque de susciter des divisions au sein du mouvement comme cela a été le cas dans le passé.
+
+
La situation est particulièrement préoccupante : l'ampleur du désastre provoqué par l'intervention américaine, au niveau de sa conception comme de sa mise en oeuvre, apparaît lourde de conséquences : éclatement du pays, affrontements intercommunautaires et entre milices rivales, fuites des élites et d'une partie de la population (notamment des chrétiens), dislocation des structures de l'Etat et des ses administrations, naufrage économique, création d'un foyer de terrorisme dans le triangle sunnite... Certes l'objectif affiché des Etats-Unis est celui de finir le travail, c'est-à-dire de rétablir la paix civile et de restaurer l'économie ; mais aucune lueur n'apparaît à l'horizon qui puisse conduire à en envisager la réalisation. Aussi, leur objectif parait être plutôt, malgré l'envoi de renforts qui ne modifieront pas la situation sur le terrain, de se dégager du guêpier dans lequel ils se trouvent sans que ceci apparaisse comme un échec humiliant. Il n'est pas exclu d'ailleurs, que, soumis à une pression de plus en plus forte, les autorités américaines, qu'il s'agisse de cette administration ou de la suivante, décident de retirer les troupes soudainement, laissant derrière elles une situation incontrôlable et incontrôlée.
+Dans un contexte aussi difficile, notre marge d'influence est faible : la violence ne pourra cesser que si une place significative est reconnue et garantie à la minorité sunnite, ce qui n'est pas le cas dans l'actuelle Constitution. La cessation de la violence passe par une réconciliation nationale que nous ne pouvons qu'encourager mais sur laquelle nous sommes sans moyens d'influence. Nous devons cependant préserver l'avenir en maintenant des contacts avec toutes les forces politiques irakiennes et en proposant de développer une coopération en vue de restaurer l'Etat, par exemple par la formation en France de cadres civils et militaires. Nous devons également réaffirmer, notamment auprès des Kurdes, notre engagement en faveur de l'unité de l'Irak.
+Notre action peut être facilitée par un dialogue actif avec les Etats voisins dont aucun, y compris l'Iran, n'a intérêt au démantèlement de l'Irak. La récente réunion de ces Etats voisins à laquelle s'est joint le P5 doit être la première étape vers la conférence internationale au niveau ministériel qui devrait se réunir prochainement à Charm El Cheikh et devrait bien marquer la volonté des Etats de la région et des membres permanents du Conseil de Sécurité de restaurer l'Irak dans son intégrité. Cette conférence devrait établir un plan de retrait programmé des troupes étrangères, de désarmement des milices, de restauration des services publics et de retour des réfugiés. La préparation de cette conférence passe, en particulier, par un dialogue avec la Syrie et l'Iran dont l'attitude ambiguë ne peut que contribuer à la persistance des violences actuelles.
+Notre position doit prendre en considération la pérennité du régime islamique : malgré ses échecs économique et politique et ses tensions internes, on ne voit pas comment le régime des ayatollahs pourrait s'écrouler dans un avenir prévisible. Elle doit également tenir compte du fait que, plus par un effet d'aubaine que par une volonté expansionniste, l'Iran est devenu un acteur incontournable au Moyen-Orient : les Etats-Unis, en débarrassant l'Iran des ses deux principaux ennemis, les Talibans et Saddam Hussein, et Israël, en déclenchant imprudemment une guerre contre le Hezbollah, ont renforcé sa capacité d'influence et de nuisance. Aussi notre politique doit-elle se garder de s'associer à toute tentative de « regime change » et doit- elle considérer que l'Iran est une puissance régionale avec laquelle il faut compter et dialoguer. Elle doit également tenir compte du fait que, du côté américain, une intervention militaire est une option qui est non seulement « sur la table », mais aussi sérieusement envisagée. Il serait difficile au Président Bush qui, à maintes reprises a dénoncé le caractère inacceptable des ambitions nucléaires de l'Iran de se déjuger et de ne rien faire, d'autant plus qu'il est soumis à la pression d'Israël qui qualifie la menace iranienne d'existentielle. Une telle intervention, hasardeuse sur le plan technique, ne pourrait avoir que des effets désastreux au Moyen-Orient comme dans l'ensemble du monde musulman.
+Dans ce contexte, notre politique devrait être d'établir des relations plus fortes avec les interlocuteurs les plus ouverts du côté iranien, notamment les éléments réformistes ou pragmatiques, comme Rafsandjani, Larijani ou Velayati et, d'une façon plus générale, la société civile ouverte, active et souvent contestatrice. Notre objectif doit rester celui de dissuader l'Iran de se doter d'une capacité nucléaire utilisable à des fins militaires. Dans cette perspective, les sanctions, qu'elles soient décidées par l'ONU ou qu'elles soient informelles, ont montré une réelle efficacité. Le renforcement progressif de sanctions « intelligentes » visant à dissocier la population du régime doit être poursuivi. A cette fin, la concertation avec la Russie et la Chine doit être plus étroite.
+Cependant cette négociation nucléaire doit s'inscrire dans une politique d'intégration de l'Iran dans la communauté internationale et être guidée par un objectif plus large, celui de mettre en place un système de sécurité collective faisant du Golfe une zone dépourvue d'armes de destruction massive où seraient garanties la sécurité des Etats et l'intangibilité des frontières. Un tel objectif passe par un dialogue avec l'Iran et la réunion d'une conférence internationale regroupant tous les pays riverains auxquels se joindraient les membres permanents du Conseil de sécurité.
+Alors qu'il s'agit de la partie du monde arabe et du bassin méditerranéen qui nous est la plus proche et avec laquelle nous avons développé les relations les plus intenses et familières, elle est aussi une des plus absentes dans nos réflexions sur cette région. Nous gérons tant bien que mal un acquis sans vision d'ensemble, ni perspective. En effet, notre approche est fractionnée au profit de relations bilatérales marquées d'une forte subjectivité, influencée elle même par des préjugés durables : à cette aune, l'Algérie est difficile, crispée sur ses complexes et ses ressentiments et on n'en fera jamais assez pour se faire pardonner ; la Tunisie, à la fois molle et policière, est d'une fréquentation douteuse ; le Maroc, sorte de fils préféré, est noble, attirant et fragile.
+Cette approche s'assortit d'une gestion sans doute généreuse au regard de nos moyens mais au jour le jour, constamment renégociée pour tenter de perpétuer une supposée rente de situation et veiller à ce que nos positions ne soient pas grignotées par d'autres. Bref, une certaine facilité nous conduit à entretenir l'idée que le Maghreb constitue un cas à part, ce qui est conforme à une réalité historique nous créant des devoirs, mais échappant aux priorités qui guident ailleurs notre politique extérieure. C'est aussi qu'il n'appartient pas à ce seul champ car il se vit également et parfois intensément sur le plan de notre politique intérieure où il intervient dans d'autres débats. Mais, à l'ère de la mondialisation, cette caractéristique importante est de moins en moins une spécificité. L'approche apparaît donc à la fois archaïque et figée.
+Aussi convient il de procéder sans délai à une réévaluation de notre politique maghrébine pour la situer dans une perspective d'ensemble qui s'inscrive elle même dans l'action globale que nous entendons mener au niveau méditerranéen et ailleurs dans le monde en fonction des défis que nous y rencontrons et des priorités que nous devons nous fixer.
+Appeler à un aggiornamento n'est pas remettre en cause les liens si spécifiques qui nous unissent à cette région ou appeler à leur banalisation mais s'appuyer sur eux pour développer une relation plus conforme à nos intérêts présents de puissance moyenne visant à trouver dans la construction européenne ce qui lui est nécessaire pour peser dans les affaires du monde. Les instruments existent ; ils doivent être réorientés ou dynamisés.
+Il s'agit, sur le plan bilatéral France/Maghreb, d'affecter une partie des crédits accordés jusqu'ici à chacun de nos trois partenaires à une enveloppe régionale finançant des projets nécessaires d'intégration que leurs divisions actuelles leur interdisent de promouvoir eux mêmes. Ils en reconnaîtront l'opportunité et y trouveront une stimulation pour un travail en commun sur le plan du développement. L'U.M.A., paralysée sans avoir jamais pris son essor, y trouverait une impulsion dans sa mission plus générale d'intégration d'un Maghreb réconcilié.
+Pour renforcer cette approche et dans une perspective de fécondation réciproque, un nouvel élan serait donné à la concertation dite 5+5 et, au delà, à EuroMed. En élargissant, de part et d'autre de la Méditerranée Occidentale, le champ d'un dialogue trop exclusivement bilatéral nous n'affecterons pas celui ci si nous y veillons mais lui donnerons une dimension supplémentaire échappant aux pesanteurs historiques qui le polluent et l'entravent. Il nous appartiendra d'assurer que nos intérêts n'en soient pas lésés ; mais, dans une dynamique de développement, il y aura place pour une diversification des partenaires. L'important sera de nous dégager des pressions liées à un échange exclusivement bilatéral pour nous permettre de replacer le Maghreb dans le contexte combien plus général de notre action extérieure.
+Cet élargissement devra également porter sur l'éventail de nos interlocuteurs maghrébins. A côté de ceux que leurs fonctions désignent il convient de prendre en compte les sociétés dans leur diversité en facilitant, sans a priori autre que lié à des exigences raisonnables de sécurité, la circulation entre les deux rives de la Méditerranée au profit de tous ceux (hommes d'affaires, étudiants, chercheurs...) qui peuvent nourrir la relation et en maintenant sur place un dialogue avec des interlocuteurs non gouvernementaux. A cet égard, la coopération décentralisée déjà entretenue par nos collectivités locales doit être encouragée en raison de sa souplesse et de sa capacité à établir des liens là où l'action étatique se trouve plus embarrassée par le souci de ne pas heurter les autorités du pays auquel elle s'applique.
+En visant la société civile avec laquelle nous développerions toutes sortes de dialogues il ne s'agit pas seulement de favoriser le maintien de notre présence et de nos liens en prenant en compte les forces vives et les réalités présentes des pays du Maghreb ; il s'agit aussi d'encourager leur évolution démocratique par une sorte d'osmose intervenant à tous les niveaux, les pressions en ce sens exercées exclusivement à celui des responsables supérieurs de l'Etat étant facilement interprétées, et donc dénoncées et rejetées, comme autant d'ingérences ou manifestations d'incompréhension des cultures politiques locales.
+Le bilan au bout de dix ans de mise en oeuvre du processus de Barcelone est décevant, même si certaines critiques apparaissent injustes. Malgré l'ampleur des sommes engagées sur la période 20 milliards d'euros au total, le Sud de la Méditerranée demeure une zone où les réformes politiques et économiques restent à faire et où le développement économique et social est insuffisant. La responsabilité de cette situation est largement partagée entre le Nord et le Sud. En outre le processus de Barcelone qui devait accompagner le processus de paix entre les pays arabes et Israël a pâti de l'échec présent de ce dernier.
+Cependant des améliorations peuvent être apportées tant dans la mécanique institutionnelle que dans les actions à entreprendre de façon à ce que le partenariat envisagé devienne une réalité. Les réunions devraient être véritablement co-présidées par le Nord et le Sud ; un léger secrétariat permanent, mixte dans sa composition, pourrait être institué : il préparerait les réunions régulières au niveau ministériel ou des experts. Ces rencontres qui concernent essentiellement les ministres des Affaires étrangères devraient être étendues à d'autres ministres : économie, intérieur, justice, commerce extérieur. La création dans la mouvance de la BEI d'une Banque euro-méditerranéenne devrait être décidée.
+S'agissant des méthodes d'intervention, le processus de Barcelone devrait être plus sélectif : les efforts devraient être concentrés sur un nombre limité de projets structurants et contribuer à la promotion des intégrations sous-régionales, tant au Maghreb qu'au Machrek. L'articulation de Barcelone avec la « politique de voisinage » devrait être clarifiée. Enfin le volet culturel devrait être développé et la fondation Anna Lindh pour le dialogue entre les cultures revitalisée de façon à ce que l'Europe et les pays du Sud de la Méditerranée constituent un exemple réussi d'« Alliance de civilisations » telle que l'a proposé le panel de Haut niveau mis en place par le Secrétaire général des Nations unies.
+Des idées comparables ont été proposées du côté français à nos partenaires début 2006, il convient d'en assurer le suivi. Dans cet exercice en cours de rénovation du processus de Barcelone, nous devrions organiser une concertation plus étroite avec nos partenaires européens de la bordure méditerranéenne, notamment l'Espagne et l'Italie.
+Les turbulences qui affectent le Moyen-Orient ont atteint un niveau de haute intensité qui représente pour les pays occidentaux, et plus spécialement pour l'Europe, de grands risques, notamment dans le domaine de la sécurité au sens large du terme : accroissement du terrorisme, perturbations dans notre approvisionnement en hydrocarbures, attaques contre nos forces au Liban, dislocation des Etats. En Afrique du Nord, où la situation paraissait plus contrôlée, les menaces tendent également à se renforcer.
+Traditionnellement très présente dans cette région qui lui est si proche, la France, face à une évolution si préoccupante, se doit d'être active, c'est-à-dire pas seulement réactive comme elle a tendu à l'être au cours de la période récente. Pour être une année à risques, 2007 peut également constituer une année d'opportunités qu'il nous appartient de saisir en nous exprimant sans inhibition sur ce que nous pensons être juste ou raisonnable dans les différentes situation de crises ou de conflits et en usant pleinement du clavier des moyens dont nous disposons. En reprenant ainsi l'initiative, nous aurions avantage à agir en partenariat avec ceux qui, en Europe, partagent nos préoccupations dans une démarche prenant, bien entendu, en compte le fait que les Etats Unis demeurent pour la région un acteur incontournable.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Les travaux descriptifs qui sont faits sur les propositions subordonnées circonstancielles concernent essentiellement celles qui ont un verbe conjugué à un mode personnel. Ils font abstraction des subordonnées participiales, (désormais SP) qui sont reconnues dans l'exemple suivant : le chat parti, les souris dansent. Beaucoup de grammaires de référence ignorent cette construction (Wagner et Pinchon 1991), d'autres la méconnaissent (Wilmet, 1997). Celles qui l'évoquent l'expliquent en la mettant en équivalence avec une subordonnée circonstancielle conjonctive en dès que ou lorsque : dès que le chat est parti, les souris dansent (Grevisse 1993 ; Riegel et al 1994).
+Dans leur analyse, les grammaires qui parlent de la construction avancent l'idée que son procès est antérieur à celui de la proposition qui l'héberge (désormais PH), en précisant que la construction peut être indifféremment précédée par des éléments comme une fois, sitôt, aussitôt, et que le participe peut être précédé de l'auxiliaire étant. C'est également la position d'A. Borillo (2006 : 5) dans son étude sur les structures participiales à prédication seconde. Elle avance l'explication suivante :
+« On peut constater que l'absence du marqueur temporel est parfois possible, sans réelle modification du sens de l'énoncé, si ce n'est que sitôt, aussitôt, et à peine ajoutent effectivement une précision d'immédiateté et que une fois souligne de manière explicite la relation d'antériorité d'une première éventualité par rapport à une autre. Une fois le texte rédigé, il fallut le taper sur un stencil ; le texte rédigé, il fallut le taper sur un stencil. Sans marqueur temporel, le sens reste très proche, de même que les règles de construction : le participe passé est celui d'un verbe construit avec le verbe être, qui doit être interprété avec une valeur passive si le verbe est transitif, avec une valeur active si le verbe est inaccusative ».+
L'objectif de mon propos est de montrer que, pour mieux comprendre le fonctionnement de la SP, celle-ci doit être analysée, non pas dans le cadre de la phrase, mais dans le cadre du discours. En effet, comme B. Combettes (1993) l'a montré, les constructions détachées sont des éléments qui assurent la continuité thématique du discours. Elles reprennent, en général, des référents contenus dans le contexte antérieur. En tant que telle, la SP peut difficilement avoir un référent nouveau. Elle a en général un référent qui est déjà présent dans le discours. Il paraît donc difficile de se contenter de l'analyse phrastique pour rendre compte de ce type de construction. B. Combettes (1993 : 39 - 40) l'a souligné : « La construction détachée apparaît [...] comme un constituant dont le fonctionnement dépend autant, sinon plus, de contraintes textuelles, de facteurs discursifs, que de caractéristiques strictement syntaxiques : le prédicat réduit qu'elle constitue se comporte en fait comme un prédicat intermédiaire, passage entre deux énoncés, qui prolonge le contexte de gauche dans une fonction de maintien d'un référent thématique. »
+Dans une analyse discursive, à partir d'un corpus constitué d'exemples tirés de la littérature du XIXe siècle et de la presse contemporaine, je pose l'hypothèse que, contrairement à ce qui est avancé partout ailleurs, on n'est pas libre d'employer dans cette construction le participe passé seul avec son sujet, avec un marqueur temporel, ou avec l'auxiliaire étant. Chaque élément introduit dans la SP - marqueur temporel ou auxiliaire étant - répond à un impératif discursif. Il s'agit de montrer donc qu'il y a trois types de SP au participe passé, selon que le participe passé est seul, qu'il est introduit par un marqueur temporel ou précédé de l'auxiliaire étant. Mais avant de parler de ces trois types de SP, je m'intéresserai d'abord aux caractéristiques de cette construction dans le cadre de la phrase.
+La SP au participe passé se définit par le fait qu'elle constitue une construction périphérique. Elle se trouve, en effet, « à l'écart du réseau syntaxique » (Le Goffic, 1993) de la PH, contrairement à l'analyse de Hanon (1989), qui estime que c'est un élément de la rection verbale. Elle ne peut pas subir les manipulations syntaxiques d'un élément régi par le verbe. Dans les exemples suivants :
+Le chat parti, les souris dansent+
Le chat étant parti, les souris dansent,+
La construction participiale ne peut pas être mise en extraction, ou recevoir une modalité du verbe comme la négation restrictive :
+? C'est le chat parti que les souris dansent.+
? Les souris ne dansent que le chat parti+
? C'est le chat étant parti que les souris dansent+
? Les souris ne dansent que le chat étant parti.+
En revanche, comme l'a montré Blanche-Benveniste (1998), il suffit que la SP soit introduite par un marqueur temporel comme une fois pour qu'elle entre dans la sphère du verbe. Avec ce marqueur, la SP peut servir de réponse à une question :
+Quand est-ce-que tu partiras ? - Une fois le match terminé.+
Elle peut recevoir la négation restrictive, comme dans ces exemples attestés :
+++Mondial 2006 : la FIFA impose un arrêt sur l'image. Les sites internet ne pourront pas diffuser plus de cinq photos de chaque mi-temps. Maigre, très maigre. D'autant que ces photos ne pourront être publiées qu'une fois le match terminé. (Libération, 03 - 03 - 06, p.20)
+
En suivant l'analyse de Blanche-Benveniste, ce marqueur temporel est un élément « stabilisateur », qui donne à la SP une autonomie syntaxique en l'intégrant dans la rection verbale.
+Toutes ces analyses de la SP sont faites à partir de la phrase. Et pourtant, pour plusieurs raisons, la phrase, comme cadre d'analyse des phénomènes grammaticaux, est remise en cause depuis quelques décennies (Marcello-Nizia 1979 ; Berrendonner 1989, 1991, 2002). Parmi les nombreuses critiques formulées contre cette « institution » grammaticale (Séguin 1993), il y a la notion d'autonomie. En effet, depuis longtemps, la phrase est définie comme « une unité grammaticalement autonome ». Or, selon Marcello-Nizia (1979), d'un point de vue strictement grammatical, cette autonomie ne se justifie pas. Car, pour expliquer les temps verbaux ou pour rendre compte du discours rapporté, par exemple, on a besoin d'unités supérieures à la phrase. D'un point de vue linguistique, l'autonomie de la phrase pose problème également. Plusieurs raisons expliquent cela.
+D'abord, certains éléments intégrés à la sphère du verbe peuvent être séparés de celui-ci par un point (Oui, c'est curieux parce que j'ai l'impression de vivre une autre vie. Sur une autre planète. / Et 40 ans plus tard, il choisit sa voie, sa vie. Définitivement. Exemples empruntés à Blanche-Benveniste 1993).Ensuite, beaucoup de linguistes comme F. Rastier (1994) estiment qu'en syntaxe il est important d'accorder beaucoup d'importance à la sémantique, ce qui fait qu'il semble difficile d'analyser une phrase sans tenir compte des phrases qui la précèdent ou qui la suivent. Pour F.Rastier, l'autonomie de la phrase est dangereuse, car « cette solitude de la phrase entraine toutes sortes d'ambigüités sémantiques comme syntaxiques. » En accordant à la sémantique la place qu'elle mérite, F. Rastier pense que ces ambigüités seraient levées : « la conservation en mémoire de présomptions sémantiques permettrait d'éviter les ambigüités lexicales, et par là, de limiter les ambigüités syntaxiques». Par ailleurs, les travaux qui ont été faits sur la cohésion du texte, entre autres ceux de B. Combettes (1990), M. Charolles et B. Combettes (1999), M. Charolles (2001) montrent que la phrase ne peut pas vivre en solo. On ne peut pas la couper de son contexte d'apparition, parce que, d'après B. Combettes et M. Charolles (1999), « au sein du discours, les phrases entretiennent des liens de cohésion qui contribuent à sa ...texture et les relations entre phrases qui participent à la mise en place de cette texture sont marquées par des expressions ou des constructions qui ont pour fonction de les exprimer.»
+En analysant la SP dans son contexte, j'essayerai de montrer que celui-ci joue un rôle important dans le choix du type de SP à employer.
+Comme je l'ai annoncé plus haut, la SP constitue une construction thématique. Elle a le plus souvent un sujet qui reprend ce qui a été dit précédemment dans le discours. Les séquences suivantes en témoignent :
+Jour d'adoubement. François Hollande sera réélu ce soir premier secrétaire du Parti socialiste. Le vote des militants, qui se déroule entre 18 et 22 heures, relève de l'exercice imposé : le député-maire de Tulle est le seul candidat à sa succession à la tête du PS. Premier secrétaire, François Hollande l'est depuis 1997, quand Lionel Jospin, nommé Premier ministre, lui a confié les clés de la rue de Solferino, le siège parisien du parti. Phrase fétiche de l'époque, prononcée par Jospin devant quelques «quadras» socialistes : Hollande «est le meilleur, le plus brillant et le plus politique d'entre vous». Six ans plus tard, Jospin parti, voilà Hollande pour la première fois en situation de montrer qu'il mérite le compliment (Libération, 23 - 05 - 03).+
Chaque année, le repas de Noël des écoles est plébiscité par les élèves. Pour cette 3e édition délocalisée à l'espace Barbara, jeudi, ce fut un succès qui va en s'amplifiant puisqu'ils étaient 300 à prendre place autour des tables dans une ambiance festive. Élus, membres des associations de parents d'élèves, personnel communal, bénévoles, ils étaient nombreux à s'être mobilisés pour que tout soit parfait. Marco, Grégory et leurs assistantes du restaurant scolaire ont régalé leurs hôtes en concoctant un menu alliant poissons et volailles avec la traditionnelle bûche de Noël. Cette « délocalisation » est possible grâce à une série de prouesses que l'on doit en partie aux services techniques et à tous ceux qui oeuvrent en coulisses. Car une fois le repas terminé, la salle doit être prête pour le spectacle. (Le Progrès, 22 - 12 - 07)+
Hortense fit un signe à sa mère pour la rassurer ; car elle se proposait de dire au valet de chambre de renvoyer monsieur Steinbock quand il se présenterait. Mais, le valet de chambre étant sorti, Hortense fut obligée de faire sa recommandation à la femme de chambre, et la femme de chambre monta chez elle pour y prendre son ouvrage afin de rester dans l'antichambre (Balzac, La Cousine Bette).+
Dans ces trois exemples, on voit que la SP est thématique. Elle contient un terme qui est déjà présent dans le discours. Dans ce qui suit, je vais essayer de montrer que chaque type de SP a ses spécificités.
+Ce type de SP se caractérise par le fait que ce n'est pas seulement le sujet qui est thématique, mais c'est l'ensemble de la construction. Elle reprend un procès qui est déjà mentionné dans le discours, et qui est présenté comme déjà accompli. Reprenons la séquence (5) :
+Jour d'adoubement. François Hollande sera réélu ce soir premier secrétaire du Parti socialiste. Le vote des militants, qui se déroule entre 18 et 22 heures, relève de l'exercice imposé : le député-maire de Tulle est le seul candidat à sa succession à la tête du PS. Premier secrétaire, François Hollande l'est depuis 1997, quand Lionel Jospin, nommé Premier ministre, lui a confié les clés de la rue de Solferino, le siège parisien du parti. Phrase fétiche de l'époque, prononcée par Jospin devant quelques «quadras» socialistes : Hollande «est le meilleur, le plus brillant et le plus politique d'entre vous». Six ans plus tard, Jospin parti, voilà Hollande pour la première fois en situation de montrer qu'il mérite le compliment (Libération, 23 - 05 - 03).+
La SP Jospin parti est constitué seulement du participe passé et de son sujet. Ce n'est pas seulement le mot Jospin qui est repris, c'est l'ensemble de la SP. Elle constitue une reformulation d'un événement qui est déjà évoqué précédemment. En effet, dans la troisième phrase de la séquence, on nous parle de 1997, date à laquelle Hollande devient Premier secrétaire du PS, « quand Lionel Jospin, nommé Premier ministre, lui a confié les clés de la rue Solferino ». Si Jospin confie à Hollande les clés du PS, cela signifie tout simplement que Jospin est parti. La SP est une reprise de ce qui a déjà été dit. Il n'y a aucune information nouvelle dans cette construction, comme dans toutes les SP de ce type. Entre le contexte antérieur et la SP, nous avons ici ce que Laurence Danlos (2004) appelle une relation de Généralisation. Dans un article sur les relations temporelles entre deux procès qui évoquent le même événement, cette linguiste distingue deux types de relation de coréférence événementielle : une relation de Participation et une relation de Généralisation. Dans la première, le deuxième énoncé apporte une information nouvelle, dans la seconde, le deuxième énoncé n'apporte aucune information nouvelle. Son propos est illustré respectivement par les exemples suivants :
+Fred a sali un vêtement. Il a tâché une chemise.+
Fred a tâché une chemise. Il a donc sali un vêtement.+
Dans (6), le premier énoncé n'a pas spécifié quel type de vêtement a été sali. Le groupe nominal une chemise constitue donc une information nouvelle. En revanche, dans (7), le mot vêtement reprend, par la relation d'hypéronymie, le mot chemise, donc aucune information nouvelle n'a été donnée. Alors, pourquoi reprendre ce qui a été déjà dit ? Laurence Danlos répond : « Par définition, une reformulation ne peut pas apporter d'information nouvelle, mais elle peut présenter un événement sous un nouveau jour, par exemple si le locuteur a l'intention de forger des liens avec d'autres données, [comme dans cet exemple] : Fred a assassiné Sue. Il a donc commis un crime pour lequel il sera jugé devant les Assises ». Nous voyons ici que la reformulation de la deuxième phrase permet d'introduire facilement la proposition subordonnée : il sera jugé aux Assises à partir du crime qu'il a commis.
+Si on regarde le fonctionnement de (7) on s'aperçoit qu'il peut être rapproché de celui de (5), car dans les deux cas, on reprend la même chose. Dans (5), le locuteur nous a informés que Jospin est parti depuis la troisième phrase de la séquence. Donc si la SP est là, ce n'est pas pour nous apporter une information nouvelle. On peut justifier cela par le fait que la SP peut être supprimée de la séquence sans problème, et aucune information ne serait diminuée.
+Jour d'adoubement. François Hollande sera réélu ce soir premier secrétaire du Parti socialiste. Le vote des militants, qui se déroule entre 18 et 22 heures, relève de l'exercice imposé : le député-maire de Tulle est le seul candidat à sa succession à la tête du PS. Premier secrétaire, François Hollande l'est depuis 1997, quand Lionel Jospin, nommé Premier ministre, lui a confié les clés de la rue de Solferino, le siège parisien du parti. Phrase fétiche de l'époque, prononcée par Jospin devant quelques «quadras» socialistes : Hollande «est le meilleur, le plus brillant et le plus politique d'entre vous». Six ans plus tard, voilà Hollande pour la première fois en situation de montrer qu'il mérite le compliment.+
Pour montrer que le comportement de la SP de cette séquence n'est pas un fait isolé, prenons un autre exemple :
+L'odeur du charbon et le râle provenaient d'une mansarde située au dessus des deux pièces dont se composait son appartement ; elle supposa qu'un jeune homme nouvellement venu dans la maison, et logé dans cette mansarde à louer depuis trois ans se suicidait. Elle monta rapidement, enfonça la porte avec sa force de Lorraine en y pratiquant une pesée, et trouva le locataire se roulant sur un lit de sangle dans les convulsions de l'agonie. Elle éteignit le réchaud. La porte ouverte, l'air afflua, l'exilé fut sauvé (Balzac, La Cousine Bette)+
Ici encore, la SP est une reformulation de ce qui a été dit précédemment. En effet, lorsque la jeune femme monte rapidement l'escalier, enfonce la porte avec sa force, puis trouve le locataire sur un lit, cela signifie tout simplement que la porte est ouverte puisqu'elle est entrée dans la pièce. Le lecteur n'a pas besoin de lire la SP pour le savoir. Donc la SP ne contient rien de nouveau, c'est ce qui explique pourquoi elle peut être supprimée sans faire du mal à la séquence :
+L'odeur du charbon et le râle provenaient d'une mansarde située au dessus des deux pièces dont se composait son appartement ; elle supposa qu'un jeune homme nouvellement venu dans la maison, et logé dans cette mansarde à louer depuis trois ans se suicidait. Elle monta rapidement, enfonça la porte avec sa force de Lorraine en y pratiquant une pesée, et trouva le locataire se roulant sur un lit de sangle dans les convulsions de l'agonie. Elle éteignit le réchaud. L'air afflua, l'exilé fut sauvé.+
Il est à signaler que le procès du contexte antérieur qui permet de comprendre la reformulation de la SP n'est pas forcément inscrit dans le texte. Il peut être absent du texte, tout en étant présent dans le discours, comme dans la séquence suivante :
+A peine nommé à la tête du conseil général, Patrick Devedjian, également secrétaire général délégué de l'UMP depuis le 22 mai dernier, a voulu poser sa griffe sur l'organisation des lieux. Nicolas Sarkozy parti, le nouveau patron du département a en effet adopté quelques mesures immédiates pour libérer l'hôtel du département de certains carcans, parfois générateurs de conflits avec le personnel, imposés par son prédécesseur alors ministre de l'Intérieur (Le Parisien, 11 - 06 - 07).+
Dans cette séquence, la SP Nicolas Sarkozy parti est en première mention dans le texte sans l'être dans le discours. Si Devedjian devient secrétaire général délégué de l'UMP le 22 mai, tout le monde sait que c'est en remplacement de Nicolas Sarkozy, devenu officiellement président de la République le 16 mai. Le lecteur du journal est au courant de cela, soit parce qu'il l'a lu dans les numéros précédents du même journal ou qu'il l'a entendu à la radio ou à la télé. C'est pour cela que l'auteur de l'article juge inutile de le rappeler. Mais cette SP fonctionne de la même manière que les deux autres que j'ai examinés plus haut : elle n'apporte aucune information nouvelle. En la supprimant, la séquence ne perd rien au niveau informationnel :
+A peine nommé à la tête du conseil général, Patrick Devedjian, également secrétaire général délégué de l'UMP depuis le 22 mai dernier, a voulu poser sa griffe sur l'organisation des lieux. Le nouveau patron du département a en effet adopté quelques mesures immédiates pour libérer l'hôtel du département de certains carcans, parfois générateurs de conflits avec le personnel, imposés par son prédécesseur alors ministre de l'Intérieur.+
Dans tous ces exemples, si la SP est présente dans la séquence, c'est juste pour forger un lien entre ce procès et celui de la PH. Nous verrons cela dans la section suivante. Mais ce qu'il y a à signaler ici, c'est que dans ces trois exemples que nous avons analysés, si la SP peut recevoir l'auxiliaire étant, elle ne peut pas être introduite par un marqueur temporel. L'introduction d'un marqueur temporel rendrait la séquence incohérente, parce que le marqueur temporel, comme nous le verrons, n'est pas compatible avec un procès accompli. La séquence suivante est difficilement acceptable :
+(8a) ?? L'odeur du charbon et le râle provenaient d'une mansarde située au dessus des deux pièces dont se composait son appartement ; elle supposa qu'un jeune homme nouvellement venu dans la maison, et logé dans cette mansarde à louer depuis trois ans se suicidait. Elle monta rapidement, enfonça la porte avec sa force de Lorraine en y pratiquant une pesée, et trouva le locataire se roulant sur un lit de sangle dans les convulsions de l'agonie. Elle éteignit le réchaud. La porte étant ouverte, l'air afflua, l'exilé fut sauvé (Balzac, La Cousine Bette)+
Je vais maintenant m'intéresser à la relation de discours qu'il y a entre la SP et la phrase qui l'héberge.
+Il y a certainement une relation de Narration, parce que nous avons des événements qui se succèdent : dans (5), le départ de Jospin précède le fait que Hollande doit montrer qu'il mérite le compliment de l'ancien premier ministre. Dans (8), l'ouverture de la porte précède le fait que l'air afflue. Mais il me semble qu'il y a plus qu'une relation de Narration. En effet, A. Borillo (2001), dans un article sur les connecteurs temporels et la structuration du discours, a expliqué que le connecteur aussitôt, lorsqu'il est placé en tête du deuxième procès d'une phrase peut exprimer, en plus de la relation de Narration, une relation qu'il a appelée « Consécutivité » : le deuxième procès ne suit pas seulement le premier ; il est compris également comme résultant du premier, comme dans l'exemple qui suit :
+Il se leva pour demander la parole. Aussitôt le silence se rétablit.+
Si le silence se rétablit, c'est en réaction par rapport à celui qui s'est levé pour prendre la parole. Il y a silence parce qu'on veut écouter celui qui veut s'exprimer.
+Il me semble que la relation entre le procès de la SP et celui de la PH est la même que celle qui est décrite ci-dessus. En plus de la relation de Narration, on a également une relation de Consécutivité. Dans (8), le fait que l'air afflue est une réaction à l'ouverture de la porte, comme dans (9) le fait que Devedjian a adopté quelques mesures immédiates pour libérer l'hôtel du département de certains carcans est une réaction au départ de Nicolas Sarkozy.
+J'ai essayé de montrer que la SP sans auxiliaire et sans marqueur temporel est une construction qui est en coréférence événementielle avec un procès évoqué dans le contexte antérieur. Elle entretient une relation de Généralisation avec ce procès. Elle peut être supprimée de la séquence sans faire du mal à celle-ci, mais elle ne peut pas être introduite par un marqueur temporel. Avec la phrase qui l'héberge, elle entretient une relation de Consécutivité en plus de la relation de Narration.
+L'emploi d'un marqueur temporel devant la SP n'est pas fortuit. Plusieurs facteurs aident à son introduction dans le discours. D'abord, on trouve un marqueur temporel lorsque la SP n'indique pas une reformulation par rapport au contexte antérieur. Il ne s'agit pas non plus d'une information nouvelle. Si le procès de la SP ne se trouve pas mentionné dans le contexte antérieur, il est sous entendu. C'est ce qu'on peut remarquer dans la séquence qui suit :
+C'est la catastrophe de Tchernobyl qui sera l'élément déclencheur de son engagement dans la vie politique. Au début des années 1990, il s'impliquera dans le problème de l'eau courante de la ville dont le taux de nitrates dépassait très largement les normes. Une fois le problème réglé, face aux odeurs nauséabondes générées par le lagunage de l'entreprise chimique pharmaceutique Simafex, il déposera les statuts de l'association l'Asema au sein de laquelle il occupera le poste de secrétaire. (Sud Ouest, 14 - 11 - 07)+
Dans cette séquence, on voit que le sujet de la SP est une anaphore fidèle, parce que le mot problème est présent dans la phrase précédente, mais pas le procès régler. Seulement, celui-ci est sous entendu. C'est que quand on annonce qu'il y a un problème de l'eau parce que le taux de nitrates dépasse les normes, on attend que ce problème soit réglé. Le marqueur temporel est là pour permettre au procès de la SP d'être accompli, ce qui est une condition nécessaire pour la SP au participe passé, puisqu'il est reconnu que c'est un procès antérieur à celui de la PH. Ce qui est nouveau dans la SP introduite par le marqueur temporel, c'est le fait que celui-ci installe le procès de la SP dans l'aspect accompli.
+Par ailleurs, le marqueur temporel est introduit lorsque la séquence évoque des procès inaccomplis. Le marqueur installe une signification aspectuelle importante. C'est ce qui se passe dans la séquence suivante :
+Etant donné le succès de l'année dernière, l'association Danse en Lévezou a décidé d'organiser une nouvelle rencontre avec les Musicaïres del Pais. Cette soirée aura lieu le dimanche 18 novembre. A partir de 16 heures on pourra venir danser gratuitement à la salle des fêtes de Vézins. A 20 heures, un repas sera servi où, pour 10 euros, on pourra manger pâté, aligot, saucisse, fromage et gâteau à la broche. Sitôt le repas terminé, la musique reprendra ses droits. (Midi Libre, 15 - 11 - 07)+
Ici, la phrase qui précède celle qui contient la SP parle d'un repas qui sera servi. C'est un procès évoqué dans le futur. La PH est aussi dans le futur : la musique reprendra ses droits. Le marqueur temporel sitôt devient donc nécessaire dans la séquence, parce qu'il permet de montrer l'antériorité du procès de la SP par rapport à celui de la PH.
+Dans toutes les séquences contenant ce type de SP, nous avons une relation de Narration entre le procès du contexte antérieur et celui de la Proposition hébergeante. Ce type de SP se caractérise par le fait qu'elle n'est pas supprimable de la séquence, contrairement à la SP sans marqueur temporel. Sa suppression nous laisserait une séquence incomplète. Le fait que le procès de la SP entre dans une relation de Narration fait que sa suppression laisserait un vide dans le discours, comme dans (12a) :
+?? A partir de 16 heures on pourra venir danser gratuitement à la salle des fêtes de Vézins. A 20 heures, un repas sera servi où, pour 10 euros, on pourra manger pâté, aligot, saucisse, fromage et gâteau à la broche. La musique reprendra ses droits. (Midi Libre, 15 - 11 - 07)+
Nous avons vu que le procès de la SP sans marqueur temporel entretient une relation de Consécutivité avec la phrase qui l'héberge. Il arrive quelques fois que cette relation de Consécutivité ne soit pas au rendez-vous. A ce moment là on utilise le marqueur temporel pour asseoir l'antériorité du procès de la SP par rapport à celui de la phrase hébergeante. Lorsqu'on lit (13),
+Chaque année, le repas de Noël des écoles est plébiscité par les élèves. Pour cette 3e édition délocalisée à l'espace Barbara, jeudi, ce fut un succès qui va en s'amplifiant puisqu'ils étaient 300 à prendre place autour des tables dans une ambiance festive. Élus, membres des associations de parents d'élèves, personnel communal, bénévoles, ils étaient nombreux à s'être mobilisés pour que tout soit parfait. Marco, Grégory et leurs assistantes du restaurant scolaire ont régalé leurs hôtes en concoctant un menu alliant poissons et volailles avec la traditionnelle bûche de Noël. Cette « délocalisation » est possible grâce à une série de prouesses que l'on doit en partie aux services techniques et à tous ceux qui oeuvrent en coulisses. Car une fois le repas terminé, la salle doit être prête pour le spectacle. (Le Progrès, 22 - 12 - 07)+
On s'aperçoit que la SP est en coréférence événementielle avec les phrases précédentes : quand le locuteur dit que les restaurateurs ont régalé leurs hôtes, cela signifie que le repas a été consommé, donc terminé. Puisqu'on observe une relation de Généralisation entre la SP et le contexte antérieur, on penserait que la porte est ouverte pour une SP sans marqueur temporel. Mais non ! Cela n'est pas suffisant. Il faut également que le procès de la PH soit le résultat de celui de la SP. Et dans cette séquence, le fait que la salle doit être prête pour le spectacle ne constitue pas un résultat de l'action de terminer le repas. D'où la nécessité du marqueur temporel une fois. On aurait du mal à employer la SP sans marqueur temporel dans cette situation. La séquence suivante ne me paraît pas naturelle :
+Élus, membres des associations de parents d'élèves, personnel communal, bénévoles, ils étaient nombreux à s'être mobilisés pour que tout soit parfait. Marco, Grégory et leurs assistantes du restaurant scolaire ont régalé leurs hôtes en concoctant un menu alliant poissons et volailles avec la traditionnelle bûche de Noël. Cette « délocalisation » est possible grâce à une série de prouesses que l'on doit en partie aux services techniques et à tous ceux qui oeuvrent en coulisses. Car le repas terminé, la salle doit être prête pour le spectacle.+
Le marqueur temporel est employé aussi lorsque la sémantique du verbe de la SP ne se prête pas à ce type de construction. Nous avons signalé que le procès de la SP a un caractère résultatif. Des verbes comme partir, finir, terminer évoquent cela dans leur sémantisme. Mais beaucoup de verbes n'ont pas ce caractère résultatif. Pour pouvoir être employés dans la SP, ces verbes doivent être introduits par un marqueur temporel, celui-ci étant seul à pouvoir leur donner ce caractère résultatif. (14) en est une illustration :
+Trompé. Rares sont les candidats qui effectuent publiquement un mea culpa. Or, à peine les premiers résultats connus, J.M. le Pen a reconnu son erreur. En réalité, il s'agissait davantage d'une réaction d'amertume et de mauvaise humeur face au revers électoral subi par le Front National qu'à un réel acte de contrition. « Je me suis trompé, a-t-il dit. Les français sont très contents ; ils viennent de réélire confortablement les responsables de la situation du pays. » (Le Monde, 24 - 04 - 07, 14)+
Dans cette séquence, le procès de la SP, connaître, n'est pas résultatif. Il serait difficile de l'employer seul dans ce type de construction. C'est pour cela que le marqueur à peine est employé. Celui-ci apporte à la SP la dose aspectuelle nécessaire lui permettant de s'inscrire comme antérieur au procès de la PH. Ce marqueur n'est pas supprimable, sinon on risque d'avoir une construction qui n'est pas naturelle, comme (14a) :
+?? Trompé. Rares sont les candidats qui effectuent publiquement un mea culpa. Or, les premiers résultats connus, J.M. le Pen a reconnu son erreur. En réalité, il s'agissait davantage d'une réaction d'amertume et de mauvaise humeur face au revers électoral subi par le Front National qu'à un réel acte de contrition. « Je me suis trompé, a-t-il dit. Les français sont très contents ; ils viennent de réélire confortablement les responsables de la situation du pays ».+
Ce parcours nous montre que l'emploi d'un marqueur temporel devant une SP est dicté par beaucoup de facteurs : le contexte de gauche, la phrase hébergeante et la nature du procès lui même.
+Comme pour la SP introduite par le marqueur temporel, celle qui contient l'auxiliaire étant ne s'emploie pas au hasard. Dans la plupart des cas, l'auxiliaire étant intervient lorsque la SP apporte une information nouvelle au discours. Cette information nouvelle peut se trouver à plusieurs niveaux de la SP.
+Le procès de la SP peut introduire une information nouvelle. C'est ce qu'on a dans l'exemple (7), que nous reprenons :
+Hortense fit un signe à sa mère pour la rassurer ; car elle se proposait de dire au valet de chambre de renvoyer monsieur Steinbock quand il se présenterait. Mais, le valet de chambre étant sorti, Hortense fut obligée de faire sa recommandation à la femme de chambre, et la femme de chambre monta chez elle pour y prendre son ouvrage afin de rester dans l'antichambre (Balzac, Cousine Bette).+
Dans la première phrase, on nous dit qu'Hortense « proposait de dire au valet de chambre de renvoyer monsieur Steinbock quand il se présenterait ». Cela signifie qu'Hortense croyait que le valet se trouvait à la maison. Contre toute attente, le valet est sorti. C'est une information inattendue, donc nouvelle dans le discours. La SP ne peut pas apparaître seule ici, ni introduite par un marqueur temporel.
+?? Hortense fit un signe à sa mère pour la rassurer ; car elle se proposait de dire au valet de chambre de renvoyer monsieur Steinbock quand il se présenterait. Mais, une fois le valet de chambre sorti, Hortense fut obligée de faire sa recommandation à la femme de chambre, et la femme de chambre monta chez elle pour y prendre son ouvrage afin de rester dans l'antichambre (Balzac, Cousine Bette).+
?? Hortense fit un signe à sa mère pour la rassurer ; car elle se proposait de dire au valet de chambre de renvoyer monsieur Steinbock quand il se présenterait. Mais, le valet de chambre sorti, Hortense fut obligée de faire sa recommandation à la femme de chambre, et la femme de chambre monta chez elle pour y prendre son ouvrage afin de rester dans l'antichambre (Balzac, Cousine Bette).+
C'est l'auxiliaire qui s'impose dans ce type de situation. Entre la SP et le contexte antérieur, nous avons une relation de Contraste, qui est d'ailleurs signalée par le connecteur mais. Dans (15) nous avons le même phénomène :
+Mardi, après l'heure du déjeuner, un restaurateur de la Grand-Combe a violemment frappé son employée. Sous l'emprise de l'alcool (3 grammes), il lui a intimé l'ordre de lui préparer son repas. Son service étant terminé, la jeune fille a refusé et s'est attiré les foudres de son employeur.+
Dans la deuxième phrase de la séquence, le restaurateur donne l'ordre à son employée de lui préparer son repas. Ensuite, dans la SP on nous dit que le service de la jeune femme est terminé. Il y a une relation de Contraste entre la SP et ce qui précède. Car le restaurateur peut à la rigueur demander à son employée de lui faire son repas avant la fin de son service, mais pas après. Ici encore, la SP ne peut apparaître que si elle est précédée de l'auxiliaire.
+L'information nouvelle que peut avoir la SP ne vient pas seulement du fait que le procès est inattendu. Il peut s'agir aussi d'une précision sur les circonstances du procès, comme dans (16) :
+Rappel des faits. Séance de tirs au but à la fin du derby entre GE Servette et FR Gottéron (3 - 2 tab). Geoffrey Vauclair, le capitaine des Dragons, dépose un protêt. La motivation des Fribourgeois? Selon eux, l'arbitre aurait dû accorder un but sur le penalty d'Antti Laaksonen, Gianluca Mona ayant déplacé sa cage sur cette action. Le lendemain, hier donc, FR Gottéron n'avait toujours pas confirmé sa protestation auprès de la National League (NL). Le match s'étant terminé à 22 h 10, Serge Pelletier doit agir avant 10 h 09, ce matin, s'il veut saisir la compétence du juge unique, Reto Steinmann. Le fera-t-il? «Je dois encore y réfléchir», souffle l'homme de banc de Saint-Léonard. Mais tout porte à croire - c'est en tout cas le voeu du président Daniel Baudin - que Gottéron jettera l'éponge.+
Dans cette séquence, ni le procès, ni le sujet ne constituent une information nouvelle. Dans les phrases précédant la SP, on informe que l'équipe qui a perdu a déposé un protêt. Cela s'est déroulé après que le match soit terminé. L'information nouvelle se trouve dans la circonstance temporelle du procès, à savoir 22h 10. C'est ce complément temporel qui exige l'introduction de l'auxiliaire, sinon on aurait pu avoir facilement une SP sans auxiliaire. Ceci explique pourquoi toutes les SP sans auxiliaire et sans marqueur temporel n'ont pas de compléments. Parce que celui-ci apporterait une information nouvelle. Elles sont formées seulement du sujet et du procès.
+Il arrive quelques fois que le sujet même de la SP soit en première mention dans le discours, qu'il soit précédé d'un déterminant indéfini. A ce moment là, la SP encore ne peut pas apparaître sans l'auxiliaire, comme dans cette séquence :
+Avec la SNCF tout est possible! Après les problèmes occasionnés ces jours de grève par la SNCF aux Rivesaltais utilisant ses trains pour aller travailler à Perpignan, ces derniers espéraient être tranquilles pour quelques jours... Hélas, hier matin à 8 h 14, aucune information n'étant donnée, ces habitués de la ligne attendaient leur train bien annoncé sur le panneau d'affichage automatique du quai. En fait, avec 10 minutes de retard le train arriva, entra en gare... (L'Indépendant, 13 - 12 - 07)+
Dans le contexte de gauche de cette séquence il n'y a aucune allusion à la notion d'information. Le sujet de le SP est donc une information nouvelle, d'où la présence de l'auxiliaire. Ici encore, l'auxiliaire ne peut être supprimé, et on ne peut introduire un marqueur temporel.
+L'auxiliaire étant permet donc aux SP qui apportent une information nouvelle d'apparaître sur la surface du discours.
+A travers cet examen de la SP dans le discours, j'ai montré qu'on ne doit pas parler d'une SP au participe passé, qui pourrait être indifféremment introduit par un marqueur temporel ou précédé de l'auxiliaire étant. On doit parler de plusieurs types de SP au participe passé. Le premier est celui où la SP est seule - sans marqueur temporel et sans auxiliaire. Elle a un contenu qui est déjà évoqué dans le contexte de gauche et se distingue par le fait qu'elle est supprimable. Le deuxième contient un marqueur temporel, qui est là pour insister sur le caractère antérieur du procès de la SP par rapport à la PH, et, à ce titre, ce type de SP est nécessaire au fonctionnement du discours. Le troisième type est celui dont le participe est précédé de l'auxiliaire étant. On le rencontre lorsque la SP apporte une information nouvelle dans le discours, ce qui fait qu'elle ne peut être supprimée sans porter préjudice à la séquence.
+ +libre de droits
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+La grammaire actuelle a du mal à articuler la syntaxe traditionnelle aux investigations plus récentes des « analyses de discours », que développent la linguistique énonciative (interactionniste) et la linguistique textuelle, secondée par la psycholinguistique. Ces difficultés sont encore plus marquées en FLE que dans le domaine du FLM. Afin de comprendre les raisons de ces difficultés intégratives gênantes tant sur le plan théorique que sur le plan didactique, nous explorerons les contraintes héritées du structuralisme de Saussure et les débordements paradigmatiques énonciatifs et textuels que devait inévitablement générer ce cadre trop restreint. Ce parcours préalable mettra en évidence l'origine épistémologique de l'hétérogénéité actuelle des domaines grammaticaux, mais aussi le paradoxe de leur complémentarité indissociable du point de vue cognitif (développement ontologique et gestion mentale du langage). Il sera alors possible de justifier les principes d'une reformulation descriptive articulant l'héritage syntaxique aux fonctions énonciative et de structuration du texte, tant au niveau de la globalité textuelle qu'au niveau des moyens grammaticaux qui en permettent l'élaboration (lexique, connecteurs, système verbal, pronoms / renominalisations, syntaxe phrastique, unités de structure du texte).
+Muriel Barbazan
+ +Laboratoire Jacques-Lordat Université Toulouse-Le Mirail muriel.barbazan@univ-tlse2.fr
+ +La grammaire, plus encore en français langue étrangère (FLE) qu'en français langue maternelle (FLM), a du mal à se présenter comme un domaine homogène, qui articule de façon pertinente l'héritage traditionnel et les avancées récentes de la linguistique énonciative et des grammaires de texte. Si le FLM semble être en meilleure voie de réorganisation (Garcia-Debanc et al. 2001), le FLE a des difficultés à intégrer en un système cohérent des notions énonciatives ou textuelles encore trop parcellisées, et qui ne sont pas reliées aux connaissances grammaticales traditionnelles : on est face à une juxtaposition de plusieurs systèmes, sans fil conducteur permettant de repérer dans cet ensemble un cheminement cohérent. Il faudrait pouvoir sortir de cette impression « d'emboîtement de différents dispositifs d'organisation de la langue, du discours à l'énoncé, du texte à la phrase, même si l'on ne sait pas encore très bien comment s'articulent dimension discursive ou énonciative et dimension formelle de l'organisation de la langue » (Vigner 2004, 86). Un des défis actuels posés au grammairien est donc de tenter d'homogénéiser ces divers courants en une discipline plus cohérente. Tant que ce n'est pas fait, l'apprenant n'a pas d'autre choix que d'essayer d'articuler comme il peut ses connaissances entre elles :
+ +« Il appartiendra toujours aux élèves d'établir les liaisons nécessaires entre ces différents niveaux d'organisation de la langue (du discours aux éléments de la phrase ou inversement), l'essentiel étant de proposer des activités qui faciliteront cette mise en relation. » (Vigner 2004, 86)+
Ce point de vue nous paraît tout de même un peu défaitiste, car il revient à situer la didactique en aval de modélisations qui ne concernent pas la seule linguistique. Deux raisons semblent justifier un point de vue plus optimiste quant au devenir et aux ambitions de la grammaire : la première est que la voie a été ouverte par la grammaire de FLM. Ainsi, l'articulation énonciation / texte / phrase fait déjà l'objet d'une problématisation engagée par de nombreux chercheurs linguistes et / ou didacticiens, et ces efforts intégratifs se sont traduits dans les programmes et les manuels de FLM. La seconde raison, c'est que les échanges interdisciplinaires peuvent faciliter le cheminement réflexif en mettant par exemple au service du didacticien et du linguiste des connaissances solides en psychologie cognitive (traitement du texte - ou ici « discours » - en compréhension et production, processus d'apprentissage et activation des connaissances en mémoire etc.). La pluridisciplinarité peut ainsi permettre de mieux contrôler la rigueur de la démarche, et de repérer certains écueils qu'un éclairage unidisciplinaire ne permettrait pas de voir.
+ +Si l'on a cette impression générale de manque de cohérence interne, c'est parce que les modalités de fonctionnement linguistique décrites dans les domaines envisagés relèvent de paradigmes différents. Les linguistiques énonciatives et textuelles se sont construites en s'opposant aux postulats immanentiste et phrastique du structuralisme originel. Pour autant, l'énonciation et le texte ne se sont pas immédiatement reconnus l'un l'autre pour s'intégrer a priori dans un cadre de travail conjoint unifié. L'unification d'un parcours grammatical passe vraisemblablement par l'établissement d'un cadre d'investigation suffisamment large pour intégrer les présupposés énonciatifs et textuels, tout en absorbant les connaissances formulées en grammaire traditionnelle. Parfois, comme on va le voir, un simple changement d'éclairage permet de rétablir certaines proportions sémantiques, exagérément hypertrophiées par le point de vue traditionnel. Dans cette perspective, il est utile de partir d'assez loin : on fera ainsi un rappel de l'héritage immanentiste, descriptif et phrastique pour montrer les forces d'inerties que ce paradigme génère, et qui contribuent à freiner voire à bloquer les tentatives d'intégrer de manière globale les dimensions énonciatives et textuelles dans le champ linguistique. On pourra alors mieux comprendre les raisons du manque d'homogénéité des domaines couverts par la grammaire (phrase / texte / énonciation), pour proposer ensuite des perspectives d'homogénéisation.
+L'un des objectifs majeurs du structuralisme hérité de Saussure a été de situer la réflexion linguistique dans l'abstraction d'un cadre axiomatiquement fermé, celui de la langue « en soi et pour soi », en évacuant « l'ensemble hétéroclite des faits de langage ». Et notamment, l'utilisation même du système de la langue, en tant qu'elle implique de prendre en compte des individus parlant, relève des avatars de la parole, et ne constitue pas à ce titre l'objet premier de la linguistique. En d'autres termes, il s'agit d'appréhender la langue en dehors de son usage, ce qui ne peut pas manquer de plonger dans la perplexité quiconque admet que les interactions menées par le biais du langage font cognitivement partie intégrante de ses propriétés, dont elles servent à forger les représentations conceptuelles (Vigotsky 1934, Bruner 1983, Mondada / Pekarek 2000)
+ +Par ailleurs, en évacuant d'emblée la fonction communicative du langage hors du champ d'investigation linguistique, on a implicitement confirmé la représentation déjà bien établie qui veut que la fonction première de la langue soit de référer au monde, par l'intermédiaire du « signe », descriptible dans son aboutissement selon la trilogie signifié / signifiant / référent. L'idéalisme artificiel de cette position a été dénoncé tant au niveau linguistique (Berrendonner 1981, 36ss ; Kleiber 1997) qu'en psychologie, notamment par les psychologues gestaltistes. Avant même de mettre en question l'absence d'ancrage énonciatif présumé pour la fonction référentielle (ou dénotative), nous nous contentons ici de souligner l'hypertrophie artificielle de cette fonction au sein du structuralisme.
+ +Pour compléter la portée réductrice et contraignante de ce paradigme de la « langue » et du « signe », on notera que la combinatoire des signes entre eux, à savoir la morphosyntaxe et la syntaxe ne dépasse pas les limites de la phrase. Le texte et ses composantes structurelles propres ne font pas a priori partie des interrogations linguistiques.
+ +Ces trois contraintes paradigmatiques : l'artificielle opposition langue / parole assortie de l'hypertrophie d'une fonction référentielle illusoirement autonome et de l'étroitesse du cadre phrastique pèsent encore lourdement dans l'inconscient collectif des linguistes et des didacticiens.
+ +À cet héritage immanentiste, il nous paraît nécessaire de répondre par un engagement fonctionnaliste clairement revendiqué, un fonctionnalisme qui n'oppose pas syntaxe (plus ou moins formelle) et sémantique, et qui ne se focalise pas sur la fonction informative du langage et sa dimension référentielle. Ce point de vue rejoint celui de Charolles et Combettes :
+ +« Dans les dernières décennies, sous la pression de modèles géométriques de la syntaxe, on a sans doute eu tendance à présenter la grammaire sous un angle excessivement structuraliste, en oubliant que les principes qui gouvernent l'agencement des morphèmes au sein de la proposition et de la phrase ont aussi, et probablement, avant tout, une portée fonctionnelle et une origine cognitive. » (Charolles et Combettes 2001, 139, c'est nous qui soulignons)+
L'adoption d'un point de vue fonctionnaliste a d'ailleurs été régulièrement revendiquée dès l'émergence du courant énonciatif, et notamment par Benveniste, considéré comme un des initiateurs de ce courant réactif au postulat immanentiste en France :
+ +« L'énonciation est cette mise en fonctionnement de la langue par un acte individuel d'utilisation. » (Benveniste 1974, 80)+
Dans la lignée de Benveniste, la parution de l'Énonciation de Kerbrat-Orecchioni (1980) constitue un jalon de l'avènement du cadre énonciatif. Elle y souligne le caractère fondamentalement fonctionnel du langage, impossible à appréhender en excluant a priori les acteurs du discours, et poursuit l'exploration de l'inscription énonciative au sein même de catégories lexicales et grammaticales.
+ +Pour autant, comme on va le voir, la constitution d'une « analyse du discours », envisagée comme un champ englobant à la fois le domaine énonciatif et le domaine textuel, ne s'est pas imposée en corrélation avec une extension ou une redéfinition paradigmatique explicite. Il est alors utile de mettre en évidence quelques options et paliers intégratifs notoires marquant l'avancée de ces champs d'analyse dans le domaine linguistique pour mieux comprendre l'inertie que constitue encore l'héritage du structuralisme immanentiste et des habitudes conceptuelles plus ou moins conscientes qu'il nourrit. Sous l'éclairage de ces options et tournants constitutifs de la linguistique énonciative et textuelle actuelle, on peut espérer mieux cerner les difficultés auxquelles achoppe la constitution d'une grammaire réellement discursive.
+ + +Devant l'irrépressible ascension du courant énonciatif, diverses options ont été envisagées pour résoudre l'embarras que pose la transmission de l'héritage structuraliste tout en réglant la succession de la façon la plus économique possible, pour ce qui est de son intégration à un nouveau paradigme.
+ +L'option apparemment la plus simple consiste à proclamer un lien énonciatif fondamental rattachant les productions linguistiques au locuteur / récepteur tout en réintégrant les représentations sémantiques traditionnelles telles quelles ou "relookées" sous une apparence plus séduisante au plan énonciatif. La gestion de l'héritage se fait apparemment à moindre coût et se limite pratiquement à des redénominations terminologiques superficielles : la « phrase » devient « énoncé », le « texte» devient « discours ». Mais les bénéfices d'une telle manipulation sont à la hauteur de l'investissement théorique. Force est de constater qu'il ne suffit pas de décréter que le locuteur et éventuellement le récepteur sont intégrés au modèle pour qu'ils le soient. Un indice de leur évanescence est bien que rien d'autre n'a concrètement changé sinon le décret de leur présence : le fond de la description linguistique s'articule selon des rouages identiques, et le cadre énonciatif revendiqué s'apparente plus à une proclamation politique qu'à une modification paradigmatique effective. L'intégration d'un locuteur idéalisé dans la compétence chomskienne n'a généré qu'un mince décalage par rapport au concept fondateur de la langue structuraliste. On peut évoquer ici
+ +aussi le fonctionnalisme "minimaliste" de Martinet, qui certes met l'accent sur la fonction de communication du langage, mais qui retrouve de fait les réductions héritées du passé : d'abord, la communication envisagée est essentiellement informative, au dépend des autres fonctions du langage. Cette restriction a pour effet de conserver un éclairage focalisé sur la dimension référentielle / descriptive du langage - qui réfère à une réalité extra-linguistique pré-existant au message - au dépend de l'analyse des effets de sens effectivement liées à l'activité communicative du producteur et du récepteur. Corrélativement, et de façon cohérente dans cette perspective, le code est assimilé à un instrument servant à la transmission de messages indépendamment des particularités énonciatives des acteurs linguistiques. On récupère de fait la partition langue / parole :
+ +« [...] le message est assimilé à une réalité quasi-matérielle pré-existant à la communication, comme un objet qui passerait de main en main [...]. A ce compte [...], les règles d'organisation des messages selon le code de la langue peuvent être étudiées indépendamment des activités d'encodage et de décodage. » (Fuchs et Le Goffic 1992, 131)+
Dans un champ connexe à ces tentatives timidement émancipées des postulats héritées du passé, il existe une perspective d'analyse plus engagée dans la voie d'une sémantique qui se préoccupe d'avantage de l'impact de la situation de production / réception sur la construction du sens des énoncés. Cette voie, encore empruntée aujourd'hui, consiste à faire le pari de la conservation possible d'un signifié de langue, en le considérant comme la signification « première », ou « littérale » de l'élément linguistique concerné.À cette base sémantique fondamentale envisagée hors discours, on ajoute des compléments de signification d'ordre pragmatique (couvrant le domaine énonciatif) à partir des informations particulières à une situation de production donnée. Il faut bien voir que dans cette perspective, on conserve intact le signifié linguistique hérité. Ducrot (1991), dans son avant-propos à la troisième édition de Dire et ne pas dire (1972), rappelle qu'il avait revendiqué ce type de modèle à l'époque de la première parution de cet ouvrage. L'objectif était donc de défendre
+ +« l'idée qu'il y a, dans la construction du sens, un moment strictement linguistique, où l'on attribue une va leur à la phrase, et un second, que j'appelais "rhétorique", où cette première valeur interagit avec la situation. »+
Il s'agissait bien d'« imaginer, peut-être même construire une machine composée de deux modules, [...] bien délimités : l'un traitait tout ce qui vient de la langue, c'est-à-dire tout ce qui est inscrit dans la phrase que l'énoncé réalise, l'autre combinait les résultats du premier avec les données du contexte et de la situation, et arrivait à reconstruire le sens effectif" de l'énoncé, tel que l'"observation" l'avait révélé. » (Ducrot 1991, Avant-propos)+
Pourtant, entre les dates de parution des deux éditions citées et à la suite du développement de ce modèle bi-polaire, Ducrot constate que la distinction entre les deux modules n'est plus aussi évidente :
+ +« À force d'être travaillées, ces distinctions ont perdu l'heureuse netteté d'autrefois : les limites se sont mises+ +
à trembler. » (ibid.)
+Ces difficultés sont loin d'être anodines, car ce peut être le signe que le fonctionnement effectif du langage résiste à ce principe dualiste qui devait permettre de conserver intact les acquis du passé : la langue comme système de signes, représentée par la composante « strictement linguistique » et l'intégration a posteriori d'un module rhétorique distinct, dépendant de données particulières à chaque situation de production (cf. Ducrot 1991, 111s) . Cette représentation sémantique modulaire, dite « théorie en Y » par Berrendonner, se heurte à l'existence d'éléments linguistiques impliquant précisément du sens énonciatif dans leur signification première, littérale (cf. Berrendonner 1981, 13). Dans ce cas effectivement, l'opposition sens en langue / sens en situation n'a plus lieu d'être. Elle génère notamment le paradoxe de catégories linguistiques comme les indiciels (les pronoms ou les adverbes déictiques par exemple) qui constituent des îlots sémantiques dont le signifié implique un lien à une situation d'actualisation, quelle qu'elle soit - alors qu'on se trouve dans un modèle qui postule précisément des signifiés littéraux hors du
+ +champ de l'actualisation du langage. Dès 1980, Kerbrat-Orecchioni rencontre une incompatibilité intégrative de ses propres résultats dans ce modèle. Elle évoque en l'occurrence la catégorie des lexèmes qui renvoient dans leur signification même à une position évaluative négative de l'énonciateur par rapport au contenu référentiel.
+ +« Faut-il en conclure que le trait de dévalorisation dont ils sont porteurs relève de la composante pragmatique ? Mais ce trait évaluatif est proprement indissociable des autres ingrédients descriptifs du sémème. Doit-on admettre la possibilité, pour une même unité de contenu, de jouer à la fois sur les deux tableaux sémantique et pragmatique ? » (Kerbrat-Orecchioni 1997, 199)+
Cette dernière question, qui nous paraît aujourd'hui centrale, sera réenvisagée plus loin. On peut faire pour l'instant un bilan intermédiaire concernant l'origine de l'hétérogénéité des domaines grammaticaux. La syntaxe traditionnelle est profondément marquée par le postulat immanentiste, dans lequel on ne peut pas intégrer certains « îlots » énonciatifs qui résistent dans leur signification et leur fonctionnement à la dissociation langue / usage de la langue. De plus, ce qui a paru d'abord pouvoir être considéré comme des îlots somme toute restreints (les verbes performatifs et les actes « déclaratifs » au sens de Searle, les déictiques, les registres de langage familiers ou standard...) s'est transformé progressivement en continent énonciatif et textuel. Si l'héritage du passé doit être capitalisé, ce n'est donc vraisemblablement pas dans un cadre dissociant fondamentalement la langue comme système en soi de son utilisation par les usagers.
+ +Dans ce parcours exploratoire de l'articulation des fonctions référentielle et énonciative du langage, il est intéressant de souligner un effet de "balancier épistémologique" qui conduit Benveniste à nier le contenu référentiel des pronoms personnels, envisagés dans leur seule fonction de supports énonciatifs nécessairement actualisés. Kerbrat-Orecchioni relève ainsi cette étonnante et célèbre affirmation :
+ +« Les pronoms [...] ne renvoient ni à un concept ni à un individu. » (Benveniste 1966, 261)+
Comme le fait remarquer Kerbrat-Orecchioni (1997, 44), « on peut contester l'expression de "formes vides" qu'utilise Benveniste au sujet des pronoms ». Ils ont effectivement bien un sens conceptuel : je par exemple renvoie au producteur de l'énoncé dans lequel apparaît son occurrence. Peu importe si le référent n'est pas fixe ni intrinsèquement identifiable hors du discours. La rectification est effectivement nécessaire, et si cette affirmation paraît surprenante de la part de Benveniste, elle peut s'expliquer en réaction à l'idéal référentiel objectiviste, qui postule un référent stable hors du discours contre lequel s'insurge ainsi Benveniste. Comme on le voit, cette définition exclusivement énonciative des pronoms n'est pas seulement anecdotique, et elle tout nous paraît symptomatique d'une difficulté toujours actuelle : comment envisager le signifié des éléments linguistiques ? Comment articuler le langage comme trace de la relation énonciateur / récepteur et le langage comme outil de référence au monde (réel ou imaginaire) ? Si le processus énonciatif laisse des traces dans le produit de l'énonciation, il faut pourtant que les éléments linguistiques qui servent de support à ces effets de sens intègrent dans leurs signifiés un trait sémantique responsable de ces effets.
+ +Pour conclure ce parcours rapide d'un problème hérité de longue date, il apparaît qu'il est encore courant de privilégier une distinction exclusive entre ces deux pôles. Soit on met l'accent sur la fonction référentielle (renvoyant au monde extra-linguistique) en retrouvant la trilogie signifié / signifiant / référent développée d'ailleurs de façon très fine jusque dans la théorie des prototypes (Dubois 1993), soit on se préoccupe de la fonction énonciative de certains outils linguistiques, sans nécessairement articuler au sein même des signifiés ce sens énonciatif à leur sens référentiel. La solution théorique initiée par Ducrot ne fait que souligner ce hiatus essentiel, sans le résoudre. Peut-être faudrait-il reconnaître que l'on s'enferre dans une dichotomie artificielle entre deux fonctions sémantiques complémentaires et irréductibles l'une à l'autre. Ce sont ces deux fonctions qu'il faut arriver à réconcilier pour homogénéiser enfin le champ grammatical, abandonné dans l'éther de l'immanentisme et le champ énonciatif, largement développé par les linguistes et didacticiens interactionnistes, mais sur des chemins le plus souvent assez éloignés d'une franche volonté de rassembler sous un même paradigme l'ensemble des domaines grammaticaux (cf. Véronique / Vion 1995, Arditty / Vasseur 1999, et bien sûr la revue AILE) . C'est à ce prix que l'on pourra espérer répondre à cette question parallèle qui nous préoccupe sur le versant grammatical en didactique : comment homogénéiser les représentations décontextualisées de la grammaire et les connaissances issues des recherches effectuées en linguistique énonciative et textuelle ?
+La première époque de la linguistique énonciative a permis de faire enfin vaciller le cadre immanentiste traditionnel en osant remettre en question la distinction langue / parole (ou compétence / performance) par une revendication de la
+« mise en fonctionnement de la langue par un acte individuel d'utilisation » (Benveniste 1974, 80)+
Si une voie énonciative s'est ainsi ouverte, on est encore loin du dialogisme revendiqué par F. Jacques (1979, 1985), qui milite pour la prise en compte corrélative de l'énonciateur et du récepteur. Mais l'impulsion essentielle est donnée et on passe progressivement d'une conception monologique de l'énonciation à une conception effectivement dialogique, qui met en évidence dans les textes des traces de prise de position de l'énonciateur par rapport au contenu de son discours, mais aussi en fonction du récepteur. Celui-ci joue un rôle de toute première importance dans la constitution même du discours, tant sur la forme que sur le fond, à l'oral aussi bien qu'à l'écrit. Les travaux initiés par Kerbrat-Orecchioni sur les interactions verbales ont été depuis lors largement suivis et suffisemment développés pour qu'on n'y revienne pas ici en détail.
+À ce stade de la réflexion, il est temps de se tourner vers deux questions qui prolongent logiquement celle de l'articulation de la langue et du champ énonciatif : comment envisager la transition de la phrase au texte ? Comment articuler aussi les domaines énonciatif et textuel ?
+Ainsi que le montrent Charolles et Combettes dans leur article déjà cité (2001, 124), le passage de la phrase au texte ne s'est pas fait sans heurt, et l'on ne peut d'ailleurs pas considérer qu'il soit abouti aujourd'hui. En effet, l'avènement du texte s'est d'abord affirmé à travers une opposition stricte vis-à-vis de la grammaire phrastique : le texte
+« n'est pas une unité grammaticale, mais une unité "d'usage du langage" » (Halliday et Hasan 1976, 1 cités par Charolles et Combettes 2001, 122)+
Pourtant, ici encore, de nombreux aspects cognitifs justifient une prise en compte du texte comme unité de fonctionnement à part entière, tant au niveau linguistique qu'au niveau didactique, et non comme simple juxtaposition de phrases. Sur la question des caractéristiques structurales du texte, nous renvoyons aux travaux pionniers de Mandler / Johnson, van Dijk, Kintsch rassemblés dans Denhière (1984), à la suite desquels il faut citer aussi les diverses publications de Adam (notamment 1992, 1999), Fayol (1985, 1997), Fayol et al. (1992), suffisamment connues aussi bien par les linguistes que par les didacticiens et les psychologues pour qu'elles puissent constituer un fond commun et ancrer une discussion pluridisciplinaire solide. En deux mots, la linguistique textuelle s'est attachée à définir types et genres de textes, mais aussi à comprendre les particularités structurales d'unités constitutives des plans de textes, ainsi que leur articulation - c'est-à-dire la relation entre cohérence sémantique et cohésion textuelle.
+Parallèlement à l'émergence progressive d'une grammaire textuelle, au départ peu soucieuse d'intégrer l'héritage phrastique et les préoccupations descriptives de la grammaire traditionnelle, force est de constater que l'ouverture énonciative, quant à elle, ne s'est pas préoccupée d'intégrer le texte dans la définition de son champ d'investigation. Au contraire, l'énonciation se définit à ses débuts en niant l'existence d'unités textuelles supérieures à la proposition :
+« La phrase [pour] Benveniste (1962/74), ne peut "entrer à titre de partie dans une totalité de rang plus élevé. Une proposition peut seulement précéder ou suivre une autre proposition dans un rapport de consécution" (i.e. de successivité) car "un groupe de propositions", autrement dit un discours, "ne constitue pas une unité d'un ordre supérieur à la proposition" (p.129). » Charolles et Combettes (2001, 121)+
Si Benveniste n'exclut pas l'analyse de larges fragments linguistiques, c'est seulement pour mettre en évidence
+« comment le sujet s'approprie l'appareil formel de la langue et énonce sa position de locuteur par des indices spécifiques » (Benveniste, cité par Charolles et Combettes 2001, 121)+
La distinction des registres énonciatifs histoire et discours illustre les manifestations énonciatives que l'on peut mettre en évidence dans cette perspective, manifestations dont la généralité tient effectivement au fait qu'elles ne sont pas associées à un plan de texte particulier. Cette dissociation entre perspective énonciative et perspective textuelle, qui paraît aujourd'hui un peu excessive, n'est certes plus d'actualité. Il est permis de penser qu'elle était une étape nécessaire à la constitution de deux domaines distincts, dont on a pu seulement ensuite mettre en évidence la complémentarité. Pour autant, la question cruciale pour le grammairien reste celle de l'articulation de l'héritage syntaxique à ces deux domaines, qui se développent par ailleurs actuellement dans une relation de fraternité plus sereine, plus ou moins explicitement hors du cadre saussurien.
+Notre examen nécessairement rapide de l'héritage linguistique, de la grammaire phrastique et décontextualisée aux champs énonciatif et textuel, a permis de faire des hypothèses sur les raisons épistémologiques qui ont conduit à envisager de façon non intégrative ces trois domaines. Or, il apparaît que leur articulation dans un ensemble cohérent est nécessaire pour envisager les grandes lignes d'une grammaire discursive effectivement fonctionnelle. Mais avant d'aborder ce qui sera notre dernière partie, il est intéressant de rappeler brièvement quels regards portent didacticiens et psychologues cognitifs sur ces difficultés articulatoires héritées de la linguistique. Nous ne ferons évidemment pas ici un historique de l'évolution des méthodologies didactiques concernant la grammaire, que ce soit pour le FLE ou le FLM. Notre objectif est ici de cadrer les propositions faites en dernière partie en soulignant certaines difficultés essentielles rencontrées dans le domaine de l'apprentissage / enseignement de la grammaire, mais aussi en établissant des repères cognitifs permettant de baliser le cheminement réflexif.
+Nous avons déjà évoqué en introduction la perplexité que génère chez les grammairiens de FLE la tripartition hétérogène du domaine grammatical, perçue comme un éclatement difficilement conciliable entre les pôles syntaxique, énonciatif et textuel. Vigner (2004, 85) formule ainsi une difficulté théorique que Besse et Porquier relevaient déjà vingt ans auparavant :
+ +« Cette extension du champ grammatical à l'ensemble des manifestations de la prise de parole, à l'échange conversationnel ou aux différentes formes d'écriture, peut inquiéter toute personne soucieuse de rigueur dans la description des faits de langue. De nombreuses descriptions, dans tout ce qui se situe dans l'au-delà de la phrase, ou qui sont en relation avec le sujet énonciateur, restent parfois trop ponctuelles ou trop spécifiques à un domaine d'usage pour pouvoir être généralisées à d'autres. Aussi serait-on tenté de partager le point de vue d'H. Besse qui notait que : « ces descriptions, nouvelles mais encore très parcellisées, sont beaucoup plus présentes dans les discours des linguistes et des théoriciens de l'enseignement / apprentissage des langues que dans les manuels et les pratiques de classe, probablement parce qu'elles ont très peu rénové les connaissances morphologiques traditionnelles ou structurales [...] » Besse 1984, 20. » (Vigner 2004, 85) .+
Nous avons exploré précédemment les raisons qui ont fait que les connaissances morphologiques (et morpho-syntaxiques) traditionnelles ou structurales ont été peu rénovées par les apports énonciatif et textuel. On verra aussi plus loin que les contributions de ces deux derniers domaines sont aujourd'hui loin d'être parcellaires, mais empiètent de plus en plus sur le domaine prétendument décontextualisable de la grammaire, comme la définition lexicale ou le fonctionnement de la phrase même.
+ +Les didacticiens du FLM ont abordé de façon plus frontale cette problématique que ne l'ont fait les spécialistes de FLE. C'est donc dans le champ de la didactique du FLM que l'on rencontre les avancées les plus nettes (cf. Vigner 2004, 86 et surtout Garcia-Debanc et al. 2001) . Maingueneau (2001, 16) rappelle que l'enseignement actuel en FLM « associe traditionnellement une analyse de la langue hors contexte, qui se tient en général dans les limites de la phrase et que l'on a pris l'habitude de nommer "grammaire" [...] et que l'on met en contraste avec des activités centrées sur l'étude et la production de textes. » Dans cette dernière perspective, qui donne « tout son poids à la notion de discours », le langage est conçu « comme activité, comme interactivité », tant au niveau du champ énonciatif qu'au niveau de la constitution structurale des textes. Il ajoute que « la difficulté pour les didacticiens est de gérer cette double polarité ». Comment en effet articuler les activités grammaticales et les activités liées aux textes, au « discours » ? D'autre part, dans le sens d'une nécessaire mise en question de l'hypertrophique fonction référentielle (dénoncée plus haut au point 2.), Maingueneau constate :
+ +« le sort exceptionnel qui est réservé [au « maître-mot » discours] tient aussi au fait qu'il permet de contester les conceptions "représentationnistes" du langage jusqu'alors dominantes en linguistique comme en didactique des langues. »+
Il n'est guère étonnant de retrouver sur le versant didactique des questions similaires à celles qui préoccupent les linguistes. En deux mots, comment intégrer dans un cadre commun l'héritage structuraliste et les "échappées paradigmatiques" énonciatives et textuelles?
+ +En FLE, la question de la sélection et de la présentation des contenus grammaticaux dépend davantage de postulats méthodologiques d'enseignement / apprentissage (cadre audio-visuel, programme notionnel / fonctionnel et méthodes communicatives, (cf. Puren 1988, Germain / Netten 1995) que du résultat d'une réflexion particulière sur le fonctionnement du langage et sur le statut de la grammaire par rapport aux « évolutions » des descriptions linguistiques (Puren 1988, 8) ou aux « courants » énonciatifs et pragmatiques (Cuq 1996, 125) . Mais si l'on a précisément pour objectif de ne pas noyer les apprenants par un métalangage abscons ou des descriptions grammaticales contre-intuitives ou même fausses, options notoirement contre-productives en FLE, il paraît utile de se poser la question de la formulation des contenus grammaticaux en amont de celle de leur didactisation telle qu'elle est actuellement envisagée. Une re-marque de Besse et Porquier permet d'illustrer une de nos conclusions personnelles, tant au niveau de la description grammaticale que de l'enseignement du FLE : celle de se donner comme postulat de travail d'établir un lien nécessaire entre la situation d'énonciation et le fonctionnement grammatical du langage :
+ +« Le grammairien classique ne tient pas compte du contexte discursif dont l'énoncé est extrait, ni plus largement de la situation de communication pour laquelle il a été conçu. [...] Et bien qu'adolescents et adultes soient, en principe, capables de saisir ce fonctionnement, nombre d'entre eux résistent, souvent non consciemment, à cette dissociation imposée par l'activité réflexive grammaticale traditionnelle entre l'énonciateur, ses conditions d'énonciation et de réception, et l'énoncé lui-même, simplement parce que cette dissociation n'est pas habituelle, "naturelle", dans l'usage ordinaire des langues [...]. » (Besse / Porquier 1984, 19)
+ +L'articulation essentielle de la grammaire et des pôles énonciatifs / textuels est d'autant plus cruciale en didactique que les apprenants ne perçoivent pas intuitivement "l'existence" d'une langue décontextualisée - si tant est que l'on arrive à démontrer en linguistique le bien-fondé de ce postulat, qui ne relève pas de l'évidence première. Pourtant, depuis la parution de l'ouvrage de Besse / Porquier, il ne semble pas que l'on puisse observer de modification notoire concernant la décontextualisation grammaticale (cf. Vigner 2004, 82) .
+ +Les approches communicatives n'échappent pas à cette dichotomie épistémologiquement explicable mais peu fondée cognitivement. Gaonac'h remarque dans ce sens que
+ +« le "communicatif" présente ainsi fréquemment une connotation oppositionnelle (sinon contradictoire) avec le linguistique. Ceci est particulièrement crucial lorsqu'on traite de la "compétence de communication", qui peut apparaître comme une compétence sans lien avec une compétence linguistique (c'est-à-dire portant sur le code linguistique). Cette dichotomie pose problème au psychologue, tout d'abord sur un plan théorique très général. Si langage et communication sont ontologiquement liés, d'un point de vue fonctionnel, on ne voit pas ce qui peut justifier de les étudier séparément, de les mesurer séparément (tests de compétence de communication), de les enseigner séparément (exercices communicatifs). » (Gaonac'h 1991, 177)+
Vigner regrette l'hétérogénéité existant en linguistique et l'absence de « grande théorie dominante en langue qui permettrait, d'un coup de baguette magique, d'organiser en une totalité cohérente tout le pay-sage linguistique à parcourir. » (Vigner 2004, 157) . En l'absence d'une fée, ou plus prosaïquement d'un paradigme de travail établi, pour « organiser la cohérence » et élaborer une description fonctionnelle et prédictive en FLE, il nous semble judicieux de naviguer au plus près de ce que l'on sait des processus de traitement cognitif du langage, et particulièrement ici des processus de production de texte.
+ +Pour la production monologique (orale ou écrite), que l'on peut considérer comme étant cognitivement plus complexe à gérer que l'échange dialogué, Fayol (1997, 84) met en évidence deux domaines de gestion des informations en mémoire de travail. Il s'agit pour le producteur de gérer en parallèle d'une part la linéarité de l'émission linguistique et l'élaboration d'un plan de texte, en relation avec le contenu référentiel ; d'autre part, « la situation de production elle-même (les contraintes liées à la situation d'énonciation) et la prise en compte du destinataire ». On retrouve là, au coeur des processus de traitement du langage, ces trois axes qui doivent selon nous être impérativement intégrés et articulés si l'on vise une grammaire adaptée à la production, notamment en FLE. Ces processus reposent sur l'acquisition de routines, dont on peut mettre en évidence l'installation progressive pendant l'enfance et l'adolescence (Fayol 2001, 306ss), une acquisition que l'on souhaite évidemment favoriser par l'enseignement. On peut définir ces routines de traitement mental en termes de stratégies de repérages d'indices congruents appartenant à des catégories variées (de dimensions et de natures diverses : outils grammaticaux, lexique). L'acquisition de ces routines consiste donc à mettre en place dans la mémoire à long terme des schémas correspondant à des "blocs de connaissance" concernant le fonctionnement du langage (cf. Fayol et al. 1992, 74ss) . Pour une meilleure efficacité didactique, la description linguistique doit s'efforcer de correspondre au mieux à ce que l'on sait des processus de traitement mental des discours, quitte à remettre en question des habitudes descriptives balisées par des grilles catégorielles réductrices.
+Sur la base de ces postulats, on peut résumer en un schéma les trois dimensions complémentaires à prendre en compte. Ce schéma général ne surprendra personne en ce qui concerne la gestion du texte, envisagé en tant que « discours ». On y retrouve en effet les trois pôles progressivement mis à jour par l'exploration linguistique du fonctionnement du langage.
+ + +Il nous semble nécessaire de souligner deux caractéristiques essentielles de l'articulation de ces dimensions. D'une part, aucune des trois n'est plus importante que les autres : comme on l'a montré plus haut, la surpondération accordée traditionnellement à la fonction référentielle était artificielle. D'autre part, ces trois dimensions sont indissociables, au sens où elles ne peuvent pas entrer en contradiction entre elles dans un texte cohérent et en dehors d'un jeu langagier. Ce lien de cohérence est symbolisé dans le schéma par les doubles flèches, liant chaque dimension aux deux autres. Pour la compréhension des textes, comme pour la prédiction en FLE, on peut alors s'appuyer sur cette cohérence multi-dimensionnelle et développer des stratégies de repérage d'indices congruents relevant simultanément de ces trois dimensions. Ces faisceaux d'indices peuvent permettre de faciliter et de justifier des choix interprétatifs ou productifs. Ainsi que le souligne Gaonac'h :
+ +« Les stratégies de repérage d'indices peuvent être considérées comme des stratégies de communication, dans la mesure où elles consistent à élaborer des hypothèses qui sont supportées en fait essentiellement par des connaissances préalables (de contenu ou formelles) supposées partagées par l'auteur et le lecteur. » (Gaonac'h 1991, 177)+
Dans ce contexte épistémologique, il semble alors justifié de militer pour une grammaire textuelle, dont il faut définir bien sûr les modalités en fonction du niveau des apprenants, mais dont le principe paraît acquis. La compréhension du fonctionnement du langage passe par une acquisition du fonctionnement du texte :
+ +« Produire un discours est, d'une certaine façon, plus facile que de produire une phrase, les contraintes discursives, si elles sont maîtrisées suffisamment, pouvant constituer une aide dans la construction des phrases. » (Gaonac'h 1991, 186)+
On se trouve donc là en opposition totale avec la grammaire traditionnelle, qui s'ouvre généralement par l'étude des groupes syntaxiques (GN, GV...) et se limite souvent à la phrase.
+ + +Au terme de cet article, nous entrons ici dans la partie qui paraîtra probablement la plus surprenante, dans la mesure où elle remet en question la formulation bien établie des significations lexicales et grammaticales. La plupart du temps de façon explicite, on admet pour les outils grammaticaux des signifiés renvoyant avant tout à un contenu dénotatif (référentiel). Ainsi, la fonction des pronoms est de renvoyer au référent installé dans le modèle mental par leur antécédent, les temps verbaux renvoient avant tout à du temps "physique" (fonctions temporelles et / ou aspectuelles), les adverbes et les conjonctions se définissent d'abord par leur contenu sémantique. Quant à la phrase, elle est bien formée si elle est référentiellement cohérente, et elle est généralement envisagée selon un modèle de construction syntaxique standardisé et présenté comme "neutre" par rapport à d'autres constructions "énonciativement marquées" (comme si toute production linguistique n'était pas marquée par la situation d'énonciation, même celles qui se veulent les plus standardisées). Concernant le lexique, sa fonction première est évidemment référentielle aussi, et s'il est marqué énonciativement, on restreint cette fonction aux registres de langage (populaire, familier, standard et soutenu / littéraire). Parallèlement, si l'on veut signaler certaines fonctions énonciatives ou textuelles de ces domaines linguistiques, on le fait dans un second temps et surtout sans relier ces fonctions sémantiques secondaires au signifié des éléments linguistiques déclencheurs de ces effets desens. À charge pour l'apprenant de tenter une homogénéisation de l'ensemble (Vigner 2004, 86). C'est ainsi que se constitue une catégorie énonciative hétérogène : les registres histoire / discours des temps verbaux, les registres de langage (familier, soutenu...), les modalités, le repérage de la polyphonie, comme le discours indirect libre par exemple, les actes de langage... Au niveau textuel règne la même hétérogénéité.
+ +« Comment en effet faire comprendre aux élèves que, lorsqu'il s'agit de l'analyse des textes, il peut être utile de regrouper sous la même étiquette de connecteurs un vaste ensemble d'expressions que la grammaire de phrase range dans des catégories différentes (conjonctions, adverbes, groupes prépositionnels, interjections) ? » (Charolles / Combettes 2001, 119)+
De la même façon, le traitement textuel de l'anaphore regroupe diverses catégories que « la taxinomie grammaticale distingue soigneusement » (ibid.). (Charolles / Combettes 2001, 119).
+ +Nous avons vu plus haut qu'une entrée discursive dans la grammaire était justifiée cognitivement. On voit ici qu'elle est fondée aussi dans la perspective d'une présentation homogène des catégories d'expressions linguistiques. L'homogénéisation des trois fonctions essentielles à articuler dans l'usage du langage peut être efficacement complétée par l'exploitation du schéma sémantique proposé plus haut à tous les niveaux fonctionnels. On fait là l'hypothèse que ces fonctions cognitives fondamentales dans la gestion du langage s'articulent pour organiser les signifiés des expressions linguistiques au niveau syntaxique (temps verbaux, connecteurs, constructions phrastiques...), mais aussi plus largement au niveau lexical. Dans le cadre restreint de cet article, nous nous limiterons à illustrer de façon sommaire l'intérêt descriptif de cette intégration sémantique.
+ +Notre parcours exploratoire du fonctionnement des temps verbaux (Barbazan 2002, 2004, 2006...) nous a conduite à envisager un signifié pour les formes verbales similaire à celui que nous avons proposé plus haut pour le texte. Cette représentation sémantique est inspirée de la proposition de Le Ny (1979), qui nous séduit autant par sa rigueur que par sa souplesse de fonctionnement puisqu'elle permet de rendre compte de l'émergence des variations sémantiques contextuelles tout en définissant un invariant conceptuel (cf. Barbazan 2006, 133ss) . Le choix de cette représentation sémantique a bien sûr été motivé par une exploration de l'éventail des valeurs contextuelles très diverses prises par les temps du passé, notamment. Cette exploration était d'une part guidée par notre activité d'enseignement du FLE, en Allemagne comme en France, et d'autre part par le refus de tout a priori théorique concernant le sens fondamental des temps (notamment l'adoption onomasiologique d'un paradigme temporel, aspectuel ou au contraire énonciatif, cf. Weinrich 1973). La conclusion générale de cette étude préalable et nécessaire à l'adaptation grammaticale a été que les temps verbaux distribuent leurs valeurs sémantiques selon trois axes : fonctions référentielle, énonciative et textuelle, irréductibles les unes aux autres. En d'autres termes, si les temps verbaux servent effectivement à référer à du temps (chronologique ou aspectuel), ainsi que le prévoit de façon hypertrophiée la perspective traditionnelle, ils sont aussi porteurs d'indices concernant la situation énonciative (Barbazan 2002, 2006, 2007b) et servent à démarquer des parties de texte. Dans cette perspective par exemple, le choix exclusif entre le passé composé (ou passé simple) d'une part et l'imparfait d'autre part peut s'expliquer par une situation en début de 'paragraphe' (séquence ou épisode) pour les deux premiers, qu'il faut opposer à la fonction de cohésion intra-séquentielle pour l'imparfait (Barbazan 2006, 343ss) . Une description traditionnelle focalisée exclusivement sur le temps ou l'aspect ne permet pas de rendre compte des contextes énonciatif et textuel, surtout dans une perspective de didactique du FLE (Barbazan 2007a, à paraître b et c) .
+ +Nous entendons par connecteur une classe couvrant diverses catégories hétérogènes de la grammaire traditionnelle (adverbes, conjonctions, groupes prépositionnels, interjections...). Que les connecteurs jouent un rôle essentiel dans la gestion de la structure textuelle ne fait plus de doute aujourd'hui, rôle évidemment en relation avec leur contenu référentiel. En corrélation avec cette fonction textuelle, ils ont aussi un rôle énonciatif. Certains indices, comme le changement de place syntaxique, ou l'environnement sémantique permettent d'activer certains traits du signifié, relevant de telle ou telle dimension de sens (cf. Le Ny 1979, 181ss) : ainsi, l'adverbe bien peut être "adverbe de manière", c'est-à-dire activer au premier plan son sens référentiel (J'ai bien dormi). Il peut devenir "modalisateur" énonciatif (À force de s'acharner, il a bien fini par avoir son bac Æ effectivement), avec dans ce cas une variation de contenu dénotatif. Il peut aussi, en début de partie de texte, marquer une charnière de la structure textuelle (Bien, après cette partie préliminaire, passons au vif du sujet).
+ +Une conjonction comme et, envisagée généralement dans une perspective phrastique, joue aussi un rôle textuel, par exemple comme signal de reprise vocale du narrateur après un fragment au discours indirect libre (Bally, repris par Vuillaume 2000, Barbazan 2008 à paraître a) . On peut aussi lui trouver des emplois pour lesquels la dimension énonciative est mise en avant : utilisé dans un texte de façon particulièrement répétitive, il peut être un indice d'une production d'enfant.
+ +Faute de place, nous ne développons pas la multi-fonctionnalité des pronoms, ni de la syntaxe phrastique. On trouvera cependant dans Confais (2001) une illustration convaincante du rôle textuel de la pronominalisation comme marquage cohésif, à l'intérieur d'une unité textuelle, opposée à la renominalisation (le réemploi du nom) située aux charnières structurales dont elle est un indice. Ce rôle justifie que les pronoms soient inclus dans la classe des connecteurs. Parallèlement, de nombreux emplois sont motivés par un choix énonciatif (le choix de nous pour je dans cet article par exemple). Quant à la phrase, l'analyse de sa structure syntaxique peut être interprétée tant au niveau énonciatif que textuel. Dans le premier domaine s'intègrent tous les phénomènes de segmentation, ou de topicalisation, notamment. L'analyse énonciative de la syntaxe phrastique peut être mise en corrélation avec le genre de texte ou le type séquentiel dans lequel elle se situe. Et dans le domaine textuel, on trouve aussi les phénomènes débordant le cadre phrastique, comme les constructions détachées décrites par exemple par Charolles et Combettes, dans leur article déjà cité (2001, 129).
+La grammaire traditionnelle adopte une attitude ambiguë au regard du lexique. D'une part, on considère qu'il est connexe au domaine qu'elle couvre, et ne concerne donc pas au premier chef le grammairien, mais d'autre part, l'étude des registres de langage (familier, littéraire...), qui passe par le lexique, est généralement envisagée dans les grammaires actuelles. Si l'on veut cependant favoriser l'acquisition de routines de compréhension et de production de textes - en incitant les apprenants à mettre en corrélation sémantique des faisceaux d'indices congruents - il est alors nécessaire de relier l'emploi du lexique à celui des "outils grammaticaux" traditionnels, en relation aussi au domaine textuel (cf. Barbazan 2007b pour une application dans un objectif de didactique en FLE à l'emploi de temps verbaux).
+ +Par ailleurs (ainsi que nous l'avons suggéré au point 3.1.), les conclusions de l'étude de Kerbrat-Orecchioni (1997) vont dans le sens de l'inscription effective d'une dimension énonciative au sein du signifié d'une catégorie lexicale, marquée par un trait [+subjectif], la catégorie des subjectivèmes. Cette dimension énonciative est conjointe à la dimension dénotative (référentielle).
+ +++« Ces substantifs cumulent deux types d'informations, d'ailleurs indissociables :
++
+- une description du dénoté
+- un jugement évaluatif, d'appréciation ou de dépréciation, porté
+sur ce dénoté par le sujet d'énonciation. » (Kerbrat-Orecchioni 1997, 73)
+
Entre autres qualités, que nous ne pouvons pas reprendre ici, ces termes
+ +« sont à éliminer d'un discours à prétention d'objectivité, dans lequel le locuteur refuse de prendre position par rapport au dénoté évoqué. [C'est pourquoi ils] peuvent être considérés comme comportant un trait sémantique [+subjectif] » (Kerbrat-Orecchioni 1997, 73) .+
Logiquement, et en corrélation avec l'adoption de ce trait [+subjectif] pour certains termes (toutes catégories lexicales confondues), on peut prévoir un trait [-subjectif] pour d'autres. Ces derniers, souvent décrits comme "neutres", alors qu'ils sont aussi dénotatifs d'une attitude énonciative que les subjectivèmes, sont privilégiés par exemple dans les rapports de police. On voit par cet exemple se profiler la possibilité de mettre en relation la "couleur énonciative" d'un terme lexical avec un mode de textualisation privilégié, en relation avec la caractérisation des genres. Il faut bien sûr se méfier ici de la caricature descriptive, péchant par excès de systématisation et source de surgénéralisations inévitables pour les apprenants.
+ +Dans cette perspective, les traits correspondants aux registres de langue (bagnole vs voiture) sont à inscrire dans la dimension énonciative, de même que peut l'être toute trace d'une appartenance de l'énonciateur à une classe idéologique marquée dans le lexique, ou la trace d'une représentation du récepteur pour le locuteur et de leur relation particulière, associée à un "choix de vocabulaire".
+ +Au terme de ce parcours rapide, privilégiant un cheminement épistémologique pour souligner le paradoxe cognitif que représentent les difficultés d'intégration du champ traditionnel de la grammaire aux "débordements paradigmatiques" de la linguistique énonciative et textuelle, il nous paraît cohérent de souhaiter fortement l'émergence d'une grammaire discursive, ancrée dans le texte et l'énonciation. L'adoption d'un mode descriptif tri-dimensionnel des "outils" lexicaux et grammaticaux nous semble tout aussi justifiée. Ces principes descriptifs étant posés, il reste évidemment à formuler le détail du parcours grammatical.
+ +Sur le plan de la modélisation linguistique, après avoir été longtemps à l'étroit dans un paradigme immanentiste et phrastique, on risque subitement d'avoir l'impression de disposer d'un cadre de travail élargi au point de poser des problèmes de "remplissage" descriptif pour les nouvelles dimensions postulées au sein des signifiés. Ces questions se posent notamment pour les termes les plus faciles à gérer dans le cadre saussurien. Il semble difficile par exemple de définir un caractère énonciatif ou textuel particulier au mot escalier. Probablement parce que ce terme est recevable quels que soient la situation d'énonciation ou le texte envisagés. Mais le bénéfice intégratif de cette représentation sémantique paraît tout de même suffisant pour que l'on explore un espace descriptif cognitivement fondé, à la fois dans ses possibilités d'élargissement, mais aussi dans les interrogations que posent ces dernières.
+ +Notre dernier mot ne peut aller que dans le sens d'un plaidoyer pour une meilleure interaction entre ces trois disciplines que sont la psychologie cognitive, la linguistique et la didactique (Barbazan, à paraître d). La première propose des repères qui doivent être impérativement pris en compte par les linguistes soucieux de descriptions cognitivement recevables et a fortiori par les didacticiens. On peut espérer que ce fond cognitif commun justifie alors une réelle interaction entre une linguistique non colonialiste et une didactique confiante en son intégrité.
+Arditty J. / Vasseur M.-T. (1999). Interaction et langue étrangère. Langages n°134. Adam J.-M. (1992). Les textes : types et prototypes. Paris : Nathan. Adam J.-M. (1999). Linguistique textuelle. Des genres de discours aux textes. Paris : Nathan. Barbazan M. (2002). Le discours indirect libre : éléments cognitifs de décodage et implications dialogiques pour le
+ +signifié de l'imparfait. Nouveaux Cahiers d'Allemand 20 / 1, 65 - 91.
+ +Barbazan M. (2004). L'interaction entre modélisation linguistique et modélisation psycholinguistique : l'apprentissage des temps verbaux du français par des apprenants germanophones. Thèse de Doctorat. Toulouse, Université de Toulouse-Le Mirail.
+ +Barbazan M. (2006). Le temps verbal. Dimensions linguistiques et psycholinguistiques. Toulouse, Presses Universitaires du Mirail.
+ +Barbazan M. (2007a). Les temps verbaux du passé : quelle didactique pour le FLE ? Repères linguistiques et cognitifs. Actes du colloque Didcog 2, 19 - 21 septembre 2007, Université de Toulouse-Le Mirail.
+ +Barbazan M. (2007b). Le trait [+/- allocutif] : un principe explicatif de l'opposition du passé simple et du passé composé. Romanische Forschungen 2007 / 4, n°119, 429 - 463.
+ +Barbazan M. (à paraître a). De la psycholinguistique à la stylistique : discours indirect libre et polyphonie en contexte. A paraître dans l'Information Grammaticale, octobre 2008.
+ +Barbazan M. (à paraître b). Héritage / acquis grammatical, métalangage, activités grammaticales : quelles options didactiques pour une description du système verbal en FLE ? Colloque International Enseigner les structures langagières en FLE. Bruxelles, 20 - 22 mars 2008, Université Libre de Bruxelles.
+ +Barbazan M. (à paraître c). De la grammaire explicite à l'intériorisation : une question d'adéquation linguistique, didactique et cognitive. Article en cours d'examen par la revue PArole.
+ +Barbazan M. (à paraître d). Modèles explicatifs, modèles prédictifs : pour une interaction effective entre linguistique et cognition. Article en cours d'examen par la revue Cahiers Chronos.
+ +Benveniste E. (1966). Problèmes de linguistique générale. Tome I. Paris : Gallimard.
+ +Benveniste E. (1974). Problèmes de linguistique générale. Tome II. Paris : Gallimard.
+ +Berrendonner A. (1981). Éléments de pragmatique linguistique. Paris : Éditions de Minuit, coll. Propositions.
+ +Besse H. / Porquier R. (1984). Grammaires et didactique des langues. Paris : Hatier.
+ +Bruner J. S. (1983) Le développement de l'enfant : savoir faire, savoir dire. Paris : PUF.
+ +Confais J.-P. (2001), Modèles textuels et cognition. Aspects psycholinguistiques de la compréhension des textes. Garcia-Debanc C. et al. (2001). 155 - 174.
+ +Charolles M. / Combettes B. (2001) de la phrase au discours : rupture et continuité. Garcia-Debanc C. et al. (2001).119 - 142.
+ +Cuq J.-P. (1996). Une introduction à la didactique de la grammaire en français langue étrangère. Paris : Didier.
+ +Denhière G. (1984). Il était une fois... Lille : Presses Universitaires de Lille.
+ +Dubois D. et al. (1993). Sémantique et cognition. Catégories, prototypes, typicalité. Paris : CNRS Editions.
+ +Ducrot O. (1991). Dire et ne pas dire. Paris : Hermann.
+ +Fayol M. (1994 / 1985). Le récit et sa construction. Une approche de la psychologie cognitive. Lausanne : Delachaux et Niestlé.
+ +Fayol M. (1997). Des idées au texte. Psychologie cognitive de la production verbale, orale et écrite. Paris : PUF.
+ +Fayol M. (2001). Produire des textes à l'écrit. Un état des recherches psycholinguistiques. Garcia-Debanc C. et al. (2001). 305 - 318.
+ +Fayol M. et al. (1992). Psychologie cognitive de la lecture. Paris : PUF.
+ +Fuchs C. / Le Goffic P. (1992). Les linguistiques contemporaines. Repères théoriques. Paris : Hachette.
+ +Garcia-Debanc C. /Confais J.-P. /Grandty M. (2001). Quelles grammaires enseigner à l'école et au collège ? Discours, genre, texte, phrase. Toulouse : Delagrave /CRDP Midi-Pyrénées.
+ +Gaonac'h D. (1991). Théories d'apprentissage et acquisition d'une langue étrangère. Paris : Didier
+ +Gaonac'h D. / Larigauderie P. (2000). Mémoire et fonctionnement cognitif. La mémoire de travail. Paris : Colin.
+ +Germain C. / Séguin H. (1995). Le point sur la grammaire. Paris : CLE International.
+ +Jacques F. (1985). Dialogiques II. L'espace logique de l'interlocution. Paris : PUF.
+ +Kerbrat-Orecchioni C. (1997 / 1980). L'énonciation. De la subjectivité dans le langage. Paris : Colin.
+ +Kleiber G. (1997). Sens, référence et existence : que faire de l'extra-linguistique ? Siblot P. (éd.) Langue, praxis et production de sens. Langages 127, 9 - 37.
+ +Le Ny J.-F. (1979). La sémantique psychologique. Paris : PUF.
+ +Maingueneau D. (1993). Eléments de linguistique pour le texte littéraire. Paris : Dunod.
+ +Maingueneau D. (2001). Le recours à la notion de discours en didactique. Quelques réflexions. Garcia-Debanc C. et al. (2001). 15 - 22.
+ +Mondada L. / Pekarek Doehler S. (2000). Interaction sociale et cognition située : quels modèles pour la recherche sur l'acquisition des langues ? Acquisition et Interaction en Langue Étrangère n°12 (en ligne)
+ +Puren C. (1988). Histoire des méthodologies de l'enseignement des langues. Paris : Nathan.
+ +Rosier L. (1999). Le discours rapporté. Histoire, théories, pratiques. Paris / Bruxelles : Duculot.
+ +Véronique D. / Vion R. (eds.) (1995). Modèles de l'interaction verbale. Publications de l'Université de Provence.
+ +Vigner G. (2004). La grammaire en FLE. Paris : Hachette.
+ +Vuillaume M. (2000). La signalisation du style indirect libre. Mellet S. / Vuillaume M. (éd.) (2000), Le style indirect libre et ses contextes. Cahiers Chronos 5. Amsterdam, Rodopi, 107 - 130.
+ +Vygotski L. (1997 / 1934). Pensée et langage. Paris : La dispute.
+ +Weinrich H. (1973). Le temps. Paris : Seuil, coll. Poétique.
+ +Weinrich H. (1982). Textgrammatik der französischen Sprache. Stuttgart : Klett.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Dans l'histoire de la terminologie grammaticale française, nous pouvons situer précisément l'apparition du terme de « complément ». Le terme de complément apparaît en 1747 dans Les vrais principes de la langue françoise de l'abbé Girard, dans l'expression de « complément du raport » (1747, vol. 1 : 75, vol. 2 : 181). Dumarsais emploie également le terme dans les différents articles qu'il écrit pour l'Encyclopédie ou dictionnaire raisonné des sciences, des arts et des métiers de Diderot et D'Alembert, il évoque notamment le « complément de la préposition » (Dumarsais, 1729 - 1756, article « accusatif » : 177). Beauzée, prenant la suite de Dumarsais, substitue le « complément » au régime dans l'article « Régime » (Encyclopédie, tome XIV : 5) puis il lui accorde une définition spécifique dans l'Encyclopédie Méthodique de Panckoucke (1782 - 1786, article « complément », tome I : 441 - 447). Il étend l'usage du « complément » dans sa Grammaire Générale (1767) en créant une typologie et une terminologie différenciées. Mais le terme ne se généralise pas d'emblée, et son prédécesseur, le « régime », perdure.
+Pour autant, il n'est pas vrai que le phénomène de la complémentation verbale n'est pas décrit auparavant. L'idée d'un syntagme qui complète le sens du verbe et qui en dépend syntaxiquement, est présente dans le discours des grammairiens avant l'apparition du terme en 1747. En effet, la catégorie fonctionnelle de « complément » apparaît partiellement, sous d'autres termes et d'autres concepts. Le « régime », notion provenant de la tradition des grammaires latines, joue ce rôle depuis les premières grammaires du français jusqu'au milieu du 19e siècle. C'est aussi le cas du « modificatif » chez Buffier (1709) reposant sur l'opération de « modification », notion interférant avec celle de la « particularisation » réalisée par le « régime », ou encore du « déterminant » et de la « détermination » chez Dumarsais (1729 - 1756). Autrement dit, l'apparition du terme ne coïncide pas avec l'invention de la catégorie moderne, qui s'élabore dans la longue durée à partir de concepts autres.
+Face à ces deux constats :
+on peut se demander dans quelle mesure l'émergence de la notion de complément est une « invention ».
+La notion d' « invention » est définie comme l'« acte de trouver quelque chose ; (la) production d'idées ou de choses nouvelles, par combinaison nouvelle des moyens en vue d'une fin. » (Auroux, 1990, Encyclopédie philosophique universelle, II les notions philosophiques, dictionnaire, vol. 1 : 1374). Autrement dit, l'invention correspond à la production d'une connaissance nouvelle. En outre, la notion d' « invention » s'oppose à la notion de découverte :
+Pour les réalistes (ou platoniciens) « invention » s'oppose à « découverte ». Ce dernier terme se dit, dans ce cas, de ce qui préexistait à la connaissance nouvelle. Chez les autres, les deux termes sont plutôt traités comme synonymes. (ibid.).+
Il est nécessaire de distinguer ici la découverte d'un fait (linguistique, interne à la langue) et la découverte d'une notion expliquant les faits (un savoir métalinguistique, une connaissance sur la langue). La notion d'invention est aussi à opposer à celle d' « innovation ». L' « innovation » consiste à stabiliser l'invention dans un espace social et à lui conférer le statut de connaissance scientifique.
+La différence entre les deux termes (qui échangent parfois leur valeur sémantique) provient de ce que toute invention ne se transforme pas en innovation (...). (Auroux, 1990, Encyclopédie philosophique universelle, II les notions philosophiques, dictionnaire, vol. 1 : 1313).+
Notre objectif est de rechercher en quoi le « complément » apparaît comme une connaissance nouvelle qui va se stabiliser dans le discours grammatical. En quoi est-il un savoir nouveau sur la langue ? Incidemment, cette question en soulève d'autres, dont celle du statut particulier de l'invention en sciences du langage, et de la relativisation de la notion de « progrès » dans la science grammaticale ; peut-on dire que le « complément » est mieux que le « régime » en tant qu'outil de l'analyse syntaxique?
+Nous proposons d'examiner ici un moment charnière dans l'histoire de la syntaxe : le passage du « régime » au « complément », en nous demandant dans quelle mesure l'émergence du « complément » apparaît comme une « invention ». Dans un premier temps, nous tentons d'identifier les traits de « nouveauté » du complément en comparant les deux notions. Dans un second temps, nous avançons comme élément de réponse principal que la construction du concept de complément ressortit en fait à l'évolution globale d'un faisceau de notions et de représentations grammaticales tenant à la structure de la proposition (la transitivité verbale, la notion de « genre verbal », le nombre et la forme des constituants dans le modèle propositionnel adopté).
+On peut définir un concept comme un complexe constitué d'une définition, manipulant un contenu idéel, impliquant parfois d'autres concepts, relié à une terminologie. On peut ajouter une série de faits auxquels la définition s'applique, eux-mêmes représentés par des exemples. Chacun de ces éléments se trouve être soumis à l'histoire, et le concept ne forme pas une entité de signification stable ou fixe. L'histoire du complément n'est pas l'histoire d'une invention ex nihilo mais c'est celle d'une construction longue et complexe, à partir de divers termes hérités ou forgés, et à partir d'autres notions provenant de la logique ou de la grammaire. Le « complément » se construit notamment en interférence avec le « régime ». C'est en relevant les points de convergence et les points de divergence que l'on observe le mieux la nouveauté existant entre les deux notions.
+Premièrement, il faut noter qu'aucun de ces deux termes ne provient du domaine spécialisé et technique de la logique (à l'inverse d'« attribut », « prédicat », ou « objet »).
+La notion de régime provient du vocabulaire de Priscien mais elle se développe au Moyen-Age :
+La notion médiévale de rection semble avoir pour origine l'idée d'exigence qui se trouve chez Priscien ; certains noms, par leur nature, exigent un cas oblique, comme fils demandant le génitif. (Rosier, 1983 : 139).+
Pierre Hélie explique ainsi que le terme de régir est employé pour désigner la relation du verbe au nominatif au moyen d'une métaphore militaire ; le verbe gouverne le nominatif comme le chef gouverne son armée (ibid., et Chevalier, 1968 : 55). Le régime est défini à l'aide de différentes images dont le point commun est l'idée d'un rapport de domination. Cependant, sa définition est variable et la notion n'est pas encore totalement stable au Moyen-Age. Alexandre de Villedieu emploie le terme de regimen dans le chapitre 8 du Doctrinale puerorum, associé à ceux de rector, regere et gubernare (Colombat, 1999 : 428 - 429). Le terme est traduit et emprunté directement par les premiers grammairiens du français. La dépendance au verbe est pensée en termes de « régime » et les fonctions sont décrites à l'aide du système des cas. L'idée que le verbe « gouverne » le nom qui le suit c'est-à-dire qu'il impose un cas à sa suite, s'implante solidement dans la grammaire française. Quelques grammairiens, comme Palsgrave (1530) ou Ramus (1562, 1572), tentent de différencier les types de régimes, ce qui est souvent visible par le traitement du pronom ou de la préposition et de l'adverbe. Le substantif « complément » n'apparaît lui qu'au milieu du 18ème siècle, de façon minoritaire au sein d'un réseau terminologique varié, séparé du traitement du verbe ou des fonctions, en lien avec la préposition pour désigner le syntagme qui la suit, qui lui est « conséquent ». Chez Girard, le terme apparaît au sein du discours II sur les parties d'oraison (vol. 1 : 75), puis du chapitre spécialement consacré aux prépositions (Girard, 1747, vol. 2 : 181). Les prépositions sont les manifestations du « propre génie de nôtre langue » qui suppléent aux cas (op. cit. : 180). Elles indiquent « un raport déterminatif » en lien avec les autres « parties d'oraison » (substantifs, pronoms, adjectifs, verbes et nombres) c'est-à-dire qu'elles servent à « restraindre l'étendue de leur acception » et leur permettent de « recevoir réciproquement diverses déterminations de sens (...) » (op. cit. : 181). Le groupe qui suit la préposition est placé sous son régime « pour être le complément du raport et en former le sens entier » (Girard, 1747 : 181) comme dans tendre sans foiblesse, coquin à pendre, homme de rien, parler avec fermeté (ibid.). Le « complément du rapport » n'est pas plus amplement décrit, mais il apparaît clairement sous trois aspects essentiels. Premièrement, il est remarquable que la première occurrence du terme, connue à ce jour, de « complément » est liée à une définition de la préposition comme partie du discours incomplète, conception qui perdurera longtemps. Deuxièmement, elle est liée à une conception de la préposition comme forme rectrice. Girard explique bien que les mots qui la suivent sont sous son « régime » :
+Les prépositions doivent être toujours à la tête des mots qu'elles régissent, c'est-à-dire de ceux qui forment le complément du raport qu'elles indiquent. C'est même de cette place qu'elles ont tiré le nom qu'elles portent ; préposition signifiant dans l'étymologie un mot qui se place avant d'autres. (op. cit. : 234)+
Cependant, le « complément du rapport » ne prétend à aucune fonction logico-syntaxique, il est plutôt assimilé à une sous-division sémantique à l'intérieur de la fonction quelle qu'elle soit. En effet, sur le plan sémantique, on comprend que c'est la préposition, selon le « raport » qu'elle exprime, qui oriente le sens du complément. En somme, le « complément du raport » désigne la séquence post-prépositionnelle dont la forme et le sens sont dirigés par la préposition. Sous la plume de Dumarsais, l'expression de «complément de la préposition » apparaît à plusieurs reprises, dans différents articles de l'Encyclopédie (« Accusatif », « Article », « Adverbe », « Construction »). La préposition est considérée comme une partie du discours incomplète qui crée l'attente d'un autre terme à sa suite, comme chez Girard :
+Il est allé à, à n'énonce pas tout le sens particulier ; et je me demande où ? on répond, à la chasse, à Versailles, selon le sens particulier qu'on a à désigner. Alors le mot qui achève le sens, dont la préposition n'a énoncé qu'une partie, est le complément de la préposition, c'est-à-dire que la préposition et le mot qui la détermine, font ensemble un sens partiel, qui est ensuite adapté aux autres mots de la phrase en sorte que la préposition est, pour ainsi dire, un mot d'espèce ou de sorte, qui doit ensuite être déterminé individuellement : par exemple, cela est dans ; dans marque une sorte de manière d'être par rapport au lieu : et si j'ajoute dans la maison, je détermine, j'individualise, pour ainsi dire, cette manière spécifique d'être dans. (op. cit. : 458).+
La préposition impliquée par le verbe nécessite d'être complétée, mais elle n'est pas présentée comme soudée au verbe et c'est avec le mot qui la suit qu'elle forme un syntagme analysable en soi et par rapport aux autres groupes constituant la phrase. Ce syntagme prépositionnel se rapporte ensuite au verbe dont il restreint la signification. La complémentation du verbe s'effectue donc en deux temps. Elle prend forme tout d'abord par la préposition qui a un statut central ; nous voyons bien que c'est elle qui dirige le complément du point de vue syntaxique et sémantique. Ensuite, le groupe prépositionnel est mis en relation avec le verbe qui la précède. Ainsi, c'est le groupe entier, formé de la préposition suivie de son complément, qui joue un rôle logico-syntaxique dans la proposition. Dans l'exemple « Celui, qui me suit, dit J. -C., ne marche point dans les ténèbres», le groupe ne marche point dans les ténèbres est analysé comme l'attribut, comprenant le verbe avec une négation, suivi d'une modification du verbe marcher : dans les ténèbres, composé de la préposition dans et du « complément de la préposition » (1729 - 1756 : 451 - 452). Cet emploi du « complément » en lien avec la préposition est repris par Beauzée, et perdurera longtemps (Loneux 1799, Lévizac 1809, Bescherelle 1834, Burggraff 1863).
+En outre, le « régime » et le « complément » ont en commun de construire leur signification sur les concepts de « détermination », « modification » ou « particularisation ». Chez Buffier (1709) le « régime » est défini comme opérant une « particularisation » dans trois cas. Dans « le pasteur connoît ses brebis » ; « ses brebis » est le régime du verbe « parce que c'est l'objet qui particularise la signification du verbe connoît, marquant en particulier ce que le pasteur connoît » (ibid), dans « vous êtes savant », l'adjectif « savant sera le régime parce que savant particularise ici le verbe être » (ibid.), et dans « un ami de plaisir (...) la signification d'un ami est particularisée par le mot de plaisir » (op. cit. : 62). Le point commun de ces « régimes » est bien de « particulariser » la signification du mot auquel ils se rapportent :
+Tous les noms ou même tous les mots qui servent ainsi à particulariser la signification d'un autre mot sont le régime de ce mot (op. cit. : 61)+
La « particularisation » peut s'entendre comme la sélection d'un élément précis qui entraîne une restriction de l'ensemble des individus auxquels le sens du nom ou du verbe pourrait s'appliquer. Mais différentes unités ou syntagmes appelés « modificatifs » sont reconnus aussi comme réalisant une « modification » (en particulier adverbe, préposition, conjonction) Le modificatif indique une circonstance ou une « modification » du nom-sujet ou du verbe-attribut, et du point de vue de l'analyse syntagmatique, il constitue une expansion interne de chacun des groupes sujet et attribut (Buffier, 1709 : 9 : 49) comme dans « le zèle sans prudence agit témérairement » (op. cit. : 49). Dumarsais utilise lui la notion de « détermination » pour penser et décrire la complémentation. La notion de « détermination » est redéfinie et le rapport de détermination (vs le rapport d'identité) remplace la syntaxe de régime de Port-Royal, devenant alors le fondement des relations de dépendance (Dumarsais, 1729 - 1756 : 456 - 458). Lorsque le verbe est transitif direct, Du Marsais parle de « déterminant » du verbe :
+Il en est de même des verbes actifs : quelqu'un me dit que le roi a donné ; ces mots a donné ne font qu'une partie du sens particulier, l'esprit n'est pas satisfait, il n'est qu'ému, on attend, ou l'on demande, 1° ce que le roi a donné, 2° à qui il a donné. On répond, par exemple, à la première question, que le roi a donné un régiment : voilà l'esprit satisfait par rapport à la chose donnée, régiment est donc à cet égard, le déterminant de a donné, il détermine a donné. (op. cit. : 458)+
Cependant, Dumarsais mentionne aussi le terme de « déterminatif » (op. cit. : 515 - 516). Tous les compléments essentiels sont ainsi considérés comme des « déterminants » ou « déterminatifs » du verbe car il y a autant de déterminations que de questions que nous pouvons poser à propos de l'action :
+Un verbe doit être suivi d'autant de noms déterminans, qu'il y a de sortes d'émotions que le verbe excite nécessairement dans l'esprit. J'ai donné : quoi? et à qui? (Dumarsais, 1729 - 1756 : 460)+
On retrouve ici le verbe donner traditionnellement pris comme exemple pour différencier les deux types de régimes, direct et indirect, ainsi que les questions traditionnelles de repérage.
+La première définition du « complément » par Beauzée repose sur la notion de détermination :
+On doit regarder comme complément d'un mot ce qu'on ajoute à ce mot pour en déterminer la signification de quelque manière que ce puisse être. (Beauzée, 1782 - 1786, Encyclopédie Méthodique, Article « Complément », tome I : 441)+
Mais il lui accorde ensuite une signification générique ; le « complément » apparaît alors comme un concept englobant, s'étendant à de multiples faits de dépendance grammaticale :
+Le complément d'un mot est une addition faite à ce mot, afin d'en changer ou d'en compléter la signification. (Beauzée, 1767, Grammaire Générale, tome 2, « Du complément » : 44)+
On doit regarder comme complément d'un mot, ce qu'on ajoute à ce mot pour en déterminer la signification, de quelque manière que ce puisse être. (E.M., « complément » : 441).+
En somme, « Régime » et « complément » participent d'une même invention ; celle de l'élaboration de la catégorie fonctionnelle de complément, et d'une même description linguistique : celle du procédé de complémentation. De ce point de vue, le passage du « régime » au « complément » consiste en un simple remplacement d'une notion par une autre, sans caractère de nouveauté (hormis la création terminologique), sans véritable modification conceptuelle :
+Entre la première apparition de la notion de complément et l'utilisation de la notion de régime, il n'y a qu'une différence de nomination : le nom de complément est une invention des Lumières mais il n'y a pas d'article Complément dans l'Encyclopédie, B.E.R.M. s'explique sur cette absence dans l'article Gouverner (...) (Autrement dit) l'invention de la notion de complément apparaît comme une simple innovation terminologique : (...) (Auroux, 1973 : 64 - 65)+
Mais Beauzée invite à ne pas confondre les deux termes de « régime » et de « complément » (article « régime »). En effet, la naissance du « complément » marque un changement de perspective dans l'analyse, la notion se construisant également en opposition avec le « régime », issu de la tradition latine.
+Le régime est issu d'une conception de la dépendance syntaxique selon la « nature », le « pouvoir » des mots. Cette force se traduit par une modification morphologique. Le régime, dans la grammaire latine implique un cas, c'est-à-dire la modification morphologique, visible, du terme qui suit. « Régir » signifie alors impliquer un cas. Ce concept sert de support à la distinction entre deux types de syntaxe, distinction formulée et théorisée par Despautère, entre « la syntaxe de régime » et « la syntaxe de concordance ». La « Syntaxe de régime » définit l'emploi et la valeur des cas, et la « syntaxe de concordance » règle les questions d'accord. Ces deux pôles du domaine syntaxique demeurent dans la Grammaire Générale et Raisonnée de Port-Royal (1664 : 157 - 158), la « syntaxe de régime » recense les cas qui suivent les prépositions ou les verbes. A l'inverse, le « complément » n'est attaché à aucune considération sur le « pouvoir » des mots et ne renvoie à aucune modification morphologique imposée. Sous la plume de Beauzée, les définitions du « complément » évoluent et se détachent de la tradition latine pour prendre un sens grammatical générique. Le « complément » désigne ce qu'il évoque ; l'ajout d'un terme ou d'une séquence linguistique à la suite d'un autre, les deux unités entretenant une relation de dépendance ne correspondant pas à une opération logique précise ni à une modification morphologique casuelle. Inventer le complément revient en fait à refuser l'existence de cas pour les noms français (jusqu'aux Encyclopédistes les grammairiens du français décrivent une déclinaison des articles, noms et pronoms) et à fonder les bases d'une nouvelle syntaxe française, non plus sur la latine, mais sur les spécificités de la langue française. L'opposition entre syntaxe de régime et syntaxe de concordance est remplacée par la distinction énoncée par Dumarsais entre deux rapports syntaxiques entre les mots : le rapport de détermination et le rapport d'identité. Le rapport de détermination est marqué par l'ordre : mot déterminé/mot déterminant, et par les prépositions. Ce changement de perspective syntaxique entraîne, dans le discours des Encyclopédistes, la spécialisation du régime pour les langues casuelles et le délaissement des cas comme catégories de fonction, notions jugées inappropriées pour l'analyse du français.
+Par ailleurs, une autre différence observable entre le complément et le régime, est que la définition du complément par Beauzée s'accompagne d'une typologie spécifique nouvelle. Alors que le régime ne s'associait qu'à deux caractérisations (forme directe ou indirecte) régime absolu/respectif chez Buffier (1709 : 62 - 63), régime indirect ou relatif/direct ou absolu chez Restaut (1732 : 253, 256), le « complément » est le support d'une caractérisation multi-critères donnant lieu à des productions terminologiques foisonnantes au 19e siècle. L'évolution du réseau terminologique de la complémentation suit différentes étapes que nous ne pouvons détailler ici mais dont nous rappelons le mécanisme général. On note tout d'abord un transfert des caractérisations du régime vers le complément, ensuite les grammairiens inventent des qualificatifs spécifiques au complément (selon son sémantisme comme c'est le cas pour les circonstanciels de Beauzée, selon son caractère nécessaire ou non chez Domergue qui distingue les compléments éloignés et prochains), la terminologie du régime peut coexister avec celle du complément (engendrant des systèmes de désignation doubles ou plus complexes), avant que le complément ne devienne le principal nom de la catégorie au milieu du 19e siècle. Ceci s'explique par le fait que le « complément » reçoit un sens plus large que le « régime ». Entendu comme hyperonyme, le complément désigne des réalités plus larges que le régime, et recouvre tous les cas sauf le nominatif (accusatif, datif, génitif, ablatif). Aux yeux de certains grammairiens, comme Domergue, la notion de « complément » peut apparaître plus « pratique » pour cette raison. L'écueil de l'application de cette conception du « complément » est que le terme peut servir à désigner tout mot ou groupe de mots, attaché à l'unité qui le précède, comme chez Bescherelle.
+En somme, on distingue quatre stades, qui peuvent se chevaucher, dans le processus d'émergence de la notion de « complément ». Tout d'abord, la construction des notions préliminaires de « modification », « détermination », « particularisation », ensuite l'apparition du terme en lien avec une définition positionnelle spécifique liée à la préposition, cette phase est suivie de la définition du « complément » comme substitut du régime, puis de l'élargissement de sa signification vers un sens grammatical générique.
+Pour autant, la notion de complément est-elle plus utile, plus avantageuse, que celle de régime ? On peut apporter un élément de réponse à cette question en observant les modalités de réception de la notion de « complément » par les grammairiens de la fin du 18e siècle et du début du 19e siècle : quel succès reçoit-elle ? comment est-elle jugée par les grammairiens de cette époque ? Certains, lecteurs de l'Encyclopédie, l'adoptent rapidement et reconnaissent une importance à ce qu'ils jugent être une invention, mais ils sont isolés (Père François Xavier 1776, Thurot 1796, Domergue 1798, Silvestre de Sacy 1799). Chez Condillac et les Idéologues, la nouvelle catégorie n'est quasiment pas utilisée. Les auteurs de grammaires générales, connaissant les articles de l'Encyclopédie, ont tendance à l'intégrer, tout en conservant le régime pour certains, comme Thiebault (1802). Dans les années 1830 - 40 le complément tend à se généraliser dans les grammaires d'usage (Bescherelle, 1834, Boniface, 1843).
+Aux questions suivantes : qu'est-ce qui est nouveau entre le régime et le complément ? qu'est-ce qui change dans le passage du régime au complément ? Nous pouvons répondre que c'est la conception de la syntaxe (identité/détermination, abandon des cas), ce qu'a montré Chevalier (1968). Mais on peut avancer aujourd'hui une nouvelle hypothèse : c'est toute la représentation de la proposition dans la grammaire qui est en mouvement. En réalité, l'émergence du « complément » n'est pas un phénomène isolé, c'est le versant visible de l'évolution de la conception de la structure propositionnelle et de la prise en compte par les grammairiens du français de la problématique de la transitivité verbale.
+La question de la définition du complément versus celle de régime, est en relation avec celle de la représentation de la proposition dans la grammaire et avec celle du statut du verbe dans la structure propositionnelle.
+En effet, le verbe, dans le modèle propositionnel de la grammaire générale et raisonnée de Port-Royal, prend nécessairement la forme du verbe être à la troisième personne et au présent de l'indicatif, c'est le « verbe substantif » (GGR, 1845 [1664] : 47 - 48), il est suivi du participe présent (analysé comme « attribut ») (GGR, 1845 [1664] : 47). Cette structure pose différents problèmes dans l'analyse grammaticale. Premièrement, ce schéma propositionnel impose la réécriture de chaque verbe au moyen du verbe substantif. Dans les pratiques grammaticales, ceci se traduit par une réduction de tous les énoncés au modèle initial tripartite : sujet-est-adjectif/participe, et par une lecture attributive de la proposition. Deuxième point, corrélé au premier, ce modèle écarte l'analyse du verbe comme noyau de transitivité. On peut alors considérer le modèle tripartite comme un frein à l'émergence de la catégorie de verbe transitif, cette histoire étant inscrite de façon plus large dans celle du classement des «genres du verbe » hérités de la tradition latine. Celle-ci distingue les verbes actif, passif, neutre, commun et déponent, en se fondant sur la morphologie latine (l'opposition -o/-or) mais aussi sur le sémantisme lexical (action/passion) du verbe ou sa construction (le cas, la possibilité de transformation passive). Durant tout l'âge classique cette typologie des verbes se transmet de façon stable, les grammairiens reproduisant les principales catégories de verbe actif, passif, ou neutre, notamment la Grammaire Générale et raisonnée de Port-Royal, mais ce calque du modèle latin se réalise avec des transformations. En effet, l'opposition formelle étant absente en français, les définitions des catégories se centrent sur le critère sémantique, tandis que l'absence de cas conduit à identifier les classes à partir de la notion de régime puis de complément. L'évolution du modèle de classement des verbes s'articule clairement à l'émergence de la fonction de complément et à l'évolution de la structure propositionnelle. Ainsi, Beauzée (1767) inaugure la période de remise en question du système traditionnel des genres du verbe, en distinguant le verbe absolu (intransitif) du verbe relatif (transitif) en contrepoint de la différence entre compléments immédiat (direct) et médiat (indirect), et objectif, primitif ou relatif, secondaire. Cet ébranlement se poursuivra jusqu'à la fin du 19e siècle, moment où l'on distinguera la « voix » du verbe ou forme du verbe, de son sémantisme et de sa construction (Jullien, B., 1832, 1852 - 1854). Cette évolution est parallèle au processus de déconstruction de la structure propositionnelle tripartite érigée comme modèle par Port-Royal. Les grammairiens adoptent plusieurs positions allant de l'adoption pure et simple à la déconstruction totale. On propose ici une échelle théorique des réactions observées face au modèle propositionnel initial, sachant que ces positions ne se succèdent pas ; elles n'obéissent pas à une évolution linéaire mais illustrent différentes tendances dans le processus de déconstruction.
+Dans ce premier cas, le modèle propositionnel de la GGR est adopté sans modification, ce qui est particulièrement observable chez les Idéologues et les enseignants des Ecoles Centrales, l'institutionnalisation d'un programme d'Idéologie concourant à la stabilité et à la diffusion de la doctrine. Le verbe est identifié au verbe substantif, la typologie des « genres » du verbe est réduite à l'opposition de l'expression de l'action ou de l'état, comme chez Condillac. Condillac cite d'emblée les Messieurs de Port-Royal ainsi que Dumarsais (1775, Grammaire : 1) et conserve le modèle tripartite comprenant la décomposition du verbe. Ainsi, l'exemple qui suit « Corneille est poète » (ibid.) correspond à l'association d'un sujet et d'un attribut, qui sont « les signes des deux idées que vous comparez » (Condillac, 1775, Grammaire : 102), au moyen du verbe être qui demeure le « signe de l'opération de votre esprit qui juge du rapport entre Corneille et poète » (op.cit. : 103). Ce qu'il résume ainsi :
+Toute proposition est donc composée d'un sujet, d'un verbe et d'un attribut. (ibid.)+
L'analyse est identique au début du chapitre suivant :
+Considérons actuellement les trois termes d'une proposition. Le sujet et la chose sont on parle, l'attribut est ce qu'on juge lui convenir et le verbe prononce le rapport de l'attribut au sujet. Telles sont les idées qu'on se fait de ces trois sortes de mots. (op. cit. : 107)+
Le verbe est toujours décomposé en est suivi du participe présent, la proposition « s'exprime par conséquent avec trois mots ou avec deux équivalents à trois. Je parle par exemple est pour je suis parlant. » (op. cit. :03). Par ailleurs, Condillac ne propose pas de classement des verbes et simplifie le système à l'opposition entre verbe d'action et verbe d'état. Dans le chapitre VI « Du verbe » parmi les « Eléments du discours » (Condillac, Grammaire, 1775, p.160) on ne trouve aucune référence à la notion de transitivité. Les points présentés concernent les personnes, le temps, les modes, la conjugaison, et les formes composées. Le verbe être est « proprement le seul » (ibid.). Enfin, il ne parle pas de complément mais utilise la notion d'« accessoire » (op. cit. : 115) pour décrire les dépendances du verbe, ainsi que celle de « modification » (tome 2, Art d'écrire et de raisonner : 31).
+Dans ce second cas, le verbe substantif est conservé mais le complément est évoqué, comme un constituant supplémentaire dont les caractéristiques sont absconses. Deux cas de figure se présentent.
+i) le complément est mentionné et appartient à l'attribut, comme chez Serreau et Boussi (1824). Le modèle propositionnel prend la forme suivante : sujet-être-attribut-objet-adjoints : « Une proposition se compose nécessairement d'un sujet et d'un attribut lié au sujet par le verbe pur (...) ainsi dans cette proposition j'aime l'étude, je est le sujet, aime est l'attribut composé de suis aimant, l'étude est l'objet direct, c'est-à-dire le signe de l'objet sur lequel se porte directement l'action, ce que quelques grammairiens appellent complément (...) ». Or les grammairiens réservent le terme de complément au syntagme prépositionnel (complément du nom ou complément indirect du verbe) ou à la proposition complément d'une autre : « .. mais je ne veux appliquer cette dénomination dans ce sens qu'à une proposition qui devient l'objet direct d'une autre proposition logique. Hors de là j'appelle complément un mot précédé d'une préposition qui a pour antécédent le sujet ou l'objet direct ou indirect d'une proposition comme dans ces exemples une étincelle de feu a brûlé le pan de mon habit, obéissez aux ordres de vos chefs. » (op. cit., p. 358 - 359).
+ii) le complément est extérieur à l'attribut et se greffe au noyau tripartite, comme chez Domergue (1798). Domergue conserve en effet l'analyse tripartite de la proposition : sujet-verbe-attribut, il désigne ses trois composantes à l'aide d'une nouvelle terminologie formée sur le verbe juger en latin « judicare » : judicande - judicateur - judicat. Il ajoute ensuite à ce schéma une quatrième partie qui est le « complément » mais celui-ci ne s'applique pas au judicateur. Le complément apparaît comme un quatrième constituant, faisant suite aux trois autres. Cependant il semble parfois inclus dans le judicat, Domergue expliquant que c'est « le judicat qui contient le complément et le complément du participe » (op. cit., p. 17), le complément participant aussi de la « chose jugée ».
+Le fait est que le complément reçoit la plupart du temps une place ambiguë dans ces grammaires. Souvent, il n'est pas possible d'identifier sa place, les deux descriptions pouvant être disjointes (analyse de la proposition du point de vue grammatical/ du point de vue logique). Cette coexistence (indifférenciée) d'une structure propositionnelle attributive et d'une structure transitive, crée de nombreux problèmes dans l'analyse tels que celui de la détermination de la portée des compléments suivant le verbe : sont-ils compléments du verbe substantif, ou du participe (appelé aussi adjectif, modificatif ou modatif) tiré du verbe adjectif ? Soit les grammairiens séparent les compléments du verbe être et ceux du participe (sur le modèle de Condillac distinguant les accessoires du verbe et ceux de l'attribut) soit ils affirment que le verbe être se suffit à lui-même (comme Domergue), donc tous les compléments sont des compléments du participe.
+On observe une troisième attitude qui consiste à conserver la structure attributive originelle en parallèle de l'ébauche d'une structure transitive. Cette position est notable lors de la période de transition qui précède l'abandon du modèle initial, c'est-à-dire dans les grammaires générales tardives. Les grammaires générales du milieu du 19e siècle prolongent la grammaire générale de l'âge classique. Elles adoptent donc un modèle propositionnel majoritairement tripartite (ou augmenté) où la décomposition du verbe est acquise comme une évidence, elles reprennent aussi pour la plupart une division des mots inspirée de la GGR ou de Harris en un système binaire ou ternaire des classes de mots. L'intégration du complément est très nette chez certains (Caillot, Poitevin, Jullien, Lavielle, Leterrier) mais d'autres conservent le régime comme seule fonction (Jonain) ou comme synonyme du complément (Montémont, Poitevin), ou bien ne comportent pas de syntaxe (Montlivault, Barthe) ou quasiment pas (Jonain). Ceci s'accompagne d'une conservation de la distinction syntaxe de concordance, d'accord ou d'identité, face à la syntaxe de régime parfois renommée syntaxe de complément (Bel), de dépendance (Burggraff) ou de détermination (Leterrier). Les textes témoignent aussi de la connaissance des écrits de Dumarsais, Condillac, Court de Gébelin et Destutt de Tracy, mais surtout de Beauzée, dont la distinction des verbes peut être reprise (Burggraff).
+Dans ce dernier cas de figure, le modèle de la GGR n'est absolument pas repris et la description de la structure propositionnelle se réalise à partir de l'adjonction de constituants aux deux groupes essentiels que sont le sujet et le verbe. On l'observe chez Buffier qui inaugure une véritable tendance en inventant le « modificatif », ou chez Girard qui pousse à cinq le nombre de fonctions supplémentaires et fournit un modèle muti-fonctions aux noms nouveaux qui inspirera les derniers auteurs de grammaires générales comme Jullien, ou Montémont. Cette représentation de la proposition s'articule à une remise en question du verbe substantif (Girard, Jullien), ou s'accompagne d'une définition autre. Ces modèles fonctionnels, en rupture avec le modèle propositionnel, d'origine logique, de la GGR, n'intègrent pas la décomposition du verbe et s'accompagnent d'une remise en question de la définition du verbe de Port-Royal. Ceci dit, la remise en question du verbe substantif n'implique pas pour autant une redéfinition des catégories de fonction, comme cela est observable chez les membres de la Société Grammaticale (1818), dont le problème central est la délimitation des classes de mots.
+Des liens évidents existent entre l'émergence du complément, la déconstruction du modèle propositionnel de la grammaire générale et la construction des classes de verbes transitif et intransitif, sur critère sémantico-syntaxique. Les tentatives de désignation d'un nouveau constituant représentent en effet des aménagements du modèle propositionnel et s'accompagnent d'une redéfinition du verbe. En conséquence, l'émergence de la fonction de complément ne peut être envisagée isolément. Son invention n'est pas un phénomène isolé. Elle s'inscrit dans le mouvement global d'évolution de la structure propositionnelle et elle ne prend sens qu'en relation avec la conception du verbe et des constituants de la proposition.
+En guise de conclusion, nous pouvons reconsidérer les questions que nous posions en introduction : en quoi l'émergence du complément est-elle une « invention » ? le « complément » est-il un meilleur outil grammatical que le « régime » ? et tenter d'y apporter quelques éléments de réponse.
+Premièrement, ce qui est saillant dans le processus de généralisation et de stabilisation du complément dans le discours grammatical, c'est l'abandon d'un modèle de la proposition. L'histoire du complément est l'histoire de l'invention d'une certaine description de la dépendance syntaxique, à l'aide de notions diverses, notamment empruntées à la logique, et de termes nombreux forgés par les grammairiens. Cette histoire est parallèle à la déconstruction du modèle propositionnel tripartite attributif de la grammaire générale.
+Deuxièmement, l'historien des sciences du langage n'a pas de réponse à la question de savoir si le complément permet de mieux décrire, penser, appréhender, représenter, formaliser, ou enseigner la syntaxe du français. L'intérêt d'une étude historique est précisément de montrer qu'il n'existe pas de réponse à cette question. En revanche, ce que l'on observe, dans la perspective d'une histoire sérielle, c'est que les grammairiens adoptent le complément, pas immédiatement ni de façon unanime, et pour des raisons différentes.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Les notes qui suivent peuvent être considérées comme tour réactif à la lecture, certainement trop rapide et superficielle, (i) des communications retenues dans l'axe Discours, pragmatique, interaction, et (ii) de Goodwin 2007. Je qualifierai le point de vue théorique dont elles procèdent comme de biais mais pas forcément biaisé : il est celui d'un pratiquant dilettante de l'analyse du discours (désormais AD), notamment « canal historique » (Rosier et Paveau 2005), comme de l'analyse conversationnelle (désormais AC) dans ses différentes formes, qui trouve encore son bonheur dans la lecture des travaux de Bakhtine, et qui s'intéresse surtout actuellement à l'actualisation de la langue en discours et au dialogisme... Lesdites notes, au-delà du questionnement, invitent au débat.
+Premier constat : alors que le premier terme de l'intitulé de notre axe d'étude « Discours, pragmatique, interaction » est discours, force est de constater qu'a été fortement privilégié un seul type de discours (corpus, problématiques, références bibliographiques) : le discours dialogal (alternance de locuteurs selon l'alternance des tours ; interaction in praesentia, au moins temporellement), au détriment du discours monologal (absence d'alternance de locuteurs / de tours ; interaction in absentia). Comme si les recherches actuelles tordaient le bâton du discours et de son étude dans le sens inverse de la torsion que lui avait infligée l'AD des années 1970 - 1980, qui n'a guère travaillé que le discours monologal.
+Cette évolution dans le choix des corpus - tendanciellement du monologal au dialogal - qui s'initie au cours des années 1980 - 1990 et que confirme notre colloque (du moins au regard des communications retenues), s'accompagne d'un changement d'approche radical : le discours, dans l'AD, était considéré dans sa profondeur verticale inconsciente, selon laquelle le locuteur est dit plus qu'il ne dit, voire répète à son insu du déjà dit. Le discours est, dans l'approche de l'AC, traité comme surface horizontale cogérée et coproduite par les interactants : le locuteur dit avec son / ses interlocuteur(s). En simplifiant quelque peu, on peut avancer que l'AD privilégiait fortement l'interdiscursvité et négligeait l'interlocution. Dans quelle mesure les travaux actuels en AC en privilégiant l'interlocution, ne négligent-ils pas l'interdiscursivité ?
+On pourrait rendre compte de la focalisation sur la profondeur verticale pour l'AD, comme de la focalisation sur la surface horizontale pour l'AC, par les différences de corpus : le monologal, plus formel, se construirait principalement de son rapport aux autres discours ; le dialogal, plus familier surtout s'il est conversationnel, se construirait principalement de son rapport aux autres locuteurs. Cette analyse, si elle contient une part de vérité, ne me paraît pas fondamentalement juste ; et d'autre part, elle laisse de côté la question du choix des corpus. Il y a là une question d'importance : dis-moi ce sur quoi tu travailles et avec quels outils, et je te dirai qui tu es, ou plutôt qui tu crois être, à savoir à quelle idéologie ton travail participe, le plus souvent à ton insu...
+Je ne fais que pointer ce fait, sans le développer ici. Je voudrais plutôt questionner l'AC et son approche horizontale de la production du discours à partir d'un autre paradigme théorique : celui du dialogisme, issu des travaux du cercle de Bakhtine.
+S'il n'est pas question de rapprocher trop facilement l'AD et les travaux de Bakhtine (cf., pour une mise en garde, Authier 1982), et encore moins d'assimiler les notions d'interdiscours et de dialogisme (cf. Bres et Rosier 2008), il me semble que les deux approches posent la question de la dimension verticale du discours, que semble oublier l'AC.
+Rappelons brièvement quelques faits : Bakhtine/Voloshinov 1929 consacre un chapitre entier à l'interaction verbale et propose un ordre pour l'étude des faits linguistiques qui anticipe largement sur l'approche interactionnelle des faits linguistiques :
+L'ordre méthodologique pour l'étude de la langue doit être le suivant :
+Cependant, dans ce même ouvrage, à l'heure de passer à l'étude d'un phénomène concret, c'est le discours rapporté qui est choisi comme objet d'analyse, soit un fait discursif qui met en jeu, plutôt que la dimension dialogale horizontale, la dimension dialogique verticale. Rappelons que la distinction terminologique dialogal / dialogique, largement circulante aujourd'hui, n'est pas de Bakhtine lui-même mais procède directement de sa problématique (Bres 2005) :
+- la dimension dialogale (cf. dialogalité, supra 1.) concerne le dialogue externe, c'est-à-dire tout ce qui a trait au dialogue en tant qu'alternance des tours de deux ou plusieurs interlocuteurs, et se passe sur le fil du discours ;
+- la dimension dialogique concerne le dialogue interne. Elle tient à l'orientation de tout discours vers d'autres discours et ce, triplement : (i) interdiscursivement, le discours en train de se faire ne peut pas ne pas rencontrer les autres discours qui, avant lui, se sont saisis du même objet, ni entrer en interaction avec eux ; les mots sont d'autre part toujours habités des sens de ces autres discours, avec lesquels également l'interaction est incontournable ; (ii) interlocutivement, le discours en train de se faire ne peut pas ne pas anticiper sur la réception - en tant qu'énoncé-réponse - que le locuteur imagine par avance que son interlocuteur en fera ; (iii) intralocutivement : la production du discours se fait constamment en interaction avec ce que le locuteur a dit antérieurement, et avec ce qu'il envisage de dire. Cette triple orientation est à l'origine d'une triple interaction verticale, qui a pour résultat la dialogisation intérieure du discours produit, dont les manifestations sont extrêmement variées : de la citation explicite (discours direct, îlot textuel...) à des phénomènes d'échos, de résonances, d'harmoniques fort subtils. On parle de la pluralité des voix (terme métaphorique à comprendre, selon les théories, comme 'énonciateurs', ou ' points de vue') qui feuillètent tout énoncé depuis sa macrostructure (le roman, le texte, le discours, le tour de parole) jusqu'à sa microstructure : le mot.
+Les travaux de Bakhtine privilégient des objets d'étude relevant du dialogique, comme p. ex. le discours rapporté, et ne travaillent pas vraiment le dialogal. Ceci pourrait expliquer la relative ignorance de la problématique dialogique par l'AC. Pourtant la dimension dialogique, notamment interdiscursive, n'intervient-elle pas sur le fil du discours ? L'interaction verticale avec les discours antérieurs n'est-elle pas un paramètre de la production horizontale du discours-en-interaction avec l'interlocuteur ? N'y a-t-il pas une pertinence du dialogique pour l'AC? C'est la cause que je voudrais brièvement plaider. Non pas théoriquement, mais pratiquement à partir de quelques occurrences de discours concrètes, prises dans les travaux conversationalistes.
+Goodwin (2007) est, à ma connaissance, un des rares travaux conversationalistes à dialoguer avec les recherches du cercle de Bakhtine ; encore ne le fait-il qu'avec Bakhtine/Voloshinov 1929. L'auteur fait remarquer fort justement que Voloshinov tout comme Goffman (1981) développent une conception des instances de l'interlocution qui, tout occupée à définir la complexité des rôles du locuteur, en oublie de poser, parallèlement, la complexité des rôles interactifs de l'interlocuteur (hearer). Goodwin appuie sa démonstration par l'analyse de fragments d'interaction dans lesquels intervient le discours rapporté. Je prends un exemple de ces analyses, fort pertinentes, pour pointer l'oubli qui s'y manifeste, selon moi, de la dimension dialogique verticale.
+(1) Une femme raconte à un couple d'amis, en présence de son mari Don, une bourde verbale de celui-ci lors d'une interaction antérieure avec d'autres amis (Goodwin op. cit. : 4) :+
13 Ann : Do(h) n said (o.3)+
14 dih-did they ma :ke you take this-wa(h)llpa(h)per?+
15Beth : hh !+
16Ann : =er(h)di-dju pi(h)ck i(h)t ou(h)t+
Goodwin, à partir de l'étude de la vidéo, montre qu'un interlocuteur participe activement, par sa mimo-gestualité au récit de Ann : il s'agit très précisément de celui dont la parole est rapportée, à savoir Don, le mari de la narratrice, dont le visage et le corps accompagnent par des signaux de rire le rire de sa femme rapportant sa bourde en 14 - 16. D'une façon très fine, l'auteur souligne que le discours de Ann, à partir de (13) (Do(h)n said) permet à Don de faire une projection et de doubler par la mimique gestuelle la vocalité du rire de sa femme. Question naïve : la projection que fait Don se fonde-t-elle seulement sur l'énonciation par Ann de l'introduction du discours rapporté (Do(h)n said) ? Ne trouve-t-elle pas peut-être aussi son origine dans des récits antérieurs ? Ann n'a-t-elle pas déjà raconté, en présence de son mari, à d'autres amis, cette petite anecdote ? L'interaction horizontale de Dan avec la parole de sa femme hic et nunc n'est-elle pas sous-tendue par l'interaction verticale avec du raconté antérieur ? Je ne saurais bien sûr répondre à ces questions. Ce qui retient mon attention, c'est que Goodwin ne (se) les pose pas, fût-ce pour écarter ces possibilités... Le souci pour la parole qui se co-construit ne s'accompagne-t-il pas d'un oubli de la parole déjà dite ? Cette façon de faire me semble récurrente en AC. Prenons un second exemple, empruntée à la très intéressante communication « Organisation séquentielle et configurations syntaxiques de la parole-en-interaction » de notre congrès (occurrence (10)). L'auteur analyse « la configuration en-ligne des trajectoires syntaxiques », et propose l'exemple suivant :
+(2) Oui bon la littérature c'est- moi je n'ai jamais tellement aimé mais c'est bien sûr c'est bien si on fait ça+
Cet énoncé est décrit fort justement comme exemple de « formatage prospectif-rétrospectif de la structuration syntaxique » : le SN la littérature initialement projeté, dans le tour à détachement gauche, comme apposition au démonstratif sujet c', se voit ensuite réinterprété comme objet du verbe aimer. On peut regretter que le corpus présenté ne nous fournisse pas le dit immédiatement antérieur : l'adverbe initial oui ne présuppose-t-il pas la confirmation d'un propos précédent, ce qui rendrait compte dans un premier temps de la thématisation dialogique (reprise-écho) du SN la littérature selon la structure la plus accessible (« la littérature c'est- »), qui se voit rectifiée ensuite par la bifurcation syntaxique ? Ce qui me retient ici également, c'est que la présentation comme la segmentation du corpus proposé ne permettent pas de répondre... L'intérêt pour le dire en cours ne va-t-il pas de pair avec le désintérêt pour le déjà dit (ici immédiat)... comme si celui-ci n'en était pas un paramètre déterminant ?
+Plus constructivement, j'aimerais pointer, à partir d'un autre exemple, ce que l'approche dialogique peut apporter à l'AC. Goodwin formule une deuxième critique, tout aussi pertinente, à l'encontre tant de Voloshinov que de Goffman : le fait que ces deux auteurs pensent le discours rapporté seulement en termes de complexité syntaxique (enchâssement du discours cité dans le discours citant) écarte de l'analyse des phénomènes qui ont à voir avec le discours rapporté mais dans lesquels ce type de syntaxe ne se manifeste pas. Ce que Goodwin illustre par l'étude d'un fragment d'interaction entre trois personnes : Chil, qui à la suite d'un accident ne peut plus dire que yes, no et and, son fils Chuck et sa belle-fille Candy. Celle-ci parle de la neige qui est tombée avec moins d'abondance cette année que précédemment.
+ +(3)+
10 Candy : but last year.whoo !+
11Chuck mm+
in the last year-+
13 Chil : yeah- no no. no :.+
14 Candy : er the year before last+
15 Chil : yes+
En 10 et 12, Candy pose que les chutes de neige ont été fortes l'année dernière (« last year »), datation que Chil en 13 commence par confirmer (« yeah »), avant de se reprendre pour l'infirmer (« no no. no :. »). Ce qui entraîne une reformulation de Candy ligne 14 (« the year before last »), nouvelle datation que Chil confirme ligne 15 (« yes »).
+Goodwin pointe que Chil, alors qu'il ne peut citer (discours rapporté) les paroles de Candy, est à même de les incorporer dans ses possibilités discursives réduites à l'extrême : la négation de la ligne 13 « indexically incorporates what Candy said in line (12), though Chil does not, and cannot, quote what she said there » ( op. cit. : 27). De son côté, Candy, ligne 14, en prononçant « the year before last », alors même qu'elle ne rapporte pas la parole de Chil, parle pour lui : « though not reporting the speech of another, Candy speaks for Chil in (14), and locates him as the Principal for what is being said there " (op. cit. : 28).
+Effectivement, l'approche de Voloshinov comme celle de Goffman, en associant discours rapporté et complexité syntaxique, ne sont pas à même de rendre compte de phénomènes comme ceux-ci, où, s'il n'y a pas citation effective par A de la parole de B, il est bien question dans l'énoncé de A de la parole de B. Il me semble que l'approche dialogique, en prolongement des intuitions que l'on trouve dans Bakhtine (1934, 1952), permet de proposer un traitement unitaire de ces questions. Le statut particulier accordé au discours rapporté ne tient que pour autant que l'on met l'accent, dans l'analyse, sur la parole rapportée, en effacement, voire en oubli de ce qu'il s'agit avant toute chose de l'interaction entre deux énoncés. Pour l'approche dialogique, il n'y a pas d'un côté le discours rapporté (discours direct, indirect, indirect libre, direct libre, voire discours narrativisé...), et de l'autre des tours syntaxiques (confirmation, négation comme dans l'occurrence (3), mais aussi conditionnel, ironie, détournement, etc.) qui, d'une façon ou d'une autre, ont à voir avec la parole d'un autre énonciateur (Bres et Verine 2003). Dans les deux cas, on a affaire à un énoncé dialogique défini comme structuré autour d'un dialogue interne, à savoir comme le résultat de l'interaction entre deux énonciations (au moins) : celle du locuteur-énonciateur qui a la parole, celle d'un autre énonciateur. Les formes de cette interaction interne sont extrêmement variées. C'est donc le même phénomène, à savoir l'interaction dialogique, qui est à la base tant du discours direct - forme la plus explicite de la dualité énonciative - que du type de confirmation, ou de négation que l'on trouve en (3), types dans lesquels ladite dualité est fortement implicitée. La négation prédicative, en tant que marqueur dialogique, présuppose l'énoncé positif correspondant qu'elle peut « rapporter » de différentes manières. Soit en reprenant l'occurrence (3) et en l'adaptant librement au français :
+(4)+
L1 : (il a neigé beaucoup plus) l'année dernière+
L2 : a) il n'est pas vrai qu'il a neigé beaucoup plus « l'année dernière »+
b) il n'est pas vrai qu'il a neigé beaucoup plus l'année dernière+
c) non, ce n'est pas « l'année dernière » qu'il a neigé beaucoup plus+
d) non, ce n'est pas l'année dernière qu'il a neigé beaucoup plus+
e) ce n'est pas « l'année dernière » qu'il a neigé beaucoup plus+
f) ce n'est pas l'année dernière qu'il a neigé beaucoup plus+
g) non+
h) ...+
Parmi ces différentes possibilités syntaxiques, l'énoncé g), à savoir « non » - seul possible pour Chil du fait de son handicap - est celui qui incorpore le plus fortement l'énoncé positif correspondant avec lequel l'interaction a lieu. Ajoutons que, dans ce cas, l'énoncé positif doit effectivement avoir été actualisé par un autre locuteur (L1), ce qui implique que l'énoncé négatif non, autonome, ne peut apparaître qu'en discours dialogal.
+Considérer le discours rapporté comme un fait dialogique comme les autres, permet, en ne se focalisant plus sur lui, de traiter de nombreux phénomènes qui comme lui procèdent de l'interaction verticale avec du discours (éloigné ou immédiatement) antérieur, et interviennent comme paramètres dans la production horizontale du discours en interaction.
+Je voudrais pour finir ajouter que la notion bakhtinienne de bivocalité (ou de plurivocalité) permet de rendre compte de faits énonciatifs extrêmement complexes, comme p. ex. ce qui intervient ligne 14 de l'occurrence (3), que je rappelle pour plus de commodité :
+(3)+
10 Candy : but last year.whoo !+
11Chuck mm+
In the last year-+
13 Chil : yeah- no no. no :.+
14 Candy : er the year before last+
15 Chil : yes+
Goodwin, nous l'avons vu, propose l'analyse suivante : « though not reporting the speech of another, Candy speaks for Chil in (14), and locates him as the Principal for what is being said there " (op. cit. : 28). On dirait plutôt, en termes dialogiques, que cet énoncé est bivocal, que s'y font entendre deux "voix ", ici convergentes : celle de Candy elle-même en correction de son énoncé de la ligne 12, du fait de la négation que lui a opposée Chil en 13 ; celle de Chil, par une sorte de ventriloquisme : Candy verbalise les mots que Chil ne peut actualiser.
+Il semble donc que l'analyse conversationnelle a tout intérêt à ne pas limiter sa lecture des écrits du cercle de Bakhtine à Voloshinov 1929 : l'approche dialogique des faits linguistiques, qui permet de prendre en compte dans sa complexité la dimension verticale du déjà dit dans la production du dire, n'y apparaît pas encore.
+Partant du fait que les communications retenues pour ce congrès relevaient principalement du discours dialogal, qu'elles traitaient dans les cadres de l'AC, nous avons questionné cette approche, en prenant appui sur la notion de dialogisme : les pertinentes descriptions que propose l'AC de la co-construction horizontale du discours ne négligent-elles pas une autre dimension - verticale - du discours ? Ce qui se passe dans l'ici et maintenant du mot à mot dans le face-à-face de l'interaction conversationnelle ne se double-t-il pas constamment de l'interaction avec de l'ailleurs antérieur discursif ?
+Linéarité du discours ? Non, bien plutôt épaisseur ; et épaisseur double : épaisseur dialogale, telle que la décrit l'AC ; épaisseur dialogique, telle que l'approche bakhtinienne invite à l'analyser.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé + par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Si elle a pu être considérée, lors de la période d'expansion du courant générativiste, comme la "discipline-pilote" des sciences humaines, la linguistique a depuis lors manifestement perdu ce statut, notamment en raison du doute qui s'est progressivement installé quant à la faisabilité et la crédibilité du programme chomskien. Le propos de cette conférence sera cependant de montrer que cette discipline demeure centrale, dans la mesure où les objets auxquels elle s'adresse constituent les éléments constitutifs des modalités spécifiquement humaines d'organisation psychique et sociale ; ou encore de montrer que cette discipline peut fournir un appui décisif au développement d'une science intégrée de l'humain, qui saisirait ce dernier, non dans sa seule dimension biologique, mais tout autant dans ses dimensions historique, sociale et culturelle.
+Pour ce faire, nous procéderons d'abord à un bref examen des orientations épistémologiques prises par la linguistique aux cours des dernières décennies. Nous exposerons ensuite, depuis le cadre de l'interactionnisme social en lequel nous nous inscrivons, la problématique nodale d'une science intégrée de l'humain, qui a trait aux conditions d'élaboration et de développement d'un espace gnoséologique en permanence accessible et dynamique. Enfin, après avoir montré que certaines oeuvres linguistiques, dont celles de Saussure et de Voloshinov en particulier, ont d'ores et déjà fourni des analyses et propositions absolument décisives pour la clarification de cette problématique, nous nous risquerons à énoncer les conditions sous lesquelles la linguistique contemporaine pourrait contribuer à la nécessaire "reconfiguration" des sciences humaines.
+"A tout seigneur tout honneur", notre commentaire portera d'abord sur la Grammaire Générative et Transformationnelle (ci-après GGT), dont le projet épistémologique a été explicitement et radicalement annoncé par son initiateur : la GGT avait pour but de fournir une représentation formelle explicite des « structures mentales innées » sous-tendant le langage humain et rendant ce faisant possible l'acquisition de toute langue naturelle. Comme on le sait, pour Chomsky cette faculté de langage serait d'ordre strictement syntaxique : l'appareil mental humain comporterait d'un côté un composant relevant d'une sémantique universelle, c'est-à-dire un ensemble d'entités cognitives préconstruites et indépendantes du langagier, d'un autre côté un composant constitué des ressources phonétiques et signalétiques propres à l'espèce, et le langage proprement dit consisterait en un système de règles de couplage de ces deux ordres d'entités, système universel que langues naturelles matérialiseraient avec quelques variantes secondaires ou « superficielles » :
+« [...] il convient de se demander comment représenter les sons et les sens. Comme nous nous penchons sur les langues humaines en général, de tels systèmes de représentation devraient être indépendants de toute langue particulière. Nous devons, en d'autres termes, développer une phonétique et une sémantique universelles, qui délimiteront respectivement l'ensemble des signaux possibles et l'ensemble des représentations sémantiques possibles, pour toute langue humaine. On pourra alors parler d'une langue comme d'un couplage particulier de signaux avec des interprétations sémantiques, et étudier les règles qui établissent ce couplage. » (1969, p. 132)+
Ce type de projet s'inscrit de fait dans une longue tradition qu'à la suite de Rastier (2001) nous qualifierons de logico-grammaticale. Dès l'antiquité grecque en effet, les courants philosophiques dominants avaient eu pour objectif de fournir les arguments qui démontreraient la possibilité d'une intercompréhension langagière, ou encore qui assoiraient le caractère déclaratif univoque du logos humain, et ce pour des raisons à la fois scientifiques (assurer la validité des connaissances en cours d'élaboration) et politiques (assurer que tous les citoyens comprennent de la même manière les lois). Ils ont dès lors inlassablement tenté de doter ce langage d'une assise qui serait ailleurs qu'en lui-même, ou plus précisément ailleurs que dans les pratiques sociales qu'il matérialise : ce fut l'objectif du Cratyle de Platon, qui visait désespérément à établir le caractère « essentiel » des mots (leur statut de propriétés naturelles des objets mondains référés) ; ce fut la visée de l'Organon d'Aristote, qui posait que les structures phrastiques constituent de « fidèles messagers » des structures logiques du monde ; ce fut encore, bien plus tard, l'objectif de la Grammaire générale et raisonnée de Port-Royal, qui posait que les structures langagières universelles sont fondées, non plus sur la logique du monde externe, mais sur la logique de l'esprit (en l'occurrence sur les opérations de jugement). Ces positions "de principe" ont bien, de tout temps, été contestées par des auteurs plus attentifs aux propriétés empiriques des langues : par Démocrite qui, analysant dans la langue grecque les phénomènes d'homonymie, de polynomie et de diversité syntaxique, considérait qu'en raison de leur caractère divers et aléatoire, les mots et les structures langagières ne pouvaient être fondés sur les propriétés d'un monde en droit unique et universel ; par Flavius Josèphe et les anomalistes de l'époque romaine qui, prenant en compte l'extrême variété des structures des langues "barbares", soutenaient qu'il ne pouvait exister de rapport d'analogie entre structures du monde et structures langagières ; bien plus tard par les comparatistes du XIXe et par Saussure bien sûr. Mais rien n'y a fait ; appuyée au besoin par les pouvoirs politiques, c'est la position "de principe" qui s'est imposée et qui, après Descartes et l'émergence du sujet pensant, a donné lieu aux quatre postulats qu'a de fait reformulés la GGT.
+Les positions de ce type se révèlent de fait inaptes à traiter sérieusement de deux réalités pourtant indiscutables : l'extraordinaire variété des langues naturelles et les changements qui les affectent en permanence. S'agissant des causes et des déterminations de la variété lexicale et structurelle des langues, si aux XVIIe et XVIIIe avaient été invoquées les « passions » des peuples, qui déforment les structures linguistiques universelles, pour les générativistes ce problème est renvoyé à des différenciations d'ordre socioculturel, secondaires et indépendantes des mécanismes centraux de la pensée et des structures langagières universelles. Quant aux processus de changement, ils n'ont de fait dans ce cadre aucune explication possible : dans la mesure où le langage serait fondé sur des capacités cognitives biologiquement inscrites, pourquoi et comment ses manifestations pourraient-elles être sensibles au Temps et à l'Histoire ? Ce qui explique la tonalité (au moins implicitement) fixiste de cette approche, les transformations caractérisant la vie des langues étant considérées comme des phénomènes ne relevant pas de la linguistique proprement dite, ou encore comme tenant aux aléas des « performances » humaines.
+Alors que Chomsky a de fait abandonné son projet épistémologique initial, pour d'autres raisons néanmoins que celles qui viennent d'être évoquées, de multiples autres courants de linguistique ont entre temps émergé, qu'il serait inutile et prétentieux de vouloir décrire exhaustivement, mais à propos desquels nous formulerons les quelques remarques qui suivent.
+A nous en tenir à la linguistique synchronique, la majorité des courants contemporains ont pris une orientation inverse à celle de la GGT et de la tradition logico-grammaticale, en saisissant résolument le langage dans sa dimension praxéologique (plutôt que structurale) et centrant en conséquence les analyses sur les rapports de co-dépendance entre les entités langagières et leur entour externe. Certains courants s'en tiennent à des entités linguistiques de l'ordre de l'énoncé, dont sont examinées les modalités d'interaction avec divers facteurs du contexte, soit dans ses dimensions essentiellement physiques comme dans la version princeps de la théorie de l'énonciation (cf. Benveniste, 1974), soit dans ses dimensions comportementales/sociales, comme dans la version initiale de la théorie des actes de langage, soit encore dans ces deux dimensions dans la plupart des développements contemporains d'orientation énonciative ou pragmatique. D'autres courants se centrent plutôt sur des entités de l'ordre du texte et/ou du discours, qui peuvent être analysées plutôt sous l'angle de leurs régularités de composition interne comme dans l'approche initiale d'Adam (1990), plutôt sous l'angle de leurs co-dépendance directe avec les structures comportementales et sociales d'échange, comme dans les diverses formes de linguistique interactionnelle, ou plutôt encore au titre de genres socialement formatés entretenant des rapports indirects avec les réseaux d'activité collective.
+Cette floraison de recherches a sans nul doute fourni, en de multiples domaines, des éléments de description technique à la fois abondants et d'une réelle importance, mais elle est aussi le signe d'une sorte d'éparpillement théorique, qui se manifeste notamment dans la multitude des appellations d'école aujourd'hui observables dans la discipline. En outre, dès lors qu'ils se proposent d'aborder les entités langagières dans leurs rapports avec le contexte et/ou le co-texte, les courants qui viennent d'être évoqués sont immanquablement conduits à solliciter des références disciplinaires autres, ayant trait notamment aux caractéristiques des organisations sociales ou des interactions communicatives, ou aux opérations psychologiques mobilisées dans les décisions requises par l'activité langagière. Et à nous limiter à notre discipline d'origine, force est de constater que les emprunts notionnels à la psychologie présentent un caractère la plupart du temps ad hoc ou conjoncturel : appui sur une conception de la subjectivité d'inspiration au mieux phénoménologique dans certains courants énonciatifs ; sollicitation du cognitivisme modulaire d'inspiration fodorienne chez les tenants de la linguistique textuelle ; mélange détonnant de behaviorisme et de cognitivisme dans certains courants pragmatiques, etc., etc. Cet éparpillement des écoles et ce caractère ad hoc des emprunts aux autres sciences sociales/humaines témoignent à nos yeux d'un seul et même phénomène : la difficulté actuelle de la discipline d'articuler ses travaux empiriques à un projet épistémologique plus ample, susceptible de se substituer au défunt programme chomskyen.
+Formulé de la sorte, ce diagnostic est évidemment excessif, divers linguistes ayant bien évidemment proposé des directions de réorientation globale de la discipline. Rastier a notamment, dans de nombreux ouvrages (cf 1989 ; 2001), préconisé avec force une réorganisation des démarches linguistiques dans le paradigme global de l'herméneutique, et il a proposé à cet effet un cadre conceptuel cohérent, portant à la fois sur les modalités d'interaction des genres de textes avec leur entour, et sur les niveaux d'organisation interne de ces mêmes textes. Si elle est d'un intérêt considérable et si nous nous en inspirons dans nos propres travaux actuels (cf. Bronckart, 2008), cette démarche nous paraît cependant présenter aussi un inconvénient, qui suscitera notre ultime remarque. Malencontreusement présentée par les rédacteurs du Cours de linguistique générale comme une entité fermée et statique, disjointe de l'activité de parole, « la langue » a depuis lors mauvaise réputation, et les excès du générativisme ont encore renforcé cette attitude de rejet. Mais au-delà des aléas de sa définition, cette notion s'adresse néanmoins à un évident domaine de réalité, qui est celui du vécu d'un idiome particulier et de sa systématique par les individus singuliers aussi bien que par les communautés. Et dès lors, s'il convient sans nul doute de rejeter la saisie logico-grammaticale de cette réalité, il n'y a pas lieu pour autant de nier l'existence ou l'importance du phénomène « langue », comme semble le préconiser parfois Rastier, à l'instar de certains tenants des approches contextualistes. Une science du langage ne peut "jouer" les textes/discours contre la langue, ou l'inverse ; elle doit nécessairement penser l'articulation de ces deux dimensions, et c'est notamment à cette condition qu'elle pourra se restructurer en même temps qu'elle pourra contribuer à la réorientation des sciences humaines.
+L'éparpillement des écoles se manifeste aussi dans les autres sciences humaines, mais d'une manière partiellement différente : en psychologie et en sociologie notamment se sont développés et se maintiennent depuis un siècle de grands cadres épistémologiques ; mais ceux-ci sont profondément divergents, et cette divergence tient essentiellement à la position adoptée à l'égard d'une seule et même problématique nodale : comment s'est élaboré et comment se développe l'espace gnoséologique humain, et partant quel est le statut qui peut lui être accordé ?
+Par « espace gnoséologique », nous entendons les multiples formes de connaissances qui se sont élaborées au cours de l'histoire sociale et qui se transmettent de générations en générations. Cet espace est donc constitué d'entités idéelles ou psychiques signifiantes, mais celles-ci ont en fait deux lieux d'ancrage distincts : dans l'intériorité ou la pensée consciente des individus d'une part, dans des construits sociaux d'autre part que Dilthey (1883/1992) avait qualifiés de « mondes d'oeuvres et de culture » et dont Habermas a analysé les modalités d'organisation en termes de « mondes formels de connaissances » (1987). Dans Représentations individuelles et représentations collectives (1898), Durkheim avait proposé une analyse particulièrement puissante de ces deux ancrages, en montrant que, tout comme les entités psychiques individuelles ont un statut et des modalités d'organisation clairement distincts de ceux du substrat neurophysiologique auquel elles s'adossent matériellement, les entités psychiques collectives témoignent d'une réelle autonomie statutaire et organisationnelle eu égard aux institutions et aux autres formes d'organisation sociale qui en sont le support. Et cette autonomie de l'idéel ne peut être sans rapport avec l'émergence du langage, qui constitue à tout le moins un véhicule important de tout type de représentation, et qui est en tout état de cause la condition sine qua non de la transmission de ces représentations au cours de l'histoire. La question de fond de toute science de l'humain est donc de savoir comment se sont constituées des connaissances ayant comme spécificité d'être sémiotiques et signifiantes, de s'ancrer dans des organismes qui en deviennent des personnes dotées d'une pensée conscience, et de s'ancrer également dans les formes d'organisation et les productions culturelles des communautés.
+Nous défendrons une manière d'aborder cette question reposant sur des orientations qui, pour être fermes, sont néanmoins en soi discutables. Il s'agit d'abord de se placer dans la perspective de l'évolution des espèces, ce qui conduit à prendre en compte l'existence, au niveau du vivant et plus particulièrement des animaux "supérieurs", de capacités psychiques individuelles ainsi que de modalités d'organisation des activités collectives. La question qui nous occupe doit donc être posée en termes de continuité et de rupture ; il convient de montrer en quoi les modes de fonctionnement humain s'ancrent sur (et prolongent) les modes de fonctionnement du monde animal, en même temps qu'il convient de montrer comment, sur cette base, ont émergé les spécificités évoquées plus haut. Mais il s'agit aussi de se placer dans une perspective plus large, inspirée du monisme matérialiste de Spinoza, dont nous ne pourrons évoquer ici que deux principes majeurs. Le principe du parallélisme psycho-physique tout d'abord, qui se décline en trois thèses. (a) Chaque forme issue de l'évolution de la matière, y inclus les substances inertes, comporte d'un côté des dimensions physiques ou observables (inscrites dans l'espace), d'un autre des dimensions processuelles ou psychiques non directement observables. Ces deux dimensions ne sont que deux faces d'une même réalité, et elles ne nous paraissent disjointes qu'en raison de la limitation de nos capacités cognitives (au plan ontologique donc, le psychique est tout aussi "réel" que le physique). (b) Les propriétés physiques observables et les propriétés des processus sous-jacents sont, dès lors, en chaque forme naturelle, nécessairement d'un niveau de complexité équivalent, en tout cas à l'état d'équilibre de ces formes. (c) Cependant, si les formes matérielles évoluent en permanence, c'est parce que les processus sous-jacents sont aussi susceptibles de créer, sous certaines conditions, des déséquilibres, qui entraînent eux-mêmes des rééquilibrations donnant naissance à des formes nouvelles ; thèse qui est en fait au coeur des approches thermodynamiques contemporaines. Le second principe est celui du rôle central des interactions dans la constitution des entités psychiques de quelque forme naturelle que ce soit. Préfigurant la dialectique première de Hegel, comme la conception du développement formulée par Piaget, Spinoza soutient en effet que la connaissance procède des contacts entre corps/esprit d'une part, entités mondaines d'autre part, contacts qui entraînent d'abord la différenciation soi-monde, puis, en se répétant, la différenciation progressive des objets du monde.
+L'adoption de ces principes conduit à récuser toutes les formes de dualisme issues de la bi-partition posée par Descartes entre ordre de l'âme-pensée et ordre des corps et des objets ; position qui revient à considérer que les dimensions psychiques processuelles seraient propres à l'humain, et qui ne constitue ce faisant qu'un reliquat du créationnisme religieux. Elle conduit aussi à rejeter les thèses des neurosciences et de certains courants cognitivistes radicaux, en ce que leur conception de l'évolution accorde un rôle exclusif à l'équipement biologique sans prendre en compte réellement cet autre facteur majeur que constitue l'évolution des modalités comportementales d'interaction entre les organismes et leur milieu ; nous soutiendrons pour notre part qu'il n'y a pas détermination unilatérale du biologique sur le mental et le comportemental mais co-construction et co-détermination de ces trois registres. Il s'agit donc d'aborder la problématique des conditions de constitution de la gnoséologie humaine dans une perspective à la fois moniste, évolutionniste et "interactive", mais deux grands paradigmes adossés à ces principes restent aujourd'hui en concurrence, que nous qualifions respectivement d'interactionnisme logique et d'interactionnisme social.
+L'orientation interactionniste logique est particulièrement illustrée par l'oeuvre de Piaget, que l'on peut lire comme une tentative de validation, expérimentale et "génétique" (au sens de développementale), de la synthèse qu'avait proposée Kant (1781/1944) entre positions empiristes et rationalistes. Pour ce philosophe, d'un côté toute connaissance présuppose l'expérience, c'est-à-dire la mise en oeuvre d'interactions entre le sujet et le milieu, au terme desquelles certaines des empiries sont enregistrées et conservées ; mais d'un autre côté l'esprit analyse et organise ce matériau en lui appliquant des catégories rationnelles (Temps, Espace, Causalité, etc.) qui relèvent de ses propriétés intrinsèques ou a priori, cette application des catégories de la raison aux données expérientielles aboutissant aux diverses formes de jugement et de raisonnement humains. Piaget a adopté une position analogue, mais en contestant que les a priori soient innés et structuraux, et en tentant dès lors de montrer comment les opérations cognitives se construisent au cours de l'ontogenèse sous l'effet de processus interactifs généraux qui, eux, seraient innés ou hérités. Dans ses études sur la phase initiale du développement (de la naissance à 18 mois), il a montré comment le contact actif de l'organisme humain avec son milieu, initialement sous le contrôle des réflexes innés, génère progressivement, par le jeu des mécanismes d'assimilation et d'accommodation, des traces internes relatives aux propriétés des objets externes, ainsi qu'aux propriétés des comportements propres. Il a montré ensuite que, sous l'effet des mêmes mécanismes, ces traces s'organisent en ces configurations plus stables que sont les images mentales ; images qui restent cependant dépendantes des objets et des comportements qui les ont suscitées, qui restent inaccessibles au contrôle conscient du sujet, et qui ne permettent ainsi qu'une intelligence sensori-motrice. Piaget a analysé ensuite les conditions sous lesquelles ce psychisme pratique se transforme en pensée consciente, en soutenant que ce sont les mêmes processus naturels d'interaction entre organisme et milieu qui provoquent la rencontre avec les entités figuratives disponibles dans le milieu (images, symboles, signes) et que l'intériorisation de ces éléments figuratifs rend possible la transposition des schèmes pratiques au niveau mental, c'est-à-dire l'émergence d'une intelligence opératoire et accessible.
+Comme nous l'avons montré (Bronckart, 1997a), dans l'analyse de ses données, Piaget ne prend cependant en compte que les interactions entre un enfant singulier et le milieu en ce qu'il est physique ; il néglige en d'autres termes le rôle que peuvent jouer les interventions formatives des adultes et les productions langagières nécessairement mobilisées dans ce cadre, considérant que ces éléments ne constituent pas de véritables facteurs de développement :
+« Les opérations de la pensée [...] tiennent aux coordinations générales de l'action [...] et non pas au langage et aux transmissions sociales particulières, ces coordinations générales de l'action se fondant elles-mêmes sur les coordinations nerveuses et organiques qui ne dépendent pas de la société. » (1970, p. 177)+
Et cette position l'a conduit à une sorte d'impasse qu'il a lui-même commentée dans un de ses derniers écrits (1989). L'auteur y constate d'abord que les mécanismes physiologiques humains, à l'instar de tous les phénomènes physiques, fonctionnent selon une logique causale. Il ajoute ensuite que ce fonctionnement causal s'applique aussi aux schèmes du sensori-moteur mais qu'il ne peut caractériser les mécanismes à l'oeuvre dans la pensée consciente, dans la mesure où ces derniers relèvent d'une logique d'implication : ils consistent en enchaînements d'implications signifiantes, régis par des règles non nécessaires, ou d'ordre normatif :
+« Sur le terrain de l'intelligence, le mode essentiel de liaison propre à la conscience logique est l'implication [...] selon laquelle une ou plusieurs affirmations en entraînent nécessairement une autre. Par exemple, la vérité de 2 + 2 = 4 n'est pas "cause" de la vérité de 4 - 2 = 2 [...] la vérité [...]) de 2 + 2 = 4 "implique" celle de 4 - 2 = 2, ce qui est tout autre chose. En effet, cette implication se caractérise par un sentiment de nécessité qui est bien différent d'une détermination causale, car celle-ci ne souffre pas d'exception, tandis que la nécessité constitue une obligation que l'on doit respecter : or ce n'est pas toujours ce que l'on fait, si bien que le logicien Lalande énonçait l'implication en disant "p implique q pour l'honnête homme" de manière à souligner son caractère normatif. » (1989, p. 177)+
Piaget se pose alors la question de savoir comment un système causal peut, au cours du développement, se transposer directement en un système d'implications signifiantes, et finit par avouer qu'au plan empirique, ce problème reste pour lui sans véritable solution. Nous reviendrons plus loin sur les leçons à tirer de cette analyse, qui nous paraît capitale.
+Le mouvement interactionniste social s'est développé dès les débuts du XXe, au travers des oeuvres de Bühler, Dewey, Mead, Vygotski, Wallon et bien d'autres. Adossé au spinozisme et au marxisme, ce courant se caractérise, au contraire de Piaget, par une approche du développement humain qui prend résolument en compte les préconstruits de l'histoire sociale (les formes d'activité collective, les oeuvres, les organisations sociales) ainsi que les processus de médiation formative, et qui accorde un rôle décisif aux pratiques sémiotiques et/ou langagières.
+Figure de proue de ce mouvement, Vygotski (1934/1977) a proposé un schéma développemental que l'on peut résumer comme suit. (a) L'espèce humaine est biologiquement dotée de capacités nouvelles qui permettent le déploiement d'activités collectives plus complexes que celles des autres animaux socialisés. (b) La complexité de ces activités collectives a rendu nécessaire l'émergence d'un mécanisme d'entente dans l'agir, en l'occurrence l'émergence de l'activité langagière en tant qu'instrument de planification, de régulation et d'évaluation des autres formes d'activités. (c) Cette activité langagière est productrice d'unités sémiotiques, c'est-à-dire de représentations d'aspects du monde qui ne sont plus, comme dans le règne animal, inéluctablement idiosyncrasiques, mais qui, de par les conditions mêmes de leur constitution, sont partagées ou collectives. (d) C'est alors l'appropriation et l'intériorisation de ces unités sémiotiques socialisées qui engendrent la transformation du psychisme hérité en un système de pensée auto-accessible ou potentiellement conscient, et c'est le déploiement de l'activité langagière par des individus pensants qui rend possible la constitution des mondes d'oeuvres et de culture. Selon cette approche, les images mentales des animaux (et des jeunes enfants) restent idiosyncrasiques parce qu'elles ne bénéficient d'aucun moyen propre de discrétisation et de stabilisation ; elles constituent une sorte de nébuleuse, pour laquelle la description que proposait Saussure de ce que pourrait être une « pensée sans langage » paraît (paradoxalement) éclairante : « prise en elle-même, la masse purement conceptuelle de nos idées, la masse dégagée de la langue représente une espèce de nébuleuse informe où l'on ne saurait rien distinguer dès l'origine. » (in Constantin, p. 285). L'intériorisation des signes du langage, non seulement rendrait possible cette discrétisation et cette stabilisation, entraînant une complète restructuration de l'appareil psychique, mais en outre, dès lors que ces signes sont pétris de significations sociohistoriques, elle entraînerait un changement de statut de cet appareil, qui passerait, selon la célèbre formule de Vygotski, de l'ordre du biologique à l'ordre de l'historico-culturel.
+Nous adhérons pour notre part sans réserve à ce schéma, dont Voloshinov a d'ailleurs proposé une version quasi identique (1929/1977 - cf. infra), mais il faut reconnaître que ces deux auteurs, s'ils mettaient l'accent respectivement sur le rôle des signes et des textes, n'ont proposé que des ébauches d'analyse du statut de ces derniers, et dès lors n'ont pas proposé de démonstration technique précise des mécanismes par lesquels les propriétés des entités langagières entraînent la restructuration du psychisme humain. Mais comme nous le verrons ci-dessous, une telle démonstration a de fait été proposée dans l'oeuvre réelle de Saussure.
+Dans ce qui suit, nous solliciterons, parmi les multiples avancées des sciences du langage, quatre approches qui nous paraissent fournir un appui majeur aux thèses de l'interactionnisme social, les deux premières issues de l'oeuvre de Saussure, la troisième de celle de Voloshinov et la quatrième des courants actuels centrés sur l'analyse de l'organisation interne des textes.
+Si le terme de « discours » n'apparaît pas dans le CLG, on en trouve néanmoins de multiples occurrences dans les notes manuscrites de Saussure ainsi que dans les cahiers d'étudiants ayant suivi ses cours. Sa position était en fait que les discours/textes constituent le milieu de vie premier des phénomènes langagiers : c'est dans le cadre de leur mise en oeuvre synchronique, ainsi que dans le cours de leur transmission historique, que les valeurs signifiantes des signes se construisent, et qu'elles se transforment en permanence :
+« Toutes les modifications, soit phonétiques, soit grammaticales (analogiques) se font exclusivement dans le discursif. Il n'y a aucun moment où le sujet soumette à une révision le trésor mental de la langue qu'il a en lui, et crée à tête reposée des formes nouvelles [...] qu'il se propose, (promet) de "placer" dans son prochain discours. Toute innovation arrive par improvisation, en parlant, et pénètre de là soit dans le trésor intime de l'auditeur ou celui de l'orateur, mais se produit donc à propos du langage discursif. » (2002, p. 95)+
Qu'est-ce alors que la langue en regard de ces discours ? Saussure en a donné une première définition lors des trois Conférences prononcées en 1891 lors de l'inauguration de sa chaire genevoise. Il y souligne d'abord l'inéluctable continuité des faits de langage et en vient à déclarer qu'il n'existe en fait qu'une seule langue, à l'oeuvre depuis l'émergence de l'espèce : « j'insisterais encore une fois sur l'impossibilité radicale, non seulement de toute rupture, mais de tout soubresaut, dans la tradition continue de la langue depuis le premier jour même où une société humaine a parlé » (ibid., p. 163). Il pose ainsi que la langue constitue une entité ontologiquement une, ou encore qu'existe un stock de ressources qui seraient perpétuellement redistribuées dans le temps et dans l'espace, les diverses communautés situées dans ces coordonnées n'en exploitant, par convention, que des sous-ensembles restreints.
+Mais dès ces mêmes Conférences, Saussure souligne aussi que cette langue universelle connaît des « états » successifs, et comme on le sait, c'est sur le statut de ces états qu'ont surtout porté ses réflexions et ses enseignements ultérieurs. Dans une première acception, la langue comme état, c'est un « réservoir » (ou un « trésor ») de valeurs signifiantes issues des textes, telles que celles-ci se « déposent » dans le « cerveau » du sujet parlant.
+« Tout ce qui est amené sur les lèvres par les besoins du discours, et par une opération particulière, c'est la parole. Tout ce qui est contenu dans le cerveau de l'individu, le dépôt des formes entendues et pratiquées et de leur sens, c'est la langue. » (in Komatsu & Wolf, Cours I, 1996, pp. 65 - 66)+
Si Saussure considère ici que ce dépôt est localisé « dans le cerveau », dans d'autres passages il peut mentionner tout autant « la conscience des sujets parlants » ou la « sphère associative interne », ces diverses expressions désignant manifestement ce que nous qualifions d'appareil psychique des personnes. Il ajoute que les formes intériorisées sont réorganisées dans cet appareil : elles y font l'objet de classements donnant lieu à la constitution de séries de termes entretenant entre eux des rapports de ressemblance-différence, selon des critères d'ordre phonique ou sémantique. Si elles sont bien issues des textes, les entités signifiantes s'organisent donc dans la sphère associative interne sous des modalités différentes de celles de l'organisation linéaire de la textualité, et cette organisation constitue un premier "degré" d'état de langue, que nous qualifierons de langue interne. Mais Saussure a soutenu que la langue avait aussi son siège dans la collectivité : « La langue est l'ensemble des formes concordantes que prend [le] phénomène [de langage] chez une collectivité d'individus et à une époque déterminée » (2002, p. 129). Dans cette autre approche, il souligne que la langue demeure toujours sous le contrôle ultime du social, en l'occurrence des accords ou conventions qui s'y établissent. Cet état de langue collectif est donc le niveau où s'exerce l'activité normative des générations de locuteurs, et nous le qualifierons dès lors de langue normée ("degré" de langue qui est par ailleurs celui que tentent d'appréhender et de décrire les grammairiens ou linguistes).
+Pour résumer la position de Saussure quant aux unités d'analyse possibles d'une science du langage, on peut considérer que celui-ci pose d'abord deux entités dont l'étude semble ne pas pouvoir relever de la seule linguistique : l'activité langagière d'une part, la langue universelle d'autre part, en tant que stock de ressources dont l'extension semble finie. Mais il soutient aussi que la mise en oeuvre effective de ces deux entités par les groupes humains, dans des circonstances historiques et géographiques variables, requiert la prise en compte des trois autres entités, qui constituent les véritables objets d'une science du langage.
+Une telle approche rompt radicalement, on le constate, avec l'un des principes de la tradition logico-grammaticale et du générativisme, en ce qu'elle pose que, plutôt que d'être des produits de la mise en oeuvre d'un hypothétique appareil langagier universel, les textes/discours sont au contraire à la source même de la constitution de la langue interne et de la langue normée. Elle conduit aussi à ne pas sous-estimer le rôle de la langue, dans la mesure où les trois entités identifiées sont fondamentalement interdépendantes et sont le siège d'un mouvement dialectique permanent : les signes et leurs valeurs sont mis en oeuvre dans les textes ; ils font l'objet d'une appropriation par les personnes et se réorganisent dans leur appareil psychique selon les modalités singulières (langue interne) ; ils sont ensuite extraits de ce même appareil pour être réinjectés dans de nouveaux textes, sous le contrôle de la langue normée, la dimension individuelle de ce dernier processus étant à l'origine des dimensions créatives des nouvelles productions, la dimension sociale de leurs dimensions reproductives.
+Dans l'Essence double, dans diverses notes et dans le Cours I, Saussure a décrit de manière détaillée les opérations impliquées dans la construction des signes ; opérations qu'il a conçues comme se déployant simultanément, ou encore comme étant interdépendantes, comme en atteste sa désormais célèbre formulation du quaternion :
+ +Un premier mécanisme réside en la constitution des images acoustiques sur un versant, des images de sens sur un autre, par traitement des entités matérielles sonores ou des entités mondaines référentielles, mécanisme qui ne mobilise en réalité que les processus élémentaires d'assimilation, d'accommodation et d'équilibration dont Piaget a démontré qu'ils interviennent dans la constitution de tout type d'image mentale. Un second mécanisme réside en la sélection d'une image de chacun des deux registres, au sein d'un ensemble associatif à la fois socialement pertinent et personnel ; le processus de différenciation-opposition ici impliqué est également élémentaire et mobilisable dans bien d'autres traitements cognitifs. Le troisième mécanisme consiste enfin en l'« accouplement » des deux images par association ; association qui est certes constitutive des termes auxquels elle s'applique, mais ce type d'association formative ne constitue pas un phénomène unique ou spécifiquement langagier : les behavioristes aussi bien que Piaget en ont décrit de nombreux exemples dans bien d'autres types de traitement cognitif.
+Les processus mis en oeuvre dans la construction des signes sont comme on le constate les processus interactifs hérités de l'évolution, et c'est en cela que la démonstration saussurienne nous paraît capitale. Cette construction se situe dans le prolongement direct des processus communs au vivant : c'est l'aspect de continuité évoqué plus haut ; mais une fois constitués, ces signes transforment radicalement le psychisme hérité et le font passer, comme disait Vygotski, du régime bio-comportemental au régime socio-historique : c'est l'aspect de rupture également évoqué. Le signe est donc le lieu même de la continuité-rupture, et l'élément déterminant de la rupture humaine tient au fait que les processus hérités s'appliquent non plus seulement à des objets physiques comme dans le monde animal, mais à des objets sociaux, à ces « petits bruits émis par la bouche » selon l'expression de Bloomfield, qui sont conventionnellement associés à des dimensions de l'activité humaine. En d'autres termes, les signes ont cette propriété radicalement nouvelle dans l'évolution de constituer des cristallisations psychiques d'unités d'échange social, et c'est cette socialisation du psychisme qui est fondatrice de l'humain.
+Voloshinov (1929/1977) a jeté les bases d'une approche radicalement nouvelle du statut des textes et de leur rôle dans le déploiement de la vie psychique et sociale, dont nous ne pourrons relever que trois aspects centraux dans le cadre de cette contribution.
+Comme nombre de linguistes russes des années 20, cet auteur était engagé dans le débat sur le statut des oeuvres littéraires/poétiques, et critiquait fermement la position des "formalistes", en soutenant que ces oeuvres constituaient des produits de modalités particulières de communication sociale, et qu'elles devaient en conséquence être appréhendées en tant que formes textuelles spécifiques, en une démarche comparant leurs conditions de production et leurs propriétés internes avec celles des textes "ordinaires". Et c'est cette position continuiste qui l'a conduit à généraliser la notion de genre à toutes les sortes de textes, et à tenter de définir ces genres en se fondant essentiellement sur le type d'interaction sociale/verbale dont ils étaient le produit. Il a soutenu en outre que la méthodologie d'analyse des textes devait s'organiser en un programme descendant, consistant à étudier d'abord les activités d'interaction verbale dans leur cadre social, à identifier ensuite les genres textuels mobilisés dans ces interactions, et à procéder enfin à l'examen des multiples propriétés linguistiques formelles de chacun des genres. Programme qui a orienté, comme on le sait, une large part des courants contemporains d'analyse de discours.
+Cette approche des textes s'inscrivait cependant pour Voloshinov dans une perspective bien plus large, ayant trait au rôle que jouent les productions verbales dans le développement psychologique et social. Il soutenait d'un côté que les configurations de signes attestables dans les textes (ou, en termes saussuriens, la réélaboration permanente des valeurs de ces signes dans la textualité) constituaient une forme de réfraction de l'idéologie ambiante ou de la « psychologie du corps social », et d'un autre côté, adhérant explicitement aux thèses de Vygotski, il soutenait que c'est l'appropriation et l'intériorisation des signes véhiculés par les textes qui constitue la condition du développement psychologique permanent des personnes. Sous ce dernier angle, l'approche de Voloshinov est d'une part compatible avec celle de Saussure, en ce que tous deux posent que les valeurs signifiantes de la textualité font l'objet d'une intériorisation, et se réorganisent donc nécessairement dans ce lieu d'ancrage que constitue la langue interne ; elle pose d'autre part que les textes constituent un lieu de vie intermédiaire des représentations humaines, ou encore un lieu de mise en interface entre les représentations collectives et les représentations individuelles, telles que les avait analysées Durkheim.
+Si elles n'avaient que partiellement été abordées par Voloshinov (dans ses études des diverses formes de discours rapporté - op. cit., pp. 161 - 220), les modalités de structuration interne des textes ont depuis lors fait l'objet de nombreuses études, ayant abouti à d'importants modèles de l'architecture textuelle, dont notamment celui élaboré par Adam dans une perspective plutôt ascendante (centrée sur l'articulation des propositions, des macro-propositions et des séquences) et celui élaboré par Rastier, dans une perspective clairement descendante (centrée sur les parcours isotopiques de significations). Nous nous permettrons d'évoquer ici notre approche propre (cf. Bronckart 1997b) qui est centrée sur les types de discours, comme entités structurantes intermédiaires, en ce qu'elles sont d'un côté infraordonnées eu égard aux genres et d'un autre côté constituent les cadres linguistiques de rang supérieur régissant la distribution d'une bonne part des marques syntaxiques et énonciatives. Ces types correspondent aux « modes d'énonciation » dont Genette (1986) avait clairement souligné qu'ils ne devaient pas être confondus avec les genres, et ils se construisent sur la base de deux types d'opérations. Les premières explicitent le rapport existant entre les coordonnées organisant le contenu thématique d'un texte et les coordonnées du monde externe dans lequel se déploie l'action langagière dont le texte est issu. Les secondes ont trait à la mise en rapport entre, d'une part les différentes instances d'agentivité (personnages, groupes, institutions, etc.) et leur inscription spatio-temporelle, telles qu'elles sont mobilisées dans un texte, et d'autre part les paramètres matériels de l'action langagière en cours (agent producteur, interlocuteur éventuel et espace-temps de production). Pour le premier type d'opération, soit les coordonnées du monde discursif sont présentées comme clairement disjointes de celles du monde de l'action langagière, soit cette mise à distance n'est pas opérée, et les deux sortes de coordonnées sont dès lors nécessairement conjointes. Cette première distinction revient ainsi à distinguer les mondes discursifs de l'ordre du RACONTER vs de l'ordre de l'EXPOSER. Pour le second type d'opération, soit un segment de texte explicite le rapport que ses instances d'agentivité entretiennent avec les paramètres matériels de l'action langagière, soit ce rapport n'est pas explicité et les instances d'agentivité entretiennent alors un rapport d'indifférence avec les paramètres de l'action langagière en cours. Une seconde distinction générale peut ainsi être posée entre les mondes discursifs exhibant, soit un rapport d'implication, soit un rapport d'autonomie, à l'égard des paramètres de l'action langagière. En croisant ces deux distinctions, on aboutit alors à l'identification de quatre mondes discursifs, qui sont traduits par ces configurations d'unités et de processus linguistiques que nous qualifions de types de discours : le monde de l'EXPOSER impliqué se réalise en discours interactif, le monde de l'EXPOSER autonome en discours théorique, le monde du RACONTER impliqué en récit interactif et le monde du RACONTER autonome en narration.
+Notre modèle pose ensuite l'existence de divers mécanismes contribuant à l'instauration de la cohérence thématique (connexion, cohésion nominale) et de la cohérence interactive (voix et modalisations), procédés abondamment décrits en linguistique textuelle, mais que nous analysons dans leurs rapports de dépendance, soit avec les types de discours qu'ils "traversent", soit avec le genre dont relève l'ensemble du texte. Si ce modèle demeure bien évidemment imparfait et pourrait notamment, comme nous l'avons montré (cf. 2008), être complété par l'introduction de certains mécanismes mis en évidence par Rastier, pour la problématique qui nous occupe, l'important est que soient réellement pris en compte et analysés les niveaux de structuration intermédiaire de la textualité.
+Dès lors que l'on adhère à la thèse du rôle décisif que joue le langage dans la constitution et le développement de l'espace gnoséologique humain, la linguistique nous paraît pouvoir et devoir contribuer à la démonstration de trois des effets constitutifs de ce langage.
+Le premier concerne la constitution des unités de pensée, et l'analyse saussurienne des signes évoquée plus haut nous paraît en fait avoir déjà réglé la question. Dans la mesure où les signes sont arbitraires, ou n'ont aucun fondement substantiel, leur intériorisation aboutit à la constitution d'entités internes qui, à la différence des images du psychisme animal, ne sont plus dépendantes des conditions de renforcement du milieu ; et cette autonomie leur confère une première caractéristique, de permanence et de stabilité (les représentations humaines persistent même lorsque s'éteignent les renforcements qui les ont suscitées). Ensuite, dès lors que la face signifiante du signe est constituée d'une image acoustique délimitée, le signifié qui y correspond se présente lui-même comme une entité mentale circonscrite : le signifié est, comme le soulignait De Mauro (1975, p. 438, note 128), un « analyseur » ou un « organisateur » qui fédère en une unité stable un ensemble d'images référentielles à caractère jusque-là idiosyncrasique. Et l'existence de telles unités constitue la condition sine qua non du déploiement des opérations de pensée (ces dernières requièrent en effet l'existence de termes stables auxquels s'appliquer). Enfin, les signes sont des entités dédoublées : ils sont constitués d'« enveloppes sociales » (selon la formule de Sapir, 1921/1953, p. 20) qui renvoient à des ensembles d'images individuelles en même temps qu'elles les rassemblent, enveloppes dont la face sonore est par ailleurs perceptible et traitable ; et c'est cette accessibilité d'entités à pouvoir dédoublant qui rend possible le retour de la pensée sur elle-même, ou encore la capacité de conscience. Ce à quoi il convient d'ajouter qu'étant donné l'origine sociale-conventionnelle des signifiants, la subsomption que ces derniers opèrent sur les images mentales idiosyncrasiques des individus ne peut jamais être complète, ou encore que ce processus laisse nécessairement du « reste représentatif » qui n'est évidemment pas sans rapport avec ce que l'on qualifie d'inconscient.
+Pour aborder les deux autres types d'effets potentiels, qui restent quasi totalement à élucider, il nous paraît nécessaire de prendre appui d'abord sur des propositions ou des acquis émanant de trois auteurs déjà abondamment convoqués.
+Saussure, s'il a surtout analysé des entités de la taille du mot, soutenait cependant que toutes les entités langagières relevaient de la sémiologie (« Sémiologie = morphologie, grammaire, syntaxe, synonymie, rhétorique, stylistique, lexicologie, etc., le tout étant inséparable » - 2002, p. 45). Ce qui signifiait pour lui que les syntagmes, les structures prédicatives ou les mécanismes de textualisation devaient exhiber des propriétés analogues à celles des signes-mots, dont notamment l'arbitraire radical, et donc témoigner d'une autonomie eu égard à ces "correspondants" référentiels que constituent notamment les opérations cognitives. Cette hypothèse est peut-être trop forte, mais en tout état de cause, la question du taux d'arbitraire dont témoignent les entités supra-ordonnées aux mots mérite un sérieux examen, et est liée à la problématique des deux autres types d'effets potentiels qui seront évoqués ci-dessous.
+Piaget a proposé une analyse des conditions de transformation de l'intelligence sensori-motrice en une pensée opératoire consciente que nous avons contestée, mais nous ne pouvons contester par contre son analyse des résultats de cette transformation, à savoir la construction d'opérations de pensée à caractère formel, organisées en une logique abstraite. Si, comme nous le soutiendrons ci-dessous, les opérations cognitives initiales (de 2 à 5 ans environ) procèdent directement de l'intériorisation des structures prédicatives de la langue d'usage et sont donc "marquées" par les propriétés particulières de cette langue, la mise en oeuvre des processus d'abstraction réfléchissante et de généralisation, telle que l'auteur l'a analysée, fait en sorte que se construisent progressivement ensuite des opérations dégagées des contraintes sémantico-syntaxiques du langagier, ou encore des opérations proprement cognitives, qui co-existent dès lors avec les opérations sous-tendant la gestion d'une langue particulière.
+Vygotski a thématisé à sa manière cette co-existence, en soutenant que si le langage constitue le produit de la « fusion » de capacités communicatives et cognitives antérieures et « primaires », cette fusion n'est jamais totale, et que l'humain dispose donc nécessairement et d'une « pensée verbale » et d'une « pensée non verbalisée ». Et, ayant analysé, dans des corpus de textes, les décalages qui se produisent entre le plan des structures de signifiants formels et celui des construits cognitifs référés, il a soutenu que la perception et le traitement de ces décalages constituaient les conditions mêmes de la poursuite du développement psychologique :
+« Partout -dans la phonétique, la morphologie, le lexique, la sémantique, et même dans la rythmique, la métrique et la musique- des catégories psychologiques se cachent derrière les catégories grammaticales ou formelles. Si dans un cas elles se recouvrent apparemment, dans d'autres elles divergent [...] Cette discordance, loin d'empêcher la pensée de se réaliser dans le mot, est la condition nécessaire pour que le mouvement de la pensée au mot soit possible. » (1934/1997, pp. 433 - 434)+
C'est sur ces bases que nous paraissent pouvoir être abordés les deux autres types d'effets constitutifs.
+Comme Piaget l'avait relevé, les opérations cognitives de base relèvent de l'implication de significations : elles ont un caractère probabiliste ou normatif et ne peuvent pour cette raison dériver directement de la logique de nécessité des enchaînements causaux. Or ce caractère normatif se rencontre dans les structures prédicatives de base des langues naturelles, et plus précisément dans les modalités de réfraction que proposent ces structures du caractère probabiliste des actions humaines. Et deux questions méritent dès lors un sérieux examen empirique : par quels processus, dans un premier temps développemental, l'appropriation et l'intériorisation des structures prédicatives d'une langue génèrent-elles ces formes d'opérations imparfaites, ou déterminées linguistiquement et contextuellement, que Piaget a qualifiées d'« opérations concrètes » ? Par quels processus, dans un second temps développemental, ces opérations peuvent-elles se dégager de ces déterminations pour devenir « formelles » ?
+S'agissant des opérations cognitives plus complexes, le même type de question peut être posé, en prenant en compte cette fois les niveaux de structuration intermédiaire de la textualité. De nombreux auteurs ont soutenu avec pertinence que le développement des identités personnelle ou sociale ne pouvait pas être sans rapport avec celui de la maîtrise des mécanismes de gestion des voix et des modalisations requise par la production textuelle. Nous soutenons pour notre part que le développement de la maîtrise des types de discours ne peut pas être sans rapport avec la construction des types de raisonnements (raisonnements par schématisation impliqués dans les discours interactifs ; raisonnements causaux-chronologiques impliqués dans les récits et les narrations ; raisonnements d'ordre logique et/ou semi-logique impliqués dans les discours théoriques), et nous soutenons également que la maîtrise des modalités de structuration temporelle propres aux types de discours constitue sans doute la condition du développement des diverses formes sociales d'appréhension et d'organisation du facteur Temps. Quelques recherches sont actuellement en cours sur ces thèmes (cf. Bulea & Bronckart, sous presse), mais le chantier est vaste ...
+Une science humaine adossée à l'épistémologie interactionniste sociale a besoin de la linguistique, comme nous espérons l'avoir montré. Mais pour conclure avec l'engagement qui a caractérisé cette intervention, nous nous permettrons d'énoncer trois convictions, ou trois conditions d'efficacité de la contribution souhaitée.
+Accepter d'abord que tous les objets d'une science du langage ont une dimension fondamentalement sémiotique, que le langage et les langues sont avant tout des instruments de création de signification ; « mettre la question du sens sous le paillasson » a évidemment constitué de ce point de vue une erreur fondamentale.
+Accepter aussi que la réalité première du langage est d'ordre praxéologique ; que le premier niveau empirique de la vie d'une langue est constitué de textes, dans leurs rapports aux activités humaines et à leur contexte, et que toute méthodologie d'analyse doit présenter dès lors un caractère descendant, des structures globales vers les structures et entités locales.
+Reconsidérer enfin, dans une perspective réellement dialectique, les rapports entre les pratiques textuelles empiriques et ces vécus du langagier que constituent la langue personnelle et la langue de la communauté.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé + par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Pourquoi une linguistique de l'écrit ? Quelles sont les demandes spécifiques adressées au linguiste, quels sont les modèles d'analyse qui permettent d'en capter la dynamique particulière ? Enfin, comment s'opère le glissement de l'écrit au texte littéraire, retenu ici, et à la reconnaissance d'un style littéraire ?
+Un début de réponse est fourni par J. Gardes-Tamine (2004 : 31) : l'écrit constitue un « terrain d'observation beaucoup plus fécond que l'oral ». Il est crédité d'un atout de taille : soumettant à l'attention du linguiste des configurations sémanticosyntaxiques qui questionnent une conception normative de la langue et en éprouvent les limites, il offre un accroissement des possibilités d'analyse. J. Gardes-Tamine avance deux raisons au moins : un degré de maîtrise du projet d'expression plus important et la mise à contribution de la dimension spatiale.
+Il semble ainsi possible de circonscrire le champ où opère une grammaire de l'écrit : une meilleure planification et gestion du déploiement du texte soumet à l'analyse une plus grande variété d'agencements à l'intérieur de la phrase, d'enchaînements interphrastiques responsables de la cohésion textuelle ou de configurations construisant la cohérence globale ; enfin, la spatialisation peut non seulement soutenir la mémorisation discursive mais se charger de « valeurs symboliques » (ibid. : 38). En définissant le style comme « l'utilisation optimale et concertée des possibilités qu'offre la langue et non comme un écart par rapport à une norme, à supposer qu'on arrive à la fixer » (ibid. : 29), J. Gardes-Tamine ménage le passage à l'écrit et au style littéraires, en le faisant apparaître, à la suite de C. Bally (voir aussi Adam, 1997 : 11), comme une différence surtout de degré.
+En même temps, J.-M. Adam a montré que la différence entre la « grammaire » de l'écrit et la « linguistique » de l'écrit n'est pas que d'ordre lexical (ibid. : 21). Dans la perspective de l'Analyse de discours, le texte littéraire est appréhendé non seulement comme un « espace de réalisation de la langue », mais comme « un événement socio-discursif » (ibid. : 9 - 10), en relation avec le contexte de la production du discours, de sa circulation et de sa consommation. L'hypothèse à la base de cette réflexion est alors la suivante : si la dynamique de l'écrit peut être captée à travers l'agencement de la grammaire avec les approches de la linguistique textuelle, énonciative et pragmatique, les travaux de rhétorique et de poétique, il incombe au champ stylistique, à définir dans le cadre englobant fourni par l'Analyse de discours, d'accueillir la stratification des plans de structuration ; allant à l'encontre d'une « démarche conjoncturelle de récupération et d'intégration-articulation oecuménique » (Adam, 2002 : 72), le récepteur gagne à réinterroger l'entrejeu des catégories d'analyse convoquées à partir d'un socle tensif.
+Dans la première partie, l'accent sera mis sur les opérations qui, à partir du principe tensif, doivent permettre de rendre compte de la dynamique textuelle et discursive. Il s'agira, ensuite, d'instaurer un va-et-vient entre la réflexion théorique et l'étude d'exemples empruntés à Julien Gracq et à Michel Butor, en sélectionnant comme entrée pertinente une des spécificités de l'écrit : l'aménagement du support de l'écriture. On montrera en quoi la complexité de la construction de l'espace aux différents niveaux d'appréhension (le cadre phrastique, la page, le livre) et les formes de « marquage » du support (à travers les ressources typographiques) contribuent à la construction du sens et à la production d'effets de style.
+Selon J. Fontanille (1999 : 189), si le style apparaît comme une notion « préthéorique », qui appelle en tant qu'objet de connaissance une pluralité de points de vue subjectifs relevant plus ou moins de l'intuition, il est possible de réunir « un petit nombre d'alternatives et de traits communs » complémentaires, caractéristiques du « domaine à explorer ». Ce sont les modalités de cette complémentarité que l'on vise à interroger ici, en proposant une définition du champ stylistique. Dégageant trois propriétés, on tentera de prendre, à chaque fois, la mesure de quelques-unes des conséquences épistémologiques et méthodologiques des choix opérés et des questions ainsi soulevées.
+i) Le champ stylistique se construit à la faveur d'une interaction entre le sujet récepteur, doté d'une compétence linguistique et encyclopédique, et le texte, pourvu d'une morphologie déterminée, qui contraint plus ou moins sa réception. Ainsi, le champ stylistique prend forme, selon des modes variables à déterminer, à partir du « champ de discours » constitué par le sujet d'énonciation en production, l'appréhension, à la fois sensible et cognitive, devant actualiser les potentialités en mettant au jour la congruence locale des traits structurants, voire la cohérence globale.
+Trois points méritent d'être examinés. D'abord, en mettant en avant les exigences de l'analyse immanente, la saisie du texte (de portions de texte) comme un ou des « touts de signification » a le mérite de poser la question de la fixation des limites. Celle-ci semble, en effet, être au coeur de la définition du champ stylistique relativement à un texte, c'est-à-dire en relation avec au moins une « concrétion en un certain sens matérielle, matérialisable en tout cas, ne serait-ce qu'en raison de l'exploitation de la substance de l'expression (le son, et les graphèmes sur la page) » (Molinié, 1994 : 205). En effet, comme nous y invitera la question de la matérialité du texte, le point de vue stylistique doit, à un moment donné, être articulé avec d'autres points de vue, notamment dans le cadre des « pratiques intersémiotiques » (Maingeneau, 1984 : 13). Ensuite, le champ stylistique doit être considéré comme traversé par des tensions renvoyant à des rapports graduables entre le local et le global, entre l'intra-, l'inter- et le contextuel. À partir d'un ensemble de marques identifiables dans le tissu textuel, l'analyse stylistique doit restituer et déployer les processus et les formations signifiantes à l'origine de déterminations ordonnables suivant un mouvement d'intégration croissante. Ainsi, l'analyse stylistique étant de type interactif, il faudra se doter des moyens conceptuels qui rendent possible une analyse rigoureuse des régimes de la réception, en fonction des « modes de présence » des « faits de style », qu'ils soient de nature textuelle, inter- ou contextuelle, au sein du champ stylistique.
+ii) Conçu dans une extension large, le champ stylistique accueille des manifestations stylistiques qui peuvent être décrites à partir des oppositions croisées « singulier » vs « collectif » et « littéraire » vs « non littéraire » (ou « ordinaire »). La réflexion prend ainsi appui sur une conception « continuiste » de la langue au style (Jaubert, 2005 et 2007), qui met en avant le rapport dialectique entre les dimensions singularisante et universalisante du style. De ce point de vue, il faut s'interroger sur les conditions auxquelles le style littéraire peut être appréhendé dans son devenir à partir d'autres ensembles signifiants, plus ou moins individualisants ou collectifs (cf. Adam, 1997).
+On retiendra essentiellement deux questions. Celle de la littérarité, tout d'abord, que G. Molinié aborde en dégageant trois « composantes » considérées comme « définitoires de la littérarité » au niveau général :
+Par un groupe de procédures qu'il faut poser et appliquer, on doit arriver à détecter des stylèmes de littérarité générale, qui différencieront le texte romantique du texte commercial. Ces procédures, en sémiostylistique, consistent à tester dans quelle mesure le discours analysé satisfait les trois composantes qui, dans cette théorie, sont définitoires de la littérarité : le discours littéraire (de l'intérieur) est son propre référent, il est régi selon un double fonctionnement sémiotique, et enfin il n'existe que dans l'acte de désignation, en tant qu'il est perçu par un récepteur (1994 : 202).+
Dans le cadre d'une réflexion sur la réception des faits de langue comme « faits de style », on propose d'articuler la gradualité des « effets de littérarité » avec les « effets d'identité » dont le style est producteur. Si l'on considère avec J. Fontanille (1999 : 195) que le style combine des « identités textuelles », qui concernent le « texte, comme espace de distribution des effets », et des « identités discursives », en rapport avec le « domaine des valeurs, des modalités et des actes de langage », la mise à nu des valeurs esthétiques, définitoires du texte littéraire, mais aussi esthésiques et éthiques est du ressort de l'analyse stylistique plus que de celui d'autres approches, concurrentes.
+La deuxième question ne concerne pas seulement la dimension collective ou particularisante du style, mais encore la nécessité d'articuler le « modèle stylistique » avec des modèles d'explication qui débordent le texte et le subsument : il faudra ouvrir le débat en direction, d'une part, de modèles généralisables dont les textes littéraires sont des actualisations parmi d'autres et, d'autre part, de styles ou « formes de vie ».
+iii) L'interaction entre le sujet lecteur et l'objet-texte prend la forme de stratégies d'analyse mettant en oeuvre des régimes, à définir en intensité (affective) et en étendue textuelle (saisie cognitive), spécifiques. Le champ stylistique est ainsi conçu comme un champ tensif. En effet, du point de vue de son organisation topologique, il comporte, comme tout autre champ, un centre ou noyau, mais aussi des zones plus ou moins périphériques, des horizons ou frontières en direction du hors-champ ; il est à géométrie variable, avec des frontières et des parois internes, dont la mobilité est fonction des régimes retenus.
+Ces points seront examinés à la lumière du modèle tensif développé, surtout, par J. Fontanille (1998, 1999 ; Fontanille & Zilberberg, 1998) et à partir des propositions d'A. Herschberg Pierrot : « Percevoir le style en tension, c'est considérer le texte de l'oeuvre comme du continu, un continu actionnel et réactionnel avec soi-même et avec les autres textes » (2005 : 44). Adoptant un point de vue méta-critique, on appliquera le principe tensif à la pratique stylistique elle-même, en s'interrogeant sur le choix des stratégies d'analyse au contact des faits de langue ou de style. L'hypothèse est qu'en mettant en avant les « réglages » interactionnels entre le récepteur et l'objet d'analyse, le cadre conceptuel tensif permet une approche unifiée de l'entrejeu des différentes dimensions du texte au sein du champ stylistique et des pratiques d'analyse suscitées et autorisées.
+Ainsi que le souligne J.-M. Adam (1997 : 10), les textes littéraires peuvent apparaître, du point de vue de la linguistique, comme des lieux privilégiés de manifestation des potentialités de la langue, où se déploient des « variations infinies ». La question n'est pas seulement de réfléchir à l'apport de la linguistique à la stylistique littéraire, mais de s'interroger sur le « supplément » de sens ou de valeur que celle-ci confère à celle-là : comme le note J.-M. Adam (ibid. : 9), « l'adoption d'un point de vue linguistique sur les textes littéraires doit entraîner une véritable reconception de la stylistique et l'attention au style, en retour, une redéfinition de la grammaire elle-même ».
+Approchée sous cet angle, l'étude stylistique est pourvue, d'emblée, d'une visée : il s'agit de mettre en évidence des relations entre les faits de langue qui, de l'unité inférieure au mot ou au syntagme, à la construction morpho-syntaxique, aux enchaînements interphrastiques, à tel type de progression textuelle, trouvent à signifier au sein du champ stylistique. Le prélèvement et le regroupement de faits pertinents peut paraître malaisé : le style échappe, selon C. Metz (1991), à l'activité métadiscursive déployée par l'énonciation et se résume à une « manière d'être » plus ou moins diffuse, plus ou moins discrète. Les principes guidant le prélèvement des éléments n'en sont pas moins énoncés avec force. Combinant forme et substance du contenu et de l'expression, G. Molinié décline quatre composantes du style :
+a/ au niveau de la substance du contenu, une unité globale très partagée ; b/ des structures fantasmatiques, imageantes récurrentes, ce qui nous conduit sans doute dans la forme du contenu, de même que c/ des schémas rhétoriques expressifs ; d/ enfin, au niveau de la forme de l'expression, un stock lexico-figuré et des tours de phrase, ce qui correspond, dans la tradition rhétorique, à l'élocution, c'est-à-dire exactement à la définition rhétorique du style (1994 : 205 - 206).+
On peut encore citer N. Batt (1997 : 128) au sujet des quatre conditions de réussite d'une lecture « artistique » selon Lotman : pour mettre en oeuvre une « corrélation dynamique », elle nécessite i) une indétermination de départ, qui peut correspondre aux « blancs » d'Iser, ii) la reconnaissance d'une base structurelle abstraite, iii) l'établissement d'un rapport entre oppositions aux niveaux concernés et iv) la réduplication des processus à un ou plusieurs niveaux d'analyse. Enfin, en ce qui concerne les choix méthodologiques, la lecture du texte littéraire requiert en même temps que la compréhension de l'ensemble, une dissociation et une autonomisation des éléments qui entrent en contact les uns avec les autres, auxquelles on ajoutera les opérations de la commutation et de la catalyse ; enfin, les éléments sont réassociés, à la faveur d'une opération de translation, dans des configurations originales.
+Les exigences liées à l'analyse stylistique se précisent d'emblée : elle doit éviter le risque d'un rattachement presque mécanique des traits isolés aux différents niveaux à un schéma de base les subsumant. Le champ stylistique doit être conçu de telle sorte que la circulation du sens soit préservée, que des prédications imprévues, la dynamique d'un processus de réajustement ou de re-construction toujours à l'affût des indéterminations ou des inconsistances décelées rendent compte du style comme « processus », en préservant « la possibilité de hiérarchies mouvantes, de principes organisateurs en tension les uns avec les autres » (Herscherg Pierrot, 2005 : 43). D'où l'importance de la notion de variation que G. Molinié intègre dans sa définition du stylème :
+On peut fixer un type d'objet décrit, et faire défiler tous les systèmes expressifs rattachables au même principe de le décrire, ou fixer un système expressif parmi le tout répertorié, et faire défiler la plus grande quantité de types d'objets décrits, chacun muni du trait spécifique de la catégorie (1994 : 204).+
D'où l'intérêt d'une approche tensive qui, en plaçant le principe de la gradualité au coeur de l'interaction entre le sujet récepteur et l'objet d'analyse, permet d'appréhender des « événements » et des « faits de style » dans un cadre conceptuel unifié, en en examinant le « mode de présence » au sein du champ stylistique. La définition du « fait de style » proposée par J.-M. Adam sert de base à la réflexion :
+Par rapport à la reprise d'un ensemble de traits microlinguistiques qui caractérise, selon moi, un style, je définirai un fait de style comme un fait ponctuel de texture attendu ou inattendu au regard du style d'une oeuvre, d'un auteur, d'un genre ou d'une école donnés. Un fait de style est donc le produit perçu d'une récurrence ou d'un contraste, d'une différence par rapport à des régularités micro-linguistiques observées et attendues d'un texte, d'un auteur, d'une école, d'un genre (1994 : 19).+
On voit ici s'esquisser le continuum sur lequel se déploient les différences de saillance et de densité des faits de langue retenus, en fonction de leur fréquence et de la qualité ressentie en réception. Grâce au principe tensif, on peut montrer en quoi ces différences commandent, en partie, les stratégies d'analyse du récepteur. D'un côté, on rend compte de l'action exercée par les « faits de style » sur le récepteur, dont ils captent l'attention selon des régimes à intensité variable et dont ils contraignent plus ou moins l'interprétation ; de l'autre, il est possible de décrire les degrés de l'implication vive du récepteur (axe de l'intensité), mais aussi les efforts déployés, en fonction de sa compétence linguistique et encyclopédique et en fonction du degré d'accessibilité des faits retenus, pour construire une cohérence (l'axe de l'étendue concerné par les degrés de l'élaboration cognitive). Globalement, la réception fait émerger des indices localisables à différentes strates, pour les nouer en faisceaux et construire une cohésion et une cohérence plus ou moins strictement poursuivies. La mise en évidence des régimes à partir des corrélations entre les dimensions continues de l'intensité sensible (perceptive ou affective) et de l'étendue (saisie cognitive) permet alors de concilier deux points de vue : celui des « effets d'identité » produits par les faits de langue convertis en « faits de style » et celui des « styles » d'analyse propres aux récepteurs, l'essentiel se jouant à leur point de rencontre, là où se négocient les stratégies qui les mettent en oeuvre. Par ce biais, l'approche tensive prend en considération le volet perceptivo-cognitif et sensible de l'analyse stylistique.
+Ouvrant l'éventail des positions stratégiques, on peut décliner au moins quatre régimes de la réception différents. Contrant sans doute le danger d'une circularité qui voudrait que les faits de langue sélectionnés soient appelés à légitimer la base qu'ils ont façonnée, le régime englobant se saisit de « tous les détails » d'un texte et révèle un « effet d'identité » fort (intensité et étendue fortes). Pour que le degré de saturation maximale soit atteint, sans doute faut-il que soient également pris en considération le côté palpable (sonore, visuel...) des signes, la matérialité du support de l'écriture, voire, plus généralement, l'adéquation entre le dit et le dire, quand, comme l'écrit D. Maingeneau (1999 : 80), « les "idées" se présentent à travers une manière de dire qui renvoie à une manière d'être, à la participation imaginaire à un vécu ». Face au « plein » d'indices, M. Riffaterre (1971 : 144) considère, pour sa part, qu'un « pas décisif a été fait vers la solution du problème du style lorsque [...] au lieu d'étudier également tous les aspects d'une structure, on s'est limité à ceux dont la perception est imposée au destinataire de l'acte de communication ». On ajoutera qu'un fait de langue circonscrit peut être « saillant » et être perçu comme un « événement stylistique » (intensité forte, étendue restreinte), mais aussi passer inaperçu (intensité et étendue faibles) ; de même, les occurrences multiples d'un fait de langue dans l'espace-temps du texte peuvent produire un effet cumulatif (intensité assez forte et prise en considération de vastes étendues textuelles) ; il se peut, enfin, que l'impact faiblisse proportionnellement à l'augmentation du nombre des répétitions (intensité faible et étendue forte).
+Sur le fond d'une dialectique des projets de singularisation et des pressions exercées par les données socioculturelles et les codifications génériques, on se donne ainsi les moyens de rendre compte des positions s'échelonnant entre deux pôles : l'attendu, ce qui conforte l'« effet d'identité » produit par une oeuvre, et la surprise ponctuelle. Dans le premier cas, la stratégie stylistique doit être englobante : elle doit rendre compte de la congruence des configurations structurantes avec un effet d'adéquation forte à l'oeuvre, même si l'implication affective est réduite. La surprise ponctuelle, quant à elle, bouleverse les modèles de prévisibilité. Elle risque d'être a-signifiante, dès lors que la stratégie d'analyse, particularisante, se satisfait d'un détail.
+Du point de vue des phénomènes interdiscursifs et intertextuels, percevoir le champ stylistique comme un champ sous tension, c'est focaliser l'attention sur la zone de transition ou de transit où sont logés des apports discontinus, plus ou moins explicites et donc plus ou moins aisés à circonscrire et à identifier. Globalement, on conçoit l'intérêt de la notion de praxis que J. Fontanille définit ainsi :
+[La praxis énonciative] n'est pas l'origine première du discours ; elle présuppose autre chose que l'activité discursive (le système de la langue, mais aussi l'ensemble des genres et des types de discours, ou des répertoires et encyclopédies de formes propres à une culture) ; elle suppose aussi une histoire de la praxis, des usages qui seraient des praxis antérieures, assumées par une collectivité et stockées en mémoire (1998 : 272).+
Elle renoue avec le principe dialogique de Bakhtine et avec l'idée d'un fonds constitué par une hétérogénéité (une interdiscursivité et une intertextualité) jugée constitutive. Surtout, son soubassement tensif permet de rendre compte des degrés de l'assomption (intensité) des mots de l'Autre et de leur déploiement par reprise dans l'étendue du texte d'accueil. Les régimes de l'élaboration stylistique doivent ainsi s'ajuster aux régimes de la reprise. Dès lors qu'il s'agit de mettre l'accent sur l'emprunt et les modulations de sa valeur « selon ses contours plus ou moins nets, selon la souche dont il est issu et selon son point d'insertion » (Jaubert, 1990 : 147), rendre compte du « mode d'existence » en termes de degrés d'intensité et d'étendue permet de montrer, par exemple, comment le choix de la stratégie d'analyse est déterminé par la présence de l'allusion qui, en tant que « reprise non explicite de segments de linéarité [relevant] de la modalité autonymique » (Authier-Revuz, 2000 : 210), combine l'intensité assez forte liée à l'« auto-représentation opacifiante » avec une étendue plus vague ou diffuse que pour la citation. Afin de dégager les dynamiques enclenchées, il importe ainsi de confronter l'allusion, qui fait résonner d'autres occurrences déposées dans la mémoire intertextuelle ou interdiscursive du récepteur et sollicite la collaboration interprétative « en creux », avec la citation, qui porte à un degré suprême l'intensité vive de l'« en-soi » étranger, auquel le texte d'accueil réserve une portion d'étendue délimitée ; quant à l'« îlot textuel », il affiche son origine étrangère tout en bénéficiant d'une intégration forte dans le texte second. L'approche tensive doit ainsi permettre d'esquisser des équilibres fragiles entre les variations intensives et quantitatives relatives à l'appropriation et à la remise en perspective de l'emprunt par l'énonciation seconde, et celles qui continuent à caractériser l'emprunt dans sa matérialité.
+Enfin, ce même cadre tensif permet de caractériser les « modes de présence » des « faits de style » « contextuels », qui portent la marque des échanges plus ou moins continus et diffus avec le « hors-texte », avec les cadres socio-historiques, le contexte de la production, de la circulation ou de la réception, bref, avec les lieux où se décide le devenir des formes d'expression collectives, plus ou moins stabilisées et codifiées, où s'exerce l'arbitrage des « morales du langage » selon Barthes :
+L'Histoire est [...] devant l'écrivain comme l'avènement d'une option nécessaire entre plusieurs morales du langage ; elle l'oblige à signifier la Littérature selon des possibles dont il n'est pas le maître. (1953 et 1972 : 8).+
L'intérêt est non seulement d'accéder aux valeurs (éthiques, esthétiques) attachées aux régimes d'identité sélectionnés, mais encore de rendre compte, à côté des « morales du langage », de « morales de la réception » : c'est à partir des mêmes principes que l'on peut faire ressortir l'obédience au contexte idéologico-culturel des formes que revêt la stylistique (voir Maingeneau 2003 : 15 - 25) ainsi que celle des esthétiques ; c'est par rapport à ces formes et esthétiques que se détermine la valeur d'un texte ou discours, voire celle de l'émotion esthétique, qui comprend elle-même une dimension collective. Si, en dernière instance, la conception du texte littéraire et la définition du champ stylistique, qui s'inspirent et s'étayent mutuellement, doivent être approchées comme des variables tributaires d'un contexte historique, le principe tensif permet de se rapporter à une histoire des formes et des postures critiques, au-delà de la « valeur instrumentale », au-delà même de la valeur intrinsèque du modèle d'analyse, et de la « justesse » relative à un point de vue.
+Dans quelle mesure le point de vue stylistique gagne-t-il à être articulé avec d'autres points de vue, « externes » ? Dans quelle mesure l'analyse qui privilégie le champ stylistique autorise-t-elle, voire appelle-t-elle à dégager, à travers les marques textuelles observables, une activité réflexive qui exige la prise en considération d'autres niveaux de pertinence ? Si l'on admet qu'à ces niveaux s'élaborent des modélisations plus générales, au regard desquelles le texte et le style relatif à une forme singulière idiosyncrasique apparaissent comme des variantes, il paraît utile de confronter les préoccupations du stylisticien avec les travaux sur les régimes réflexifs du discours distingués par J. Fontanille (2003). Pour cerner davantage la spécificité de l'analyse stylistique, médiatisée par le champ stylistique, on note ainsi que l'élaboration, par « conversion », d'une signification d'ensemble cohérente, investie de valeurs esthésiques, éthiques et esthétiques et productrice d'« effets d'identité », est rattachée au poste de la « sémiotique connotative », où la variation est mise au service de la stabilisation intentionnelle d'un invariant identifié. Si l'on admet ainsi l'existence d'une « stylistique connotative », qui rend compte indirectement de la gradualité de l'« appropriation » de la langue selon A. Jaubert (un style, du style, le style ; 2005, 2007), on dira qu'elle se distingue à la fois de l'ébauche de modèle, qui est de l'ordre de la paraphrase - J. Fontanille parle dans ce cas de « modèles ad hoc, de simulacres qui servent de support ou d'alibi à l'intuition » (2003 : 121) - et des modèles généralisables, de type méta-stylistique, qui transforment le texte (l'invariant fourni par les procédés morphosyntaxiques, les figures et thématiques...) en une variante possible. Dans ce cas, le texte n'endosse pas qu'une fonction d'illustration ou de validation du modèle ; il agit sur lui en retour, l'infléchit et le déforme.
+Que le stylisticien ne puisse se désintéresser du devenir du modèle stylistique, de sa possible « conversion » en un modèle plus général, l'analyse de « crises alternatives », selon l'expression de J. Fontanille, ou encore de la survenue d'un « événement de style » en un point du texte l'atteste avec éclat. On songe ainsi aux détournements de proverbes analysés par A. Grésillon et D. Maingeneau (1984 : 121) : ils montrent comment la suspension des valeurs établies, une remise en question des comportements consacrés par l'habitude, mais aussi une remontée dans le sentir grâce à des propositions innovantes rejaillissent avec éclat sur le genre discursif, qui n'est pas dissociable de la pratique du proverbe à l'intérieur d'un espace littéraire et social. Le cas peut paraître exemplaire, dans la mesure où, au-delà de la dimension critique, la « restitution des possibles » peut inspirer un modèle méta-stylistique plus général : grâce à la « praxis énonciative » qu'il présuppose et qu'il alimente à son tour, ce modèle redéploie les modalités du fonctionnement de l'écriture proverbiale et les enjeux y relatifs ; ïl la situe par rapport à d'autres formes d'expression non figées et subsume ses réalisations particulières.
+Enfin, l'analyse stylistique doit-elle articuler le niveau de pertinence du texte, élu prioritairement, avec d'autres niveaux plus englobants (l'objet-livre, les pratiques et les « formes de vie », nécessairement « situés ») ? L'étude de cas, consacrée à des faits typographiques, rendra cette question plus pressante.
+Pour mettre ces propositions à l'épreuve du cas concret, on se demandera, à partir d'extraits de Julien Gracq et de Michel Butor, sous quelles conditions spécifiques des procédés ayant trait à la spatialisation de l'écrit et à la matérialité du support peuvent être réexaminés à la lumière du champ stylistique et, plus largement, d'une pragmatique littéraire. En d'autres termes, sous quelles conditions, et à quels frais, les faits sélectionnés appellent-ils une interprétation qui, à partir d'une position critique elle-même historique, cherche à articuler cohérence idiosyncrasique et morale du langage, singularité du style et inscription socioculturelle, voire invite à un redéploiement « méta-critique » ? Cela revient à détecter un double seuil : celui à partir duquel les procédés sélectionnés acquièrent un « effet stylistique » selon Riffaterre (op. cit. : 64), ou encore sont identifiés comme des « événements » ou comme des « faits de style », nécessairement précaires, qui résultent de la dynamique du texte ; enfin, le seuil à partir duquel, en fonction du régime mis en oeuvre, les « événements » et « faits de style » prennent toute leur pertinence à hauteur de l'espace littéraire ou culturel et par rapport à des modèles qui débordent la dimension connotative du discours et la pratique analytique correspondante.
+L'attention accordée à la forme matérielle de l'écrit (Charaudeau & Maingeneau, 2002 : 558) - en l'occurrence, le tiret simple ou double, l'italique et l'organisation du champ graphique - présente un triple intérêt. D'abord, elle permet de pointer certaines des marques textuelles à la base des différents régimes de la réception stylistique ; porteurs de valeurs générales (cf. notamment Drillon, 1994), les signes typographiques constituent des candidats potentiels à une entreprise de « déformation » et de modélisation à portée plus large, qui rouvre l'éventail des variétés et enclenche une réflexion sur les systèmes de représentation. Ensuite, montrer en quoi les supports de l'écrit participent à la construction du sens, c'est envisager la nécessité de la linguistique de l'écrit sur laquelle nous sommes invités à réfléchir. Enfin, les signes typographiques, mais aussi les « modulations spatiales » (les marges, les paragraphes, les choix de police...) incitent à une appréhension elle-même plurielle : d'un côté, on dira que les aspects matériels et sensibles sont renvoyés à la substance de l'expression et que seule l'exploitation dans un texte les investit de formes de contenu et de valeurs ; de l'autre, la « face » matérielle du texte selon J. Fontanille (2006 : 221) exige que soit également pris en compte le « niveau suivant » - en l'occurrence, celui de l'objet-livre -, auquel le texte « fournit les premiers éléments sensibles et matériels ».
+Soit d'abord l'emploi du tiret, qui fait l'objet, chez J. Gracq, d'un commentaire méta-critique : « C'est pour certains le génie de notre langue de n'ajuster sa phrase que par boutons et boutonnières, et de traquer à mort l'amphibologie, avant tout à titre de laisser-aller », écrit-il dans En lisant en écrivant, avant d'ajouter : « Et si ma pente naturelle est de donner à chaque proposition, à chaque membre de la phrase, le maximum d'autonomie, comme me le signale l'usage croissant des tirets, qui suspendent la constriction syntaxique, obligent la phrase à cesser un instant de tendre les rênes ? » (1995 : 734 - 735).
+Se trouve ainsi soulignée la nécessité d'une exploitation plurielle de l'emploi du tiret simple et double, ce que confirme le classement de celui-ci parmi les « ajouts » (Authier-Revuz & Lala, 2002 : 7 - 12) : en prise sur plusieurs types de fonctionnement - typographique, syntacticoénonciatif, pragmaticosémantique, textuel - le décrochement typographique affiche son caractère transversal et réclame plus que d'autres phénomènes l'articulation des dimensions micro- et macroscopiques jugées complémentaires. Dans la perspective d'une pragmatique littéraire intégrant la notion de champ stylistique, la partition ostensible de l'espace phrastique ou textuel à travers la rupture, unique ou répétée, de la linéarité du signifiant, demande ainsi à être approchée sous différents angles. Appuyé sur un sous-ensemble de textes fictionnels unitaire (les romans Le Rivage des Syrtes et Un balcon en forêt), un parcours heuristique mène de considérations morphosyntaxiques et sémantiques dans l'ordre de la phrase à une approche textuelle focalisant l'attention sur les liens transphrastiques, la dynamique informationnelle et une analyse du mouvement de l'énonciation en acte. Dans les limites de cette étude, on déclinera les points de vue succinctement, mettant l'accent sur la congruence des sélections syntaxiques et sémantiques à différents niveaux et l'entrejeu des dimensions textuelles orchestré au sein du champ stylistique.
+Ainsi, privilégiant d'abord les emplois du tiret double, on se contentera de dire qu'il participe, par sa valeur générale, d'une logique de la rupture et de la reprise, grâce au fonctionnement sémantico-syntaxique complexe de l'élément inséré, dont le décrochement typographique rend visible l'« accessoirité » syntaxique (Boucheron-Pétillon, 2002 : 124). Ainsi, qu'il soit de nature endo- ou exophrastique, c'est-à-dire qu'il renvoie à une portion du monde référentiel ou qu'il soumette l'énoncé d'accueil à un commentaire, un jugement (Guimier, 1996 : 6), l'élément enserré par les tirets - de nature adverbiale ou adjectivale au sens large, nominale (avec/sans déterminant ou expansion) ou propositionnelle - a, du point de vue de la valeur sémantique, un statut surplombant, non seulement « méta-phrastique » (avec une opacification du sémantisme comme dans la modalisation), mais encore « inter-phrastique » ; enfin, du point de vue de son mode de fonctionnement syntaxique, le décroché est de type à la fois extra-prédicatif (comme tout adverbe exophrastique) et « inter-prédicatif ». Ainsi, malgré l'instanciation lexicale qui, à moins d'une véritable rupture thématique, rend possibles les appariements sémantiques au-delà même des bornes matérialisées par les tirets, il fait entrer en résonance deux espaces sémanticosyntaxiques autonomes, la base phrastique et un espace « hors phrase ». En même temps, l'autonomie n'a d'intérêt que corrélée avec l'élan, qui combine inchoativité et mouvement, la rupture et la continuation conquise sur l'arrêt. Elle doit être mise à profit par une énonciation en acte, une visée pragmaticosémantique et un dynamisme communicatif qui élargissent le champ de l'interprétation. Ainsi, à la faveur d'un fonctionnement ana- et/ou cataphorique, l'énergie nouvelle peut se propager au-delà même des bornes du cadre phrastique, en faveur d'enchaînements incertains, voire d'une véritable plurivocité interprétative. Le décrochement typographique, qui est de nature autodialogique, peut accueillir, de surcroît, une pluralité de voix.
+Dans les limites de cette réflexion, l'essentiel concerne, d'une part, l'intérêt pour la grammaire d'une étude du tiret double ou simple chez Julien Gracq, et, d'autre part, le passage de la mise à contribution des différentes dimensions du texte à l'exploitation stylistique ; celle-ci la présuppose, tout en faisant valoir sa spécificité. En d'autres termes, à quelles conditions le tiret double doit-il satisfaire pour être hissé au rang de « fait de style » contribuant à produire des « effets d'identité » ? On en retiendra deux. Il faut d'abord que les valeurs associées aux différentes occurrences puissent être érigées en invariant : on peut dégager, en l'occurrence, un schème structural très général, dont les oppositions rupture/reprise, blocage/réouverture constituent les versants temporel et spatial, et dont les opérateurs de l'implication (si... alors) et de la concession (malgré ; la phrase se poursuit malgré la rupture) (Zilberberg, 2006) fournissent une version processuelle. S'arc-boutant sur une même base structurale, le tiret simple obéit, pour sa part, à une logique non plus de l'insertion, mais de l'intégration, qui met en oeuvre une progression de type cumulatif, par à-coups et tâtonnements successifs. Il s'agit, ensuite, de tester la propension du tiret à « faire système » avec une liste close d'éléments expressifs, de thématiques ponctuelles, de procédés syntaxiques ou d'autres ponctèmes, susceptibles de se rattacher à cette même base.
+Il importe alors de rendre compte des « modes de présence » variables que le tiret, simple ou double, se voit accorder au sein des champs stylistiques, et donc de la part qu'il prend dans la production d'« effets d'identité ». Soient ainsi, concrètement, les hésitations, dans tel passage du Rivage des Syrtes, entre une écriture par décrochement et une écriture dé-liée :
+(1) [...] un instant du monde dans la pleine lumière de la conscience a abouti à eux [les hommes sur lesquels s'est portée l'attention de tout un peuple] - un instant en eux l'angoisse éteinte du possible a fait la nuit - le monde orageux de millions de charges éparses s'est déchargé en eux dans un immense éclair - leur univers [...] a été une seconde celui de la balle dans le canon de fusil (Gracq, 1989 : 730).+
Elles suscitent un questionnement lui-même double : sommes-nous face à un développement extensif, amorcé par le tiret inaugural et clôturé par le tiret final, qui se greffe sur la base insérante et la commente en dépliant le contenu sémantique du verbe mis en italique ? Il prend lui-même la forme de deux segments homofonctionnels ou donne lieu à un décrochement interne. Dira-t-on, au contraire, que la progression, heurtée, ajoute des tirets simples qui, malgré les déchirures du tissu textuel, tendent vers une sommation intégrative que la fin ne procure pas ? L'articulation du questionnement linguistique avec des préoccupations stylistiques exige un déplacement d'accent. On se demandera plutôt si l'hésitation entre deux logiques de l'« amplification » (Gardes-Tamine, 2004) est pertinente au regard de la totalité signifiante : dans ce cas, à travers une tension que l'on peut ramener à la différence entre une attitude réflexive, qui privilégie l'explication métadiscursive, et une position de retrait du sujet, qui se soumet au flux de ses pensées, les emplois du tiret, simple ou double, proposent une forme d'analyse et de commentaire du « tiraillement » entre deux façons d'être-au-monde, qui est également pris en charge à d'autres niveaux de pertinence.
+De fait, suivant les textes, une même base structurale accueille des investissements figuratifs et thématiques différents. Dans Le Rivage des Syrtes, les emplois du tiret double et simple s'interprètent sur le fond constitué par le sursaut d'un peuple qui, fédérant les initiatives éparses, secouant la léthargie ambiante, cherche à se donner un « destin » ou une « destination » ; de concert avec la convocation et le détournement de motifs ou de scénarios plus ou moins stéréotypés, fixés par la tradition (la messe de Minuit et la naissance du Christ, la valorisation de l'inchoativité présente dans l'« aube » et dans le franchissement critique de la frontière...), le décrochement typographique contribue à signifier la rupture et l'irruption de la nouveauté. En même temps, il incombe au tiret fermant, mais aussi, plus largement, à la compétition entre le tiret double et le tiret simple, liée à l'entrechoquement de deux logiques concurrentes, de signaler immédiatement l'emprise du modèle historicisant et d'une nécessité qui échappe au contrôle du sujet et le conduit à sa destruction.
+Dans Un balcon en forêt, la discrétion relative du tiret double contraste avec l'insistance du tiret simple, dont les emplois méritent d'être mis en relation avec la « poétique » de l'intervalle qui vise, non plus à remettre l'histoire en marche, mais à permettre au protagoniste de s'absenter de la guerre pour un temps et d'habiter l'intervalle à sa guise :
+(2) Naturellement, ce n'est pas la ligne Maginot, songeait Grange, levant les yeux malgré lui vers les nids d'aigle broussailleux qui s'enlevaient très haut au-dessus de la rivière - mais en somme cette fortification paresseuse rassurait plutôt : visiblement on ne s'attendait ici à rien de sérieux. (Gracq, 1995 : 25)+
L'intéressant, du point de vue de la réception stylistique, c'est que le concours des niveaux de pertinence appelle, ici et là, des régimes différents. Dans Un balcon en forêt, le tiret forme système avec d'autres ponctèmes (le deux-points, le point-virgule...) pour proposer une reformulation, assumée par le locuteur, cohérente et prévisible, des tentatives d'organisation de l'espace-temps par le personnage. Récurrent sur de vastes étendues textuelles, il draine vers lui, pour s'y connecter, les isotopies figuratives et thématiques, les constructions syntaxiques auxquelles le schème structural peut être associé, et les noue ensemble au sein d'un système semi-symbolique qui appelle une stratégie d'analyse à fort pouvoir intégratif.
+Dans Le Rivage des Syrtes, le tiret vaut davantage comme une forme de l'expression répondant à la définition rhétorique du style selon G. Molinié (1994 : 206). Au-delà des analyses linguistiques fines, les associations sont de l'ordre de la « projection symbolique », plutôt que du « système semi-symbolique » (Fontanille, 2003 : 124 - 125). Redondante avec le contenu du texte, paraphrastique, la description - par exemple, « le tiret signifie l'irruption du nouveau dans la léthargie ambiante... » - est cantonnée dans la saisie de certaines des sélections spécifiquement liées à ce texte. Certes, le procédé est récurrent sur de larges pans textuels et il bénéficie d'une prise en charge méta-critique ; cependant, ni saillant, ni intégrable directement dans la signification d'ensemble, il se prête à une stratégie d'analyse au mieux cumulative.
+L'emploi de l'italique appelle des éclairages supplémentaires. Le mot italicisé met l'analyse stylistique au défi de rendre compte de forces « centrifuges » qui, plus que le tiret, donnent à voir l'hétérogénéité constitutive : dessinant des échappées du sens, elles favorisent la superposition, l'intrication ou l'entrée en conflit de plusieurs lignes thématiques. La stratégie stylistique appelée à s'emparer de ce « fait de style » doit ainsi combiner l'intensité vive d'un fait marquant avec une contribution relativement faible à l'établissement de la cohérence du « tout de sens ». En tant qu'événement énonciatif, en relation avec « le coup de théâtre de la trouvaille [de mot] » (Gracq, André Breton, 1989 : 506), le mot italicisé bouleverse, en effet, les ordonnancements linéaires sur le support de la page et fait résonner les mots marqués typographiquement « à distance ». Il en va ainsi du verbe « aboutir », dans l'exemple (1) (Le Rivage des Syrtes, 1989 : 730) : il concentre sur lui les expressions en italique - « vitesse mentale », « fondre », « délivrer du mal », « arme du crime », « âmes damnées » ou « être » (ibid. : 729 - 730) - qui s'égrènent au fil des lignes précédentes et qui, ainsi rapprochées, se trouvent proposées à des voisinages inédits. À cela s'ajoute qu'à la faveur d'un flou conceptuel, des lexèmes tels que « fondre » « aboutir » ou « ailleurs » (ibid. : 735 ) non seulement libèrent l'« énergie latente en puissance dans le vocable » (André Breton, 1989 : 503), mais ouvrent sur l'épaisseur des relations intertextuelles. Enfin, le mot ainsi exhibé est non seulement dépouillé des collocations routinières, mais il est arraché au cotexte : « Nom, adjectif ou verbe, le mot considéré dans son isolement, "en liberté", polarise autour de lui comme de lui-même le meilleur de l'espoir de tout ce qui tend en nous à communier avec le monde [...] » (ibid. : 480). On voit comment, signifiant la crise et la « rébellion instantanée » du mot (ibid. : 504), l'italique inscrit dans le texte la nécessité d'un renouvellement de l'usage et dit l'urgence de la prise en considération des champs et espaces discursifs selon Maingeneau (1984). Les choix typographiques renvoient non seulement à un projet d'expression particulier, mais à une esthétique, à un style de vie, individuel ou collectif, plus ou moins identifiable, voire à une « forme de vie » (Fontanille, 2004 : 192). Celle-ci correspond au choix de valeurs dissidentes, qui remettent en question les codes discursifs établis et inventent un nouvel être-au-monde par le langage. En même temps, débordant les frontières du texte et du champ stylistique, la « forme de vie » peut introduire à une réflexion de nature méta-sémiotique, plus générale et plus abstraite, sur les possibilités offertes par différents systèmes de représentation, verbal ou non verbal.
+Cependant, la prise en considération de la matérialité du signe demande aussi que soit explicitée la manière dont le « texte formel » accueille et fait signifier les signes en provenance d'un niveau inférieur, les « unités minimales » selon Fontanille (2006), qui sollicitent le canal sensoriel de la vue (lettres capitales, caractères minuscules, italiques ou romains, figures géométriques, espaces...). En attirant l'attention sur la manière de dire, le dédoublement méta-énonciatif constitutif de la modalité autonymique selon J. Authier-Revuz incite, en effet, à une saisie des propriétés spatiales et iconiques du signe italicisé, en tant que celui-ci renvoie au geste et au corps (la main qui incline les lettres) de l'instance écrivante. On en conçoit les enjeux : sous quelles conditions la prise en compte de la matière de l'expression relève-t-elle de l'analyse stylistique ?
+Si dans Mobile (1962), Michel Butor porte l'expérience de l'écriture à un degré extrême, il est frappant de constater que la critique retient d'abord la fonction « mimétique » des ressources typographiques, subordonnées, globalement, à une logique du morcellement et de la recomposition de l'espace des États-Unis, et donc à une fonction de « représentation du sens » (Helbo, 1975 : 87). On distinguera quatre cas. Ainsi, le blanc typographique est immédiatement investi de sens, quand il lui incombe, symboliquement, de « réfléchir » (Helbo, ibid. : 69) le problème géographique et politique frappant l'île d'Hawaï. Michel Butor lui-même commente ainsi sa pratique des compositions plastiques complexes du blason et de la cellule, qui abritent selon des lois précises des lettres capitales et des caractères minuscules, tantôt italiques, tantôt romains : « Dans les états [depuis le Texas et le Kansas jusqu'à la Caroline du Nord et la Floride] où il [l'élément "Noir"] apparaît j'ai toujours mis à la première apparition du blason, de cette constellation d'éléments, l'élément "Noir" à la fin en lui faisant remonter au cours du chapitre chaque fois une place parmi le nombre des éléments. Ceci produit, quand on lit le livre, une impression [...] de soulèvement » (Aubyn, 1964 : 433). La « symbolisation » (Helbo, ibid. : 86), c'est-à-dire la mise à contribution des jeux de marges, des variations de police et de lignes, de la distribution des unités à l'intérieur des chapitres, qui corroborent l'« unité sémantique », implique une stratégie mettant en oeuvre des valeurs d'intensité et d'étendue fortes. Les résistances à l'intégration sont d'autant plus remarquables : les rapprochements appelés par les homonymes, mais aussi les mouvements obliques du regard peuvent obliger à une prolifération des parcours de sens simultanés, proposés comme « en supplément » ; ils sont cantonnés dans la page, qui devient le lieu d'inscription de relations signifiantes déconnectées du sens global, ou la débordent. Allégée du poids du symbolique, l'image iconique repose sur une relation de similarité entre le mouvement des marges et celui des vagues ou les effets de perspective produits. Enfin, le texte verbal porte les marques de l'influence picturale, en intégrant, par exemple, la figure géométrique du rectangle qui, écrit A. Helbo (ibid. : 88), revêt un « aspect "gratuit", "esthétique", sans portée réaliste ».
+Ce dernier point mérite considération. En opposant une résistance à l'intégration dans une totalité interprétative, ces éléments invitent, en effet, à une confrontation qui, les marges des choix paradigmatiques et syntagmatiques étant débordées, interroge la cohérence de l'ensemble. Éprouvant les limites du faire sens, ces éléments posent la question générale de la mise à contribution des ressources matérielles de l'écrit et appellent, à ce titre, la conversion « méta-stylistique ».
+Plus globalement, pour rendre compte des degrés de l'exploitation des ressources typographiques dans le cadre de l'analyse stylistique, on propose un double élargissement conceptuel : d'abord en direction de la notion d'« imagerie » fondée sur « une homologie entre les images mentales déclenchées par les représentations iconiques et celles suscitées par le verbal [...] » (Bonhomme, 2003 : 179) ; ensuite, en direction du concept d'intermédialité qui étudie, selon Méchoulan (2005), « comment textes et discours ne sont pas seulement des ordres de langage, mais aussi des supports, des modes de transmission, des apprentissages de codes, des leçons de choses » (cité par Badir, 2007 : 26 - 27).
+Ainsi, dans une perspective pragmatico-rhétorique attentive à la réception interactive, l'intérêt du concept d'imagerie peut être lié à la gradualité des interprétations : i) les schèmes sensibles se satisfont d'une appréhension perceptuelle et émotive, esthésique avant d'être esthétique, d'une approche phénoménologique de l'énonciation ; l'« évocation » est d'autant plus directe que l'image est conventionnelle (p. ex., la pointe de la flèche désignant le vol des oiseaux) et qu'elle est directement accessible du point de vue cognitif (intensité et extensité réduites) ; ii) si cette « tentation phénoménologique » correspond au degré zéro de l'analyse stylistique, la déhiscence des niveaux inscrit en creux la possibilité de l'interprétation ; c'est sur la base de l'interaction entre le récepteur et le texte et ses fonctions (épistémologique, analogique, esthétique...) que peuvent se négocier les régimes d'intensité et d'étendue mis en oeuvre par l'élaboration d'un système semi-symbolique et que se détermine le degré de prise en charge de toutes ces productions signifiantes qui en défient les limites ; il peut s'agir de ruptures figuratives ou thématiques ou l'analyste peut se trouver interpellé par la complexité d'un ensemble polymédial ou par les variétés de la translation inter- ou transmédiatique.
+Quant au concept d'intermédialité selon Méchoulan, on notera avec S. Badir (2007 : 35) que l'analyse des discours rencontre l'analyse des médias : « [...] les oeuvres sont toujours dépendantes d'un discours, mais elles dépendent toujours aussi, dans le même temps (dans le temps de l'analyse comme celui de l'appréhension phénoménale), d'un média ». Surtout, le concept d'intermédialité permet de penser l'articulation entre les deux « faces » du texte (Fontanille, 2006), le texte « formel », qui fournit un plan de pertinence aux signes, et le texte « matériel », qui ouvre sur le niveau englobant des objets : l'objet-livre et la pratique qu'il appelle, c'est-à-dire les usages qui en sont faits dans des situations socioculturelles et historiques données.
+Au terme de ces investigations, on dira que dans la perspective d'une linguistique de l'écrit qui met en avant la notion de champ stylistique, l'intérêt de la question de la matérialité de l'écrit est au moins double. D'une part, le traitement appelé par l'exploitation des ressources typographiques paraît confirmer le rôle central joué par le champ stylistique, qui médiatise la réception, et la pertinence du principe tensif, grâce auquel il est possible, à travers une interaction entre les faits observables et le récepteur, de déterminer les degrés de littérarité ainsi que les « effets d'identité » produits. En même temps, les ressources typographiques signalent l'opportunité d'un dialogue entre le point de vue stylistique et d'autres points de vue : d'un côté, le point de vue méta-stylistique, de l'autre, des points de vue relatifs à d'autres niveaux de pertinence que le texte. Le « texte matériel » ouvre, en effet, sur un autre niveau d'expression, celui de l'objet-livre comme surface ou volume. En tant qu'espace d'une expérience littéraire ancrée dans un contexte d'actualité, le texte y est rendu signifiant à la lumière d'une méditation sur le live comme « objet complet » : « De l'objet de consommation au sens le plus trivial du terme, écrit Michel Butor, on passe à l'objet d'étude et de contemplation, qui nourrit sans se consumer, qui transforme la façon dont nous connaissons et nous habitons l'univers » (1964 : 137).
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+L'investissement financier que suppose ce genre de produits est relativement important ; il dépasse de loin les moyens du chercheur isolé. Il exige, soit une décision proprement politique, soit la recherche capitaliste d'une rentabilité.+
Les dictionnaires sont des textes importants. Témoignant de ce qui s'est déjà dit ou écrit pour guider ce qui pourra se dire ou s'écrire, ils reflètent, par leurs contenus, leur diffusion et leurs usages, les rapports d'une culture à son idiome ou les relations qu'elle entretient avec d'autres cultures et l'intérêt qu'elle porte à leurs idiomes. Mais ces liens sont tout sauf simples, et leurs reflets sont volontiers brouillés. S'ils sont peu diversifiés et pauvres en substance, les dictionnaires constituent pour leurs destinataires des repères faciles et d'utilisation aisée mais laissant sans réponses nombre de questions ; s'ils sont plus variés et plus riches, donc plus complexes, leur choix adéquat requiert du discernement et leur utilisation, moins immédiate, demande application et patience. La difficulté à trouver une information dans un dictionnaire, surtout dans une version imprimée de celui-ci, étant susceptible de croître avec la probabilité qu'elle y figure, ces répertoires deviennent d'autant plus élitistes que leur matière s'enrichit et que le traitement de celle-ci s'affine : attestant simultanément de la vitalité des idiomes dont ils traitent et de l'attachement que vouent à ceux-ci certains locuteurs, mais se désancrant ipso facto du rôle utilitaire qui est au principe de cette classe d'ouvrages, ils tendent alors à trouver leur fin dans leur propre développement, ce qui les prédispose à être salués comme des oeuvres dont le nom s'inscrira dans la liste des monuments de la lexicographie à côté d'autres produits de l'esprit sélectionnés pour l'admiration et l'exégèse, en même temps que se restreint le nombre de ceux qui, étant disposés à assumer le coût de leur acquisition et les efforts requis par leur consultation, peuvent assez maîtriser celle-ci pour en tirer profit.
+Un remède humaniste à ce paradoxe d'une production dictionnairique d'autant moins accessible qu'elle enrichit son contenu informationnel et, partant, qu'elle est susceptible de rendre davantage de services pourrait être une éducation scolaire suivie aux bienfaits de la consultation régulière des dictionnaires, tout au long de la vie, pour la construction et la consolidation d'un rapport intime de chacun avec son propre idiome et son ouverture à d'autres idiomes, accompagnée d'une formation pratique méthodique et suffisamment approfondie à cette consultation pour que celle-ci puisse s'effectuer judicieusement, avec aisance et efficacité. Sans un soutien approprié de cette nature, on ne peut que s'attendre à voir les locuteurs, même cultivés, comprendre ce qu'ils peuvent dans des dictionnaires érudits trop complexes pour eux ou se détourner de ceux-ci pour des répertoires plus frustes et inégalement recommandables mais dont la modestie des ambitions facilite la consultation, la gratuité d'accès à un certain nombre d'entre eux sur Internet jouant nécessairement en leur faveur.
+On peut envisager, cependant, que l'évolution technologique permette de concilier raffinement des contenus et simplicité d'emploi, par une personnalisation très élaborée des modes de consultation sur écran. Telle était la vision du « dictionnaire du futur » présentée, il y a douze ans déjà, par la lexicographe britannique Sue Atkins dans une communication au congrès de Göteborg de l'association européenne de lexicographie EURALEX réimprimée six ans plus tard dans un livre d'hommages (Atkins 2002). Dans l'environnement lexicographique plurilingue qu'elle imaginait (§ 2), le lexique de chaque langue prise en compte ferait l'objet d'une description fouillée stockée dans une base de données, en respect d'un même cadre théorique afin d'établir des liens hypertextuels entre les différentes bases et de permettre la comparaison des langues. De cet ensemble « réel » de bases de données lexicographiques de référence structurées linguistiquement en thesaurus émanerait, selon les souhaits des consultants, une pluralité de dictionnaires « virtuels » ? monolingues, bilingues ou bilingualisés ? dont la métalangue, parfaitement explicite et dépourvue de codifications, serait choisie par eux et qu'ils pourraient consulter à leur gré soit pour des recherches ponctuelles, soit pour approfondir à loisir leurs connaissances concernant une langue ou les ressemblances et différences entre langues, notamment par l'accès à de nombreuses occurrences en corpus. Pour sa promotrice, cet environnement lexicographique inédit de grande ampleur qui ferait de la consultation des dictionnaires un plaisir et dont la palette d'utilisations possibles s'étendrait du plus utilitaire au plus culturel était linguistiquement et technologiquement réalisable, mais se heurtait à l'obstacle du financement des moyens exceptionnels que son élaboration nécessiterait.
+Douze ans plus tard, le rêve de Sue Atkins attend encore son financier, en dépit de l'universalité de la langue anglaise. Quant à la lexicographie française, toujours dominée par l'imprimé, il est à craindre qu'elle soit engagée, au moins pour ce qui concerne sa composante monolingue qui sera seule envisagée ici, dans une traversée du désert dont l'issue ne se laisse pas discerner et qu'au trompe-l'oeil de ce que Pruvost (2006 : 83 - 92) a décrit comme son « demi-siècle d'or » (1950 - 1994) succède une phase récessive marquée par le rétrécissement de l'offre et la médiocrité de la demande.
+Divers indices, qui seront exposés plus loin, semblent en effet indiquer une atonie durable du marché français des dictionnaires en dépit de coups d'éclat commerciaux isolés : il y a dix ans déjà, on pouvait percevoir un essoufflement de l'innovation dictionnairique, qui perdure malgré quelques soubresauts. Les causes, pour autant qu'on les discerne, en apparaissent complexes et la situation actuelle pourrait être la résultante d'un processus de désajustement de l'offre et de la demande obéissant à plusieurs paramètres qui trouverait son commencement au début même du « demi-siècle d'or », ce dont la conjugaison du prestige des ouvrages phares de cette période et de succès commerciaux compensant suffisamment les échecs aurait contribué à retarder la perception.
+Toute périodisation est à la fois une construction intellectuelle, dont on ne peut guère faire l'économie, qui, sur la base d'un choix de critères plus ou moins explicités, discerne des repères qui aident à penser le flux historique, et un coup de force qui, s'il trouve des échos, fixe l'interprétation de celui-ci en une doxa dont la pseudo-évidence fait obstacle à d'autres découpages. Les familiers de l'histoire récente de la lexicographie générale monolingue française discernent bien ce que Jean Pruvost a voulu enserrer entre les bornes qui délimitent son « demi-siècle d'or » : un ensemble de répertoires remarquables par divers traits combinables sans être partagés par tous les ouvrages envisagés, au premier rang desquels figurent des dimensions importantes, une couverture culturelle et patrimoniale ambitieuse, des coûts élevés, l'influence de théories linguistiques et la mise en oeuvre de concepts dictionnairiques et de dispositifs textuels originaux ? toutes propriétés qui peuvent avoir joué un rôle à la fois dans la notoriété des ouvrages parmi ceux qui s'intéressent aux dictionnaires et dans les modulations très variables de leur succès public. Mais, par rapport aux dates repères proposées, dont la première (1950), qui n'est que la marque du milieu du siècle sans corrélat dictionnairique précis, vise assurément à englober les débuts de la parution en volumes de la première édition du Grand Robert (1953) alors que la seconde (1994) coïncide avec celle du dernier tome du Trésor de la langue française, la périodisation peut être sensiblement affinée et relativisée si d'une part on réfère les bornes initiale et finale à des critères identiques et si d'autre part on interprète de façon raisonnée les traits hétérogènes précédemment mentionnés pour fixer des limites chronologiques à la production d'ensembles cohérents d'ouvrages partageant des propriétés qui éclairent les orientations de l'édition et les réactions du public. C'est sur la base de cette circonscription plus précise d'une époque de la lexicographie monolingue française communément appréciée comme prestigieuse que l'on pourra commencer à y repérer diverses préfigurations de sa configuration actuelle.
+Une première façon de périodiser est de s'appuyer sur la date de parution des ouvrages. Pour ceux en plusieurs volumes dont la publication est échelonnée, on peut alors prendre en compte soit l'année du début de celle-ci, soit celle de son achèvement, qui sont toutes deux intéressantes mais ne correspondent ni aux mêmes dispositions d'achat (une souscription étant plus insensible dans un budget qu'une acquisition à échéance pour les ouvrages chers), ni au même contexte éditorial de mise des dictionnaires sur le marché : en 1964, si l'on disposait de quelque argent, on pouvait songer à acheter le Grand Larousse encyclopédique en dix volumes ou le Dictionnaire alphabétique et analogique de la langue française de Paul Robert, tous deux achevés cette année-là, mais, onze ans plus tôt, on n'aurait pu souscrire qu'à ce dernier ouvrage, dont paraissait le premier tome, alors que la publication du dictionnaire Larousse, plus concentrée, ne débuta qu'en 1960 ; à l'inverse, 1971 vit la concurrence des souscriptions au Trésor de la langue française et au Grand Larousse de la langue française, mais les souscripteurs de celui-ci jouirent de leur collection complète seize ans avant ceux de celui-là, qui finit de paraître dans un environnement éditorial différent, d'où le dictionnaire Larousse avait disparu mais dans lequel figurait, depuis 1985, la deuxième édition du Grand Robert de la langue française.
+Cette distinction des moments initial et terminal d'une édition a pour effet sur la périodisation en question que, si l'on retient la date de publication complète des dictionnaires multivolumes, adéquate pour saisir les ouvrages qui sont en concurrence effective sur un marché donné, le « demi-siècle d'or » n'aura duré que 30 ans, de 1964 à 1994, alors que, sur la base du début de leur publication, plus pertinente pour apprécier les options des éditeurs, son ancrage est antérieur (1953) et sa durée plus incertaine, selon le choix de l'ouvrage que l'on prendra comme terme, qui dépendra des critères retenus : 29 ans si c'est 1982, avec le Robert méthodique et le Grand dictionnaire encyclopédique Larousse, 32 en intégrant la refonte du Grand Robert de la langue française, 35 ou 36 si l'on pousse jusqu'au Petit Robert des enfants et au très renouvelé Petit Larousse illustré 1989 (1988), voire au Robert oral-écrit (1989) ou au Robert électronique, disque optique pionnier (1989), 39 si, sur la base de son retentissement, on s'autorise à agglomérer aux dictionnaires généraux le Dictionnaire historique de la langue française dirigé par Alain Rey (1992), et même 40 si l'on inclut le Nouveau Petit Robert de 1993, sur lequel reposent les versions actuelles.
+Une autre manière de périodiser, particulièrement intéressante pour l'histoire des projets dictionnairiques mais dans certains cas difficile à mettre en oeuvre avec précision, serait de retenir l'origine de ceux-ci et le début de leur concrétisation. Sur une telle base, qui fait remonter le Trésor de la langue française à la fin des années cinquante avec comme repère symbolique le colloque préfigurant sa mise en route (Collectif 1961), le « demi-siècle d'or » pourrait avoir débuté en 1945, année que Paul Robert retint comme point de départ de son dictionnaire, et duré une quarantaine d'années si l'on prend comme terme le Dictionnaire culturel en langue française, paru en 2005 seulement, mais engagé par Alain Rey dès le début des années quatre-vingt-dix, dans l'élan de son Dictionnaire historique de la langue française, et conçu sans nul doute assez antérieurement.
+Pour tenter de comprendre les modalités et les rythmes d'une évolution qui a mené d'un proche passé entreprenant et riche de réalisations originales mais aux limites chronologiques incertaines à un présent inquiet et prudent, il convient de distinguer, dans l'ensemble flou et composite dont la notion intuitive de « demi-siècle d'or » suscite l'évocation, des sous-ensembles d'ouvrages partageant des propriétés qui tout à la fois peuvent avoir contribué à leur aura et limité leur succès. Une partition opératoire semble être celle qui distingue d'une part les très grands ouvrages multivolumes qui avaient vocation à servir de références mais dont le prix et l'encombrement pouvaient être dissuasifs, et d'autre part des répertoires plus réduits de divers types qui ont expérimenté des formules nouvelles avec des fortunes variables.
+S'est-on jamais avisé qu'en à peine plus de trois décennies on a proposé à la population française d'acheter huit collections dictionnairiques multivolumes de référence, quatre "de langue" et quatre "encyclopédiques", soit en moyenne une tous les quatre ans et demi, dont deux étaient des refontes d'ouvrages antérieurs et trois autres des refontes de répertoires publiés dans l'intervalle considéré ? Soit, dans l'ordre de parution de leur premier volume : le Dictionnaire alphabétique et analogique de la langue française (6 vol., 1953 - 1964), le Grand Larousse encyclopédique (10 vol., 1960 - 1964, refonte du Larousse du XXe siècle en 6 vol. de 1928 - 1933), le Dictionnaire encyclopédique Quillet (8 vol., 1968 - 1970, refonte de l'édition en 6 vol. de 1953), le Grand Larousse de la langue française (7 vol., 1971 - 1978), le Trésor de la langue française (16 vol., 1971 - 1994), le Dictionnaire encyclopédique Quillet (10 vol., 1977, refonte de l'édition de 1968 - 1970), le Grand dictionnaire encyclopédique Larousse (10 vol.24, 1982 - 1985, refonte du Grand Larousse encyclopédique de 1960 - 1964) et le Grand Robert de la langue française (9 vol., 1985, refonte du Dictionnaire alphabétique et analogique de la langue française de 1953 - 1964). Avec la concentration, dans une période aussi ramassée, de cinq sommes de connaissances (trois "de langue" et deux "encyclopédiques") foncièrement différentes (compte non tenu des trois refontes les plus récentes), l'importance patrimoniale de l'activité lexicographique monolingue était assez manifeste pour qu'un observateur étranger expert vît dans la France le « pays du dictionnaire » (Hausmann 1985 : 36), l'année même où la nouvelle édition du Grand Robert de la langue française venait clore une série globalement prestigieuse (même si, toute appréciation qualitative réservée, les dictionnaires Quillet ne jouissent pas de la même cote symbolique que les Larousse, les Robert et le Trésor de la langue française).
+Cependant, si la plupart de ces dictionnaires ont gagné leur place dans l'histoire des ouvrages marquants de la lexicographie française, qu'en a-t-il été de leur succès public et de leur fortune commerciale ? Même sans disposer de données suffisantes pour fournir une vue précise et significative de leurs ventes et de leurs publics respectifs, il semble possible, par le raisonnement et divers recoupements, d'avancer qu'il était déjà difficile pour la demande d'être au diapason d'une offre dont le prix de revient était très élevé, et qui ne pouvait être rentable que si l'on parvenait à toucher assez rapidement, outre ceux qui pourraient avoir un usage effectif et raisonnablement maîtrisé de certains des ouvrages, une fraction suffisante de ceux qui, faute de besoin ou de compétence, ne rentabiliseraient pas leur investissement par l'utilisation qu'ils feraient des répertoires acquis mais que leurs valeurs et leurs croyances, stimulées par les discours publicitaires, prédisposaient à considérer leur possession comme bénéfique à un titre ou un autre (culturel, éducatif, symbolique?). Divers indices suggèrent en effet que la riche production de dictionnaires de référence concentrée entre 1953 et 1985, dont l'abondance même et la concentration dans le temps limitaient le potentiel commercial de chacun, pourrait être le bouquet final d'une époque qui commençait à être révolue avant même que l'informatique ne vînt modifier les rapports des individus aux sources de connaissances :
+Était-ce cher, plusieurs milliers de francs, pour un grand dictionnaire de référence ? En valeur absolue un dictionnaire est rarement cher au regard du nombre de ses caractères et de la quantité d'informations qu'il comporte, mais qui évalue les choses de cette façon ? Chacun détermine, en fonction de ce qu'il est, de ses revenus et de ses valeurs, quel prix est onéreux pour un dictionnaire, un voyage, un bijou, un vêtement ou toute autre chose. Un certain temps les grands dictionnaires constituèrent un bien précieux, pratiquement et symboliquement, auquel on souscrivait, en particulier auprès de courtiers, éventuellement en restreignant d'autres dépenses, parce que ce serait utile pour les études des enfants ou que cela agrémenterait un rayonnage de bibliothèque. Puis la société évolua, les tentations se multiplièrent, les valeurs changèrent et les sources de connaissances se diversifièrent : les grands dictionnaires devinrent moins précieux et le courtage périclita. Ce fut à la fin du XXe siècle. Verra-t-on encore paraître de grands dictionnaires imprimés ? Il y a déjà un quart de siècle, Bernard Quemada prédisait leur disparition, pour une pluralité de raisons convergentes : l'histoire semble lui donner raison, mais le recul n'est peut-être pas suffisant.
+Dans la deuxième moitié du vingtième siècle, la lexicographie générale monolingue française fut aussi marquée par diverses innovations, concentrées sur 24 ans (de 1966 à 1989) et distribuables en deux séquences successives, qui affectèrent, au titre du traitement privilégié de certaines caractéristiques du lexique, l'organisation de dictionnaires de dimensions plus modestes que les grandes sommes de référence qui viennent d'être évoquées. Ce n'est pas, d'ailleurs, que certaines de celles-ci n'aient pas attaché un intérêt spécifique à des propriétés linguistiques particulières des mots : on peut penser notamment à la mise en évidence de leur réseau lexical dans le Dictionnaire alphabétique et analogique de la langue française, qui, répercutée d'ouvrage en ouvrage, est devenue la marque de fabrique des dictionnaires Robert ; ou encore au traitement de la construction des verbes dans le Grand dictionnaire encyclopédique Larousse, qui reçut le renfort actif de Maurice Gross et de son équipe. Mais ces enrichissements du contenu de ces répertoires, s'ils contribuaient à complexifier leurs articles, se fondaient dans ceux-ci sans remettre foncièrement en cause leur classement et leur organisation, qui demeuraient classiques. Les dictionnaires dont il est question ici, dont beaucoup étaient destinés à soutenir l'apprentissage du français, perturbèrent davantage celui-là et/ou celle-ci, ce qui put être un facteur de notoriété comme de manque de succès (y compris pour un même ouvrage) :
+Ces différents ouvrages eurent une carrière contrastée. À la fois manifestation et instrument du mouvement d'application de la linguistique à l'enseignement du français des années soixante et soixante-dix, le Dictionnaire du français contemporain, qui acquit une réelle notoriété et suscita l'intérêt de métalexicographes et de linguistes, fit l'objet d'une nouvelle édition augmentée à 33 000 mots et enrichie d'illustrations en 1980 (le Dictionnaire du français contemporain illustré), mais l'absorption de Larousse dans CEP Communication arrêta sa carrière avec la restauration d'une structuration alphabétique intégrale dans la refonte qui parut en 1986 sous le titre de Dictionnaire du français au collège. Si le Dictionnaire du français langue étrangère n'eut pas de suite en France et si le Pluridictionnaire fut remplacé en 1993 par le Dictionnaire général pour la maîtrise de la langue française, la culture classique et contemporaine, d'organisation traditionnelle, le Nouveau Larousse des débutants et le Lexis se sont, eux, pérennisés jusqu'aujourd'hui, le premier ayant même connu, sous le nom de Maxi débutants, deux refontes importantes en 1986 et 1997, alors que le second, objet, depuis 1979, de divers retirages mais seulement d'une révision légère récente (2002), n'a pas bénéficié du suivi continu qui lui aurait permis de demeurer un répertoire actuel au regard de l'ampleur de son lexique spécialisé. Le maintien du Maxi débutants dans un catalogue où, depuis 2003, il est en concurrence avec le Larousse junior destiné au même public peut s'expliquer à la fois par ses regroupements lexicaux, aménagés en 1997 pour devenir compatibles avec l'ordre alphabétique, et par le modèle didactique de la grande majorité de ses articles, dont les exemples glosés contrastent avec les définitions exemplifiées de son concurrent interne, ce qui renvoie à deux conceptions différentes des apprentissages lexicaux et des rapports des enfants d'âge scolaire à l'abstraction. En revanche, on peut se demander si la conservation du Lexis, vestige unique et vieillissant des nomenclatures désalphabétisées dont l'ampleur accroît l'incommodité de consultation, est autre chose qu'un moyen symbolique non coûteux de ne pas abandonner au Nouveau Petit Robert le monopole du grand dictionnaire monovolume "de langue".
+Les trois nouveautés des années quatre-vingt eurent chacune une finalité didactique spécifique. Celle du Robert méthodique, publié en 1982, était de décrire la structure des mots complexes du français : prenant comme matrice le Micro Robert, dont il conservait le principe des regroupements de mots compatibles avec la préservation de l'ordre alphabétique (cf. supra n. 58), il se présentait comme une version retravaillée et enrichie de celui-ci, qui, en application d'une méthode distributionnelle de segmentation, fournissait en outre, pour chaque mot pour lequel c'était jugé pertinent, sa décomposition en éléments de formation, chacun de ceux-ci, au nombre de 1 730, faisant lui-même l'objet d'un article intégré dans la nomenclature générale. Si le Robert méthodique innovait par la spécificité de son propos, il en alla autrement, six ans plus tard, pour le Petit Robert des enfants, qui arriva tardivement sur un marché des dictionnaires pour l'école élémentaire investi successivement depuis une décennie par Larousse, Hachette, Nathan et Bordas et où était en train de s'opérer la partition entre les ouvrages destinés aux élèves des actuels cycles 2 et 3 : par rapport à cette production déjà standardisée, le Petit Robert des enfants, qui optait, lui aussi, pour des regroupements raisonnés de mots apparentés, trancha par diverses spécificités textuelles (utilisation de définitions phrastiques, exemples forgés référés à un univers fictionnel récurrent, citations provenant de la littérature enfantine, recours aux rimes dans les indications de prononciation) et par l'originalité d'une maquette qui distribuait dans les marges latérales différents composants des articles sous forme de nombreux modules autonomes noirs ou bleus, ce qui impliquait un format plus grand que celui des répertoires concurrents. Le bleu et le noir furent également utilisés en 1989 pour afficher contrastivement les deux niveaux d'adressage du Robert oral-écrit, conçu par Dominique Taulelle pour la didactique de l'orthographe et qui, à cette fin, subordonnait les diverses adresses graphiques de chaque ensemble d'homophones (qui incluaient des formes fléchies) à une adresse transcrivant leur prononciation commune au moyen d'un alphabet phonétique aménagé.
+Ces trois dictionnaires originaux, intéressants dans leur principe et riches, chacun à sa manière, d'informations qui ne se trouvaient pas ailleurs, ne comptèrent pas parmi les succès de leur éditeur. Aux dires mêmes de sa conceptrice, Josette Rey-Debove, Le Robert méthodique, qui ne séduisit pas le public français, et notamment les enseignants, qui auraient pu en être le relais, n'a bénéficié d'une édition refondue en 2004 avec pour titre Le Robert brio qu'en raison du meilleur succès qu'il aurait connu en Suisse, où cette deuxième édition parut d'ailleurs dès 2003 sans perdre son nom d'origine. Le Petit Robert des enfants, en dépit d'un restylage sous le titre de Robert des jeunes en 1991 qui affecta principalement les dossiers hors texte, dut céder la place en 1993 au Robert junior illustré, conforme au standard du marché, sur lequel il est resté présent depuis. Quant au Robert oral-écrit, il disparut rapidement du catalogue de son éditeur sans connaître de deuxième chance.
+À défaut d'explications assurées, on peut faire diverses hypothèses sur les raisons de ces méventes. La première pourrait être simplement économique : sur tout marché, pour que certains produits réussissent, il faut que d'autres échouent, et peut-être la demande globale était-elle trop saturée pour que ces dictionnaires aient eu leur chance au moment où ils parurent. D'autres motifs, cependant, viennent à l'esprit :
+Par ses grandes réalisations compilatoires comme par ses expérimentations linguistiques et textuelles, la lexicographie française de la fin du siècle écoulé a produit, en différentes séquences selon les types d'ouvrages, une palette de dictionnaires généraux monolingues dont l'histoire de ce genre documentaire a gardé la mémoire. Mais le public ne fut pas suffisamment au rendez-vous de cette offre foisonnante et les gestionnaires des éditeurs spécialisés en tirèrent les conclusions en tendant à se recentrer sur des formules supposées éprouvées tout en misant davantage sur le marketing, avec des résultats d'ailleurs très contrastés, tandis que, dans le même temps, l'État se désinvestissait des grands travaux dictionnairiques de prestige. À divers égards, les années qui ont donné son lustre à la lexicographie monolingue française dans la deuxième moitié du XXe siècle peuvent donc apparaître comme une période d'exception, rendue possible par la concomitance et la synergie de facteurs économiques, culturels et humains, qui aura probablement été le crépuscule des sommes imprimées multivolumes tout en constituant une parenthèse intellectuelle, sous l'influence notamment de la linguistique conquérante de l'époque "structurale", dans un flux plus modestement utilitaire qui semble avoir repris son cours depuis que le « demi-siècle d'or » s'est dissous dans des problèmes d'argent.
+Aujourd'hui, en effet, l'observateur peut avoir le sentiment que le marché dictionnairique français est engagé dans une dynamique négative, entre une offre dominée par des principes gestionnaires sévères et une demande évolutive et difficile à saisir, dans un contexte où la part relative de la "référence" diminue régulièrement par rapport à celle d'autres secteurs de la librairie.
+L'offre de dictionnaires généraux monolingues apparaît encore assez diversifiée dans les catalogues des maisons d'édition : autour de 25 références pour Larousse, une quinzaine pour Le Robert, un peu moins de 10 pour Hachette et quelques autres répertoires répartis entre plusieurs éditeurs non spécialisés, on atteint la soixantaine d'ouvrages et ce n'est pas négligeable. Cependant, par le jeu des variations de format et de conditionnement, des changements de support, des réemplois de contenus et des dérivations, la diversité dictionnairique effective est moins importante.
+Les grands travaux dispendieux et les innovations déroutantes ont fait place à une lexicographie de gestion et de maintenance. Les compressions d'effectifs tendent vers une limitation des personnels permanents au minimum nécessaire pour gérer les projets, les tâches rédactionnelles étant souvent confiées à des rédacteurs externes, parmi lesquels les stagiaires ne sont pas quantité négligeable, ce qui ne peut qu'entraîner une déperdition dans la transmission des savoirs et des savoir-faire. La documentation, quand elle n'est pas simplement laissée à la charge de contributeurs temporaires, associe aux dépouillements classiques la glane sur Internet et l'utilisation de ressources électroniques toutes prêtes mais non échantillonnées (archives de presse), et elle ignore la constitution de corpus de référence à la manière anglaise, l'obstacle du coût pouvant parfois trouver un renfort dans les réticences tenaces de lexicographes notoires. L'informatique éditoriale permet des gains de productivité, par la facilitation du montage de contenus préexistants, la réduction du temps de rédaction, la variation à volonté de l'affichage d'un même ouvrage et l'internalisation de la mise en page qu'elle rend possibles. Corrélativement, les entreprises majeures peuvent déployer des efforts mercatiques importants, affectant soit les produits eux-mêmes, par le renouvellement fréquent de leurs couvertures, le changement, non exceptionnel, de leur titre ou le recours, pour leur habillage, à des graphistes célèbres, pour des éditions spéciales ou des créations et avec des réussites variables, soit leur commercialisation proprement dite, par des mises en place spectaculaires, la célébration d'événements exceptionnels (changement de millénaire, anniversaires), l'extension des millésimages ou le recours à des personnalités pour des campagnes publicitaires.
+Dans ce contexte, on observe un lissage de l'offre, dominée par l'entretien plus ou moins régulier de modèles qui ont fait leurs preuves marchandes, et dans laquelle le très haut de gamme a grandement baissé pavillon. Pour les dictionnaires "de langue", tandis qu'on solde les derniers exemplaires imprimés de la version en 6 volumes du Grand Robert de la langue française parue en 2001, encore vendu en édition électronique, et que, dans le secteur non commercial, la « deuxième vie » que connaît le Trésor de la langue française à travers le nombre de ses consultations en ligne et les ventes de son CD-ROM ne confère pas une nouvelle jeunesse à son contenu textuel, les 4 volumes du Dictionnaire culturel en langue française de 2005, version allégée du Grand Robert assortie d'environ 1 300 articles lexico-culturels originaux hors texte qui rapporte quelques bénéfices après une gestation longue et coûteuse, constituent le sommet de l'offre récente. Quant aux dictionnaires identifiés comme "encyclopédiques", ils plafonnent désormais au niveau d'une nomenclature de Petit Larousse (87 000 articles) enrichie de développements non métalinguistiques et de spécificités iconographiques avec le Grand Larousse encyclopédique en 2 volumes, avatar détechnologisé et au prix ajusté (75 ?), en 2007, des 3 volumes du Grand Larousse illustré de 2005 (accompagnés alors d'un CD-ROM et, en option, d'un stylo multimédia permettant d'effectuer des recherches complémentaires sur Internet à partir du texte imprimé), dont l'échec commercial fut principalement imputé à un prix initial trop élevé (180 ou 250 ? selon la version). L'effet inattendu et paradoxal de cette situation est que, avec un concept très différent et à un prix plus élevé (118 ?), le couple constitué par le Nouveau Petit Robert et le Robert encyclopédique des noms propres, susceptibles d'être vendus conjointement en coffret, constitue désormais, avec ses 100 000 items, le dictionnaire "encyclopédique" imprimé le plus consistant, mais il n'est pas assuré qu'il soit perçu comme tel et le volume des noms propres ne passe pas pour un succès de librairie.
+Dans un marché dorénavant presque limité aux dictionnaires en un volume, où Larousse et Le Robert investissent avant tout, de diverses façons, dans la promotion des produits phares ? Petit Larousse et Petit Robert ? qui constituent leur socle (cf. supra) et comme tels continuent à faire partie du petit nombre des répertoires qui existent aussi sur disque optique, l'examen du catalogue restreint de Hachette, éditeur dictionnairique de deuxième importance qui pratique une politique de prix bas appuyée sur la réduction des coûts de rédaction comme de communication et sur une maîtrise établie de la distribution, signale des segments sur lesquels il est intéressant d'être présent de façon continue : le dictionnaire de référence, ici en version "encyclopédique" (Dictionnaire Hachette, refondu pour 2002 ? sans CD-ROM, à la différence de l'édition antérieure ? et actualisé chaque année), les utilitaires portatifs (Dictionnaire Hachette encyclopédique de poche, Dictionnaire Hachette de la langue française mini) et les répertoires pour l'école primaire (Dictionnaire Hachette junior et Dictionnaire Hachette benjamin), qui changent plus souvent de livrée que de contenu. La concurrence est effectivement maximale sur ces deux derniers créneaux, où Larousse et Le Robert sont également présents et dont le second est aussi investi par plusieurs éditeurs spécialisés dans les publications pour la jeunesse pédagogiques ou de loisirs. En revanche, l'offre de milieu de gamme, qui semble être le segment le moins assuré des catalogues, n'émane durablement que des deux éditeurs majeurs, avec un public cible bien défini ? les collégiens ? et d'autres plus ouverts ou incertains, pouvant induire des déconvenues commerciales en dépit du caractère conventionnel des ouvrages.
+La linguistique ne pèse plus guère dans la lexicographie de montage et d'entretien actuelle. Les répertoires survivants de l'époque où elle avait le vent en poupe (Lexis, Maxi débutants, Robert brio) perpétuent les modèles d'alors, et les innovations, conçues en dehors des entreprises majeures, connaissent à leur tour l'insuccès commercial, comme le peu manipulable Dictionnaire du français usuel de Jacqueline Picoche & Jean-Claude Rolland, paru en Belgique en 2002 à destination des apprenants étrangers, ou res-tent à l'état de chantiers universitaires suggestifs mais inachevés, comme le Dictionnaire explicatif et combinatoire du français contemporain conçu par Igor Mel'?uk et son avatar récent dénommé Lexique actif du français (Mel'?uk & Polguère 2007) au Québec ou le DAFLES en Belgique (désormais intégré dans une « Base lexicale du français », portail de ressources et de liens à visée didactique).
+La lexicographie monolingue générale française vivote donc en gérant l'existant, peut-être davantage dans la crainte de nouveaux replis que dans l'espoir de lendemains rassérénants, en dépit de coups de coeur ponctuels d'une partie du public pour des "événements" dictionnairiques bien orchestrés comme le Petit Larousse du centenaire (millésime 2005) ou le Dictionnaire culturel en langue française, qui ne suffisent pas nécessairement à compenser les déconvenues, ce dont témoigne la reprise en main éditoriale de Larousse au sein d'Hachette-Livre sous la férule d'Isabelle Jeuge-Maynart en 2006 afin d'endiguer les mauvais résultats commerciaux. Mais, si ses gestionnaires ont tiré les leçons du passé en délaissant l'expérimentation à risque et en concentrant leur offre dans une palette de répertoires moins ouverte et une échelle de prix plus restreinte, le marché propose encore, en l'état, un large choix d'ouvrages pour divers usages et diverses compétences, globalement assez bien tenus à jour, et qui, dans les catalogues des éditeurs majeurs, riches d'une longue expérience et d'un important fonds documentaire et textuel, s'organisent en gammes qui, à défaut de ne proposer que des produits nettement différenciés (cf. supra § 3.1), les échelonnent de façon cohérente. Cette offre serait-elle encore trop importante pour la demande ?
+L'hypothèse n'est pas à exclure. Après tout, vendre chaque année en grand nombre un Petit Larousse ou un Petit Robert qui, pour l'essentiel et nonobstant l'actualisation de rigueur, n'a de neuf que son millésime, relève d'une sorte d'exploit dans un environnement dans lequel la concurrence de multiples biens de consommation (cf. supra § 2.2.1) ne peut que réduire mécaniquement le potentiel d'attractivité des dictionnaires et avoir une incidence sur l'évolution de leurs ventes. Et l'existence même de répertoires vedettes, enjeux majeurs pour leurs éditeurs et objets de soins destinés à entretenir leur succès, pourrait avoir dans l'édition dictionnairique, vis-à-vis d'autres titres des catalogues, un effet de nuisance du même ordre que celui généré par les best-sellers dans l'ensemble du commerce du livre, certains répertoires ne trouvant pas tout leur public potentiel faute que celui-ci, du fait d'une représentation lacunaire des fonctionnalités différenciées de dictionnaires généraux de diverses natures, soit en mesure d'appréhender l'ensemble de l'offre et de percevoir les services spécifiques que chaque répertoire serait susceptible de rendre. Si, comme l'affirment volontiers des lexicographes professionnels, la vérification orthographique constitue le premier motif de consultation de dictionnaires, suivie par les recherches de sens, et que le reste de l'information linguistique proposée n'est pas significativement perçu comme répondant à des besoins, ce sont les principes mêmes de la diversification des catalogues qui sont en situation de ne pas être compris. La porte est alors ouverte au choix aléatoire des dictionnaires les plus notoires, les mieux exposés ou les moins chers, si tant est que la multiplicité des ressources électroniques disponibles, des correcteurs orthographiques intégrés à divers logiciels aux dictionnaires en ligne gratuits de tout acabit, ne dissuade de tout achat.
+Portés par tradition à la révérence vis-à-vis du dictionnaire considéré comme une transcendance, les Français ne sont en revanche pas nourris d'une culture lexicographique théorique et pratique qui leur donnerait les moyens d'apprécier à quoi correspond la pluralité de l'offre dictionnairique, d'y prendre les repères les plus appropriés et de tirer le meilleur profit de consultations efficaces, ce qui renvoie à l'écart entre la place qui serait à faire et celle qui est faite à l'éducation aux usages des dictionnaires dans l'enseignement (cf. supra § 1). Sans minimiser les autres facteurs qui les déterminent, il convient donc aussi de définir la part du déficit d'attentes dans les limites actuelles de la demande de dictionnaires.
+Il est à craindre que les tendances récessives de l'offre et de la demande de dictionnaires n'aillent s'aggravant et que leur inversion ne soit pas à attendre de l'autorégulation du marché. Concurrencée par des res-sources gratuites de nature et de qualité très variables, le plus souvent sans fonctionnalités ajoutées, mais susceptibles de satisfaire une demande dépourvue d'attentes fortes faute d'une éducation et d'une culture spécifiques du public, la lexicographie commerciale se trouve en position défensive : les grands dictionnaires "encyclopédiques" d'un certain prix appartiennent au passé, l'amélioration effective du contenu des dictionnaires "de langue" s'effectue de façon trop subtile, par ajustements successifs au fil de révisions et de dérivations, pour constituer un argument de vente efficace, et les plus-values fonctionnelles des versions électroniques de certains répertoires n'ont pas suffi à créer un marché porteur. Comment, dès lors, l'offre privée, pour au moins maintenir ses positions, ne concentrerait-elle pas ses efforts sur la valorisation de l'image des marques et sur une stimulation ponctuelle artificielle de la demande par le marketing plutôt que sur des investissements fonciers à moyen ou long terme aussi onéreux qu'hasardeux et dont elle n'aurait de toute façon probablement pas les moyens ? Rien ne permet d'envisager une évolution favorable si le noeud du problème réside bien dans la qualité de la demande. On peut toujours rêver à un monde idéal dans lequel les pouvoirs publics, miraculeusement sensibilisés aux vertus éducatives des dictionnaires et à leur pouvoir thérapeutique dans une lutte à mener contre ce qui peut apparaître comme « la paresse, l'apathie, l'indifférence d'une majorité des Français à l'égard de leur langue » (Rey 2007 : 1318), donneraient à l'apprentissage de leur maniement une place plus affirmée que ce que prévoient aujourd'hui les programmes et instructions scolaires afin d'améliorer le potentiel d'expression autonome des citoyens, ce qui, par la relance de la consommation induite, aurait des répercussions positives sur l'offre des éditeurs. Mais pour l'heure cette vision keynésienne d'un encadrement qui donnerait un nouveau souffle à l'édition dictionnairique peut rejoindre le rêve technologique de Sue Atkins au rang des utopies. Tout au plus est-il possible, par le présent propos, de lui donner un mince écho en invitant la communauté des linguistes francophones intéressés par le lexique à réfléchir à ce qui pourrait contribuer à donner aux dictionnaires une meilleure place dans l'épanouissement de l'expression personnelle de chacun.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé + par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+[...] on voit ce qu'il faut penser de l'Analogie. A considérer l'usage qui en est fait dans quelques livres récents, on la prendrait pour une grande éponge se promenant au hasard de la grammaire, pour en brouiller et en mêler les formes, pour effacer sans motifs les distinctions les plus légitimes et les plus utiles (Bréal, 1899 : 84)+
Le retour, sur le devant de la scène morphologique, du concept d'analogie me semble constituer l'un des changements majeurs de cette dernière décennie.
+En effet, après avoir connu des périodes de flux et de reflux, le concept réémerge actuellement sous l'impulsion de travaux de psycholinguistes, gagnant peu à peu du terrain dans le champ des études proprement morphologiques, y compris dans des travaux portant sur la morphologie du français.
+La présente contribution s'articulera en trois parties : après une rapide définition de l'analogie, je brosserai à grands traits l'utilisation qui en a été faite en matière de lexique construit. On verra ensuite que la période actuelle réunit les conditions propices à la réactivation du concept, et que de plus en plus de travaux contemporains recourent à elle, éventuellement sous des appellations différentes, comme principe explicatif de faits morphologiques.
+L'analogie est un concept aristotélicien, définissable comme une égalité de rapports. Aristote recourt à elle quand une première chose est dans un rapport à une deuxième comme une troisième l'est à une quatrième, assimilant ainsi une égalité de proportion à une identité de relation. C'est grâce à ce concept fondamentalement mathématique, que les pythagoriciens ont utilisé pour établir une égalité entre quatre termes (a/b = c/d), qu'il est possible de formuler des jugements généraux sur des objets inconnus très divers par un processus d'inférence (cf. l'utilisation qu'en fait Saint Thomas d'Aquin selon lequel nous pouvons dire quelque chose sur la connaissance de Dieu bien que nous ne sachions rien de Dieu, parce qu'elle est à Dieu dans le même rapport que la connaissance de l'homme est à l'homme). C'est encore sur l'analogie que repose le mécanisme de la métaphore, en particulier la métaphore in absentia (Gardes-Tamine, 2003) : puisque a est à b ce que c est à d, a peut être substitué à c (et réciproquement), ou b à d (et réciproquement).
+Si le concept est ancien, l'intérêt qui lui a été porté ne s'est pas démenti depuis la période grecque (je renvoie ici à Biela, 1991 : 13-sq), et le thème demeure d'actualité en ce début de xxie siècle dans différents champs de la connaissance, dont les mathématiques où l'analogie est une stratégie de résolution de problèmes, et les sciences cognitives en général. Une simple requête sur la Toile montre en effet la multiplicité des recherches sur ce thème, tous champs disciplinaires confondus, pour la seule dernière décennie : analyse discursive (Chardonnet-Méliès, 1999) et paratextuelle (Perava, 1995), philosophie (Schaar, 1999), traitement automatique (Lepage, 2000 et 2003), pour n'en citer que quelques-uns. L'analogie fait également l'objet de recherches fécondes en psychologie depuis un quart de siècle (pour une revue détaillée, cf. Sander, 2000), et est à la source du rapprochement entre psychologie et intelligence artificielle, dans leurs soucis convergents de modéliser le traitement d'informations (cf. en particulier Gineste, 1997).
+Il ne s'agira pas ici de dresser un historique exhaustif de la notion telle qu'elle a été utilisée en grammaire et en linguistique de l'Antiquité à nos jours, mais seulement d'en brosser les grandes lignes, en centrant les observations sur le domaine de la formation des mots (pour un point historique plus documenté, je renvoie à Chevalier & Delesalle, 1986, qui montrent la permanence du concept du xviiie siècle à la fin du xixe siècle, ainsi qu'à Biela, 1991 : 107 - 115).
+Sans entrer dans le détail :
+En tout état de cause, pendant cette longue période, l'analogie n'est jamais conçue comme un principe d'explication, pas plus qu'elle n'est particulièrement évoquée à propos du lexique construit. Ce n'est qu'à partir de Beauzée qu'elle devient tour à tour :
+Pour la 1e édition du dictionnaire de l'Académie (1694), « |l]es mots nouveaux ne peuvent guère s'introduire qu'à l'aide de l'analogie ».
+La première moitié du xixe siècle s'intéresse peu à l'analogie : l'objectif de la grammaire comparée n'est pas de découvrir les principes dynamiques à l'oeuvre dans les langues, mais d'en découvrir les origines. L'analogie est par conséquent très en marge de ce programme de recherche.
+On assiste en revanche à une réémergence du concept chez les philologues travaillant sur l'évolution du latin au français. Pour eux, l'analogie est surtout un facteur de trouble : ainsi l'exemple, cité par Chevalier & Delesalle (1988 : 344), de l'extension du /s/ au cas sujet de tous les noms, considérée comme une régularisation abusive, arbitraire, allant à l'encontre des « lois naturelles » que sont les lois d'évolution phonétique.
+Les néo-grammairiens s'emparent à leur tour du concept et le redorent. L'analogie devient alors une force dynamique, précisément parce qu'elle contrecarre les lois phonétiques : ainsi, pour Leskien (1876) cité d'après Touratier (1988 : 140 - 141), les lois phonétiques et l'analogie constituent les seuls facteurs susceptibles d'expliquer la forme que présente à une époque donnée la déclinaison d'une langue.
+En 1880, H. Paul érige l'analogie en principe. Renouant avec la conception aristotélicienne du concept, il l'énonce au moyen de l'équation du calcul de la quatrième proportionnelle, qu'utiliseront et développeront plus tard notamment Saussure (1916), Herman (1931) et Bloomfield (1933). Pour Paul (1880 : chap. 5), l'analogie est susceptible d'intervenir aux niveaux sémantique, syntaxique, morphologique, flexionnel, phonétique, puisque chacun d'entre eux permet de dégager des groupes proportionnels (proportionengruppen), eux-mêmes sources d'équations proportionnelles (proportionen-gleichungen).
+A la même époque en France, M. Bréal institue l'analogie, « cette loi du langage qui fait que des formes déjà créées servent de modèles à des formes nouvelles » (1890 : 327), en dynamique centrale des langues. C'est précisément un exemple de lexème apparemment construit, sans base identifiable, qui lui sert à illustrer sa définition : « ainsi septentrional, qui vient de septentrion, a servi de modèle à méridional, lequel n'a pas de primitif dont il ait pu être immédiatement dérivé ».
+Chez F. de Saussure, l'analogie apparaît comme un principe central de régulation des signes entre eux (elle constitue le thème exclusif ou principal des chapitres 4 et 5 du Cours de linguistique générale et apparaît comme thème secondaire des chapitres 6 et 7) : à l'encontre des philologues français de la première moitié du xixe, il pose que les facteurs de trouble sont les lois phonétiques (chap. 4, p. 221), en ceci qu'elles « contribue[nt] à relâcher les liens grammaticaux qui unissent les mots entre eux », augmentant ainsi inutilement la quantité des formes à l'intérieur d'un paradigme. Pour lui, cette tendance à l'irrégularité est heureusement contrebalancée par l'analogie, qui « suppose un modèle et son imitation régulière » (ibid.). Comme H. Paul, il ramène le concept au calcul de l'équation de la quatrième proportionnelle. Il lui assigne deux rôles majeurs :
+permettre au locuteur de produire des mots nouveaux. Du point de vue de la synchronie cette fois, l'analogie joue en effet un rôle central dans la formation du lexique construit, comme l'indiquent les deux extraits suivants, empruntés respectivement aux pages 225 et 228 du Cours de linguistique générale :
+sur le modèle de pension :pensionnaire, réaction :réactionnaire, etc., quelqu'un peut créer interventionnaire ou répressionnaire, signifiant 'qui est pour l'intervention', 'pour la répression'+
magasinier n'a pas été engendré par magasin ; il a été formé sur le modèle de prisonnier :prison, etc. De même, emmagasiner doit son existence à l'analogie de emmailloter, encadrer, encapuchonner, etc., qui contiennent maillot, cadre, capuchon, etc.+
Pour lui, du point de vue du locuteur toujours, un nom comme répressionnaire n'instancie pas une règle abstraite (celle de la suffixation par -aire d'un nom), mais résulte bien du calcul de la quatrième proportionnelle, à partir de ce que Bloomfield (1933 : 383) appelle un « groupe modèle » (pension :pensionnaire, réaction :réactionnaire, etc.), dont on remarquera qu'il a la particularité d'impliquer des lexèmes comportant la même finale.
+Chez F. de Saussure, le recours à l'analogie n'est pas exclusif du recours aux patrons abstraits, ce qui confirme, comme l'écrit Anderson (1985 : 54) que, pour lui, « analogy is directly linked to the structure of the grammar ». Par exemple, page 227 :
+un mot que j'improvise, comme in-décor-able, existe déjà en puissance dans la langue ; on retrouve tous ses éléments dans les syntagmes tels que décor-er, décor-ation, pardonn-able, mani-able, in-connu, in-sensé, etc. ; et sa réalisation dans la parole est un fait insignifiant en comparaison de la possibilité de le former+
Après avoir été considérée comme un principe fondamental dans le domaine de la formation des mots dans le premier tiers du xxe siècle, l'analogie entre dans une période de somnolence, puis de profond sommeil dans les travaux de morphologues générativistes, alors même, comme le note Milner (1989 : 631), que la linguistique formalisante, qu'elle soit structurale ou générative, relève d'une conception analogique de la langue, où analogique signifie « régulier » (pour une remarque similaire, cf. Molino 1988 : 12).
+On peut voir un révélateur de cette mise en hibernation dans le fait que le terme analogie (ou ses équivalents dans d'autres langues) est absent de la plupart des index thématiques des travaux de morphologie s'inscrivant dans ce courant théorique (par exemple, Scalise, 1984, Di Sciullo & Williams, 1987, Lieber, 1992, Aronoff, 1994). On ne le trouve pas davantage dans Corbin (1987), que ce soit dans l'index ou dans le corps de l'ouvrage, alors même que 250 pages sont consacrées aux régularités et irrégularités de toutes sortes.
+Au moins trois raisons peuvent être invoquées pour expliquer l'occultation du concept dans ce courant théorique :
+Etant donné les fondements théoriques de la grammaire générative, on comprend que l'analogie disparaisse des préoccupations des morphologues qui s'inscrivent dans ce courant. Mais on s'attend également à ce que la notion se charge d'une valeur nouvelle, du moins pour les morphologues qui usent encore du concept : puisque les relations analogiques reposent sur une procédure paradigmatique de mise en relation de séries de lexèmes, et que les patrons abstraits de la grammaire générative - les règles - mettent en jeu une procédure fondamentalement syntagmatique, on peut prédire que les notions d'analogie et de règles se retrouvent en distribution complémentaire.
+Effectivement, alors que, par le passé, les notions étaient parfois interchangeables - on l'a déjà vu chez les grammairiens de l'Antiquité ; on le voit également dans l'article analogie de l'Encyclopédie, ou encore chez Saussure (1916 : 221), pour qui « une forme analogique est une forme faite à l'image d'une ou plusieurs autres d'après une règle déterminée » -, il devient désormais banal d'opposer formation par analogie et formation par règles, et ce y compris dans des travaux utilisant l'analogie comme principe explicatif (cf. par ex. Derwing & Skousen, 1989, qui, reprenant des résultats mis au jour dans un travail non publié de J. Ohala, récapitulent les points opposant l'approche basée sur règles et l'approche basée sur l'analogie). Désormais, l'analogie est appelée à la rescousse pour les cas rétifs à une explication par règle (cf. l'exemple des dérivés anglais en -ee développé dans Bauer, 1983 : 249).
+Concomitamment se met en place un second couple, opposant analogie et productivité (pour un point sur la notion, cf. Dal, 2003a et Dal & al., ce volume). Par exemple, Fradin (1994 : 16) mentionne l'analogie au titre des créations erratiques sous la branche « non productif » d'un diagramme montrant l'indépendance de la lexicalisation, des modes de construction et de la productivité ; Fradin (1998 : 329) cite confortique en tant que création analogique créée « en dehors du système des règles de la grammaire » ; Dressler & Ladányi (2000) opposent la productivité par règle et l'analogie de surface : les lexèmes que forme cette dernière échappent selon eux au domaine des règles de construction de mots. La même opposition se retrouve dans Booij (2002 : 10 - 11) : selon lui, un patron est productif quand il permet de former de nouveaux lexèmes de façon non intentionnelle. Il est en revanche non-productif s'il ne permet pas de former de nouveaux lexèmes, sauf de façon intentionnelle sur la base d'une analogie avec des lexèmes existants.
+L'opposition règles (productives) / analogie trouve aussi parfois son fondement dans des considérations quantitatives. C'est ainsi que, pour Bauer (1983 : 257), les créations anglaises en -nik résultent de l'application d'une règle parce qu'elles sont nombreuses ; elles auraient été le fruit de l'analogie si elles avaient été plus rares :
+Many of the earliest coinages in -nik [...] are evidently based directly on sputnik [...]. If only one such word had existed, it would have been possible to speak of an analogical formation. With so many it seems fairer to speak of a rule+
A peu de chose près, on retrouve cette même bipartition chez Becker (2003 : 277), pourtant fervent défenseur de l'analogie, comme on va le voir dans le paragraphe suivant :
+Their difference [entre analogie et règles] consists entirely in a difference of productivity. The so-called 'analogies' are rules of low productivity, and rules are productive analogies.+
Même aux beaux jours de la grammaire générative, l'analogie en tant que processus morphologique conservait cependant des défenseurs, d'autant plus virulents parfois que le phénomène se trouvait marginalisé :
+- Motsch (1987 : 24) se demande ainsi s'il est fondé d'opposer analogie et règles. Comme d'autres avant (par ex. van Marle, 1985) et après lui (par ex. Biela, 1991 : 114 - 5), il souligne en effet que les règles n'existent qu'en tant qu'elles sont incarnées par des mots existants, présentant des similarités :
+The creation of new words (...) presupposes rules. But rules need not have an existence of their own. We may conceive of rules as the result of a process of analysis operating on similarity of item of the vocabulary.+
Pour des raisons que développe van Marle (2000 : 226-sq.), la question de l'analogie est souvent polémique, et les positions prises à son égard sont la plupart du temps extrêmes : on peut de la sorte reprocher leur manichéisme à Derwing & Skousen (1989), nettement en faveur de l'analogie, comme on peut reprocher le sien à Plag (1999), partisan, lui, d'une morphologie basée sur des règles. En témoignent les vives critiques qu'ont suscitées les travaux de Becker et le modèle analogique de Skousen (cf. entre autres Bauer, 1993, Baayen, 1995, et Plag, 1999). En substance, il est reproché à l'analogie :
+Cependant, à l'issue de l'examen de chacune de ces critiques, rien de décisif ne se dégage :
+Les changements épistémologiques auxquels on assiste ces dernières années sont propices à la résurgence de l'analogie en tant que principe explicatif en matière de lexique construit :
+De fait, au niveau international, depuis une petite dizaine d'années et ce, y compris de la part de morphologues qui récusaient l'utilité du concept auparavant, on voit fleurir nombre de travaux utilisant l'analogie comme principe explicatif, qu'elle soit nommée comme telle ou qu'on parle de « relations paradigmatiques » (par ex. Booij, 1997, van Marle, 2000) ou de modèles basés sur des exemplaires (exemplar-based models ; par ex. Skousen & al., 2002 ; pour un résumé des principaux modèles de ce type, cf. Eddington, 2004). C'est ainsi que, dans un colloque international récent, S. Lappe et I. Plag ont recouru au concept pour expliquer l'assignation de l'accent dans des composés [NN] de l'anglais que Krott & al. (2001) l'utilisent pour modéliser les éléments de liaison à la jonction des constituants de composés en néerlandais, que Booij (2007) s'achève sur l'importance de la prise en compte des relations paradigmatiques en matière de lexique construit, que Gaeta (2007) se demande si l'analogie est « économique », ou que l'on peut trouver sur la page personnelle de H. Baayen les propos suivants :
+The importance of paradigmatic relations for lexical processing has also become evident from our work on the morphological family size effect (Bertram, Baayen and Schreuder, 2000, Journal of Memory and Language, De Jong, Schreuder and Baayen, 2000, Language and Cognitive Processing, Moscoso del Prado Martin, Kostic, and Baayen, 2004, Cognition; for auditory comprehension, see Wurm, Ernestus, Schreuder and Baayen). For recent work addressing the imbalance of semantic interconnectivity for regular and irregular verbs and its consequences for lexical processing, see Baayen and Moscoso del Prado Martin (2004) and Tabak, Schreuder, and Baayen (2004).+
Pour ce qui est des travaux portant sur la morphologie constructionnelle du français, la prise en compte de l'analogie et des relations paradigmatiques commence à percer. Sans prétendre à l'exhaustivité, je citerai ici Amiot (en préparation), Dal (2003b), Dal (2004 : 66 - 86), Dal & Namer (en préparation), Hathout (2003), Lignon & Montermini (en préparation), Stroppa & Yvon (2005).
+L'objectif de la présente contribution n'était pas de prouver que l'analogie est un concept opératoire dans le domaine du lexique construit, mais simplement de rassembler des arguments montrant que, de même que dans d'autres champs de la linguistique où sa réhabilitation a commencé, le concept mérite peut-être davantage que le sort qu'il lui a été réservé jusqu'il y a peu. C'est, me semble-t-il, chose faite : si on admet que le rôle du morphologue est de mettre au jour les régularités qu'il observe dans les lexèmes construits et de les utiliser pour prédire le lexique à venir, l'analogie peut être réhabilitée comme mode explicatif, à charge pour lui de contraindre le concept.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Les changements sémantiques sous-jacents aux phénomènes de grammaticalisation ont été analysés dans le passé comme des transferts métaphoriques, des glissements métonymiques ou des « conventionnalisations d'implicatures ». Dans cette brève contribution, nous nous demanderons, à l'instar de Nicolle (1998), quel pourrait être l'apport de la théorie de la pertinence à l'analyse de ces évolutions sémantiques. Puisque Nicolle (1998) s'est servi, entre autres, de l'évolution de la construction anglaise be going to + infinitif pour illustrer ses idées, nous prendrons comme point de départ de cette étude l'analyse de la grammaticalisation de la séquence aller + infinitif proposée par Detges (1999). Nous expliquerons d'abord pourquoi il est nécessaire de combiner son analyse métonymique avec les mécanismes pragmatiques décrits par la théorie de la pertinence. Ensuite, nous montrerons brièvement qu'en plus des éléments déjà mentionnés, il faut aussi tenir compte de la fréquence d'emploi de la séquence aller + infinitif.
+La grammaticalisation de la séquence aller + infinitif a été décrite par plusieurs auteurs ; nous partirons ici de l'analyse proposée par Detges (1999), que nous compléterons toutefois en nous servant d'idées et de données empruntées à Gougenheim (1929), Flydal (1943), Wilmet (1970) et Werner (1980). Selon Detges (1999), le mécanisme sous-jacent au changement sémantique du verbe aller, qui s'est transformé de verbe de mouvement en marqueur du « futur périphrastique » (du moins lorsqu'il est suivi d'un infinitif), est de nature métonymique, mais la cause et la direction du processus de grammaticalisation (du concret vers l'abstrait) doivent être expliquées en faisant appel à des stratégies et à des intentions communicatives particulières des locuteurs.
+A l'instar de Blank (1997), Detges (1999 : 36) considère comme métonymiques des changements sémantiques du type 'contenant > contenu', 'acte > résultat', etc. A son avis, ces glissements de sens s'expliquent à partir des relations (non linguistiques) existant entre les concepts qui représentent les entités désignées par les signes linguistiques. Ces concepts sont organisés en cadres (frames), c'est-à-dire des ensembles de connaissances encyclopédiques. Ainsi, en ce qui concerne le concept tête, nous savons (i) que la tête est une partie du corps et, par extension, de la personne humaine, (ii) que c'est la partie supérieure du corps (du moins chez les êtres humains), (iii) que la tête est le siège de l'intellect, etc. Lorsque le contexte met au premier plan certaines connaissances qui font partie du cadre associé au nom tête, et en repousse d'autres à l'arrière-plan, ce nom acquiert différentes interprétations. Il peut ainsi désigner, selon le Petit Robert, les personnes humaines (ex. 1) ou l'intellect dont la tête est censée être le siège (ex. 2) :
+(1) Une tête couronnée (Petit Robert, s.v. tête)+
(2) On n'écrit pas avec son coeur, mais avec sa tête (Flaubert, cité par le Petit Robert, s.v. tête)+
Dans l'exemple (1), c'est l'idée de la personne humaine, dont la tête est une partie, qui a été mise au premier plan, dans l'exemple (2), par un mouvement en quelque sorte inverse, c'est l'intellect (qui est censé être « dans » la tête) qui se voit promu au premier plan. Mais dans les deux cas, la métonymie résulte de glissements à l'intérieur du cadre associé à tête (Koch 1996, 1999) : tête > personne ; tête > intellect. De plus, elle consiste à changer les rapports premier plan / arrière-plan existant au sein du cadre.
+Lorsqu'il est question de verbes, les cadres qu'ils désignent se reflètent dans leur valence (Detges 1999 : 37) ; aller désigne ainsi un cadre qui comporte (i) deux éléments centraux ou actants, à savoir (a) l'agent du mouvement et (b) la destination de ce mouvement, mais aussi (ii) plusieurs circonstants, comme (a) la vitesse, (b) l'instrument et (c) l'intention avec laquelle l'agent se dirige vers sa destination. Selon Detges, la grammaticalisation liée au verbe aller est le résultat de glissements métonymiques à l'intérieur de ce cadre. Il distingue deux étapes :
+Nous présentons ci-dessous son analyse des glissements métonymiques impliqués.
+L'intention associée au verbe aller concerne souvent les actes que l'auteur du mouvement se propose d'exécuter lorsqu'il arrive à la destination du mouvement :
+(3) Car incontinant le roy manda tous ses barons, cappitaines et chefz de guerre, et sans aulcun delay fit appareillier tout ce qui estoit de besoing pour aller en Espaigne commancer la guerre contre les barons du pays. (Jehan de Paris 8, cité par Werner 1980 : 131)+
Il suffit que cette intention soit plus importante en contexte que la destination à laquelle elle est associée pour que seule l'intention soit exprimée. Detges (1999 : 39) cite ainsi les exemples suivants, dans lesquels seule l'intention est encore explicitée,
+(4) Nos alomes la messe oïr; Tuit alomes vers le mostier. (Roman de Renart 12582, fin 12e - début 13e s.; cité par Littré 1961/62 et Detges 1999 : 39)+
(5) Il meismes ala trois serjans apeler (Li romans de Berte aus grans pies XVII, fin 13e siècle, cité par Littré 1961/62 et Detges 1999 : 39)+
Bref, il n'est pas toujours nécessaire d'expliciter la destination parce que celle-ci peut être déduite sans problèmes du contexte. Partant, le verbe aller s'emploiera par la suite dans des contextes où il n'exprime plus l'idée d'un mouvement, mais où il signale seulement la présence d'une intention :
+(4) Il est bien temps de deviser / Les personnaiges et nommer. / Je vous les veulx nommer à tous. / Je voys au Monde commencer. (Moralité de Charité, 1532 - 1550, passage cité par Gougenheim 1929/1971 : 98 et Detges 1999 : 39)+
Comme le fait remarquer Detges (1999 : 40), en (4) je voys n'exprime plus le mouvement, puisque le locuteur ne doit pas se déplacer pour présenter les personnages. Je voys correspond plutôt à « j'ai l'intention (de) ... », ce qui est d'ailleurs étayé par la juxtaposition de je voys avec je veulx. Le résultat est que l'intention est mise au premier plan, alors que la destination est repoussée à l'arrière-plan.
+L'analyse n'est pas encore complète, toutefois : il faut encore expliquer ce qui déclenche le changement sémantique. Detges (1999 : 48) avance à ce sujet que les locuteurs font appel à des verbes désignant un mouvement visible pour exprimer leurs intentions ou pour faire des assertions sur le futur, qui n'est pas perceptible, afin de signaler à leurs interlocuteurs que ces intentions ou ces événements futurs vont effectivement être réalisés. Il est intéressant de noter à ce propos que le changement sémantique du verbe aller décrit dans cette partie de notre texte se produit initialement dans des contextes où ce verbe est conjugué à la première personne (Gougenheim 1929, Flydal 1943, Wilmet 1970 et Werner 1980). Cela s'explique en effet, selon Detges (1999 : 40), par le fait que la périphrase aller + infinitif y sert surtout à exprimer des actes de langage comme la promesse, des actes dans lesquels l'intention de faire quelque chose occupe le premier plan. En disant « je vais ... », le locuteur signale qu'au moment de parler, il a déjà entamé le mouvement qui conduira à la réalisation de l'acte (voir également Flydal 1943 : 8). Le rapport métonymique entre mouvement et intention est ainsi ancré dans l'expérience du monde du locuteur et de son interlocuteur, ce qui contribue à rendre crédible pour l'interlocuteur l'idée que l'acte visé va se réaliser ; la métaphore, qui est basée sur un rapport conceptuel créé par le locuteur, n'aurait pas le même effet.
+Le changement de sens décrit implique donc deux niveaux : (i) un niveau cognitif, où l'on trouve les rapports conceptuels (konzeptuelle Brücken, Blank 1997 : 295) sous-jacents à l'évolution sémantique, et (ii) un niveau pragmatique, qui comporte le besoin communicatif, ressenti par le locuteur, de rendre crédible l'idée que ses actes intersubjectifs, comme la promesse, vont se réaliser et qui explique ainsi (i) le recours initial au concept concret d'aller et, du coup, (ii) la direction du changement (du concret vers l'abstrait) (Detges 1999 : 41).
+Si l'analyse de Detges nous semble tout à fait convaincante, l'on peut y ajouter un élément, qui pourrait fournir une réponse supplémentaire à la question posée ci-dessus, concernant l'élément qui déclenche le processus de grammaticalisation. Selon Koch (2004 : 12), en effet, l'élément déclencheur des glissements métonymiques serait fourni par le principe de pertinence. Rappelons que selon ce principe, nos énoncés créent des attentes de pertinence optimale :
+(...) le destinataire d'un énoncé est en droit d'attendre, d'une part, que cet énoncé soit au moins assez pertinent pour valoir la peine d'être traité (...) et d'autre part, qu'il soit l'énoncé le plus pertinent compte tenu des capacités et des préférences du locuteur. (Wilson 2006 : 42)+
La pertinence est définie en termes d'efforts de traitement et d'effets cognitifs (comme les implications contextuelles vraies, les renforcements ou les révisions d'hypothèses existantes, etc.) :
+Toutes choses étant égales par ailleurs, plus un stimulus produit d'effets cognitifs, plus il sera pertinent pour l'individu qui l'a traité ;
+(...) toutes choses étant égales par ailleurs, moins un énoncé demande d'effort de traitement, plus il est pertinent. (Wilson 2006 : 44)+
Notons que ces principes permettent entre autres d'expliquer pourquoi le locuteur n'exprime plus la destination dans les exemples (4) et (5) : puisque cette information peut être déduite du contexte, le locuteur rend son énoncé plus pertinent s'il ne la reprend pas, réduisant ainsi l'effort de traitement pour son interlocuteur. La présence des éléments contextuels décrits par Detges (la première personne, etc.) permet en outre à l'interlocuteur d'identifier à peu de « frais » de traitement l'intention communicative du locuteur. La combinaison du sens avec les éléments contextuels crée donc des effets contextuels supplémentaires. Ces analyses doivent peut-être encore être affinées, mais elles confirment à notre avis l'hypothèse que la recherche de la pertinence optimale pourrait expliquer pourquoi s'opèrent les glissements métonymiques décrits par Detges.
+Après le premier glissement métonymique, la séquence aller + infinitif n'est pas encore transformée en marqueur grammatical ; la généralisation qui en résulte et qu'on retrouve dans l'évolution de la structure be going to + infinitif en anglais, concerne selon Nicolle (1998) deux sens lexicaux. Le deuxième glissement métonymique, qui transforme la séquence aller + infinitif en marqueur grammatical, est basé sur l'idée généralement acceptée selon laquelle la réalisation de nos intentions est normalement située dans le futur : si les actes désignés par l'infinitif après le verbe aller renvoient aux intentions du sujet du verbe et que le locuteur essaie en outre de rendre crédible l'idée que ces intentions vont être réalisées, on comprend que la séquence aller + infinitif puisse s'employer par la suite pour exprimer l'idée de futur. Cette transition peut s'observer dans des passages comme (7), où aller + infinitif exprime selon Detges (1999 : 43) soit l'intention, soit le futur :
+(7) Je lui voys mander un cartel (Rabelais, Pantagruel IV, 32, 1532, cité par Gougenheim 1929 : 99 et Detges 1999 : 43)+
L'interprétation finale de cet énoncé dépend de ce qu'on met à l'avant-plan : l'intention ou le futur ; on assiste donc de nouveau à un glissement métonymique. Le développement qui permettra finalement à aller + infinitif de n'exprimer que l'idée de futur est accompagné d'un mouvement de généralisation, lors duquel le verbe commence à être employé avec des infinitifs désignant des événements qui ne dépendent plus de l'intention du sujet. Cette évolution est illustrée par les exemples suivants :
+(8) Par deffaulte de patience, / Tu vas perdre ta conscience. (Moralité de Charité, 1532 - 1550, cité par Gougenheim 1929 / 1971 : 98 et Detges 1999 : 42)+
(9) La paix va refleurir, les beaux jours vont renaître. (Racine, Andromaque, II, 4, 1667, cité par Littré 1961/62 et Detges 1999 : 42).+
La valeur future de aller + infinitif se distingue toujours de celle du futur simple, puisque l'indicatif présent du verbe aller + infinitif rattache le procès désigné au présent : le futur est appréhendé à partir du présent, « comme le développement naturel de l'actualité » (Wilmet 1970 : 195). La motivation pragmatique décrite par Detges reste donc présente, même lorsque le sujet du verbe ne renvoie plus au locuteur. Ainsi Leeman-Bouix (1994 : 163) note que, même si le futur périphrastique ne correspond pas à un procès immédiat, comme dans Max et Léa vont se marier, il présente ce procès comme tel « pour en garantir la réalisation », à l'opposé du futur simple.
+L'article de Nicolle (1998) permet d'analyser aussi cette deuxième étape de l'évolution de aller + infinitif en des termes empruntés à la théorie de la pertinence. Nicolle note d'abord que si la grammaticalisation est définie comme un processus qui change un élément lexical en un élément grammatical, elle peut être définie dans le cadre de la théorie de la pertinence comme une évolution qui change des termes exprimant des informations conceptuelles en des termes exprimant des informations procédurales (voir Traugott et Dasher (2002 : 10, 40) pour des idées comparables). En effet, dans la théorie de la pertinence, l'information conceptuelle permet d'élaborer une représentation de la scène décrite par l'énoncé, alors que l'information procédurale donne des instructions sur la façon dont il faut organiser et manipuler cette information conceptuelle ; le premier type d'information correspond donc (en gros) au sens lexical et le second au sens grammatical. Cette distinction permet à Nicolle (1998 : 10) d'expliquer pourquoi une expression qui (comme aller + infinitif) a développé un sens procédural en plus de son sens conceptuel, se transforme en marqueur grammatical. Lorsqu'un interlocuteur doit interpréter un énoncé comportant une telle forme (comme aller + infinitif) dans un énoncé (comme (7)), où des éléments contextuels favorisent l'activation du nouveau sens procédural (dans le cas de aller + infinitif, le sens temporel), cette forme pourra recevoir deux interprétations, puisque son sens lexical - ou conceptuel - sera également activé. Or le nouveau sens procédural apporte des informations sur la façon dont l'énoncé doit être interprété et contribue ainsi à réduire l'effort de traitement - le sens temporel permet, en gros, de situer la situation dénotée sur l'axe du temps. Si l'activation du sens procédural permet à l'interlocuteur de récupérer suffisamment d'effets contextuels, le processus interprétatif s'arrêtera, conformément au principe de pertinence, et seul le sens procédural sera retenu - donc, en ce qui concerne aller + infinitif, le sens temporel. En effet, le traitement supplémentaire de l'information conceptuelle (uniquement celle exprimée par la structure aller + infinitif dans notre cas) implique un effort supplémentaire qui ne sera pas récompensé par des effets cognitifs supplémentaires (Nicolle 1998 : 10).
+Les analyses qui viennent d'être présentées, gagneraient certainement à être précisées davantage et à être illustrées par d'autres exemples. Il faudrait encore expliquer, entre autres,
+Cela permettrait entre autres de décrire de façon plus détaillée le rôle du contexte dans l'évolution de la séquence aller + infinitif. Nous devrons aussi justifier de façon plus explicite pourquoi nous considérons que c'est l'ensemble de la séquence et pas le verbe aller seul qui est grammaticalisé et qui exprime le futur périphrastique. Cette hypothèse semble être étayée par le fait que la séquence ne s'emploie qu'au présent et à l'imparfait, ce qui n'est évidemment pas le cas pour le verbe aller seul. En outre, les inférences décrites par Detges prennent comme point de départ l'ensemble de la séquence (y compris la personne grammaticale) et non le verbe aller seul.
+Nous croyons toutefois que ces précisions ne remettraient pas en cause l'intervention du principe de pertinence comme élément déclencheur du processus de grammaticalisation. On notera d'ailleurs à ce propos que le fait même que la séquence aller + infinitif se transforme en marqueur de temps contribue à augmenter la pertinence de l'énoncé, dans la mesure où les informations procédurales qu'elle exprime réduisent le coût de traitement.
+Précisons toutefois que, de toute évidence, la théorie de la pertinence ne suffit pas à elle seule pour décrire les changements observés : ainsi que l'ont noté Ruiz de Mendoza Ibáñez et Hernández (2003 : 29), la recherche de la pertinence optimale déclenche les changements sémantiques, elle explique pourquoi les interlocuteurs préfèrent certaines interprétations des énoncés produits à d'autres, mais elle n'explique pas, par exemple, pourquoi on passe de l'expression de la destination à celle de l'intention ; pour cela, on a besoin de représentations cognitives comme les cadres décrits par Detges (1999), leurs composantes et les relations (associatives et autres) qui existent entre ces composantes et qui rendent possibles les glissements métonymiques (voir également Koch 2004).
+Enfin, il faut noter, avec Koch (2004), que la théorie de la pertinence permet d'analyser la phase initiale du changement de sens, lors de laquelle les formes sont interprétées d'une façon nouvelle, mais que l'évolution sémantique n'est vraiment complète que si l'innovation sémantique entre dans la langue, c'est-à-dire si elle fait partie du sens conventionnel des termes linguistiques. Or il n'est pas évident de décrire cette conventionnalisation dans le cadre de la théorie de la pertinence, puisque celle-ci considère que toutes les implicatures sont liées au contexte et qu'elle tend à rejeter pour cette raison l'idée qu'il existe des implicatures conversationnelles généralisées. Cependant, si le glissement métonymique que déclenche la recherche de la pertinence optimale consiste à mettre le sens temporel au premier plan et à repousser le sens intentionnel à l'arrière-plan, il ne serait pas surprenant que ce sens temporel plus saillant soit finalement associé comme sens codé à la séquence aller + infinitif, plutôt que le sens intentionnel moins saillant. Il faut toutefois, pour que le nouveau sens soit associé à la séquence, que l'inférence du sens intentionnel au sens temporel se répète fréquemment (Traugott et Dasher 2002). Il ne faut donc pas oublier le rôle essentiel joué par la fréquence dans la conventionnalisation, même si le résultat final de l'évolution satisfait au principe de pertinence (en effet, lorsque l'information procédurale temporelle est conventionnalisée, elle est plus accessible à l'interlocuteur que si celui-ci doit l'identifier par des inférences). Cette observation soulève la question de savoir si la théorie de la pertinence est compatible avec toutes les conséquences d'une approche de la grammaticalisation basée sur la notion de fréquence telle que décrite, entre autres, par Bybee (2006). Partant, ce texte ne saurait être qu'un point de départ pour des recherches futures, lors desquelles nous aimerions également reprendre les questions formulées au début de ce paragraphe. A suivre, donc.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé + par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+La question des liens entre linguistique française et cognition peut se décliner de plusieurs façons. Si l'on entend par 'linguistique française' l'ensemble des travaux de linguistique portant sur le français, quelle que soient les théories sur lesquelles ils prennent appui, la question revient à identifier parmi ces théories celles qui se déclarent cognitives. Dans cette perspective, rien ne concerne spécifiquement la linguistique française : au même titre que les spécialistes de n'importe quelle autre langue, les francisants soucieux de cognition se retrouvent au sein des associations (nationales ou européenne) de linguistique cognitive.
+En revanche, la question prend une autre dimension si l'on s'attache à certains édifices théoriques élaborés par des linguistes français ou francophones (et largement repris dans des travaux de linguistique française) - ceci bien évidemment sans chauvinisme aucun, et en conservant à l'esprit que la science a vocation à dépasser toutes les frontières. C'est cette seconde perspective que j'adopterai ici.
+Je rappellerai tout d'abord (§ 1) les conditions historiques d'émergence, aux Etats-Unis, de la linguistique dite 'cognitive', qui s'est construite sans référence aucune aux théories de linguistique française développées (antérieurement ou parallèlement) en Europe. Certaines de ces théories, pourtant, proposaient des approches qui, en droit, participent d'une problématique cognitive ; je m'attacherai à deux grands courants de linguistique française tout à fait représentatifs à cet égard : la théorie psychomécanique de Gustave Guillaume (§ 2) et les théories de l'énonciation (§ 3).
+Dans un article récent, fort stimulant, Gilbert Lazard affirme - c'est le titre même de son papier - que "la linguistique cognitive n'existe pas" (Lazard, 2007). Résumons tout d'abord l'argumentation de l'auteur, avant de rappeler le contexte historique qui a présidé à l'émergence de théories linguistiques dites 'cognitives', et d'évoquer les principaux enjeux de ce tournant pour la discipline.
+Selon notre auteur, le terme de 'sciences cognitives' désigne un ensemble de disciplines qui, telles la neurobiologie, la psychologie, ou l'intelligence artificielle, "prennent pour objet des aspects divers de l'activité sensorielle et intellectuelle par laquelle l'être humain prend connaissance du monde qui l'entoure" (Lazard, art. cit. : 3). Or, dit-il, si l'on inclut la linguistique dans cet ensemble, au nom des liens entre le langage et la pensée, alors "toute linguistique est cognitive". A l'inverse, si on l'en exclut, au nom de la spécificité des phénomènes langagiers et qu'on la considère comme une discipline connexe mais distincte, alors "aucune linguistique n'est cognitive". Dans un cas comme dans l'autre, "la notion de linguistique cognitive est obscure" (ibidem).
+Les théories linguistiques se proclamant cognitives seraient toutes, en effet, confrontées au dilemme suivant. Soit elles ne feraient que revenir à la conception traditionnelle de la langue comme système symbolique de mise en correspondance entre formes et sens, soit elles sortiraient du champ propre de la discipline, en tentant de trouver des motivations 'externes' aux phénomènes linguistiques observés ou d'inférer des propriétés générales de l'esprit humain à partir de ces observations. Dans le premier cas, ce ne serait que de la linguistique (au sens le plus classique du terme) ; dans le second, ce ne serait plus de la linguistique. Quant aux 'instruments intellectuels' (comme, par exemple, la notion de prototype) que ces théories, soucieuses d'ouverture, peuvent se trouver emprunter à d'autres disciplines des sciences cognitives, "à vrai dire, pour ce faire il [= le linguiste] n'a pas lieu, en principe, de se borner aux disciplines voisines : il peut prendre son bien partout où il le trouvera" (art. cit. : 15).
+En définitive, l'appellation 'linguistique cognitive' ne serait donc qu'une "expression à la mode, dépourvue de sens ailleurs qu'aux Etats-Unis et en tout cas chez tous ceux qui n'ont pas subi l'emprise du générativisme. L'adjectif est de trop : la linguistique cognitive, c'est de la linguistique tout court. Cela dit, cette mode comporte un risque, celui de noyer le linguistique dans le cognitif, autrement dit d'oublier sa spécificité" (art. cit. : 14).
+Pour en juger, tournons-nous donc vers ce que l'on est convenu d'appeler le 'tournant cognitif' de la linguistique, au milieu des années 1950 aux Etats-Unis (les repères historiques qui suivent sont repris de Fuchs, 2004 : 6 - 12).
+L'historiographie officielle s'accorde à faire remonter ce tournant aux deux conférences qui, en 1956, ont réuni, autour d'un projet épistémologique commun connu sous le nom de 'programme cognitiviste', le linguiste Noam Chomsky, le psychologue Herbert Simon et le spécialiste d'intelligence artificielle Marvin Minsky. L'objectif en était de caractériser le fonctionnement de l'esprit à travers les facultés qu'il développe (en particulier à travers la faculté de langage) ; et l'hypothèse fondatrice était que la cognition humaine pourrait être définie, à la manière d'une machine, en termes de calculs correspondant au traitement des divers types d'informations reçues par l'humain. C'est ainsi que la linguistique - en l'occurrence une certaine linguistique formelle - s'est trouvée, de fait, participer aux débuts de l'entreprise cognitiviste.
+Le paradigme classique, qui s'est développé dans ce cadre, est appelé 'computo-représentationnel symbolique'. Il est fondé sur l'idée de calculs (ou 'computations') définis en termes d'opérations sur des 'symboles', lesquels auraient une réalité à la fois physique (ils seraient inscrits, d'une manière ou d'une autre, dans le cerveau) et sémantique (ils 'représenteraient' le monde objectif). L'activité de langage se ramènerait donc à un traitement d'informations mettant en jeu (niveau syntaxique) des règles de manipulation de symboles, c'est-à-dire d'éléments physiques (niveau neurobiologique) qui représenteraient adéquatement le monde réel (niveau sémantique). On notera au passage que ce cognitivisme de la fin des années 1950 se fondait largement sur la métaphore de "l'esprit-machine" (partagée par la psychologie cognitive, la philosophie cognitive, et l'intelligence artificielle) : l'analogie avec le cerveau n'a été massivement exploitée que plus tard, vers la fin des années 1980, dans le cadre du rapprochement avec les neurosciences.
+Ce paradigme classique est celui qui a été adopté, en linguistique, par la théorie chomskienne. Les principales caractéristiques en sont : une démarche hypothético-déductive, une perspective 'modulariste' (à la Fodor), une conception du langage comme instrument d'expression de la pensée permettant la transmission d'informations à propos du monde, et le recours à des modélisations de type logico-algébrique. La linguistique chomskienne a donc été la première à se revendiquer explicitement comme une linguistique cognitive, en prônant une approche dite 'naturaliste' de l'objet langage. Pour reprendre les termes de Rouveret (2004 : 30), "le langage humain est un objet 'psychologique', composante de l'esprit humain, physiquement représenté dans le cerveau, et faisant partie de l'équipement biologique de l'espèce, qui, précisément parce qu'il est ce type d'objet, peut et doit être analysé suivant les mêmes méthodes d'investigation que celles qui sont en oeuvre dans les sciences de la nature".
+Au fil des années, le paradigme cognitiviste des débuts a fait l'objet de divers types de critiques au sein de l'ensemble des sciences cognitives. Progressivement, des alternatives à l'orientation symbolique se sont fait jour, visant à définir un nouveau type de paradigme, parfois désigné sous le terme de 'constructivisme'.
+En écho à cette évolution générale, de nouveaux courants ont émergé, dès le début des années 1970, au sein de la linguistique dite cognitive, qui cherchaient à se démarquer - plus ou moins fortement selon les cas - du paradigme cognitiviste initial. C'est ainsi que, sur la côte Ouest des Etats-Unis, plusieurs auteurs venus de la grammaire générative (George Lakoff, Ronald Langacker, Leonard Talmy, Gilles Fauconnier) ont élaboré diverses formes de 'grammaires cognitives', en réaction contre l'option modulariste et la prééminence de la syntaxe prônées par les chomskiens. Les grammaires cognitives récusent le postulat selon lequel les grammaires formelles constitueraient des modèles adéquats de la cognition linguistique, et cherchent à relier les phénomènes langagiers aux processus généraux de la cognition (comme, par exemple, la perception - d'où l'importance accordée à l'espace). Par différence avec les grammaires formelles, cet autre courant de linguistique cognitive se caractérise par une démarche plus inductive et par une approche 'interactioniste' : une place centrale est accordée à la sémantique, réputée informer la syntaxe et le lexique avec lesquels elle interagit. La conception du langage y est davantage 'émergentiste' que représentationnelle : le langage est envisagé comme instrument de conceptualisation active du monde et/ou comme instrument de communication. Enfin, les outils de modélisation empruntent préférentiellement à la géométrie, aux systèmes dynamiques, ou au connexionnisme, plutôt qu'à l'algèbre et à la logique mathématique. Pour ces théories, le noyau dur de la langue ne réside pas dans les règles de la syntaxe mais dans les opérations de construction de la signification.
+En bref, la linguistique dite cognitive, ainsi consignée par l'historiographie officielle, est bien née aux Etats-Unis et ce tournant théorique a effectivement débouché, s'agissant des grammaires cognitives, sur une remise en question des postulats du générativisme. Comme l'affirme Lazard, s'agit donc bien d'un mouvement initié outre-Atlantique et qui s'est développé sans lien avec les traditions de la vieille Europe (à l'exception du courant 'néo-fonctionnaliste' qui constitue un cas à part et mériterait, de ce point de vue, un développement spécifique). Mais, très vite, les nouveaux paradigmes instaurés par ce mouvement ont été adoptés par une partie des chercheurs européens, en linguistique française comme ailleurs.
+Reste à présent à voir si la linguistique dite cognitive n'est, finalement, que "de la linguistique tout court", selon la formule de Lazard.
+Rappelons que, parmi les sciences cognitives, la linguistique occupe une place à part : elle est la seule à avoir le langage pour objet d'étude exclusif, et elle aborde cet objet sous l'angle particulier de la diversité des langues. L'intérêt des linguistes pour des questions d'ordre cognitif (au sens large) ne date certes pas d'aujourd'hui : il existe en la matière une longue tradition, qui remonte à l'Antiquité, de réflexion sur les rapports entre les langues, la pensée, le raisonnement, l'action, etc. Pour autant, cette problématique générale et relativement diffuse ne se confond pas avec celle, plus circonscrite, d'une linguistique se voulant 'cognitive'.
+La linguistique dite cognitive entend précisément ne pas se réduire à "de la linguistique tout court", car aux exigences classiques de toute théorie de linguistique générale, elle en ajoute une autre : la pertinence cognitive. Une théorie linguistique se voulant cognitive doit en effet pouvoir s'articuler de façon explicite avec des modèles généraux de l'architecture fonctionnelle de l'esprit et/ou de l'architecture neuronale du cerveau - d'où la question évoquée plus haut, de la 'naturalisation' de l'objet langage (Fuchs, 2004 : 1 - 6 ; Fuchs, 2007 : 37 - 38).
+La perspective cognitive en linguistique conduit donc, non seulement à s'interroger sur l'ensemble des connaissances spécifiques que maîtrise l'esprit humain au travers des différents systèmes des langues, mais aussi à se demander comment ces connaissances sont organisées pour pouvoir être acquises et mises en oeuvre dans l'activité de langage. D'où toute une série de questions qui concernent, par-delà l'architecture structurale des connaissances linguistiques, leur architecture fonctionnelle. Par exemple, sous quelle forme ces connaissances sont-elles organisées dans l'esprit et le cerveau humain pour permettre l'apprentissage et le fonctionnement effectif du langage ainsi que ses dysfonctionnements : s'agit-il de modules (encapsulés ou en interaction), ou bien les connaissances sont-elles distribuées ? Quelle place accorder aux variations entre les langues face à l'universalité de la faculté de langage ? Enfin et surtout, une linguistique à visée cognitive ne saurait se désintéresser de la question des liens entre le langage et d'autres facultés humaines, également caractéristiques du fonctionnement symbolique de l'esprit, notamment des liens entre le langage et la pensée. Quelle est la nature du processus de représentation qui sous-tend l'activité de langage ? Est-ce un processus spécifique, ou bien présente-t-il des analogies avec d'autres types de processus cognitifs (par exemple avec la vision) ? Comment chaque langue met-elle en oeuvre de façon particulière ce processus ? Toutes ces questions engagent la façon dont la linguistique conçoit son articulation aux autres disciplines des sciences cognitives, ainsi que la nature du paradigme épistémologique qu'elle partage avec celles-ci. Se préoccuper de cette articulation ne signifie pas pour autant sortir de la linguistique. Mais cela conduit, d'une part à accorder une attention toute particulière à la notion de 'représentation' mise en oeuvre par et dans la langue, et d'autre part à instaurer de façon explicite, au sein du travail proprement linguistique, une problématique d'ordre épistémologique.
+Ces questions ne sont pas nouvelles, et certaines d'entre elles avaient déjà été abordées par d'autres théories linguistiques, antérieurement (ou parallèlement) au tournant 'cognitif' - seul retenu par l'historiographie officielle. C'est notamment le cas, en Europe, de théories post-structuralistes telles la psychomécanique de Gustave Guillaume ou les théories de l'énonciation.
+Certes, ces deux courants majeurs se distinguent l'un de l'autre sur un certain nombre de points, en particulier sur la place et le rôle qu'ils accordent aux faits énonciatifs (Valette, 2003a ; Valette, 2006). Mais ils s'accordent à considérer la langue comme un système sui generis de représentation possédant une logique propre, qu'il s'agit de dégager sans chercher à plaquer a priori quelque formalisme extérieur, et partagent l'idée que la mise à jour des principes qui sous-tendent cette dynamique de construction du sens constitue l'objectif du linguiste. Par la place centrale qu'ils accordent ainsi à la notion de 'représentation', ils ouvrent la voie à une problématique plus générale de la cognition ; et par leur mode de théorisation de cette notion, ils annoncent, d'une certaine façon, le paradigme constructiviste de la linguistique cognitive actuelle.
+L'originalité de l'entreprise guillaumienne - à savoir la recherche d'une mécanique psychique à l'oeuvre dans la langue - est longtemps restée incomprise. Or cette élaboration d'une 'linguistique cinétique' fondée sur les mécanismes mentaux sous-jacents aux formes de la langue constitue, selon les termes de Valette (2003b), "une tentative pour articuler mentalisme et mécanisme dans une théorie linguistique homogène". A ce titre, elle ressortit indéniablement à des préoccupations d'ordre cognitif. De là à dire que "la recherche constante, par Guillaume, de mécanismes mentaux (d'où le nom de 'psychomécanique' qu'il a donné à son oeuvre) est très largement une forme de linguistique cognitive" (Hewson, 1997 : viii), il n'y a qu'un pas.
+La dénomination de 'psychomécanique' que Guillaume a donnée à sa théorie lui a valu, on le sait, d'âpres critiques de la part des linguistes de son époque. Derrière le terme 'psycho-', d'aucuns ont voulu voir des relents de psychologisme, de mentalisme ou d'idéalisme : en un mot, une projection sémantique intuitive, jugée incontrôlée et incontrôlable, à l'opposé de procédures réglées et contrôlables. Ces détracteurs n'ont pas manqué d'être, à leur tour, taxés de 'positivistes' par Guillaume. Quant au terme '-mécanique', en dépit de sa connotation cybernétique, il a également été mal reçu. Faute de percevoir les liens possibles entre la démarche linguistique et la science du mouvement et de l'équilibre des corps, les contemporains de Guillaume ont en effet méconnu sa quête du mouvement sous-jacent à la construction des représentations par et dans la langue. Quant à l'alliance des deux termes, elle a paru incongrue voire contradictoire. Par la suite, diverses réponses de fond à ces critiques ont été apportées par des représentants du courant psychomécanique : sur la question du psychologisme, voir par exemple Toussaint (1997) ou Valette (2003a), et sur la mécanique intuitionnelle et son inspiration phénoménologique, voir Bajric (2005).
+Les grandes options théoriques de la psychomécanique peuvent être interprétées dans une perspective cognitive : voir Valette (2006) et Fuchs (2007), dont le développement qui suit reprend les grandes lignes.
+Le point central est celui de l'articulation entre la langue et le discours : celui-ci conduit à son tour à la question des liens entre langage et pensée. Pour Guillaume, l'activité de langage engage en effet deux moments théoriques distincts : celui de la 'langue', puis celui du 'discours'. Le premier peut être caractérisé comme permanent, fini, collectif et subconscient, alors que le second se présente comme éphémère, infini, individuel et conscient (selon les termes de Hewson, 1997 : 8 - 9). La langue correspond au plan de la 'représentation' et le discours à celui de 'l'expression'. Une telle distinction serait le propre de l'homme - par différence avec le cri animal qui n'instaurerait pas de distance entre l'acte d'expression et l'acte de représentation (Valette, 2003a : 22). L'enjeu cognitif est évident : c'est au plan de la représentation par la langue que se situerait la 'pensée pensée', inscrite de façon déterministe et mécaniciste dans l'esprit humain, cependant que la 'pensée pensante' se jouerait au plan de l'expression construite en discours par le sujet parlant.
+Dès 1929, Guillaume assignait à la linguistique la tâche de remonter des unités 'd'effet' (du discours) vers les unités de 'puissance' (de la langue), afin de retrouver les opérations mentales qui sous-tendent ces dernières : "La vraie réalité d'une forme, ce ne sont pas les effets de sens multiples et fugaces qui résultent de son emploi, mais l'opération de pensée, toujours la même, qui préside à sa définition dans l'esprit" (Temps et Verbe). L'étude de la langue engage la problématique centrale de la 'chronogenèse' et du 'temps opératif' ; cette problématique a donné lieu à de nombreux développements et à des interprétations divergentes. Disons schématiquement, à la suite de Valette (2003a), qu'elle a conduit à deux types de lectures antinomiques. D'un côté, une lecture qui privilégie la notion 'd'image-temps', et selon laquelle la langue serait une 'théorie' qu'il s'agirait en quelque sorte de révéler. Dans cette perspective, les représentations constitueraient autant d'images mentales que le sujet pensant se donnerait de lui-même ou de son activité pensante, et les saisies sur les cinétismes autant de captures d'images en discours. De l'autre côté, une lecture qui privilégie la notion de 'temps opératif' et assimile les saisies à des arrêts au sein d'un déplacement de la matière. D'où une affinité avec la notion de 'simulation' en sciences cognitives.
+L'apport original de cette approche de la langue réside dans sa conception dynamique de la représentation comme mouvement, et non comme l'assignation d'étiquettes statiques - que ce mouvement (qui constitue la condition et la forme même de la concevabilité) soit, par ailleurs, représenté comme un cinétisme relevant de la mécanique, ou comme une oscillation dynamique relevant du mouvement dialectique. D'où le schème connu sous le nom de 'tenseur binaire radical', qui va de l'universel au singulier (du large à l'étroit) et inversement, et qui est présenté par Guillaume comme "la condition même de puissance de l'esprit humain". C'est précisément cette idée d'un mouvement de pensée continu, constitutif de la signifiance intrinsèque des formes de la langue, qui fonde toute la construction théorique.
+Sur ce mouvement de pensée, des coupes ('saisies' ou 'interceptions') sont effectuées en discours, d'où résultent des effets de sens variables, selon l'endroit où elles opèrent. L'idée-force est donc celle d'une articulation entre continu (le mouvement) et le discontinu (l'arrêt sur mouvement). Cette articulation permet en particulier de rendre compte tout à la fois de la diversité des effets de sens en contexte et de l'unicité sémantique d'une forme réputée polysémique. Se trouve ainsi reprise, de façon beaucoup plus subtile, l'hypothèse du structuralisme (une forme - un sens).
+La question des liens entre le langage et la pensée est donc centrale pour la psychomécanique. Guillaume avait choisi de défendre l'idée selon laquelle la pensée serait indépendante du langage et se saisirait elle-même via la langue, révélant ainsi ses schèmes cognitifs. "La pensée reste indépendante, en principe, du langage, et celui-ci ne représente que la puissance qu'elle se donne de se saisir elle-même et en elle-même" (Guillaume, Leçons vol. 9 : 38), ou encore : "Le langage est dans l'homme pensant, dans la pensée humaine, un ouvrage par elle construit, qui lui sert - c'en est le finalisme principal - à reconnaître en elle-même où elle en est de sa propre construction" (Guillaume, Leçons vol. 13 : 13). Par là même, Guillaume annonçait ce que certains neuropsychologues ont par la suite argumenté à l'encontre des tenants d'un strict 'localisationnisme', à savoir l'idée que c'est l'ensemble du cerveau qui pense et qui raisonne, et que le langage constitue le moyen qui permet à la pensée de se penser elle-même.
+La théorie de Guillaume n'est pas sans évoquer l'approche de la cybernétique, qui avait marqué, on le sait, la toute première époque des sciences cognitives. (Pour une présentation de la cybernétique, voir Varela, 1988 et Dupuy, 1994). Dès le tournant des années 1940 en effet, c'est-à-dire avant l'émergence du programme 'cognitiviste', les Macy Conferences avaient réuni les pères fondateurs (von Neumann, Wiener, Turing, McCulloch), pour tenter d'instaurer une nouvelle 'science de l'esprit'. Celle-ci devait s'appuyer notamment sur les disciplines formelles suivantes : la logique mathématique (pour décrire le fonctionnement du raisonnement), la théorie des systèmes (pour formuler les principes généraux gouvernant tout système complexe) et la théorie de l'information (comme théorie statistique du signal et des canaux de communication). L'hypothèse sous-jacente étant que la pensée fonctionnerait comme un calcul, à l'instar d'une machine (de là procèdera, plus tard, l'invention de l'ordinateur, selon les principes de von Neumann). Et c'est du côté de la physique (et non de l'algèbre ou de la biologie, comme le fera ultérieurement le cognitivisme) que les cybernéticiens allaient chercher leurs modèles, ce qui permettra ensuite l'émergence des théories de 'l'auto-organisation' - dans lesquelles la forme s'abstrait de la matière - et les approches du vivant comme 'propriété émergente du désordre'.
+Guillaume a connu la cybernétique et a été - au moins pendant un temps - séduit par elle (Valette, 2003a : 17sq.). Son objectif initial, en élaborant la psychomécanique du langage, semble avoir été de construire une machine à penser, une sorte de cybernétique fondée sur le temps opératif et le tenseur binaire. A l'instar des cybernéticiens, il concevait la pensée comme asservie à la mécanique, et le langage comme constituant la partie mécanisable de la pensée. C'est pourquoi il entendait construire, en amont de la 'psycho-systématique' (ayant pour objet l'étude de la langue), une 'mécanique intuitionnelle' consacrée à l'étude des mécanismes psychiques qui président à la construction même des systèmes linguistiques et conditionnent leur structure : voir, sur ce point, l'Essai de mécanique intuitionnelle I (publié par Lowe, 2007) et le compte-rendu qu'en donne Guimier (sous presse). Selon Guillaume, cette mécanique - dont il entendait proposer "une analyse rigoureusement scientifique" (Essai : 144) - reposait sur la nécessité de penser par contrastes : le contraste univers/homme se reflétant dans le contraste universel/singulier, fondement du 'tenseur binaire radical' considéré comme l'opérateur général de structuration du langage.
+En définitive, la perspective dans laquelle Guillaume a conduit son entreprise théorique n'est pas sans évoquer certaines recherches actuelles conduites au sein du paradigme dit 'constructiviste'. A l'instar de Rastier (1993) qui tient Guillaume pour "l'aïeul tutélaire de la linguistique cognitive à la française", on peut en effet voir dans les théories inspirées de René Thom (théorie des 'catastrophes', approches topologico-dynamiques) des "légataires du système de pensée de Guillaume". La psychomécanique constituerait ainsi une 'linguistique pré-cognitive', de type constructiviste - et peut-être même, plus précisément, du sous-type 'enactiviste', pour reprendre le terme de Varela (1988). (Si l'on suit Varela, l'histoire des sciences cognitives se compose en effet de quatre étapes successives. Viennent d'abord les jeunes années, marquées par la cybernétique. Puis c'est l'avènement des symboles avec le cognitivisme. Les deux étapes suivantes - le 'subsymbolisme', puis l''enactivisme' - participent du constructivisme : la cognition y est conçue comme une activité consistant à faire émerger dynamiquement des significations et non pas à traiter ou à réfléchir des représentations pré-existantes). Or si l'on admet que la psychomécanique comporte une dimension phénoménologique, alors il est loisible d'y voir une anticipation d'une certaine forme d'enactivisme. Quoi qu'il en soit de ce dernier point, l'Essai de mécanique intuitionnelle I contient certains passages consacrés à la genèse des modes de représentation de l'espace et du temps (pp. 92 - 103) que ne désavouerait pas un tenant des grammaires cognitives actuelles : le temps, non directement représentable, y est décrit comme empruntant à l'espace les conditions de sa représentation.
+Au plan des grands principes théoriques qui la sous-tendent, la psychomécanique manifeste incontestablement des préoccupations d'ordre cognitif. Pour autant, l'assimiler purement et simplement à une théorie de linguistique cognitive constituerait, non seulement un anachronisme, mais aussi un contre-sens (à plus d'un titre).
+Rappelons tout d'abord, qu'il manque une chronologisation des écrits de Guillaume, pour pouvoir véritablement mettre en perspective sa théorie au regard des développements actuels de la linguistique cognitive. Rappelons également que la comparaison est rendue difficile par la diversité des directions dans lesquelles la psychomécanique s'est déployée après Guillaume : à défaut d'une unification des approches se réclamant de la psychomécanique, un minimum de clarification conceptuelle et de stabilisation terminologique serait bienvenue.
+Mais, par-delà ces considérations d'ordre général, revenons à la question de l'articulation possible de la théorie psychomécanique avec les sciences cognitives, et en particulier avec la neuro-psychologie. Guillaume lui-même ne s'était pas désintéressé des questions de pathologie du langage : Valette (2006) rappelle, par exemple, qu'il avait rencontré André Ombredane.
+La voie d'un rapprochement possible semble ouverte par la notion de 'temps opératif', dont Guillaume postulait la réalité mentale effective. Certes, il estimait que les schèmes cognitifs de la pensée révélés au travers du langage doivent être étudiés par la linguistique, et non par la psychologie ; mais cette précaution méthodologique n'interdit pas de penser que la réalité du mécanisme mental, ainsi mis à jour par le linguiste, pourrait être corroborée ensuite par la neuro-psychologie. Car si l'on prend au sérieux l'idée que le temps opératif correspond à des opérations mentales effectives, alors ces opérations devraient laisser des traces observables au plan comportemental et avoir un corrélat au plan cérébral. Tel était, du moins, l'espoir de certains psychomécaniciens de la première heure, tels Roch Valin ou Charles Bouton - espoir qui fut vite déçu : il ne se trouve plus guère à l'heure actuelle de psychomécaniciens pour tenter de construire une théorie 'neuro-compatible'(à l'exception de Maurice Toussaint, engagé dans une 'neurolinguistique épistémique' d'inspiration psychomécanique, affine avec la théorie des formes sémantiques et la théorie des systèmes dynamiques complexes).
+Toutefois, une autre piste de rapprochement possible est évoquée par Monneret (1996, et 2003). Selon lui, au lieu de chercher à valider expérimentalement les concepts de la psychomécanique, on pourrait se demander, à l'inverse, ce que cette théorie serait susceptible d'apporter à la neuropsychologie. Celle-ci ne peut expérimenter que sur des productions, elle a donc besoin de théories qui articulent discours et langue ; par ailleurs, la prise en compte de la variabilité des productions langagières l'oblige à se tourner vers des modèles dynamiques. Or la psychomécanique répond à ces deux types d'exigences. Il serait donc intéressant de regarder si les outils théoriques qu'elle a développés permettent de rendre compte de certaines observations faites par la neuropsychologie. Ainsi, par exemple, dans le domaine de la pathologie du langage, les divers phénomènes apparemment disparates observés chez les agrammatiques pourraient-ils être éclairés grâce à certains concepts de la psychomécanique, comme le suggère Monneret. En effet, dans ce type particulier d'aphasie de Broca, les altérations de type omission semblent porter sur des éléments que la psychomécanique qualifierait 'd'avant', cependant que le remplacement d'un élément problématique semble opérer à l'aide de l'élément 'd'après' du système. Une telle piste mériterait sans conteste d'être explorée plus avant.
+Certains auteurs ont tenté de concilier psychomécanique et théories de l'énonciation, en proposant "une approche psychomécanique de l'énonciation" - pour reprendre le titre d'un article de Joly & Roulland (1980). Force est toutefois de constater que l'un des principaux points de divergence entre ces deux courants concerne précisément la façon dont ils conçoivent l'articulation de la langue et du discours, c'est-à-dire leur approche des faits énonciatifs. Pour Guillaume, le mot passe du statut d'unité de puissance (en langue) à celui d'unité d'effet (en discours), grâce aux 'coupes' opérées sur le mouvement. Pour les tenants de l'énonciation, les unités se trouvent 'actualisées' à travers les opérations constructrices de l'énoncé, qui mêlent indissociablement prédication et référenciation : selon la formule de Benveniste (1964, repris dans 1966 : 131), "nihil est in lingua quod non prius fuerit in oratione".
+Après la clôture sur la 'langue' instaurée par Saussure, on a pu assister, dès le début du XXè siècle chez les précurseurs de l'énonciation, à diverses tentatives pour renouer avec une problématique de la 'parole'.
+Charles Bally s'efforçait d'articuler l'étude du système de la langue et une approche énonciative : grâce à la notion d'actualisation, il entendait "faire passer la langue dans la parole" (1932, 19442). Pour lui, toute phrase communique une pensée, c'est-à-dire une réaction subjective à une représentation objective ; elle comporte donc, dans sa structure sémantique, une partie 'modus' (constituée d'un sujet modal et d'un verbe modal) et une partie 'dictum'. L'acte fondamental de la communication, qui constitue l'acte d'énonciation complet, consiste à dire quelque chose ('propos') de quelque chose ('thème'). Cette structure binaire se retrouve, non seulement à l'intérieur de chaque phrase, mais aussi entre les phrases (reliées par une 'coordination sémantique').
+En introduisant la catégorie des 'shifters' (ou 'embrayeurs'), Otto Jespersen et Roman Jakobson ont ensuite déplacé la problématique : d'acte individuel de production, l'énonciation devient trace du sujet dans l'énoncé. Cette approche a par la suite été développée et étendue par Emile Benveniste, qui a véritablement ouvert la voie d'une approche énonciative de la langue. Loin d'être des unités isolées, les 'indiciels' constituent, selon lui, un véritable système : les marques de personne, de temps, et de localisation spatiale permettent d'ancrer l'énoncé par rapport à la situation d'énonciation. L'énonciation est donc "directement responsable de certaines classes de signes qu'elle promeut littéralement à l'existence" (Benveniste, 1970, repris dans 1974 : 79 - 88), permettant ainsi au locuteur de s'approprier la langue pour la convertir en discours et d'énoncer sa position de locuteur à travers cet ensemble de signes particuliers que constitue "l'appareil formel de l'énonciation".
+Au coeur du dispositif de la construction signifiante se trouvent donc le sujet énonciateur et la situation d'énonciation. L'énoncé porte la trace (en plein ou en creux) des différents modes possibles de présence (ou de masquage) du sujet énonciateur face au contenu actualisé. D'où la possibilité, à partir de l'analyse des valeurs prises par les marqueurs énonciatifs (valeurs de modalité, de temps, de personne, ...), d'établir une typologie des registres énonciatifs : on connaît l'opposition, faite par Benveniste (1959, repris dans 1966 : 237 - 250), entre le registre de 'l"énonciation historique" (défini comme "récit des évènements passés sans aucune intervention du locuteur ; personne ne parle ici, les évènements semblent se raconter d'eux-mêmes") et le registre de 'l'énonciation de discours' (défini comme "énonciation supposant chez (le locuteur) l'intention d'influencer (l'auditeur) en quelque manière").
+A une linguistique des signes et des structures, est ainsi venue s'ajouter une linguistique de l'énonciation. Il ne s'agit plus de passer de la langue au discours, mais de retrouver au sein même de la langue les conditions de sa mise en fonctionnement discursif. Selon Benveniste (1964, repris dans 1966 : 119 - 131 ; et 1967, repris dans 1974 : 215 - 238), la 'langue' a en effet un double statut : d'une part, c'est un "système de signes", lieu du 'sémiotique' ; d'autre part, c'est un "instrument de communication (dont l'expression est le discours"), lieu du 'sémantique'. Le passage de l'un à l'autre de ces niveaux s'opère avec la phrase, définie comme "unité prédicative" et "unité complète qui porte à la fois sens et référence : sens parce qu'elle est informée de signification, et référence parce qu'elle se réfère à une situation donnée".
+A ces contributions programmatiques de Benveniste, Antoine Culioli a, de son côté, tenté de substituer une véritable théorie des opérations énonciatives.
+Culioli s'inscrit dans la lignée des énonciativistes, en reprenant à son compte l'idée que le langage n'est pas un code extérieur à l'humain ni un calcul formel neutre intériorisé par lui et que les conditions de la mise en fonctionnement du système sont bien inscrites dans le système lui-même. Pour autant, l'énonciation ne se laisse pas décrire dans le cadre d'un schéma de la communication réduit à un simple échange d'informations. L'énoncé est le lieu d'une co-construction du sens (par l'énonciateur et son co-énonciateur) qui laisse place aux ratés de la communication : la labilité et la déformabilité du sens sont des conditions intrinsèques de fonctionnement de la langue.
+Dès la fin des années 1960, Culioli critiquait la grammaire générative ("la difficulté centrale de la formalisation en linguistique ne réside ni dans la formalisation de systèmes algébriques syntaxiques, ni dans l'étude distributionnelle des combinaisons de mots-objets en correspondance ponctuelle avec la réalité extra-linguistique") et soulignait la nécessité, pour le linguiste, de "bricoler" ses outils de formalisation (1967, repris dans 1999 : 29).
+La spécificité de l'approche culiolienne de l'énonciation se trouve exposée par l'auteur lui-même dans son intervention intitulée "Rapport sur un rapport" (1980) à la table-ronde organisée par A. Joly sur "La psychomécanique et les théories de l'énonciation". Culioli y distingue, schématiquement, trois grands types d'approches de l'énonciation. Le premier entend l'énonciation comme réalisation dans une situation d'une proposition potentielle, c'est-à-dire comme passage d'une phrase-type à une phrase-occurrence (appelée énoncé) : d'où un intérêt porté aux questions de prise de parole, de présupposés, de référence, d'acte de langage, etc. Le second entend l'énonciation comme distance entre le sujet énonciateur et son énoncé : cela pourra tendre, notamment, vers l'étude des modulations socio-linguistiques ou vers la stylistique. C'est d'un troisième type que se réclame Culioli, qu'il caractérise comme "une entreprise théorique de fondation, qui (prend) à l'origine le problème de la constitution et du fonctionnement des systèmes de repérage énonciatifs" et qui élabore un système de représentation métalinguistique de la constitution des énoncés.
+Ni acte d'appropriation de la langue par un sujet, ni transition de la langue au discours, l'énonciation est donc plutôt conçue comme un mécanisme de construction : aussi s'agit-il, pour le linguiste, de décrire les opérations constitutives de la signification des énoncés, et de les formaliser (au sens fort d'une modélisation visant à reproduire les mécanismes en jeu).
+Dans le modèle qu'il propose, la notion de 'représentation' occupe une place centrale. Selon lui (Notes du séminaire de DEA 1983 - 1984 : 5 - 8 ; repris dans 1990 : 21 - 24), cette notion peut intervenir à trois niveaux différents, qu'il est essentiel de bien distinguer. Le premier niveau est celui des 'représentations mentales' : ce niveau de conceptualisation de la réalité n'est pas directement accessible, il ne peut être appréhendé qu'à partir des activités humaines, notamment de l'activité de langage. Le deuxième niveau est celui des 'représentations textuelles' : l'activité de langage est une activité de représentation qui met en jeu des opérations linguistiques, lesquelles ont des traces sous forme de marqueurs linguistiques ; ce sont donc des 'représentations de représentations' (spécifiques à chaque système linguistique), que le linguiste va chercher à isoler et à observer. Mais il est impossible de remonter directement de ce niveau à celui des conceptualisations : il faut construire un troisième niveau, celui des 'représentations métalinguistiques'(système de termes primitifs, de règles et d'opérations), en espérant que le passage du niveau 2 au niveau 3 simule adéquatement celui du niveau 1 au niveau 2. Autrement dit, "il nous faut construire un système de représentation qui porte sur ce système de représentation qu'est la langue" (1990 : 23).
+A ce niveau métalinguistique, le linguiste doit pouvoir effectuer des calculs, dans lesquels opérations prédicatives (repérages entre les termes constitutifs de la relation prédicative) et opérations énonciatives (plongée dans un système de coordonnées spatio-temporelles dont le sujet de l'énonciation constitue le repère-origine) sont étroitement intriquées.
+Les approches énonciatives de la langue - très présentes dans les travaux de linguistique française - ont été développées, comme il a été dit plus haut, de façon totalement indépendante du tournant dit 'cognitif' de la linguistique d'Outre-Atlantique. Si le cognitivisme classique aborde le langage comme moyen d'expression de la pensée, les approches énonciatives préfèrent, quant à elles, mettre en avant (à l'instar du fonctionnalisme) la fonction de communication du langage. Par lui-même, un tel choix n'est, à l'évidence, nullement exclusif d'une ouverture à la cognition : on se souvient, à cet égard, des contributions de Jakobson, aussi bien sur les 'fonctions du langage' et le 'schéma de la communication' qu'en matière d'aphasie ou d'acquisition du langage.
+L'insistance sur la dimension communicative du langage semble d'ailleurs indirectement confortée par certains acquis récents des neurosciences. Que l'on songe par exemple au fait que chez le singe l'aire comparable à l'aire de Broca (crucialement impliquée, chez l'homme, dans l'exercice du langage) est l'aire F5, où l'on a découvert les fameux 'neurones miroirs' essentiels pour l'imitation et la communication, et que chez l'humain l'aire de Broca enregistre, elle aussi, les gestes des personnes avec lesquelles il communique.
+Par-delà ces considération d'ordre général, il convient de rappeler que la théorie des opérations énonciatives de Culioli a été élaborée dans un cadre résolument tourné vers la cognition. On évoquera ici les échanges interdisciplinaires suivis et réguliers que ce linguiste a instaurés durant de nombreuses années avec le psychologue François Bresson (lui-même inscrit dans la lignée théorique de Jean Piaget) et le logicien Jean-Blaise Grize, ainsi qu'avec des spécialistes de pathologie du langage (comme Jean Laplanche et André Bourguignon) dans le domaine de l'aphasie et de la schizophrénie.
+Si cette familiarité avec les problématiques des autres disciplines des sciences cognitives a, sans conteste, inspiré l'élaboration de la théorie des opérations énonciatives, elle a également conduit Culioli à dénoncer les risques d'assimilations abusives liés à la notion de 'cognition' : "A term like 'cognition' shows itself to be dangerously ambiguous, for it is used to refer to mental activity, to simulation, to a whole series of unverified simplifications : of representational activity to neuronal activity, to give but one example" (1995 : 31).
+A cet égard, la position de Culioli se démarque de celle des tenants des grammaires cognitives, pour qui il n'existe pas de différence de nature entre les représentations conceptuelles et les représentations sémantiques à l'oeuvre dans les langues (voir par exemple Langacker, 2003). Pour ces auteurs en effet, les structures sémantiques des langues sont des conceptualisations effectuées à des fins symboliques, qui sélectionnent certaines facettes dans l'éventail des conceptualisations déployé par la pensée pré-linguistique, et qui les organisent de façon variable : la spécificité du linguistique réside donc dans la sélection et la mise en forme de ce contenu conceptuel. Dans une telle perspective, la distinction culiolienne entre les trois niveaux de représentions se trouve obérée.
+Il n'en reste pas moins que les schémas spatiaux proposés de façon assez intuitive par les grammaires cognitives rappellent certains opérateurs métalinguistiques de Culioli (en particulier le 'repérage' et ses différentes valeurs) : de façon générale, se trouve à l'oeuvre une même quête d'invariants du langage derrière les variations des systèmes linguistiques. Bien qu'étrangers l'un à l'autre, ces deux courants s'alimentent en effet à des sources d'inspiration 'constructiviste' : d'où, par exemple, leur commune recherche d'outils formels en direction de la topologie (très largement illustrée, chez Culioli, dans ses travaux sur le 'domaine notionnel' représenté grâce à un appareillage topologique impliquant un intérieur, un extérieur, une frontière et un gradient dans l'intérieur). L'analyse des points de convergence et de divergence entre la théorie des opérations énonciatives et les grammaires cognitives constituerait sans nul doute une étude en soi ; pour une première approche concernant leur commun "terreau continuiste", voir Fuchs & Victorri (eds.) (1994).
+En définitive, comment l'énonciation rejoint-elle la cognition ? Le pari consiste à postuler que le passage entre les représentations textuelles et les représentations métalinguistiques simule de façon analogique le passage entre les représentations conceptuelles et les représentations textuelles ; ou, pour le dire de façon imagée, que les (méta-)opérateurs du linguiste sont aux opérateurs de la langue ce que ceux-ci sont aux opérateurs de la pensée. Selon Valette (2006 : ch. 12), cet espoir de retrouver derrière les opérations énonciatives l'analogue d'opérations cognitives ne serait pas partagé par tous les adeptes de la théorie : aux 'cogniticiens' (tenants de la portée cognitive de l'hypothèse simulatoire) s'opposeraient les 'métalinguistes' (pour lesquels opérations énonciatives et opérations cognitives seraient constitutivement irréductibles les unes aux autres). Seules des expérimentations neuro-psychologiques (encore à venir) contribueraient, peut-être, à les départager. Culioli, pour sa part, semble esquiver la question, comme en témoigne cette déclaration malicieuse lors d'une intervention dans un symposium consacré au thème 'Langage et Cognition' : "the aim (of this paper) is not to answer basic questions, but rather to suggest what the questions are, leaving it to the audience to draw their conclusions as to whether I am a nativist, a maturationist, a constructivist, a cognitivist, a conceptualist or a Platonist, etc. etc., unless I am a mongrel in a class of my own" (1989 ; repris dans 1990 : 177).
+A l'issue de ce parcours, il apparaît que la linguistique française a bien été, tout au long du XXè siècle, un creuset où se sont élaborées des théories du langage originales tournées vers des problématiques cognitives - et ce, de façon indépendante de la linguistique dite 'cognitive' retenue par l'historiographie officielle.
+L'avenir de ces théories reste à écrire. Leur ancrage effectif dans des recherches cognitives interdisciplinaires suppose que soit évité un double écueil, signalé par Lazard dans son article polémique évoqué plus haut : d'un côté, la perte de ce qui fonde la spécificité de leur démarche proprement linguistique ; et, de l'autre, l'affaiblissement des exigences formelles, au nom d'un effet de mode risquant de conduire à une dissolution de la problématique cognitive dans une sémantique "molle".
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Malgré leur importance pour l'étude des arts du langage et la linguistique du texte en général, les rapports entre genre et style individuel demeurent peu étudiés, même dans des domaines aussi propices que la poétique et la stylistique.
+Les méthodes de la linguistique de corpus assurent à présent la mise en oeuvre empirique de cette problématique aux paliers du mot et de la phrase. Plus précisément, comme elle reflète la diversité des usages oraux et écrits d'une langue historique, l'étude des variations lexicales et morphosyntaxiques dues aux discours et aux genres1 permet d'apprécier, par contraste, les régularités qui relèvent en propre de l'individuel. La notion de style s'identifie alors à celle d'idiolecte, pour un empan qui va des unités lexicales aux phénomènes transphrastiques. Au-delà, au palier du texte, les rapports entre genre et style intéressent les conditions posées par les normes traditionnelles du discours sur la singularisation de l'expression individuelle. Qu'en est-il en sémantique des textes ?
+Cette étude envisage le cas particulier du poème en prose et analyse, sur la base de propositions méthodologiques, les tendances de composition sémantique qui caractérisent la pratique de ce genre chez Gérard Macé (1946).
+Genette souligne très justement que toute identification et qualification d'un style (d'époque, d'école ou individuel) « déterminent un modèle de compétence capable d'engendrer un nombre indéfini de pages conformes à ce modèle » (1991 : 136). Or cette conception du style paraît tout autant s'appliquer au genre, dans la mesure où on y voit un « programme de prescriptions positives et négatives (et de licences) qui règlent la production et l'interprétation d'un texte »2. À l'inverse, en revenant à la formulation de Genette, on serait tenté d'assigner cette dernière définition à la notion de style individuel. Non seulement, en effet, un tel style participe des modes de production du texte mais il en oriente aussi la réception en rendant prégnants des unités linguistiques et des phénomènes textuels qui autrement passeraient inaperçus. En ce sens, en deçà notamment de leur nature sociale/individuelle, genre et style ne se distinguent guère quant à leur statut de normes textuelles.
+Pratiquement, la mise en évidence des régularités qui les différencient en corpus engage la description dans des tâches d'inégale indépendance. Alors que la caractérisation des genres nécessite leur comparaison au sein d'un même champ générique, celle des styles pose en particulier le genre comme un principe de différenciation, et présuppose ainsi la connaissance des normes génériques que met en jeu le corpus étudié (alors homogène de ce point de vue). Comme cette démarche subordonne le social à l'individuel, elle ne se confond pas avec une « stylistique des genres » dont le statut hybride conduit à ne pas privilégier les habitudes linguistiques de l'auteur3.
+Envisagée sous l'angle des composantes de la textualité4, la distinction entre style et genre apparaît essentiellement graduelle (vs catégorielle) :
+ +de la même façon que l'on peut définir un genre comme une interaction sociolectale entre composantes [du contenu et de l'expression], on peut définir un style comme une interaction idiolectale entre composantes. Cette interaction est d'un rang inférieur par rapport au genre, car elle intéresse des corpus moins étendus, mais en revanche ses prescriptions sont plus systématiques et plus fortes (Rastier 2001 : 180)
+ +Appuyée à ce dispositif théorique, la différenciation d'un style par les normes d'un genre se complique néanmoins de divers cas de figure, qu'on doit à l'existence de fonctionnements génériques multiples, dont certains mettent à l'épreuve l'analyse en composantes. C'est notamment le cas du poème en prose. D'ordinaire définit selon des critères très génériques comme un « texte poétique court, autonome et autotélique »5, il apparaît dénué de prescriptions d'ordre thématique, narratif ou énonciatif, et ne définit donc pas d'interaction sociolectale au plan du contenu. Qu'une telle indétermination soit possible donne à imaginer, à titre heuristique, différentes façons pour un style de s'affirmer sous le régime textuel des composantes sémantiques. Dans cette perspective, les rapports entre genre et style rencontrent quatre cas de figure :
+ + +Interaction sociolectale définie
+ + +2. Interaction sociolectale indéterminée
+Les cas 2a et 2b correspondent à l'indétermination sémantique que nous avons illustrée avec le poème en prose. À l'inverse, les cas 1a et 1b présupposent des prescriptions au plan du contenu, vis-à-vis desquelles s'apprécient la singularité d'un mode de production et d'un mode d'anticipation du sens textuel (pour une réception familiarisée avec les textes ainsi mis en série). À cet égard, alors que 1b localise la différence de degré entre style et genre que signalent les propositions de Rastier, 2b réaliserait lui un investissement stylistique « catégoriel ». Les analyses suivantes illustrent ce dernier cas de figure sur un corpus poétique réduit.
+L'oeuvre de Gérard Macé est réputée se soustraire aux catégories génériques classiques. Cette particularité concerne non seulement sa poésie mais aussi d'autres usages de l'écrit. Aussi la critique use-t-elle d'habitude de guillemets lorsqu'elle considère Ex Libris (1980) comme un « essai » mêlant imagination personnelle et documentation érudite, ou encore Le dernier des Égyptiens (1988) comme une « biographie » qui explore la vie de François Champollion sur un mode thétique.
+La spécificité de la poésie macéenne résulterait de même d'un « mélange de genres » (récit, poésie, essai)6 ; d'un « 'brouillage' des genres » (entre prose et poésie)7 ou encore de l'invention d'une « forme » propre (Asso 2001 : 28). À la différence de cette communauté de vues, une minorité suggère pourtant d'assimiler cette poésie au genre du poème en prose8. La critique se présente ainsi comme divisée entre le refus et l'assomption d'un « genre » unique. Toutefois ces divergences sur la catégorisation des textes ne sont peut-être qu'apparentes.
+Le poème en prose témoigne en effet dès son origine (1750 - 1850) des symptômes rencontrés par la critique macéenne : (i) comme le signale l'équivoque notoire de la locution poème en prose, il est un lieu privilégié de la contestation des frontières entre poésie et prose ; (ii) Nathalie Vincent-Munnia note par ailleurs que, dans la première moitié du XIX siècle, « Le poème en prose apparaît [...] comme un genre indéfinissable, ne pouvant être soumis à aucune caractérisation générale et définitive » (Vincent-Munnia 2003 : 562) ; (iii) en outre, Sandras a soin de relever des usages variés du genre qui « contraint d'admettre plusieurs modèles du poème en prose », à savoir un modèle narratif, un modèle descriptif, un modèle musical ou euphonique, un modèle expérimental, enfin un modèle « proche du carnet ou de l'essai »9 ; (iv) enfin, à l'origine « Les auteurs eux mêmes ne semblent pas pouvoir trouver une dénomination générique adéquate à leurs textes [...]. La même absence de classification générique nette marque le discours de la critique et de la réception contemporaine de ces textes.»10
+Sur ce fond éclairci du débat, nous opposerons aux thèses du mélange et de l'exclusion des « genres » celle d'un genre unique attesté, en montrant que Macé n'a pas trouvé une « forme » déliée de la notion de genre, mais différentes manières de pratiquer le poème en prose. On cherchera par là à rendre compte des tendances de composition qui exploitent l'indétermination sémantique de ce genre.
+Restreint à 25 textes, le corpus d'étude couvre une période postérieure aux trois premiers recueils de Macé, Le jardin des langues (1974), Les balcons de Babel (1977) et Bois dormant (1983)11, et ne retient pas les premières parties de La mémoire aime chasser dans le noir (1993) qui relèvent pour l'essentiel de l'essai bref et de l'aphorisme. Il se compose ainsi de la troisième partie de ce dernier recueil, du recueil complet Le singe et le miroir (1998) ainsi que de trois poèmes d'abord publiés séparément, Pierrot, valet de la mort (1986), Tête-bêche (1987) et La forêt qui se met à marcher (1991)12.
+Analogues au plan de l'expression, ces poèmes marquées par l'hypotaxe se particularisent tous par une présentation en alinéas qui segmente le texte en autant de périodes (pour un exemplaire cf. infra 2). Ces aspects marquent l'unité de facture des poèmes étudiés. Au plan du contenu, la métaphore continuée trame souvent la constitution du sens. Surtout, la plupart se laissent ramener à trois types d'interaction entre composantes. Nous choisissons de les nommer par commodité vie, songe et médiation pour indiquer la spécificité thématique, narrative et/ou énonciative de différentes « stylisations individuelles » ou appropriations sémantiques du poème en prose.
+Onze textes exemplifient des « méditations » : La chambre interdite, Suite royale, Hôpital de jour, La peur des miroirs, Au dieu du voyage, Hôtel de l'univers, Orphée qui se retourne, Le vent est à la prose, Le singe et le miroir, L'espoir est une étoile filante..., Le royaume des morts.
+ +- Aspects narratifs et thématiques. Leur mode de production rappelle la technique médiévale de l'integumentum ou reprise et intégration rhétorique de mythes. Une large part des poèmes tire en effet sa matière narrative de figures mythiques ou de types littéraires. Ainsi la figure connue de Gaspard Hauser se superpose au mythe de Narcisse dans La peur des miroirs ; le personnage décrit dans Au dieu du voyage représente Hermès ; Orphée revient sans Eurydice dans Orphée qui se retourne ; Ulysse et les Sirènes voisinent avec tout un bestiaire merveilleux dans Le vent est à la prose ; le début de Le singe et le miroir transfigure le mythe dogon des Jumeaux puis celui de l'Enfant sauvage né au siècle des Idéologues, etc. Ces transpositions de l'imaginaire collectif dans l'univers macéen servent de support à l'expression poétique d'une « thèse » plus souvent illustrée qu'explicitée (infra).
+D'une façon constante, chacune des méditations présente un point de vue réflexif portant sur un « Nous-mêmes ». Cette instance de la communication représentée est lexicalisée par un Nous généralement inclusif que les textes suggèrent d'identifier à la société occidentale moderne (entre la fin du XIXe et l'extrême fin du XXe siècle). Y invitent des termes, expressions, citations et allusions fonctionnant pour le lecteur à la manière de chronotopes tels que « cravate », « Kantor », « journal », « néon », « nos lumières celles des vitrines », « des oreilles absolument modernes et sourdes absolument », etc. Les déictiques personnels et temporels des méditations sont généralement interprétés ainsi, même s'il arrive aussi que le propos thétique, en même temps qu'il contribue à l'assimilation de ce Nous à l'Occident moderne, précise l'identité du foyer énonciatif. Par exemple dans Le vent est à la prose le thème de la poésie a pour corrélat un Nous, exclusif, qui renvoie aux acteurs de la modernité poétique.
+ +- Des poèmes thétiques. Le royaume des morts et surtout La chambre interdite renvoient respectivement à d'autres textes de Macé qualifiables d'essai (bref et long) et d'aphorisme : le sixième paragraphe de Le royaume des morts évoque Le goût de l'homme13 ; La chambre interdite est un centon tout entier composé de passages de la première partie de La mémoire aime chasser dans le noir. Cette intertextualité du poème en prose avec les genres pragmatiques cités est symptomatique du caractère thétique des méditations, au sens où elles impliquent la prise en charge énonciative d'un propos objet d'un jugement évaluatif.
+Le propos peut être explicite comme dans Suite royale (« Les rois ne sont plus rois de droit divin, ils sont les servants de nos désirs »), ou indiqué comme dans Le dieu du voyage (« nous ne voyagerons plus grâce à Virgile dans l'enfer d'une autre vie ») ou dans La chambre interdite, un poème qui reprend le topos du réalisme mensonger de la photographie. Mais le plus souvent l'interprétation n'accède pas immédiatement au propos : La peur des miroirs et Hôpital de jour disent la laideur de l'écriture et du monde via la Beauté personnifiée14 ; Le vent est à la prose vise le modernisme en poésie ; Le singe et le miroir regrette la parole perdue des origines, etc.
+La modalisation évaluative est ici constante. De fait, si La peur des miroirs donne à re-parcourir les traits caractéristiques de Gaspard Hauser, c'est autant pour exploiter leur valeur symbolique qu'avec l'intention d'établir la comparaison finale, dépréciative : « c'est nous-mêmes » (164). Plus exactement, les jugements portés reposent sur des procédés métaphoriques bien plus que sur une argumentation articulée (en particulier par car et mais). Enfin, assumées par un Je implicite, les évaluations négatives sont dirigées vers l'acteur collectif Nous-mêmes et une situation historique - la Nôtre.
+ +- Poèmes en prose « essayistes ». L'ensemble de ces particularités signale la fonction polémique de ce foyer énonciatif. Du point de vue des actes de langage, un tel dispositif textuel peut susciter l'identification du lecteur réel au foyer interprétatif (également implicite au sein de la communication représentée). Plus précisément, par leur modalisation négative d'un propos défini, ces textes semblent dessiner en creux la place d'un énonciataire critique qui, en d'autres situations de discours, pourrait aller jusqu'à engager la controverse (parodie, lettre ouverte, etc.). Malgré tout une telle ouverture pragmatique demeure ici virtuelle, à la différence de l'essai, par exemple, dont le régime communicationnel appelle la réalisation d'une réception active (maintenue privée ou rendue publique). Le type de la méditation opère néanmoins en deçà et leur dimension thétique, source de leur coloration « essayiste », oblige au fond à retenir une conception affaiblie de l'autotélisme invoqué comme critère de définition du poème en prose.
+Relèvent du songe macéen Un ange passe..., La mémoire aime chasser dans le noir, Sommeil levant je me réveille... ainsi que Au-delà commence la banlieue... Au plan thématique, ces textes ont en commun d'actualiser le champ lexical de la parenté et d'être dominés par une tonalité funèbre. Leur disposition linéaire est dominée par l'énumération. On se concentrera ici sur d'autres aspects de la textualité.
+ +- Perception et souvenir. Du Bellay et Ronsard ont illustré le Songe d'une façon qui renvoie directement au Canzone dei visioni15. Au début du songe VIII de Du Bellay
+ +Je vis un fier Torrent, dont les flots escumeux+
Rongeoient les fondements d'une vieille ruine :+
Je le vy tout couvert d'une obscure bruine,+
Qui s'eslevoit par l'air en tourbillons fumeux16+
la construction Je + VOIR explicite un trait identificatoire de la vision, autre nom du songe17. Chez Macé celui-ci manifeste de même une corrélation privilégiée entre la modalité de la perception et le foyer énonciatif représenté par Je. Ce procédé est utilisé sous cette forme dans Un ange passe... mais aussi selon la modalité auditive (« j'entends un bruit de vaisselle qui brise le rêve ») :
+Un ange passe, et pendant que les conversations se taisent autour de la table, il revient accompagné de son jumeau, les ailes collées par la poussière et la sueur. Mais personne ne saurait dire aujourd'hui lequel des deux a levé lentement sa main baguée pour nous adresser un signe plein de grâce et de vulgarité à la fois, un signe annonciateur et louche.+
Je revois le visage des jumeaux dans l'embrasure de la porte (celui qui tire la nappe en effaçant nos souvenirs, et celui qui transmet la tradition comme un mot de passe), chaque fois qu'en cherchant le sommeil j'arrange des mariages où sont invités les morts : des garçons d'honneur aux souliers vernis, les vieillards en chemises sans col, l'aïeule coiffée de noir depuis qu'elle a fauté.+
Je revois « l'oncle matinal », les cousins près de leur sous et ceux qui n'ont pas pu avoir d'enfants, je revois Roger d'Orléans et Melaine de la Courberie anoblis par l'usage familial, et par le temps qui leur a fait l'aumône d'une particule. Puis vers la fin du banquet, à l'instant où les fiançailles vont devenir des noces d'or, et l'aïeule une infante, j'entends un bruit de vaisselle qui brise le rêve : à la place des deux anges qui n'ont laissé aucun message, et qui n'apparaîtront plus ensemble sur la terre, je ne vois que des plumes comme après un combat de coqs, et la volaille qu'on engraisse pour le prochain mariage.+
Enfin le photographe avec ses airs de faux prophète, et sa lanterne allumée en plein midi pour nous annoncer la nouvelle de notre mort.+
Surtout, la lexicalisation « revois » se rapporte à un événement passé. C'est l'indice d'une différence majeure par rapport au songe traditionnel. C'est en effet la triple corrélation de la fonction du Souvenir (vs Imagination), de la modalité perceptive et du Je qui identifie le songe macéen. Chez l'auteur de La mémoire aime chasser dans le noir le songe est ainsi davantage acte de remémoration qu'acte d'imagination productive ; cette présence de l'activité mnésique faisant directement écho au thème de la Mémoire, central dans cette oeuvre.
+ +- Mode du récit et impression référentielle. Le songe se caractérise par une impression référentielle de type onirique, qui peut être produite au moyen d'antilogies. Par exemple, dans « à l'instant où les fiançailles vont devenir des noces d'or, et l'aïeule une infante », d'une part le contexte transformatif (« devenir ») accueille paradoxalement un état /antérieur/ (« infante ») en position résultative. D'autre part, « à l'instant où » vient rendre saillant le trait /imminence/ dans « les fiançailles vont devenir des noces d'or », impliquant ainsi une transformation ponctuelle alors même que la relation qui lie « fiançailles » à « noces d'or » est durative.
+Relevant de cette rationalité onirique (i.e. ni causale ni finalisée), le récit fragmentaire qu'implique le songe macéen n'appelle pas à restituer les moments manquants d'une intrigue énigmatique. Par exemple, dans Un ange passe... le retour de l'Ange est marqué par une transformation (ses ailes sont « collées par la poussière et la sueur ») qui demeure sans origine. Certes l'intelligence narrative peut tenter d'expliquer certaines ellipses supposées. Aussi n'apparaît-il pas déraisonnable d'imaginer ici une lutte en lien avec les fonctions antithétiques de ces Anges de la mémoire (« celui qui tire la nappe en effaçant nos souvenirs, et celui qui transmet la tradition comme un mot de passe »). Mais généralement la succession des d'actions (« revient », « puis vers la fin ») s'émancipe du récit canonique (clôture, symétrie et causalité) et aucune organisation narrative globale ne peut être constituée.
+Présente dans l'oeuvre de Macé, en particulier dans les « essai-fictions » des Vies antérieures, on retrouve la vie dans les poèmes Parade nuptiale, Femmes sans tête, Tête-bêche, La forêt qui se met à marcher et Entre le théâtre et les bois... Certains textes à la première personne (Opéré de quelque grosseur... ; De la partie fermée du théâtre... ; La leçon d'anatomie), de facture autobiographique, se rapprochent naturellement de ces récits de vie, mais sans en relever strictement.
+ +- Les vies et les songes. Ils contrastent à divers égards. Les premières appliquent la modalité ontique du /réel/ aux acteurs du récit, alors que le mode mimétique des seconds se traduit par une saturation du texte par l'irréel. De plus, on n'y observe pas d'interactions entre le narrateur et les acteurs, à la différence des songes (notion de narrateur-personnage). Enfin, à la narration homodiégétique du songe s'oppose la narration hétérodiégétique de la vie centrée sur des événements passés et actuels d'au moins un acteur humain.
+ +- L'espace profond du souvenir. Cet acteur, qui appartient à la classe des Défunts, est toujours identifié (les Parents dans Parade Nuptiale, le Nourrisson dans Femmes sans tête) et parfois désigné par un nom propre (ex. Arthur Meslin et Gervaise Vidor dans La forêt qui se met à marcher, Saturnin dans Tête-bêche). La structure récurrente qui le caractérise corrèle un IL à une modalité spécifiée par ce que nous avons appelé la fonction du Souvenir ; comme si la mémoire propre des personnages était donnée responsable du récit (par ex. dans Femmes sans tête « C'est dans une quinte de toux qu'il retrouve une impression d'enfance »). Il est clair toutefois que l'accès à l'histoire individuelle des personnages se fait par la médiation du foyer énonciatif (Je). De sorte que lui-même connaît une actualisation de la fonction du Souvenir, qui le cède parfois à l'Imagination18. Une spécificité remarquable des vies réside dans cette inclusion des fonctions du Souvenir : Je se souvient d'un Il qui se souvient de son passé.
+ +- Thématique vitale et tonalité funèbre. Ce qui unit par ailleurs tous ces poèmes est une thématique du cycle vital. On note au hasard les chronotopes « dans le ventre de sa mère », « nourrisson », « enfance », « en tremblant comme une feuille » (vieillesse), « son fantôme » (résurrection). Mais le parcours du cycle n'a rien de linéaire et de duratif. Par ailleurs, la narration de ces vies anecdotiques porte sur des gens de petite condition (ex. le bleu de travail et le tablier) à l'image de la Mère de Parade nuptiale, cette « héroïne d'une vie brève qui s'écroula un soir sur le seuil de sa maison ». Ce passage marqué par l'aspect /perfectif/ (« brève », « s'écroula », « soir », « seuil ») exemplifie enfin le ton de ces vies hantées par le deuil : en qualifiant globalement le thème de la vie, l'aspect /perfectif/ contribue ainsi à produire la coloration funèbre qui domine les poèmes.
+Sur la base d'équivalences sémantiques globales, nous avons tenté de rapprocher des textes identifiés par une facture typographique et syntaxique analogue et appartenant à un même genre. Leur description a permis de mettre en évidence des caractéristiques communes (thématiques, énonciatives et/ou narratives) qui, pour la majorité des vingt cinq textes examinés, constituent des sortes de sous-ensembles et légitiment de fait des formes textuelles stables propres à Gérard Macé. Ainsi, alors que le songe s'oppose « en interne » à la vie comme à la méditation, il paraît même se singulariser par rapport à sa tradition poétique (Du Bellay, Ronsard).
+Ces formes, qui n'ont le statut de type textuel qu'au sein de cette poésie, se définissent par des interactions spécifiques entre composantes. Ce sont elles qui, dans le cadre d'un genre dénué de prescriptions au plan du contenu, fondent l'existence de variations stylistiques. La méditation est de loin le type le plus exemplifié (onze poèmes), viennent ensuite la vie (cinq exemplaires) et le songe (quatre exemplaires). Les catégorisations hybrides de la critique macéenne se précisent alors : de même que la dimension thétique des médiations rapproche ces poèmes de l'essai, de même la dimension narrative du songe et de la vie conduit naturellement à employer l'étiquette « récit ». À vrai dire, ces formes témoignent ensemble d'une pratique plurielle (i.e. ni uniforme ni disparate) du poème en prose, cette pluralité de manières déclinant un style de composition qui se positionne entre la contingence de la création poétique et l'emploi de procédés systématiques.
+Exploitant les catégories rhétoriques du portrait ou du tableau, cinq textes sont toutefois rétifs aux regroupements effectués. À l'exception de Pierrot valet de la mort, ils appartiennent au dernier recueil de Macé, Le singe et le miroir. Certes Le roman des jumeaux et Le porteur de lanterne, où un Je confie son passé et médite sur l'origine, tiennent un peu de la vie et de la méditation. De même Assis sous un auvent..., Pierrot valet de la mort et à l'intérieur du navire... mettent en scène un acteur unique (l'émigrant, le Souffleur, le Capitaine, respectivement) qu'un sort dramatique rapproche des vies. Mais ces poèmes ne sont pas en toute rigueur assimilables aux formes textuelles dégagées. Ce genre de difficulté appelle à prolonger l'étude et la recherche en complétant la différenciation du style par le genre au moyen d'autres formes de caractérisation sémantique des particularités individuelles.
+Nous avons fait ailleurs des propositions en ce sens qui s'appliquent aux façons régulières de constituer le sens au sein d'un corpus attribué à un énonciateur unique. En effet, une oeuvre peut se singulariser à différents paliers et donc se caractériser sous différents angles : 1/ le palier du texte situe les interactions idiolectales entre composantes ; 2 / celui de la période intéresse des structurations remarquables entre signifiés, envisagés dans leur linéarité (rythmes sémantiques, etc.) ; 3/ au palier du mot l'oeuvre constitue les significations propres à l'auteur ; 4/ enfin, à ces différents paliers, la constitution du sens peut épouser un même schème. Ainsi chez Macé un contraste fort unifie les paliers du mot (ex. cercueil de verre), de la période (ex. un rat qui voulait devenir une étoile) et du texte (figure macéenne des Jumeaux antagonistes ; opposition thématique entre culture savante et culture populaire, etc.).
+Au-delà, l'analyse sémantique sert une caractérisation textuelle qui doit rendre compte de l'interaction entre le plan de l'expression et celui du contenu. Cela intéresse en particulier les trois recueils qui précèdent Bois dormant (Le jardin des langues, Les balcons de Babel et Bois dormant). Macé y voit une trilogie dont le mode d'écriture n'est pas sans évoquer les productions dites automatiques des Surréalistes. À la différence des recueils suivants, ils soumettent la lecture à un tempo soutenu par la suppression des points, des virgules et l'usage de l'énumération, notamment. Cette différence de facture soulève le problème des lignées stylistiques qui alternent dans la chronologie des parutions et dont la reconnaissance repose sur des indices de périodisation (typographiques, phoniques et morphosyntaxiques). Dans le cas présent, il s'agirait d'établir si la trilogie relève d'une lignée unifiée (pour une suite de textes, correspondance d'une même facture et d'un même style sémantique) ou non (un style sémantique commun a des factures distinctes).
+Répondre à cette alternative permettrait d'apprécier l'évolution d'un style en terme de continuité/discontinuité. Il reviendrait à une linguistique des styles unifiée aux deux plans du texte d'investir ce domaine de la variation stylistique.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé + par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Il n'y a qu'un sens, mais il est ... multiple.+
Il n'est guère besoin de le souligner : les affaires de la polysémie sont aujourd'hui, à l'image même du concept, ambiguës. Un seul point semble faire l'unanimité : tout le monde (ou presque) accepte qu'une expression linguistique puisse présenter une variation d'interprétations selon le contexte. Mais faut-il y voir de la polysémie ou non ? C'est là que les analyses et les réponses s'avèrent discordantes et qu'il convient de faire le point. Non pas en proposant une nième théorie, forcément « copernicienne », de la polysémie, mais en (ré)examinant, dans le droit fil de nos travaux antérieurs (Kleiber, 1996, 1999, 2000, 2005 et 2006), les tenants et les aboutissants de l'affaire.
+Nous nous proposons de reprendre le problème de la multiplicité de sens associée à une unité lexicale pour essayer de voir quelles sont les propriétés que doivent présenter de tels sens pour mériter le label de polysémie ou non. Nous le ferons en deux étapes : après un tour de chauffe observationnel général, nous mettrons en avant dans la première partie les deux conditions auxquelles doivent satisfaire les différentes lectures d'une unité lexicale pour pouvoir être considérées comme étant des sens de l'unité lexicale elle-même : la non-unifiabilité et l'autonomie par rapport au discours. L'hypothèse que nous défendrons est que la variation interprétative d'une unité lexicale ne peut être polysémique, c'est-à-dire portée au crédit de l'unité lexicale, que si les différentes lectures en jeu ont deux propriétés particulières : elles doivent être, d'une part non unifiables, et, d'autre part, robustes ou fortes, c'est-à-dire autonomes par rapport aux discours dans lesquels elles se manifestent. Nous essaierons, comme l'indique le titre, de montrer, dans la seconde partie, qu'il existe de tels sens. Nous recourrons à des tests syntagmatiques et paradigmatiques pour prouver le caractère empirique de ces deux propriétés et, partant, pour légitimer de façon non artificielle, la pertinence linguistique du phénomène.
+On peut accepter comme point de départ provisoire que la polysémie nécessite :
+L'absence de la condition -ii-, qui découle directement de la définition de la polysémie par Bréal (1897) comme étant la conséquence synchronique des changements de sens, nous met en présence de ce qu'on appelle habituellement l'homonymie.
+Une première observation est à faire à ce niveau. On constate dans l'abondante littérature sur la multiplicité des interprétations une intéressante différence entre le traitement de l'homonymie et celui de la polysémie. Si les phénomènes polysémiques sont bien souvent remis en cause, les cas d'homonymie se trouvent généralement épargnés, même si comme pour voler ou grève il s'agit à l'origine d'un réel changement de sens. L'affaire peut sembler anodine. Elle l'est toutefois beaucoup moins, si l'on prend en compte le fait que ce qui pousse à nier les faits de polysémie devrait aussi, en grande partie, servir pour remettre en cause les faits d'homonymie. C'est la position à laquelle est amené tout logiquement, dans une perspective cognitiviste, le Cruse de 2004 (Croft et Cruse, 2004, 109) : « bounded sense units are not a property of lexical items as such ; rather they are construed at the moment of use ». Et un mot homonymique comme bank, dans une vision constructiviste du sens, ne se divisera plus immédiatement en bank-'rive' et bank-'établissement financier', mais se verra associer un seul purport ou matériau conceptuel qui représente l'apport sémantique du mot à la construction de l'interprétation, les sens de 'rive' et de 'banque' étant eux-mêmes des unités de sens construites à partir du « purport » et de conventions. On peut se demander alors pourquoi ceux qui s'en prennent à la polysémie n'attaquent pas avec la même vigueur l'homonymie. La raison, à notre avis, réside dans la présence de la condition -ii- : l'existence de liens (de relations) entre les différents sens d'une même unité lexicale est un facteur qui prédispose à et qui donc favorise la recherche d'une unité sémantique supérieure dégradant les différents sens relevés au rang de simples interprétations de l'aval discursif. Si, par contre, l'écart entre les différentes interprétations n'est pas perçu ou donné comme sous-tendu par un lien, on ne sent pas poussé ou autorisé à chercher un amont unificateur qui déferait la situation polysémique en réduisant ces différentes interprétations à des effets de l'amont en question. .
+Une deuxième observation concerne le niveau où s'exerce la critique du fait polysémique. Si on part de la conjonction définitionnelle provisoire -i- et -ii-, la polysémie peut être remise en cause, soit en critiquant -i-, soit en critiquant -ii-. Dans le premier cas, celui où -i- est faux, mais où -ii- subsiste, les relations de -ii- sont à porter au crédit de la construction de lectures qui ne sont plus intrinsèquement attachées à l'expression : on refuse la polysémie, mais on conserve les emplois. C'est la position critique classique. La seconde position, celle où l'on conserve -i-, mais où l'on refuse -ii-, revient à transformer un cas de polysémie en un cas d'homonymie. Elle est, c'est significatif, beaucoup moins fréquente, quoique tout à fait envisageable, comme en témoignent les variations lexicographiques en ce domaine. On peut fort bien s'interroger, par exemple, sur la persistance ou non d'une relation synchronique entre le sens de blaireau-'animal' et blaireau-'brosse pour la barbe'.
+Nos deux observations tirent dans la même direction : elles montrent que c'est avant tout le point -i-, celui de la pluralité du sens assignée à une même forme, qui se révèle primordial. Autrement dit, la question essentielle n'est pas tellement celle de l'existence ou non de relations - problématique qui est incontestablement intéressante à un autre point de vue et à un autre niveau, celui des changements de sens et des universaux qui peuvent être impliqués, des potentialités organisationnelles - mais celle de l'existence multiple de sens associés à une forme, qu'il s'agisse d'homonymie ou de polysémie, même si nous nous plaçons volontairement, étant donné notre première observation, dans le cadre des vocables qui peuvent prétendre concourir pour le label « polysémique ». C'est à ce niveau-là qu'il faut alors poser la question fondamentale : est-ce qu'on peut associer à une unité lexicale plusieurs sens ou non ? Autrement dit encore : est-ce une propriété des unités lexicales, soulignons bien le terme unité lexicale pour éviter toute équivoque, que de pouvoir posséder plusieurs sens ou non ? Est-il justifié d'attribuer à plateau, par exemple, entre autres, le sens de plateau-'vaisselle ' et le sens de plateau-'géographique'? Dit encore autrement, la pratique des lexicographes qui accordent à une unité lexicale plusieurs sens est-elle fondée ou non ? Ces sens sont-il vraiment accrochés à l'unité lexicale ou n'ont-ils qu'une existence discursive, ne sont-ils qu'un produit de la construction du message ?
+Une réponse possible est de refuser d'attribuer à toute unité lexicale du sens préétabli (voir Kleiber, 1999). Le problème de la pluralité de sens se trouve alors réglé, puisque l'exclusion de toute monosémie entraîne en même temps celle de toute pluralité de sens. Nous n'envisagerons pas ici une telle position, parce qu'elle oblige à prendre position sur le statut et la nature du sens en général (Larsson, 1997 et Kleiber, 1999).
+Si l'on met de côté une telle position extrême, mais tout à fait défendable, la polysémie en tant qu'association de plusieurs sens à une même forme lexicale se trouve niée de deux manières apparemment paradoxales :
+-a- D'une part, les vocables donnés comme polysémiques se voient en quelque sorte « monosémisés » par la mise en avant d'un invariant supérieur, de quelque nature qu'il soit, qui unifie les différentes interprétations. L'idée, implicite ou explicite, est que ce sens subsumant, explicatif de la diversité interprétative, ne correspond pas aux interprétations observables en discours et que l'on n'y accède qu'en reléguant les sens « immédiats » (surtout les valeurs dénominatives et référentielles) à un étage inférieur, qui n'est plus celui de la langue. Le locuteur lambda n'a évidemment pas accès à ces sens abstraits unificateurs (re)construits grâce à l'observation patiente et sagace du linguiste et qui ont l'avantage de s'insérer dans une conception plus générale de la langue vue comme le passage de formes, de schèmes, de structures abstraites à une incarnation discursive faisant émerger les valeurs, les catégories faussement traitées comme sens premiers par la tradition lexicale et lexicographique. On étend ainsi à toute unité lexicale des concepts comme ceux d'actualisation, de sous-détermination ou de sous-spécification généralement appliqués au domaine des unités grammaticales, où, comme de nombreuses études l'ont montré, la recherche d'un invariant sous-déterminé et donc le refus d'un éventail trop grand de sens morcelés et non justifiés est tout à fait indiquée. De façon plus générale, empressons-nous de le dire pour éviter toute équivoque sur notre position, la quête d'un amont sémantique pour rendre compte de la diversité des « emplois » d'une unité lexicale est une opération légitime, qui permet, s'il y a effectivement un tel invariant, de débusquer les vocables faussement labellisés polysémiques. Ce qui nous semble, par contre, beaucoup moins légitime, c'est de généraliser la chose et de postuler qu'il en va ainsi de toute unité lexicale, la polysémie alors n'existant plus du tout.
+-b- D'autre part, de façon tout à fait inverse aux tentatives de monosémisation, on fait proliférer les sens ou variations de sens. Autrement dit, on procède à la multiplication des cas de polysémie. Soit en postulant qu'il s'agit d'une variation qui n'est pas liée à un lexème particulier, mais qui concerne une série beaucoup plus grande d'unités, parce qu'elle dépend d'une règle ou fonction générale (cf. 'animal' -> 'viande de cet animal' pour j'ai mangé du veau), que l'on appellera polysémie régulière (Apresjan, 1974) ou systématique (Nunberg, 1995, Nunberg et Zaenen, 1997 et Apresjan, 2000)) ou encore polysémie logique (Pustejovsky, 1995) et dont la généralité implique l'abandon d'un traitement au niveau de l'unité lexicale et, partant, l'abandon de la polysémie comme pluralité sémantique associée à une unité lexicale. Soit surtout en multipliant les variations interprétatives contextuelles pour montrer qu'il ne peut s'agir d'un phénomène du niveau de l'unité lexicale, mais d'un phénomène discursif, lié au contexte, de lectures de circonstance et non de sens du lexème. C'est ainsi que Kayser (1987) assigne à livre l'interprétation 'objet' (manuscrit, disquette) dans l'énoncé Jean écrit un livre, celle d'idées contenues dans ce livre lorsqu'il se combine a influencer quelqu'un (cf. Ce livre a fortement influencé les Révolutionnaires de 1789), celle de la commercialisation dans Ce livre a été un fiasco pour l'éditeur, etc. Deux résultats découlent d'une telle multiplication : l'impossibilité d'énumérer toutes les interprétations possibles, parce qu'il n'est pas toujours facile de séparer ou de distinguer les différentes interprétations et le renoncement à compter ces différentes interprétations comme des sens du mot, puisqu'ils sont construits par le contexte et donc non autonomes. « Il est artificiel, comme l'écrit Cadiot (1992, 36) de leur allouer une existence indépendante de leur émergence ».
+Les positions -a- et -b- ne sont qu'apparemment paradoxales : il n'y a aucune contradiction, d'un côté, à faire disparaître la pluralité de sens sous un sens amont ou invariant et, de l'autre, à procéder à la multiplication des petits pains polysémiques, dans la mesure où le point commun des deux positions est que la multiplicité de sens n'est qu'un phénomène discursif et non un phénomène de l'unité lexicale elle-même, puisque dans les deux cas, les sens relevés ne sont pas associés à l'unité lexicale elle-même, mais sont le résultat d'une construction discursive.
+A la clef, le verdict sémantique ne fait pas de doute : il n'y a plus lieu de parler de polysémie. Il s'agit d'un jouet fabriqué par les linguistes-sémanticiens, d'un artefact. Les unités lexicales n'ont pas plusieurs sens préétablis, qui leur appartiendraient en propre. Les variations interprétatives présentées ne sont que le produit de constructions discursives, où interviennent différents ingrédients, allant jusqu'à la distinction des genres, des textes, etc.
+Il serait possible d'examiner et d'évaluer les propositions faites par ceux qui promeuvent une telle approche de toute variation interprétative. Nous ne nous engagerons pas sur cette voie ici. Il nous semble plus important de nous limiter à la question mise en avant ci-dessus : est-ce qu'il est licite ou non de postuler qu'une unité lexicale (un mot pour aller vite), en tant que telle, peut avoir plusieurs sens ? Est-ce qu'on peut attribuer, de façon non artificielle, à une unité lexicale comme, par exemple, notre plateau de ci-dessus plusieurs sens ? Si oui, cela suppose que ces lectures ont émergé des emplois discursifs pour devenir des traits de sens stabilisés et non plus seulement des produits discursifs. Bien évidemment, dire qu'il en va ainsi ne prouve rien. Il revient au linguiste de le démontrer.
+A cet effet, il faut qu'il démontre deux choses. Il faut que notre partisan de la polysémie prouve que les acceptions ou lectures des lexèmes auxquels il entend accorder le statut de polysème (et uniquement, bien entendu, à ceux-là) sont bien des sens disjoints, non réductibles, en ce qu'ils ne sont pas « coiffables » par un sens supérieur qui n'en ferait que de simples effets de sens ou de simples emplois issus de la combinaison de ce sens amont avec les différents ingrédients contextuels. L'affaire n'est pas mince, étant donné qu'il semble toujours possible de trouver un chapeau sémantique assez généreux pour accueillir toutes les différenciations interprétatives manifestées par une unité lexicale. Elle n'est toutefois pas impossible, comme on le verra ci-dessous.
+Il faut ensuite prouver que ces sens différents disjoints ou séparés non « coiffables » unitairement sont réellement des sens stables accrochés à l'unité lexicale et non simplement des variations sémantiques dues au contexte ou à la construction discursive. Autrement dit, il faut montrer cette fois-ci, non plus qu'il n'y a pas de sens supérieur qui coiffe la diversité interprétative manifestée, mais que les différentes interprétations postulées pour un même lexème sont véritablement des unités sémantiques associées au lexème même et non plus seulement le produit de configurations discursives. Autrement dit, il faut d'une manière ou d'une autre montrer que ces sens n'existent pas seulement discursivement, mais qu'ils ont une forme d'existence lexicale, parce qu'ils ont acquis en quelque sorte une forme de liberté vis-à-vis du contexte ou des constructions dans lesquelles ils se manifestent. C'est prouver en somme que la polysémie est bien une relation lexicale, paradigmatique, ayant acquis sa pertinence au niveau paradigmatique du lexique, parce que les sens en question ont acquis une saillance qui les fait survivre au contexte qui les a fait naître . Il s'agira donc de faire le tri entre les lectures qui restent dépendantes des « circonstances » et celles qui ont gagné leur autonomie, bref, entre celles qui n'arrivent pas à se détacher par rapport à la situation discursive et celles qui montrent une robustesse qui les fait survivre au contexte de leur émergence.
+En résumé, les candidats au statut de sens polysémiques, c'est-à-dire de sens associé à une unité lexicale, doivent présenter deux propriétés : ils doivent être non unifiables ou irréductibles à un sens ou lecture générale supérieure et ils doivent en même temps être suffisamment robustes ou forts pour acquérir un statut d'autonomie, qui les détache des circonstances discursives et les sépare des lectures « fragiles » contextuelles, et qui leur permet d'émerger et d'émarger en tant que propriété sémantique stable des unités lexicales. Comment reconnaître qu'ils possèdent ces deux propriétés ? C'est ce que nous essaierons de montrer dans notre deuxième partie.
+L'hypothèse qui sous-tend notre démarche est que s'il y a véritablement des sens qui présentent les deux propriétés nécessaires pour que ces sens soient véritablement associés à une unité lexicale et donc puissent être qualifiés véritablement de sens polysémiques, ces deux propriétés, c'est-à-dire la non-unifiabilité (ou différence irréductible) et leur robustesse ou autonomie vis-à-vis du discours doivent se manifester de différentes manières, et notamment au niveau de leurs relations syntagmatiques et paradigmatiques où nous retrouverons des tests plus ou moins classiques dans la littérature sur la multiplicité du sens et l'ambiguïté C'est uniquement l'existence de telles manifestations qui fondent leur pertinence linguistique au niveau lexical et qui assurent à la polysémie ainsi démontrée un statut qui ne peut en rester au stade d'artefact de sémanticien.
+On soulignera encore que la possession d'une de ces deux propriétés n'est bien entendu pas suffisante : chaque condition est nécessaire, mais seule elle ne suffit pas, comme nous le verrons. Il faut la conjonction des deux pour conclure à la polysémie.
+Troisième précision : il est clair que l'on ne saurait parler de non-unifiabilité que si et seulement s'il y a eu reconnaissance d'une différenciation préalable. Comme nous l'avons montré longuement dans Kleiber (2005), il n'y a généralement pas de discussion sur la multiplicité ou non de sens d'une forme s'il n'y a pas au préalable l'intuition que cette forme peut présenter des interprétations ou des usages différents. Comme cette variation interprétative s'appréhende, qu'on le veuille ou non, avant tout en termes de « choses dénotées », c'est le sentiment qu'il ne s'agit plus ou pas de la même chose qui est à l'origine de la problématique du sens multiple. Nous avons appelé cette condition de départ (nécessaire, mais bien entendu non suffisante) le critère référentiel (Kleiber, 2005). Nous avons montré, entre autres, que, plus l'autonomie du type d'entité était grande (cf. par exemple les entités exprimées par les substantifs non prédicatifs) et plus il était facile de s'appuyer sur la notion de type de référents différents ou de catégorie différente (ou encore de choses différentes) pour engager une reconnaissance polysémique, alors que, inversement, plus l'entité en question était dépendante et plus délicat était le débat polysémique.
+La propriété de non-unifiabilité, c'est-à-dire l'impossibilité d'unifier différentes lectures d'une unité lexicale, se manifeste à plusieurs niveaux et se décline sous plusieurs formes, dont certaines sont, bien entendu, plus pertinentes que d'autres.
+-1- non-unifiabilité catégorielle : il est difficile, voire impossible, lorsqu'il s'agit de lectures engageant des catégories, de les réduire à une seule catégorie subsumatrice (Kleiber, 2002 et 2004). C'est ainsi qu'il est difficile de concevoir une seule catégorie correspondant aux deux lectures de souris (souris-'animal' et souris d'ordinateur). Corollairement, il est également difficile de trouver un prototype qui correspondrait aux deux lectures, chaque lecture, mais non leur union, donnant lieu à un prototype. La variation interprétative de type vague ou sens sous-déterminé (ou encore sens général), par contre, se révèle de ce point de vue parfaitement unifiable. Même si enfant peut donner lieu aux lectures différentes et incompatibles 'garçon' et 'fille', il est possible de faire correspondre une catégorie (avec son prototype) qui subsume les catégories 'garçon' et'fille', à savoir la catégorie 'enfant'.
+-2- non-unifiabilité vériconditionnelle : l'attribution d'une valeur de vérité s'établit au niveau de chaque lecture particulière et non au niveau d'une interprétation rassemblant les différentes lectures. La différence avec les situations de sens sous-déterminé apparaît ici avec la négation. La proposition Paul n'a pas d'enfant est fausse si l'une des deux lectures (Paul a un garçon / Paul a une fille), incompatibles entre elles, est vraie, alors que Paul n'a pas de souris n'est pas rendue fausse si l'une des deux lectures (souris-'animal' et souris d'ordinateur), incompatibles entre elles, elles aussi, est vraie, parce que la valeur de vérité se décide au niveau de chaque lecture particulière et n'est pas décidable plus haut. Donc même si Paul a une souris d'ordinateur, Paul n'a pas de souris reste vraie s'il s'agit de souris-'animal' et si Paul ne possède effectivement pas de souris-'animal'. Il s'ensuit au niveau discursif, une propriété d'autonomie que Cruse (2000 et 2003) appelle la possibilité de négation indépendante. Il est en effet possible de nier de façon indépendante une des lectures (Cruse, 2000 et 2003) dans le cas de la pluralité de sens du type souris, mais non dans le cas des variations interprétatives relevant du vague. A la question As-tu un enfant ?, on ne peut répondre non, si l'on a un garçon ou une fille, alors qu'à la question As-tu une souris ?, il est possible de dire non alors qu'on possède une souris-'animal', si la question porte sur une souris d'ordinateur (et inversement).
+-3- non unifiabilité de lectures : lorsque deux lectures sont en compétition dans un même énoncé, situation d'ambiguïté classique, il n'est pas possible cognitivement d'unifier les deux lectures, comme l'illustrent sur le plan de la perception visuelle les fameuses images ambiguës de la Gestaltthéorie : ou c'est l'une ou c'est l'autre, mais il n'est pas possible de saisir les deux simultanément. Cette non-unifiabilité psychologique permet de montrer que le classique critère d'ambiguïté, appelé critère d'interprétation multiple (Mel'Cuk, Clas et Polguère, 1995, 61), n'est pas suffisant. Le critère d'ambiguïté stipule en effet que si une phrase a deux interprétations différentes dues uniquement à une unité lexicale L, alors L aura deux sens. Or, les unités lexicales de sens vague ou sous-déterminé peuvent répondre à ce critère : Paul a un enfant donne lieu à la variation 'garçon' ou 'fille' et ces deux interprétations sont bien dues à enfant. On ne parlera toutefois pas d'ambiguïté, parce que les deux lectures sont parfaitement unifiables attentionnellement : il n'y a pas de compétition psychologique où l'une doit l'emporter sur l'autre, comme dans le cas de Paul a une souris. Cela apparaît nettement si on oppose Paul voudrait un enfant à Paul voudrait une souris.
+-4- non-unifiabilité sémantique : il n'est pas possible de trouver un sens général, plus abstrait, rassemblant et organisant les différentes lectures. C'est un point névralgique, puisque, comme nous l'avons vu, une des deux manières de nier la polysémie, consiste précisément à toujours trouver un sens abstrait explicateur. Ce point est d'autant plus névralgique qu'il est toujours possible de trouver un tel sens « coiffant » en prenant les traits communs à toutes les lectures ou emplois relevés. Il y a toutefois un problème, celui de la pertinence d'un invariant construit de la sorte. Il est bien souvent trop abstrait et par là-même incontrôlable : on oublie généralement de montrer comment se fait la « descente » vers les interprétations attestées. Mais le danger le plus grand est celui d'une trop grande puissance : on trouve, certes, des dénominateurs communs à toutes les lectures relevées, mais ce sens construit à partir des traits communs, s'il se retrouve effectivement toujours dans les lectures particulières, court le risque de présenter un pouvoir prédictif trop fort : il lui arrive en effet de prévoir des sens ou lectures (ou emplois) qui n'existent pas, au point qu'il apparaît dans ce cas comme étant un artefact du linguiste qui l'a construit. Martin (2005, 170) cite ainsi le cas de quartier et montre que, quel que soit le sens général supérieur proposé (comme par exemple 'partie d'un tout'), même si ce sens rend compte des différents sens ou emplois recensés (quartier de viande, quartier de ville, quartier des femmes, etc.), il ne pourra pas expliquer pourquoi on n'a pas quartier d'un livre, pour le chapitre d'un livre, ou quartier d'une symphonie pour le mouvement d'une symphonie. « Rien, conclut-il (2005, 170), ne permet de le prévoir. La seule solution est d'inscrire les possibles dans le dictionnaire ».
+Bref, il existe incontestablement des lectures différentes d'une même forme qui ne sont sémantiquement pas unifiables, de façon non artificielle. Ce ne sont pas, automatiquement, on le verra, des sens polysémiques, mais les sens qui prétendent représenter un fait de polysémie doivent posséder une telle propriété.
+Il y a des correspondants formels syntagmatiques et paradigmatiques à la non-unifiabilité que nous venons de mettre en avant. Au niveau syntagmatique, on observe en effet que les structures et constructions qui supposent d'une manière ou d'une autre une forme d'unité sont plus ou moins récalcitrantes au sens multiple non unifiable. On retrouve là certains tests bien souvent appelés à la rescousse dans la littérature sur la polysémie et l'ambiguïté. Tous n'ont pas la même pertinence, mais tous tirent dans la même direction.
+En premier lieu, on mentionnera un critère guère utilisé, car pas facilement manipulable et d'application limitée aux SN, mais pourtant intéressant : la difficulté d'avoir pour les sens non unifiables un SN avec une interprétation générique « coiffante », c'est-à-dire recouvrant les différentes lectures. Face aux situations de sens général, où la chose est tout à fait possible, comme le montre un énoncé du type Les enfants sont toujours ingrats, qui recouvre aussi bien la spécification 'garçon' que 'fille', il n'est guère possible d'envisager un énoncé générique similaire avec le SN les souris « couvrant » de la même manière aussi bien les souris-'animaux' que les souris d'ordinateur. Un tel regroupement n'est possible qu'au niveau métalinguistique, celui qui repose sur la pluralité de lectures et il faut que la phrase soit à la forme négative et comporte le quantificateur de totalité, ceci pour rappeler précisément que l'unification n'est pas possible, parce qu'il y a plusieurs types de choses appelées X. C'est ainsi que l'on peut avoir en regroupement : toutes les souris ne sont pas des animaux, mais non pour une union du même type : Les souris ne sont pas des animaux, ni Toutes les souris sont des animaux.
+En deuxième lieu, on dispose du critère de cooccurrence compatible (Mel'Cuk, Clas et Polguère, 1995), appelé aussi critère de Green-Apresjan par par Mel'Cuk, Clas et Polguère ou critère des sens antagonistes par Cruse (1986). (Green 1969 et Apresjan, 1992). Ce critère établit qu'il y a sens multiple si et seulement si la cooccurrence discursive des différentes lectures ou interprétations se révèle impossible, en somme si les différents sens ne sont pas compatibles, unifiables et se révèlent donc antagonistes, disjoints. Il s'agit d'un indicateur assez fiable qui projette sur le plan syntagmatique l'incompatibilité paradigmatique des sens concernés. L'idée qu'il traduit est que, si deux lectures d'une même unité lexicale sont vraiment deux lectures autonomes, non unifiables, elles ne sont pas non plus compatibles en les mettant ensemble au niveau syntagmatique. Ce critère revêt plusieurs formes. La coordination de constituants qui activent les différentes interprétations est souvent utilisée. C'est ainsi que si l'on prend le cas de veau-'animal' et veau-'viande de cet animal', la coordination de deux adjectifs qui activent les deux lectures aboutit à un zeugme, qui révèle bien leur incompatibilité :
+? Ce veau est rapide et tendre (dans le sens où tendre porte sur la viande)+
La contrainte d'identité (Cruse, 1986) est une autre forme de ce test syntagmatique. Elle exige qu'en cas d'anaphore du type aussi, tout comme, ainsi fait X... ? l'on ne puisse avoir une interprétation croisée, l'antécédent et l'anaphore ne pouvant être de lecture différente. L'énoncé Pierre aime ce plateau, Paul aussi ne connaît ainsi que des interprétations d'identité. S'il s'agit du plateau-'vaisselle' pour Pierre, il en va également ainsi pour Paul et si c'est le plateau géographique, il en va encore ainsi pour Paul. Ce qui se trouve exclu, c'est l'interprétation croisée où, par exemple, pour Pierre il s'agirait du plateau-'vaisselle' et pour Paul du plateau géographique. Si on applique ce test au sens sous-déterminé, on constate que les interprétations croisées sont cette fois-ci permises. L'énoncé Marie attend un enfant, Berthe aussi donne lieu à quatre lectures, deux d'identité (une où Marie et Berthe attendent toutes les deux une fille et une où ils attendent un garçon), mais aussi deux de non identité (une où Marie attend un garçon et Berthe une fille et l'autre où c'est l'inverse). Trouvent leur place également ici les relatives qui en cas de lectures non réductibles ne permettent pas une divergence référentielle entre l'antécédent et le pronom relatif (cf. J'aime faire des promenades sur le plateau qu'a acheté Pierre pour compléter la vaisselle). Il en va de même pour les anaphores réalisées par les pronoms de 3e personne (Ce plateau est très fréquenté. Il est en faïence), qui permettent de rectifier certaines analyses opérées à propos d'un énoncé tel que Georges Sand est sur l'étagère de gauche : contrairement à ce que l'on pourrait attendre, un tel énoncé ne se prête qu'à une anaphore sur l'écrivain et non sur les oeuvres (Georges Sand est sur l'étagère de gauche. Tu verras, elle écrit divinement / * Georges Sand est sur l'étagère de gauche. Elle / ils est / sont relié(s) en cuir) (Kleiber, 1994 et 1999).
+Troisièmement, le critère de distribution différente (ou de cooccurrence différentielle selon Mel'Cuk, Clas et Polguère, 1995) est une autre manifestation de la non-unifiabilité. L'idée sous-jacente est que la dissociation des sens se traduit aussi par une dissociation distributionnelle. Ou, autrement dit, la non-unifiabilité des lectures apparaît dans une non unification distributionnelle correspondante : si on peut dégager deux ensembles disjoints de cooccurrents (morphologiques, syntaxiques ou lexicaux) tels que l'un correspond à S1 et l'autre à S2, alors on a sens multiple (Mel'Cuk, Clas et Polguère, 1995). Citons ici le cas classique du verbe regarder souvent utilisé pour prouver l'efficacité du critère de différenciation distributionnelle dans la séparation du sens locatif ('être tourné vers') du sens standard perceptuel actif. Les exemples parlent d'eux-mêmes :
+Paul regarde la montagne+
Paul a regardé la montagne+
L'église regarde la montagne+
*L'église a regardé la montagne+
Ce match a été regardé par toute la population+
* La montagne a été regardée par l'église+
Paul a regardé intentionnellement la montagne+
*L'église regarde intentionnellement la montagne+
Deux remarques sont nécessaires. La première concerne la diversité des faits syntagmatiques à prendre en compte : constructions, contraintes sélectionnelles, collocations, etc. : tous n'ont pas la même importance et il conviendrait d'établir une hiérarchie pour voir lesquels l'emportent sur d'autres. Deuxièmement, ce critère de distribution différentielle est un des critères auxquels on a recours le plus fréquemment pour prouver les faits de sens multiples, mais il faut souligner que, plutôt qu'un critère de reconnaissance, c'est plus une manifestation de la pertinence d'une pluralité de sens déjà diagnostiquée autrement, qu'elle peut donc venir appuyer ou confirmer, mais non reconnaître elle-même. Nous voulons dire par là que l'utilisation de ce critère à l'aveugle, c'est-à-dire sans délimitations sémantiques déjà effectuées conduit bien vite à des impasses. La raison en est bien simple. On a pour la majorité des sens ou lectures des différences de cooccurrence (dans le sens large indiqué ci-dessus). Si l'on s'en tenait donc uniquement à de telles différences sans contrôle sémantique et si l'on considérait ces différences comme décisives pour la délimitation du sens multiple, il faudrait conclure à autant de sens différents que de phénomènes distributionnels différents. Notre mise au point montre ainsi que ce critère est le plus efficace là où les différences interprétatives sont les plus nettes et s'avère beaucoup plus fragile ou délicat à manipuler là où les hésitations sont permises (y a-t-il différence d'interprétation ou non ?). C'est, dans ce dernier cas, que les analyses peuvent diverger, parce qu'elles se servent de tel ou tel fait de cooccurrence différentielle pour faire basculer le sens vers le multiple ou non.
+La non-unifiabilité se laisse aussi appréhender au niveau paradigmatique : l'hypothèse est qu'il n'y a pas de relations au niveau paradigmatique qui conduiraient ou induiraient une union des deux unités de sens (ou plus) testées. Les sens disjoints testés présenteraient ainsi des ensembles de relations lexicales paradigmatiques disjointes, en autonomie relationnelle (Croft et Cruse, 2004, 113).
+En premier, lieu, l'absence d'hyperonyme pour couvrir lexicalement les deux lectures est un écho direct de la non-unifiabilité sémantique. S'il y a un hyperonyme disponible pour « coiffer » les différentes lectures, on peut en conclure qu'il n'y a pas sens multiple. Le sens général ou vague se trouve ainsi définitoirement éliminé. L'inverse n'est bien entendu pas vrai : l'absence d'hyperonyme ne signifie pas automatiquement qu'il y a sens multiple.
+En deuxième lieu, la synonymie (intra- et interlinguistique) s'avère être fort utile : le test consiste à montrer que deux lectures non unifiables ont également deux ensembles de synonymes disjoints, non unifiables. On se contentera de citer sans le commenter l'exemple de l'adjectif juste emprunté à Gross (1998, 111) :
+juste / N0 : hum / Sy : droit, intègre, honnête+
juste /N0 : hum /N1 : avec hum / Sy : équitable, impartial+
juste / N0 : action <récompense, punition> / Sy : légitime, justifié, fondé+
juste / N0 : action <calcul, déduction> / Sy : correct, exact+
juste / N0 : inc (= inanimé concret) <vêtement> / Sy :étroit, étriqué+
juste / N0 :inc <instr de mesure> /Sy : exact, précis+
juste / N0 : inc <instr de musique> / Sy : accordé+
On ajoutera que, tout comme les collocations (cf. supra), la synonymie est aujourd'hui au premier plan dans les affaires polysémiques. Certains vont jusqu'à en faire l'instrument principal d'une approche de la polysémie : « On peut représenter la polysémie (ou dans la terminologie de la sémantique lexicale européenne, le champ sémasiologique) d'une unité lexicale sous la forme d'un espace sémantique présentant autant de dimensions que de synonymes qui lui sont associés » (François, Victorri et Manguin, 2005, 175).
+La synonymie appelle tout naturellement l'antonymie : la dissociation de deux lectures peut se manifester également dans l'existence d'antonymes différents, non réductibles à un antonyme supérieur : si l'on a une valise légère comme un café léger, l'on n'aura pas face à une valise lourde, un *café lourd.
+En quatrième lieu, des dérivés différents selon le sens peuvent aussi venir appuyer une dissociation interprétative. (cf. le critère de dérivation différentielle de Mel'Cuk, Clas et Polguère, 1995, 68). Ainsi les trois lectures d'élever dans a), b) et c) donnent lieu à des dérivés différents (exemple de Mel'Cuk, Clas et Poguère, 1995, 68) :
+a) Toute sa vie, Jeanne a élevé des enfants (par exemple, elle est une jardinière d'enfants)+
b) Toute sa vie, Jeanne a élevé des cochons (par exemple, elle est une fermière)+
c) Toute sa vie, Jeanne a élevé du vin+
Pour b), il y a le nom d'action dérivé élevage (Jeanne s'occupe d'élevage de cochons), le nom d'agent éleveur / éleveuse (Jeanne est éleveuse de cochons). Pour a) ces dérivations sont impossibles : * élevage d'enfants, *éleveur d'enfants, mais on a des dérivés lexicaux (des supplétifs) : éducation, formation, instituteur, jardinière d'enfants. Pour c), on n'a pas *élevage de vin, mais éleveur de vin.
+Il y aurait d'autres pistes à creuser, celle des champs sémantiques notamment, mais pour nous l'essentiel est d'avoir montré la diversité des faits paradigmatiques qui peuvent venir conforter l'existence de sens non unifiables. Il faut se rappeler que ces critères ne sont pas décisifs - Cruse (1986) parle de tests indirects - car leur caractère paradigmatique suppose leur détachement préalable et leur stabilisation par rapport aux configurations syntagmatiques qui les actualisent.
+Généralement, on fait comme si les critères de non-unifiabilité suffisaient pour garantir le caractère polysémique des sens différents examinés. Nous avons toutefois bien souligné que la propriété de non-unifiabilité n'était à elle seule pas décisive, parce qu'elle ne garantissait pas que les sens déclarés antagonistes ou irréductibles étaient véritablement des sens associés à l'unité lexicale. Mis à part les tests paradigmatiques, parce qu'ils supposent une stabilisation lexicale hors contexte, beaucoup de tests que nous avons vus s'appliquent à des phénomènes de variation interprétative qui ne relèvent pas de la polysémie parce qu'ils ne possèdent pas la deuxième propriété postulée, à savoir la robustesse ou autonomie par rapport au discours. Dans ses différents travaux (voir bibliographie), Cruse insiste sur ce point en montrant qu'une variation de sens comme celle de la célèbre « omelette » ('plat' et 'client qui a commandé ce plat') :
+L'omelette est parti(e) sans payer+
répondait aux critères des sens antagonistes, mais ne pouvait prétendre au statut de polysémie, parce qu'elle restait une lecture d « circonstance ». La vérification de son caractère non unifiable est facile à faire : pas de catégorie ni de sens subsumant possible, pas d'unifiabilité des lectures et peu de tentatives même chez les monosémistes pour trouver un invariant aux deux lectures. Les tests syntagmatiques confirment cette analyse : pas d'interprétation générique « coiffante » possible, cooccurrence discursive des deux lectures impossible (*L'omelette est trop salée et est assise à la troisième table), contrainte d'identité nécessaire (pas de lecture croisée possible pour Pierre a servi l'omelette, Paul aussi, pas de divergence dans une phrase avec relative * L'omelette, qui était trop salée, est parti(e) sans payer), etc. Les tests paradigmatiques, comme déjà annoncé, ne s'y appliquent guère, précisément parce qu'une des lectures (celle du 'client') n'est pas reconnue comme étant un sens stabilisé à rattacher en propre à l'unité lexicale omelette.
+Deux conditions doivent être remplies pour que l'on puisse parler de lectures propres à l'unité lexicale, de lectures qui n'émergent pas seulement au niveau syntagmatique, mais qui ont également acquis un statut paradigmatique. Premièrement, elles doivent bien avoir pour source l'unité lexicale en question et non pas une autre source. En second lieu, elles doivent être assez robustes pour avoir une existence hors discours, au niveau de l'unité lexicale.
+La première condition permet d'éliminer deux types de situations de sens multiple : les lectures accrochées aux locutions figées (noms composés compris) et celles qui sont le produit de mécanismes polysémiques plus généraux.
+Dans le premier cas, étant donné la non compositionnalité sémantique de l'expression figée, on ne peut reporter sur un constituant une partie ou le sens global de l'ensemble de l'expression. On ne saurait, pour reprendre un exemple classique de la littérature, parler de la multiplicité de sens d'arbre en y faisant entrer la lecture correspondant à arbre à came, parce qu'arbre dans arbre à came n'est pas libre et donc l'interprétation qu'on associe à arbre à came ne saurait être répercutée sur celle d'arbre. Il s'agit d'une question cruciale, puisqu'une bonne partie des détracteurs de la notion de polysémie, non seulement intègrent ce type d'expressions figées, mais les considèrent comme meilleurs pour l'exploration du sens de l'unité lexicale que les emplois « libres ».
+Le second cas a été déjà été abordé ci-dessus. Les polysémies appelées régulières ou systématiques, quel que soit leur degré de généralité, ont pour caractéristique de ne pas être dépendantes de l'unité lexicale précise qui les actualise, mais de grandes règles (cognitives ou autres). Il s'ensuit que, comme l'ont souligné tous ceux qui ont mis en avant ce type de transferts sémantiques, on ne saurait porter les lectures obtenues par ces règles au crédit des unités lexicales qui les manifestent. Reprenons ici le cas de l'omelette qui est partie sans payer : le transfert métonymique s'applique à tout plat commandé et ne concerne donc pas directement le lexème omelette et, partant, interdit d'associer à omelette directement le sens de 'client qui a commandé une omelette'. En abordant la deuxième condition on verra qu'il y a une deuxième raison à ne pas effectuer un tel choix.
+La deuxième condition impose le détachement vis-à-vis du discours, l'autonomie vis-à-vis du contexte ou de la situation, propriété qui permet de parler de la robustesse ou de la force des lectures puisque celles-ci subsistent dans ce cas aux situations discursives qui les ont fait émerger. Qu'on ne se méprenne pas : cela ne veut pas dire que la compréhension ne nécessite pas une situation discursive précise (et que donc la levée d'ambiguïté possible ne s'opère pas par le contexte). Ce qu'il faut entendre par là, c'est uniquement que les lectures ont acquis assez d'indépendance pour apparaître comme une propriété du lexème et non plus seulement comme la conséquence d'une construction discursive. Autrement dit, les lectures qui prétendent au statut de polysémie ne peuvent pas être seulement des lectures de circonstance, qui ne survivent pas à la situation qui les a produites, mais doivent avoir gagné leur pertinence au niveau même de l'unité lexicale.
+Se trouvent exclus en conséquence tous les emplois « figurés » circonstanciels (cf. métaphores vives et autres tropes créatifs), qui ne sont pas stabilisés au niveau de l'unité lexicale. La chose n'a rien d'étonnant, étant donné que ce type de décalage sémantique « rhétorique » n'est généralement pas retenu dans la problématique de la polysémie.
+Plus intéressants par contre se révèlent les transferts de sens plus ou moins réguliers déjà entrevus ci-dessus, lors de la première condition, parce que ce sont des candidats sérieux au statut de polysémie et qu'ils permettent de mieux voir en quoi consiste la question de l'autonomie ou non-autonomie circonstancielle, de la robustesse ou non des lectures en jeu. Soit une nouvelle fois donc notre exemple de l'omelette partie sans payer. Qu'il s'agit d'une lecture non robuste, non autonome, transparaît à trois niveaux : situationnel, syntagmatique et paradigmatique.
+Au premier niveau, on note une limitation situationnelle très forte, signalée par Cruse (2003). Il semble difficile de pouvoir utiliser, sans faire sourire (on retombe alors sur le cas des emplois figurés créatifs), le SN l'omelette pour le client en dehors de la situation que représente le restaurant avec ses clients et ses serveurs (ou une autre situation impliquant des plats). De façon plus précise encore, il faut que celui qui utilise l'expression l'omelette ainsi soit dans une situation qui légitime une telle utilisation. On comprend pourquoi le serveur puisse s'en ...servir (!) : le client existe pour lui avant tout par l'intermédiaire du plat commandé. Il est beaucoup plus difficile, mais non impossible, qu'une autre personne présente dans le restaurant désigne ainsi l'omelette en question. On pourrait citer ici bien d'autres cas, comme celui de Je suis garé pas loin d'ici (Kleiber, 1995 et 1999) qui ne peut se concevoir que dans la situation où le locuteur est effectivement « automobiliste ». S'il est assis dans son salon en train de regarder la télé, il ne pourra dire : je suis garé dans mon garage, même si sa voiture est effectivement garée dans son garage. De même on ne peut avoir Schumacher perd de l'huile que s'il est en train de rouler en voiture.
+Au deuxième niveau, on observe que les prédicats qui accompagnent les expressions décalées sont beaucoup plus restreints que l'aire prédicative délimitée par le sens du référent désigné. C'est ainsi que George Sand peut être sur l'étagère de gauche (Georges Sand est sur l'étagère de gauche), mais on ne saurait avoir, comme on pourrait l'attendre de la sélection opérée par le sens 'les oeuvres ou livres de l'écrivain ainsi nommé', Georges Sand est tombé par terre (même dans la situation où les livres de Georges Sand de l'étagère en question sont tombés par terre). On notera inversement - ce qui est révélateur également - que ce sens d'omelette n'a quasiment pas de collocations spécifiques comme les lectures multiples à statut polysémique.
+Au troisième niveau, enfin, toutes ces lectures n'ont pas accès aux relations paradigmatiques, qui marquent précisément par détachement syntagmatique l'accessibilité au statut paradigmatique de sens lexical, c'est-à-dire son rattachement à l'unité lexicale. Cruse (2003) a fort bien noté ce manque de robustesse à propos de l'exemple de l'omelette. Même si les sens 'plat' et 'client qui a commandé ce plat' sont non unifiables, comme nous l'avons vu, la lecture 'client qui a commandé ce plat' n'accède pas au niveau des relations sémantiques qui structurent le lexique. Il n'a pas acquis le statut d'hyponyme de 'client' et donc client n'est pas son hyperonyme (? Les omelettes et autres clients) et, contrairement aux autres exemples de sens multiple que nous avons mentionnés ci-dessus il n'entre pas dans des réseaux de synonymie, d'antonymie et ne donne pas lieu à des dérivés spécifiques.
+Il existe donc bien, ce sera notre conclusion, des variations interprétatives qui ont des propriétés particulières, la non-unifiabilité et une autonomie discursive, qui se traduisent, comme nous avons essayé de le montrer, par des manifestations syntagmatiques et paradigmatiques spécifiques. On ne saurait nier ces manifestations linguistiques : si pour telle situation de sens multiple une anaphore ne peut s'établir ou s'il n'est pas possible de coordonner des constituants qui activent les différentes interprétations sans effet de zeugme ou si encore telle lecture connaît des relations paradigmatiques que telle autre ne connaît pas, c'est que ces propriétés sont des propriétés empiriques, qui prouvent in fine qu'il ne s'agit pas d'un artefact dû à une tradition logico-grammaticale qui a toujours bon dos ou à je ne sais quel autre commode épouvantail théorique que l'on agite avec une opacifiante gourmandise non dissimulée. Et, partant, ces données prouvent aussi que la mise en avant de variations interprétatives qui présentent la conjonction des deux propriétés n'est pas non plus artificielle. Il ne s'agit, bien entendu, pas encore de polysémie, puisque celle-ci nécessite en plus une analyse interne des lectures qui mette au jour la ou les relations unissant ces lectures, point que nous n'avons pas abordé ici. Et on peut, si on le désire, refuser le terme de polysémie et celui d'homonymie. Ce n'est après tout qu'une affaire d'étiquettes. Mais ce que l'on ne saurait refuser, c'est que certaines interprétations multiples ont des propriétés empiriques particulières qui font qu'elles sont linguistiquement pertinentes au niveau de l'unité lexicale elle-même et non plus seulement du discours. C'est ce point, souvent nié aujourd'hui, qui me semble essentiel. Pour le dire autrement, si en matière de polysémie tous les sens ne sont pas permis, la polysémie elle-même n'est pas un sens interdit.
+libre de droits
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Alors que l'impact de la théorie de l'information dans les diverses sciences a été étudiée de façon approfondie (voir entre autres Auroux 1990, Segal 2003), la réception de cette théorie en linguistique est loin d'avoir fait l'objet d'une étude systématique, notamment dans le domaine français. Dans notre article, nous nous intéresserons à l'importation de la théorie de l'information dans l'oeuvre de trois linguistes, Emile Benveniste (1902 - 1976), André Martinet (1908 - 1999) et Jean Dubois (né en 1920) qui se sont explicitement intéressés à cette nouvelle théorie dans les années 1960, et lui ont fait une part plus ou moins grande dans leurs ouvrages de linguistique générale.
+Le rôle de passeur de Roman Jakobson (1896 - 1982), avec la systématisation de l'analyse des traits distinctifs en phonologie et la mise en place du schéma et des fonctions de communication, est indéniable. Nous attacherons toutefois à montrer qu'il existe une filiation spécifique de la théorie de l'information dans la linguistique française des années 1960, en partie distincte de l'influence de Jakobson et empruntant d'autres itinéraires parfois complémentaires.
+On a déjà montré que les statistiques de vocabulaire, au moment de l'informatisation du langage et des premiers travaux en traduction automatique, a présidé au renouvellement de la lexicologie au sein de la linguistique structurale française des années 1960, en permettant de concevoir de nouvelles unités linguistiques, les unités lexicales composées (Léon 1998, Léon 2004). Ainsi, les trois linguistes que nous allons considérer ont aussi été des acteurs importants du renouveau de la lexicologie par la création d'unités lexicales composées : Benveniste et ses synapsies, Martinet et ses synthèmes et Dubois et ses unités complexes au sein de classes d'équivalence. Dans cet article, nous montrerons que ce sont également les études statistiques appliquées aux mots dans les textes qui ont contribué à l'introduction en linguistique de la théorie de l'information.
+Afin d'appréhender les enjeux pour la linguistique des années 1960 de l'attrait pour cette théorie, nous nous nous appuierons sur l'examen du terme information tel qu'il est apparu dans les ouvrages de ces linguistes. De façon plus générale, nous nous demanderons s'il y a lieu de parler, dans ce cas précis, de transfert de concepts et de méthodes entre mathématiques et sciences du langage1.
+Le rapport entre termes, notions et concepts est certes complexe et l'étude de la réception d'une théorie à partir de l'examen d'un mot particulier n'est possible que si certaines conditions sont remplies : il faut identifier le moment d'importation du terme, savoir si celui-ci n'a pas déjà été utilisé dans le champ disciplinaire où il est importé, en l'occurrence les sciences du langage ; il faut repérer si le terme est importé seul ou avec un ensemble de termes (une constellation de termes) ; enfin il faut parvenir à déterminer la façon dont s'effectue la migration du terme d'une discipline à une autre.
+Le terme information semble répondre à ces exigences :
+Selon le Robert historique, le sens usuel d'information renvoie depuis le début du XXe siècle soit à l'action de rassembler des renseignements ou des connaissances, soit à cet ensemble lui-même.
+(1) Le mot se spécialise dans la seconde moitié du XIXe siècle désignant l'action de prendre des renseignements (voyage d'information, 1867). Le sens aujourd'hui le plus usuel apparaît sous la IIIe République avec le développement de la presse : il s'agit alors de l'information que l'on porte à la connaissance d'un public (1886, Zola); d'où au début du XXe siècle, les acceptions "ensemble des informations"et "action d'informer les publics".+
C'est d'ailleurs le sens de l'unique occurrence d'information dans le Cours de linguistique générale. Celle-ci apparaît dans le chapitre sur la linguistique diachronique : « L'histoire seule peut nous renseigner... Mais dès que l'information historique est en défaut, il est bien difficile de déterminer ce qui est agglutination et ce qui relève de l'analogie» (Saussure, CLG :245).
+Face à cet usage 'ordinaire', le sens technique d'information présente les caractéristiques suivantes (voir Shannon et Weaver 1949, Moreau 1964, Auroux 1990, Segal 2003) :
+Dans ce modèle, l'information est une notion non sémantique. C'est une quantité abstraite qui qualifie le message indépendamment de sa signification. La signification du message, son contenu, ne sont pas considérés comme un élément pertinent : ce qui est transmis, c'est une forme et non un sens.
+En 1951, Benoît Mandelbrot (né en 1924) publiait deux compte-rendus à l'Académie des sciences sur la théorie de l'information intitulés Mécanique statistique et théorie de l'information et visant à la généralisation de la loi de Zipf (1902 - 1950) concernant le traitement statistique du vocabulaire dans les textes. Ces compte-rendus seront repris en 1954 sous forme d'un article destiné aux linguistes dans la revue Word. Celui-ci, intitulé Structure formelle des textes et communication, est le premier article en français appliquant les notions mathématiques de la théorie de l'information à des objets linguistiques. Il faut noter que la publication de ces compte-rendus précèdent de peu la publication du rapport de Jakobson, Fant et Halle au MIT en 1952, Preliminaries to Speech Analysis, ayant pour objectif d'appliquer la théorie de l'information à l'analyse des traits distinctifs en phonologie. En France, malgré cette parution quasi simultanée, la communauté des linguistes s'est fait davantage l'écho des travaux de Mandelbrot et de leur importance pour les statistiques lexicales. Quant aux travaux de Jakobson, ils ont été connus en France de façon très diverse et très variable dans le temps. Alors que certains ont eu accès dès leur parution aux travaux du début des années 1950 en phonologie, d'autres ont connu en premier les travaux ultérieurs sur les fonctions de communication au moment de leur traduction en français dans les Essais de linguistique générale, à savoir seulement en 1963. Cette diversité d'accès aux premiers travaux d'introduction de la théorie de l'information en linguistique explique en partie la singularité française de cette réception.
+Il n'est pas le lieu ici d'étudier en détail le rôle de passeur de Jakobson ni sa conception de la théorie de l'information. Ses premiers travaux d'application de la théorie de l'information à la phonologie (Jakobson et al. 1952, Cherry et al. 1953, Jakobson and Halle 1956) ont été lus très tardivement en France. Rappelons que les Essais de linguistique générale, parus en 1963, ne comprennent pas ces travaux. Seul, Martinet, à New York jusqu'en 1955 et encore très ami avec Jakobson qui l'avait introduit dans les milieux universitaires américains, cite les Preliminaries dès leur parution (Martinet, 1952). Mandelbrot, quant à lui, cite sans véritablement les commenter les Preliminaries dans son article de Word de 1954 (probablement parce que la phonologie n'est pas son objet).
+Dans Preliminaries to Speech Analysis. The Distinctive Features and their Correlate, Jakobson, Fant et Halle se proposent d'effectuer le traitement mathématique de l'information portée par les traits distinctifs dans un message et d'étudier leur pouvoir informationnel dans un code linguistique donné. Ils empruntent à Shannon son schéma de communication avec code, encodeur/ locuteur et auditeur/ décodeur et transmission d'information : un trait distinctif est reconnu par le récepteur s'il appartient au code commun à lui et à l'émetteur, s'il est transmis correctement et s'il atteint le récepteur. Ils montrent l'intérêt de la redondance qui augmente la fiabilité de la communication parlée en la rendant résistante aux différentes sources de distortion. Enfin, ils empruntent à la théorie de l'information son analyse en termes binaires des processus de communication :
+(2) Information Theory uses a sequence of binary selections as the most reasonable basis for the analysis of the various communication processes. It is an operational device imposed by the investigator upon the subject matter for pragmatic reasons. In the special case of speech, however, such a set of binary selections is inherent in the communication process itself as a constraint imposed by the code on the participants in the speech event, who could be spoken of as the encoder and the decoder. (Jakobson et al., 1952 :9).+
Le fait de traiter le message oral et le code sous-jacent en unités discrètes binaires est emprunté à Markov (1856 - 1922) via Shannon (1916 - 2001). Pour les auteurs, les traits distinctifs ont un caractère universel. Ceux-ci sont limités à douze, cependant aucune des langues ne contient l'ensemble de ces traits. Leur incompatibilité ou leur cooccurrence à l'intérieur d'une même langue et d'un même phonème est déterminée par des lois d'implication universellement valides ou bien une grande probabilité statistique. Cette probabilité permet d'éliminer les traits hautement probables et de diminuer la redondance
+Enfin les auteurs privilégient les traits acoustiques aux traits articulatoires qui ne transmettent pas d'information directe au récepteur :
+(3) In decoding the message received (A), the listener operates with the perceptual data (B) which are obtained from the ear responses (C) to the acoustical stimuli (D) produced by the articulatory organs of the speaker (E). The closer we are in our investigation to the destination of the message (ie its perception by the receiver), the more acurately we can gage the information conveyed by its sound shape. This determines the operational hierarchy of levels of decreasing pertinence : perceptual, aural, acoustical, and articulatory (the latter carrying no direct information to the receiver). ( Jakobson et al., 1952 :12).+
Dans le texte de Language 1953, Cherry, Halle et Jakobson appliquent la théorie de l'information à la description phonémique des langues et en particulier à un corpus de conversations russes enregistrées. Il s'agit de déterminer le nombre de traits distinctifs (11 en l'occurrence) nécessaires à l'auditeur pour différencier les unités de sens minimale du code, à savoir les morphemes et leur combinaison en mots, sans l'aide du contexte. A partir de là toutes les autres différences phonétiques des morphèmes et des mots seront prédictibles et considérées comme redondantes. Ces articles seront suivis du petit essai Fundamentals of Language signé de Halle et Jakobson et paru en 1956, et de cinq articles parus en 1953, 1959 et 1960 (traduits dans les Essais de linguistique générale) où Jakobson développera les fonctions communicatives du langage.
+Les scientifiques français s'intéressent à la cybernétique et à la théorie de l'information très tôt. En 1947, le mathématicien Szolem Mandelbrojt (1899 - 1983) invite Norbert Wiener(1894 - 1964) à un colloque à Nancy. Celui-ci se voit offrir la possibilité de publier en France un ouvrage sur le caractère unificateur de la cybernétique. C'est ainsi que Cybernetics fut publié en 1948 conjointement par les Editions Hermann à Paris et par les MIT Press et John Wiley & Sons aux Etats-Unis.
+En 1949, Léon Brillouin (1889 - 1969), membre de l'Ecole des Hautes études de New York depuis 1941, promeut la théorie de l'information en physique. En 1950, Louis de Broglie (1892 - 1987) organise une série de conférences ayant pour titre "Cybernétique. Théorie du signal et de l'information"qui conduisit à la reconnaissance de la théorie de l'information comme science autonome. Dans sa thèse publiée en 1953, Marcel-Paul Schützenberger (1920 - 1996) insiste sur le caractère unificateur pour les sciences de la théorie de l'information3.
+Dans ce contexte, le mathématicien Benoît Mandelbrot joue un rôle clé dans l'introduction de la théorie de l'information dans la linguistique en France. Polytechnicien, neveu de Szolem Mandelbrojt, il complètera sa formation aux Etats-Unis (Californie en 1948 - 49, Princeton et MIT en 1951 - 53), et est chargé de relire les épreuves de l'ouvrage Cybernetics de Wiener. Il soutient sa thèse d'état en 1952 sur l'interaction entre théorie des jeux et théorie de l'information. Il montre que la thermodynamique comme les propriétés statistiques du langage peuvent être expliquées comme les résultats de jeux entre nature et émetteur. Mandelbrot fait partie, aux côtés de Shannon,Wiener et Jakobson, du comité de lecture de la revue Information and Control, fondée en 1958 par Brillouin, Peter Elias et Colin Cherry (co-auteur avec Jakobson et Halle de l'article de Language de 1953).
+Dans son article de Word paru en 1954 "Structure formelle des textes et communication", première publication en français sur l'application de la théorie de l'information à des objects linguistiques, Mandelbrot critique la loi d'Estoup et Zipf qui présuppose que les mots-formes (formes fléchies) auraient des propriétés intrinsèques dans un texte. Il propose à la place une théorie canonique, fondée sur la théorie de l'information et les formes vides (de sens) dont la loi de Zipf ne serait qu'un cas particulier. Cet article a ouvert la voie à nombre de travaux en statistiques lexicales, plus ou moins inspirés de Shannon et Weaver et de Zipf, prenant le relais des études de vocabulaire très développées en France dans les décennies précédentes4. A partir de 1954, Pierre Guiraud (1912 - 1983), dans une version très contestée par les statisticiens, dont Mandelbrot lui-même, poursuit les travaux de statistiques lexicales en diffusant la théorie de l'information auprès des linguistes et en promouvant le terme de statistique linguistique (Guiraud 1954, 1960).
+Le Bulletin de la Société de Linguistique de Paris est un bon observatoire de cette diffusion auprès des linguistes. Les compte-rendus d'ouvrage sur les statistiques lexicales se multiplient dans les années 1950, de même que les exposés au sein de la Société elle-même et les articles publiés dans le BSL : compterendus de Mandelbrot par Guiraud, et de Guiraud par Mandelbrot, compte-rendu de Herdan (1956) par Mandelbrot. Benveniste et Martinet ont tous deux rédigé dans le BSL des compte-rendus d'ouvrages sur l'application de la théorie de l'information par des linguistes ou psychologues américains. Dans le même tome (T.53,1957 - 58), un compte-rendu très critique par Benveniste de l'ouvrage de Joshua Whatmough Language. A Modern Synthesis (1956) est suivi de deux compte-rendus de Martinet : l'un assez négatif de Language and Communication de G-A. Miller (1951, tr. française 1956), l'autre plus élogieux de l'ouvrage de Vitold Belevitch Langage des machines et langage humain (1956) que Martinet considère comme une bonne introduction à la théorie de l'information à destination des linguistes. La contribution, plus tardive, de Dubois consiste en un compte-rendu de la parution en français des Essais de Linguistique générale de Jakobson dans le Français Moderne (1964).
+Benveniste, Martinet et Dubois comptent parmi les linguistes français, hors ceux bien sûr qui se sont consacrés aux statistiques lexicales, à s'être intéressés à la théorie de l'information au point de tenter de l'intégrer dans leurs travaux.
+Chacun des deux tomes des Problèmes de Linguistique générale (PLG) comporte une partie intitulée 'Communication'. Dans les index figurent un certain nombre de mots appartenant à la constellation des termes du domaine : information, codage, communication, cybernétique et signal, dans le tome 1. Le tome 2 semble plus pauvre, on y trouve seulement théorie de l'information, communication et nonredondance.
+Ces termes ne sont pas très fréquents dans le texte. Si l'on s'en tient à information, il n'y a que 7 occurrences dans le tome 1, et 4 dans le tome 2 dont 3 théorie de l'information. Le terme information est toujours utilisé dans son acception ordinaire, comme par exemple dans les trois extraits suivants, où il s'agit d'une information ou de l'information + déterminant, et jamais dans le sens technique d'une quantité abstraite :
+(4) Ici l'information du N.E.D. est en défaut (PLG, T1 :342).+
Il [l'homme parlant] veut lui [interlocuteur] transmettre un élément de connaissance, ou obtenir de lui une information, ou lui intimer un ordre. Ce sont les trois fonctions interhumaines du discours qui s'impriment dans les trois modalités de l'unité de phrase, chacune correspondant à une attitude du locuteur (PLG, T1 :130).+
En décrivant, il y a quelques années, les formes subjectives de l'énonciation linguistique, nous indiquions sommairement la différence entre je jure, qui est un acte, et il jure, qui n'est qu'une information (PLG, T1 :270).+
Quant à la théorie de l'information, Benveniste se contente de citer cette nouvelle théorie sans que sa mise en oeuvre théorique soit réellement envisagée. Comme la traduction automatique, la théorie de l'information offre de nouvelles techniques qui s'avèrent probablement très prometteuses pour les sciences du langage, mais dans un horizon qui reste indéterminé. Ainsi, en conclusion du chapitre I-2, intitulé Coup d'oeil sur le développement de la linguistique, Benveniste aborde les nouvelles techniques permettant le développement de la symbolisation du langage dont les théories de l'information5 :
+(5) Par ailleurs on sait que les descriptions formelles des langues ont une utilité directe pour la construction des machines logiques aptes à effectuer des traductions, et inversement on peut espérer des théories de l'information quelque clarté sur la manière dont la pensée est codée dans le langage (PLG, T1 :30 - 31).+
Benveniste fait un parallèle entre phrase et mots comme unités de la sémantique, et message et unités de codage pour la théorie de l'information (ici à prendre au sens de schéma de communication) dont il postule une organisation syntagmatique. On sait que, pour Benveniste, une phrase est un énoncé de caractère nécessairement sémantique considéré dans son « emploi instantané, spontané, personnel » (PLG, T2 :232) :
+(6) Que l'idée ne trouve forme que dans un agencement syntagmatique, c'est là une condition première, inhérente au langage.... il [le linguiste] peut seulement conjecturer que cette condition toujours nécessaire reflète une nécessité de notre organisation cérébrale. On retrouve dans les modèles construits par (la théorie de l'information la même relation entre le message et les unités pro(bables du codage. (PLG, T2 :226)+
Plus haut il indique que le mot est « l'unité nécessaire du codage de la pensée » (PLG, T2 :225). C'est donc une interprétation très personnelle que Benveniste propose de la théorie de l'information puisque ses unités de codage sont des unités sémantiques qui s'avèrent tout à fait en contradiction avec les unités d'information de Shannon et Weaver, quantités dépourvues de sens.
+Ainsi, bien que Benveniste nous indique la voie en proposant dans son texte Genèse du terme 'scientifique', d'examiner la genèse d'une discipline scientifique à partir des termes (dont le terme information d'ailleurs), lui-même ne semble pas faire grand cas de l'information :
+(7) Nous tenons donc l'apparition ou la transformation des termes essentiels d'une science pour des événements majeurs de son évolution. ... Les termes instructifs sont ceux qui s'attachent à un concept neuf désigné à partir d'une notion théorique (civilisation, évolution, transformisme, information, etc.), mais aussi bien ceux qui, dérivés d'une notion antérieure, y ajoutent une détermination nouvelle (PLG, T2 :247 - 248).+
Il tient en effet la (ou les) théorie(s) de l'information à une distance prudente et ses références à ce nouveau domaine sont très limitées. Il ne prête aucune attention à l'aspect quantitatif de l'information et fait au contraire glisser les unités de codage vers des unités de sens. Il est probablement plus intéressé par les questions posées par le schéma de communication de Jakobson et l'hypothèse d'interlocution qu'elle suppose6. L'extériorité de la nouvelle théorie par rapport à la linguistique reste donc entière.
+Martinet, nous l'avons dit, est sans doute le seul linguiste français a avoir lu les Preliminaries de Jakobson et al., c'est-à-dire la première étude de phonologie appliquant la théorie de l'information. Toutefois, bien qu'il cite ce texte, Martinet ne reprend pas à son compte cette utilisation de la théorie de l'information lorsqu'il élabore sa phonologie diachronique.
+Dans son Économie des changements phonétiques, publié en 1955, et qui synthétise les travaux phonologiques de ses années américaines, Martinet prétend s'inscrire dans la filiation de Troubetzkoy (1890 - 1938) contre Jakobson. Selon lui, l'analyse des traits distinctifs est présente à l'état latent dans l'oeuvre de Troubetzkoy (Martinet, 1955 :67, note 8 et 1957 - 58 :75). Par ailleurs, il consacre plusieurs pages à une critique sévère de l'apriorisme universaliste et binariste développé par Jakobson et al. (1952, 1953) qui dévoie selon lui les positions de Troubetzkoy. Le binarisme procède par affirmations de caractère général et cherche à faire entrer toute réalité phonologique dans des cadres préétablis et identiques pour toutes les langues.
+(8)... ce qui rend la position binariste absolument inacceptable en matière diachronique, c'est l'élimination arbitraire, comme « redondantes », de caractéristiques phoniques résultant d'évolutions qui ont changé les rapports à l'intérieur du système, ce qui aboutirait à poser que ces changements sont nuls et non avenus. le point de vue diachronique exige un beaucoup plus vif souci de la réalité phonétique que celui qui est de mise lorsqu'on s'escrime à réduire au minimum le nombre des traits distinctifs(Martinet, 1955 :76)+
. ... l'apriorisme qui consiste à préciser les traits pertinents, moins en s'inspirant du système de la langue à l'étude, que par référence à un un schéma préétabli dont on postule la valeur universelle (Martinet, 1957 - 58 :75).+
Par ailleurs, il s'oppose à la détermination des phonèmes par des moyens acoustiques préconisée par Jakobson et al. et préfère, en suivant Troubetzkoy, les données articulatoires arguant que l'analyse spectographique ne fait que confirmer l'explication que fournissent immédiatement les données articulatoires.
+Il ne discute pas spécifiquement les emprunts faits par Jakobson et ses co-auteurs à la théorie de l'information. Ceux-ci sont dénigrés et qualifiés de pur habillage physico-mathématique destiné à séduire les esprits :
+(9) ... cependant dépouillée de l'appareil physico-mathématique dont on l'a revêtue pour l'agrément des esprits avides de rigueur abstraite, cette théorie apparaît plus comme une vue de l'esprit que comme un effort pour coordonner les résultats d'observations préalables (Martinet, 1955 :73)+
Toutefois, le terme information apparaît deux fois dans l'Economie (p.140) associé au pouvoir distinctif. Le pouvoir distinctif, liée à une fréquence faible limite l'incertitude et compense une dépense d'énergie parfois plus forte, comme dans le cas de la prononciation d'une géminée. Information est bien employé ici dans le sens de Jakobson tel que repris à la théorie de l'information, sans que d'ailleurs celui-ci soit cité à cet endroit du texte.
+(10) Je puis donc dire qu'en francais /-kt-/ est beaucoup plus riche d'information que /-t-/ et que du point de vue de l'économie de la langue, la distinction supplémentaire apportée par /-k-/ vaut bien le surcroît de travail musculaire qu'il implique ... Si nous passons maintenant à /-atta-/, nous pourrons dire que, là où cette combinaison se rencontre cinq fois sur cent fois /-ata-/, le surcroît de travail que représente la prononciation du /-t-/ implosif, qui distingue /-atta-/ de /-ata-/ vaut largement la peine, puisqu'il a pour effet de limiter l'incertitude dans la proportion de 100 à 5. la géminée a donc un grand pouvoir distinctif. Dans la langue où l'on rencontre /-atta-/ 80 fois pour 100 exemples de /-ata-/ et 10 exemples de /-akta-/, /-tt-/ représentera une dépense d'énergie de même ordre que celle qui est nécessaire pour articuler /-kt-/ mais pour un pouvoir d'information beaucoup plus bas (Martinet, 1955 :140).+
On voit ici opérer la tendance contradictoire interne à la notion d'économie, signalée par Verleyen et Swiggers (2006 :176), entre la satisfaction des besoins de la communication qui exige la préservation de la quantité maximale d'information, à savoir un nombre maximal d'oppositions fonctionnelles, et celle de l'inertie qui tend à utiliser un nombre restreint d'unités plus fréquentes.
+Dans l'extrait (10), on voit comment l'information contribue au principe du moindre effort que Martinet emprunte à Zipf. L'homme cherche, dans toutes ses activités y compris ses activités langagières, à minimiser l'effort (travail musculaire, dépense d'énergie) nécessaire par rapport au but à atteindre. Selon Martinet, le principe de Zipf réalise mieux la synthèse entre besoins de communication et inertie humaine que le principe d'économie élaboré par Paul Passy dans le cadre de sa théorie fonctionnaliste des changements phonétiques7. Enfin, il préconise de mesurer l'importance fonctionnelle d'une opposition phonologique ou rendement fonctionnel à l'aide de statistiques dans les textes. En cela aussi, il s'est inspiré de Zipf qui, le premier, a jeté les bases d'une phonologie fonctionnelle qui ne soit pas purement descriptive mais fondée statistiquement.
+Cet intérêt pour les aspects quantitatifs de l'information se retrouve dans les Eléments de linguistique générale, parus en 1960, dont une grande partie du chapitre 6 L'évolution des langues est consacrée à la théorie de l'information8. Dans cet ouvrage, surtout dans le § 6.9 intitulé La théorie de l'information et le linguiste, Martinet prétend introduire ses vues personnelles sur la théorie de l'information sans aucune référence aux travaux antérieurs d'application de la théorie de l'information à la linguistique, notamment ceux de Jakobson9. D'ailleurs, la notion d'information est dissociée de celle de traits distinctifs (et donc de l'apport jakobsonien) : ceux-ci n'apparaissent plus que de façon sporadique (10 occurrences de traits distinctifs en tout dans les Eléments dont aucune dans le chapitre 6). Les références concernant la théorie de l'information sont les exposés « relativement simples » de Guiraud à la SLP en 1954 et l'ouvrage de Belevitch dont il a fait le compte-rendu dans le BSL (Martinet, 1957b).
+Selon Martinet, les formules mises au point par les ingénieurs des télécommunications pour résoudre leurs problèmes ne sont pas adaptées aux problèmes spécifiques des linguistes. Ce qui intéresse le linguiste, dit-il, c'est de savoir dans quelle probabilité la variation de certains facteurs vont entraîner celle de certains autres.
+(11) Ces variables sont le nombre des unités entre lesquelles le locuteur choisit à un point de l'énoncé, la probabilité des unités ramenée à leur fréquence, le coût de chaque unité qui comporte, outre l'énergie nécessaire à sa réalisation, ce qu'on pourrait appeler les frais d'emmagasinage dans la mémoire, et enfin l'information qu'apporte chaque unité (Martinet, 1960 : 182).+
Bien qu'il utilise également d'autres termes de la constellation comme code, communication, coût, fréquence, message ou redondance, le terme information est un des plus fréquents : on en trouve 59 occurrences dans l'ensemble du texte, dont 48 dans la partie 6-III. A l'exception de quelques occurrences du terme dans son sens ordinaire, Martinet utilise information au sens technique, soit dans un syntagme, quantité d'information ou coût de l'information, soit en collocation avec des verbes ou des nominalisations de verbes de quantité (mesurer, augmenter, doubler, varier, élever, dépasser, accroissement), ou encore avec des adjectifs ou des adverbes exprimant la quantité (grande information, information bien supérieure, faible information, trop d'information, autant d'information, masse
+d'information, dose d'information, densité d'information, richesse informationnelle). Le verbe apporter occupe une place à part avec dix occurrences en collocation avec information.
+Suivant en cela la théorie de l'information, Martinet considère qu'il existe un rapport constant et inverse entre la fréquence d'une unité et l'information qu'elle apporte. Plus une unité est probable, moins elle est informative. Ce qu'il ajoute, c'est une définition de l'information en termes de moindre effort à savoir d'efficacité par rapport à l'énergie consommée à chaque utilisation d'une unité.
+Outre la phonologie, il applique la notion d'information à la littérature et à d'autres unités linguistiques, comme les monèmes ou les formes lexicales. Martinet semble utiliser les chaînes de Markov pour traiter ces séquences d'unités, d'une façon très proche de celle de Harris (1955). Il rapporte d'ailleurs dans ses Mémoires (Martinet, 1993 :71), que l'idée selon laquelle la limite des mots pourrait s'établir sur la base de la probabilité des éléments successifs lui est venue lors d'une discussion avec Harris (1909 - 1992) à New York au début des années 1950. Dans cette utilisation, il précise que l'information n'est en rien une entité sémantique :
+(12) Si j'entends /il a p.../, /p/ n'a pas de signification en lui-même, mais il est doué d'information dans ce sens qu'il exclut toutes sortes d'énoncés possibles, comme il a donné, il a bougé. Si à l'énoncé tronqué s'ajoute /r/ (/il a pr.../), l'incertitude est de nouveau réduite puisque sont exclus il a payé, il a poussé, etc., ce qui indique que /r/ est doué d'information. L'information n'est donc pas un attribut de la signification, puisque des unités non signifiantes comme /p/ et /r/ y participent. (Martinet, 1960 :177 - 78)+
C'est au moment où il aborde le rapport entre information et littérature (§6 - 18) que Martinet utilise le syntagme contenu informationnel qui apparaît d'ailleurs cinq fois. Par un choix d'unités lexicales nouvelles et en réduisant la redondance, l'auteur pourra augmenter le contenu informationnel d'un texte afin de retenir l'attention du lecteur. Ce qui est redondant, ce sont les collocations attendues, et ce qu'on attend du poète ce sont des collocations rares.
+(13) L'auteur pourra se contenter de présenter, dans les termes les plus directs, des événements, réels ou imaginaires, assez exceptionnels pour que la densité informationnelle du récit retienne l'attention. Il pourra aussi, par un choix original des unités linguistiques, élever le contenu informationnel de son texte et le doser exactement. Ceci le dispensera d'aller, à chaque instant, chercher l'inattendu dans les péripéties du récit. (Martinet 1960 :192).+
Avec le terme contenu informationnel, l'information semble perdre son caractère quantitatif au profit d'une dimension sémantique : contenu informationnel fait en effet penser à contenu de sens. A noter que le terme contenu d'information, sous quelle que forme et langue que ce soit, n'existe pas dans l'ouvrage de Shannon et Weaver.
+En fait, on peut faire l'hypothèse que contenu d'information vient de Guiraud, une des sources revendiquées par Martinet. Guiraud applique la loi de Zipf et la théorie de l'information aux statistiques de vocabulaire dans des études stylistiques. Comme on le voit dans (14), Guiraud assimile de façon un peu rapide fréquence (des signes) et contenu d'information, alors qu'on a vu que l'information est une mesure abstraite dépendant de choix, donc une mesure probabiliste et pas seulement statistique.
+(14) En fait l'équation de Zipf est susceptible d'une double interprétation. Pour les uns (dont je suis) la fréquence des signes définit leur contenu d'information (au sens que Shannon donne à ce terme) et n'est que le produit de l'économie de la communication. Pour Mandelbrot le langage est un système moléculaire, assimilable à une masse de gaz et soumis à des lois similaires ... Mais autant l'hypothèse d'une économie de la communication en terme de contenu d'information est riche et pratique pour le linguiste, autant il répugne de s'aventurer sur le terrain de la thermodynamique où l'entraîne Mandelbrot.... (Guiraud 1957 :24).+
Comme on le voit, cette position oppose Guiraud à Mandelbrot qui, quant à lui, reste fidèle à la définition de l'information comme entropie négative : « La quantité précisément nécessaire à l'établissement de l'information correspond exactement à la notion thermo-dynamique d'entropie » (Shannon et Weaver [1975 : 42]).
+Il faut savoir que l'utilisation approximative des méthodes statistiques par Guiraud a été très critiquée par les mathématiciens, que ce soit Mandelbrot (1954b) ou Moreau (1964), et que leur différend est aussi de nature linguistique. Celui-ci divisera les tenants de la linguistique statistique pendant des décennies, et plus récemment la linguistique de corpus. Pour Guiraud, il existe une fréquence intrinsèque des mots dans la langue, ce que conteste Mandelbrot. On a vu (cf. §3.2. ci-dessus) que c'est d'ailleurs une des critiques que Mandelbrot adresse à Zipf. On notera que la position de Martinet n'est pas très explicite sur ce point.
+Curieusement, Dubois, bien qu'ayant commencé ses travaux de linguiste en lexicographie avec sa thèse parue en 1962 sur Le vocabulaire politique et social en France de 1869 à 1972, ne s'est pas intéressé aux aspects quantitatifs du vocabulaire, pourtant très en vogues en France dans les années 1950 - 60 et impulsés par les travaux de Mandelbrot et de Guiraud. Dans sa thèse, Dubois met en oeuvre la méthode distributionnelle de Harris, dont on peut dire qu'il est l'introducteur en France, et son utilisation en analyse du discours10. Son intérêt pour la théorie de l'information apparaît dans des textes postérieurs, d'abord dans son article sur l'aspect et le temps paru en 1964 dans le Français Moderne, puis dans sa Grammaire structurale du français en trois tomes parus respectivement en 1965, 1967 et 1969.
+Comme pour les autres auteurs, information n'apparaît pas seul mais avec une cohorte de termes de la constellation, comme on le voit dans le tableau (15) :
+Comme on le voit, c'est surtout dans le tome 1 de 1965 qu'information apparaît massivement pour quasiment disparaître dans les tomes 2 et 3, alors que les autres termes (dont on n'a fait figurer ici que les plus fréquents) restent encore plus ou moins utilisés.
+Si l'on examine les formes suivantes apparaissant dans le tome 1 :
+(16)
+(17)
+Les occurrences des expressions rassemblées en (16) réfèrent bien à la théorie de l'information. Dans son introduction, Dubois précise qu'il a pour objectif une analyse distributionnelle des marques de genre et de nombre du nom et du pronom, qui se veut complémentaire de l'analyse distributionnelle de Harris. C'est en termes d'information, redondance et bruit qu'il se propose d'analyser les contraintes croisées entre marques de genres et de nombres pour montrer que ce sont des règles et non des exceptions en français. Alors que, dit Dubois -faisant sans doute référence à la notion de rendement fonctionnel de Martinet - les linguistes ont surtout emprunté à la théorie de l'information la notion de coût, il se propose, quant à lui, de mettre en oeuvre celles de redondance et de bruit. La seule occurrence du terme théorie de l'information apparaît dans cette exposition du problème.
+La notion de quantité d'information (de même que celles de conservation, perte et coût de l'information) est bien celle de la théorie de l'information : elle est calculée en termes de probabilités et en termes de fonction inverse : plus la probabilité d'apparition d'une marque est grande, plus la quantité d'information est faible. Ainsi la quantité d'information apportée par le code écrit est faible, puisque celui-ci est très redondant :
+(18) Les marques du code parlé et du code écrit ne sont donc pas équiprobables : la quantité d'information apportée par une marque redondante dans le code parlé est plus grande que celle apportée dans le code écrit, puisque la probabilité de la rencontrer après la marque initiale est moindre. La quantité d'information présentée en français écrit par la seconde marque est très faible, puisqu'il est très rare que le code écrit ne présente pas de redondance. (Il n'en est évidemment pas de même pour le code parlé)(1965 : 21).+
Cette utilisation quantitative et shannonienne de l'information par Dubois est probablement issue de la lecture de Mandelbrot (1954a) figurant dans sa bibliographie mais aussi de celle de Harris, dont les principaux travaux des années 1950 sont cités, et de son utilisation des chaînes de Markov11.
+Si maintenant on regarde les expressions dans la liste (17) où information est déterminé (une information, la première information, l'information du pluriel, l'information féminin, l'information de genre, celle de nombre, les /ces deux informations), on est face à un tout autre usage du terme :
+
+(19) On peut se demander ce que deviennent ces deux informations lorsqu'elles sont cumulées, c'est-à-dire lorsque les énoncés au pluriel sont aussi porteurs de l'information féminin (1965 :82). ... il arrive que l'information de genre se maintienne, tandis que celle de nombre s'efface. ... l'information féminin a disparu des deux phrases(1965 :83).
+
Cet emploi d'information fait glisser le terme vers contenu ou sens. Toutefois il ne s'agit pas ici de l'information au sens ordinaire, c'est-à-dire au sens de renseignement, connaissance, acte de rechercher des connaissances, ou ensemble de connaissances existantes. On peut alors se demander pourquoi Dubois utilise le terme information dans ce cas précis. Alors qu'il désignait une quantité abstraite, calculée à l'aide de probabilités et excluant le sens, le terme information définit maintenant une signification grammaticale, d'ordre morpho-syntaxique, donnée par les marques.
+Pour répondre à cette question, il faut se rappeler que Dubois est familier des Essais de Linguistique Générale de Jakobson, dont il a fait un compte-rendu dans un numéro du Français Moderne en 1964, numéro dans lequel il publie également un article où il applique les théories de Jakobson aux problèmes du temps et de l'aspect. Entre autres choses, Dubois emprunte à Jakobson l'idée que toutes les formes grammaticales (en particulier l'aspect et le temps) sont marquées dans le code de façon variable selon les langues. Aussi cherche-t-il les structures formelles dans lesquelles sont traduites dans un code donné les oppositions sémantiques d'accompli/ non accompli, antériorité / non-antériorité, et postériorité / non postériorité qui définissent ce que l'on appelle l'aspect et le temps ; on doit en effet constater qu'il existe des langues qui sont appelées à traduire non ces trois oppositions, mais parfois seulement deux d'entre elles, le développement de la postériorité / non postériorité se faisant quelquefois tardivement.
+Or ces idées sont développées chez Jakobson dans le chapitre des Essais intitulé La notion de signification grammaticale selon Boas (1963 :197 - 206). Et c'est à Boas (1858 - 1942) qu'il emprunte l'idée de grammatical meaning. Afin que la démonstration soit plus convainquante, examinons la version anglaise :
+
+(20) The choice of a grammatical form by the speaker presents the listener with a definite number of bits of information. The compulsory character of this kind of information for any verbal exchange within a given speech community and the considerable difference between the grammatical information conveyed by diverse languages were fully realized by Franz Boas, thanks to his astonishing grasp of the manifold semantic patterns of the linguistic world... (Jakobson, 1959 : 490). It was clear to Boas that any difference of grammatical categories carries semantic information. (Jakobson, 1959 : 493)
+
Pour Boas, les marques morpho-syntaxiques sont porteuses de signification (grammatical meaning, ou signification grammaticale) de sorte que l'information elle-même devient sémantique. Il est tout à fait étonnant que Jakobson, qui, comme on l'a vu, fut co-auteur avec des mathématiciens de plusieurs textes appliquant la théorie de l'information à la phonologie, utilise dans le même paragraphe le terme information au sens mathématique (bits of information) et au sens sémantique (grammatical information). Dans ce texte, il semble avoir s'être approprié le terme et l'utiliser à sa guise sans chercher à rester au plus près de son sens mathématique. Cette attitude est cohérente avec le fait que Jakobson considère que les ingénieurs de télécommunications et les linguistes doivent collaborer à la construction d'une théorie de l'information sans qu'il y ait précédence des premiers sur les seconds ; la théorie de l'information n'appartient pas seulement aux ingénieurs et aux mathématiciens, mais aussi aux linguistes et les rapports entre linguistique et théorie de l'information (dans sa version probabilitiste et shannonienne) ne sont pas à sens unique. Les mathématiciens peuvent aussi bénéficier de l'étude des langues susceptible de susciter le développement de nouvelles théories.
+
+(21) Quelle est donc exactement la relation entre la théorie de la communication et la linguistique ? Ya-t-il peut-être des conflits entre ces deux modes d'approche ? En aucune façon. II est un fait que la linguistique et les recherches des ingénieurs convergent, du point de vue de leur destination. Mais alors de quel ordre est exactement l'utilité de la théorie de la communication pour la linguistique, et vice-versa ? Il faut reconnaître que, sous certains aspects, les problèmes de l'échange de l'information ont trouvé chez les ingénieurs une formulation plus exacte et moins ambiguë, un contrôle plus efficace des techniques utilisées, de même que des possibilités de quantification prometteuses. D'un autre côté, l'expérience immense accumulée par les linguistes relativement au langage et à sa structure leur permet de mettre au jour les faiblesses des ingénieurs quand ils s'attaquent au matériel linguistique (Jakobson, 1963 :28).
+
Pour revenir à Dubois, en empruntant les significations grammaticales de Boas-Jakobson, il donne à l'information un sens sémantique tout à fait opposé au sens quantitatif de la théorie de Shannon et Weaver. Toutefois ce n'est pas le seul emprunt qu'il fait à l'interprétation jakobsonienne de la théorie de l'information. Il fait également sienne la façon dont Jakobson s'est approprié la notion de redondance :
+
+(22) La notion de redondance, empruntée par la théorie de la communication à une branche de la linguistique, la rhétorique, a acquis une place importante dans le développement de cette théorie et a été audacieusement redéfinie comme équivalant à 'un moins l'entropie négative' ; sous cet aspect, elle a fait sa rentrée dans la linguistique actuelle, pour en devenir un des thèmes centraux. (Jakobson, 1963 :89)
+
Dubois inscrit la redondance au coeur de son étude des marques du français, et l'utilise encore de façon très active dans le tome 2 de la Grammaire structurale (voir tableau 15), contrairement à la notion d'information qui disparaît.
+Alors que chez Jakobson, la migration des termes s'est véritablement accompagnée d'une appropriation de la théorie de l'information12, on pourrait dire que chez Dubois cet emprunt jakobsonnien, de seconde main en quelque sorte, peut paraître contradictoire avec l'usage distributionnaliste et quantitatif qui cohabite dans ses textes. Il faut toutefois reconnaître que la théorie de l'information acquiert avec Dubois un pouvoir heuristique qui lui permet de penser la dimension sémantique de certaines catégories linguistiques.
+Avec nos trois auteurs, nous assistons à trois modes de réception en linguistique générale d'un concept appartenant à une théorie non-linguistique. A côté de la prudente mise à distance de Benveniste, qui s'empare de code et de message mais se préoccupe peu d'information, on rencontre chez Martinet un mode d'importation plus complexe. C'est au moment où il fait le moins référence au terme information, dans Economie des changements phonétiques, que l'usage qu'il en fait est le plus proche de celui de Jakobson et de sa systématisation des traits distinctifs. Bien que cet usage soit accompagné d'une très vive critique de l'apriorisme binariste de Jakobson et de son utilisation des traits acoustiques, et que Martinet revendique davantage l'influence de Troubetzkoy que celle de Jakobson, il est certain que la notion de pouvoir d'information, lié au pouvoir distinctif qui intervient dans sa définition du concept d'économie, est inspiré par la conception jakobsonienne. Il est à noter toutefois que sa notion d'économie en phonologie diachronique doit tout autant aux travaux de Zipf et son principe de moindre effort qu'à ceux de l'Ecole de Prague. Dans les Eléments de linguistique générale, il consacre un long développement à sa propre vision de l'information, ramenée à l'idée d'énergie et de coût. On notera aussi sa conception probabiliste issue partiellement de l'utilisation de Harris des chaînes de Markov et son utilisation du terme contenu d'information inspirée par les travaux en stylistique de Guiraud. Dubois, quant à lui, met en oeuvre de façon heuristique les différentes facettes de l'interprétation jakobsonienne tout en étant également attiré par l'utilisation qu'en fait Harris. Il se trouve ainsi tiraillé entre deux options contradictoires, d'une part une conception de l'information fonctionnaliste comportant une dimension sémantique, d'autre part une approche distributionnaliste qui reste au plus près de l'utilisation probabiliste de chaînes de Markov mais qui devrait exclure le sens.
+Il est intéressant de noter que ce n'est pas le sens ordinaire du terme 'information' qui provoque l'instabilité de la notion. Cet usage cohabite de façon assez étanche avec le sens technique. Il apparaît dans des environnements distincts comme dans « obtenir de l'interlocuteur une information » ou « le descripteur vérifie son information ». C'est au contraire le sens technique qui fluctue entre l'information quantitative et non sémantique de Shannon mise en oeuvre souvent avec une utilisation distributionnelle des chaînes de Markov, une information fonctionnelle du moindre coût largement issue des travaux psychologico-statistiques de Zipf, une information sémantique inspirée de Jakobson dans sa lecture de Boas, un contenu d'information des unités linguistiques issu des études stylistiques du vocabulaire. Ces lectures croisées d'inspirations multiples : la diffusion en France à travers la SLP, la traduction automatique, les interprétations de la théorie de l'information par des chercheurs d'horizons aussi divers que le mathématicien Mandelbrot, le stylisticien Guiraud, les linguistes fonctionnalistes comme Jakobson ou néo-bloomfieldiens comme Harris, ou bien encore le psychologue anti-behaviouriste Miller, ont configuré de façon multiple la réception de la théorie de l'information par les linguistes français des années 1960. Cette diversité de positions et d'influences a probablement contribué à la multiplicité des structuralismes (cf. Puech, à paraître) manifeste y compris au sein même de la linguistique française de cette même période.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Le linguiste norvégien Einar Haugen eut le mérite de développer il y a plus de 40 ans une typolologie des processus impliqués dans la standardisation des langues qui garde encore aujourd'hui une grande utilité :
+Haugen élabora cette typologie pour rendre compte des problèmes de planification linguistique soulevés surtout dans des nouveaux pays du monde moderne, nés à la suite de la décolonisation. Dans la standardisation des langues de ces pays-là, les quatre processus isolés par Haugen se déroulent en une succession rapide, normalement à la suite d'interventions conscientes et voulues de la part des gouvernements concernés. Cette typologie peut être appliquée à la standardisation des vieilles langues d'Europe, comme l'anglais et le français, si l'on se rappelle que, dans ces langues-là, la standardisation s'est déroulée d'une manière décousue, la plupart du temps inconsciente, et sur une période très longue. Ce papier sera consacré au premier des processus isolés par Haugen, la « sélection des normes ».
+Le problème des débuts de la standardisation du français sont parmi les plus réfractaires de l'histoire de cette langue. Dans les cas de l'italien et de l'allemand et, d'une façon plus spectaculaire, celui de l'hébreu moderne, la situation est assez claire : les spécialistes s'accordent quant au rôle central joué dans la focalisation initiale des normes par une forme littéraire ou, du moins, écrite de la langue - l'oeuvre de Dante dans le cas de l'italien, la traduction de la Bible de Martin Luther dans le cas de l'allemand, la langue de la Bible et du Talmud dans le cas de l'hébreu. Dans le cas du français, par contraste, puisque les débuts de la standardisation remontent plus haut dans le temps - au-delà du développement de l'imprimerie et de l'augmentation des taux d'alphabétisme que l'on a vue en Europe à l'époque de la Réforme - les spécialistes sont divisés sur la question de savoir si les normes de la langue écrite furent basées à l'origine sur un dialecte oral ou si, inversement, la focalisation initiale s'est faite dans la langue écrite avant de s'étendre à la langue parlée. La permanence et le prestige de la langue écrite sont telles que l'écriture a toujours exercé une influence sur la formation de normes orales. Il est donc difficile de concevoir la standardisation des langues sans le développement de l'écriture. Mais est-ce que ceci nous oblige à postuler l'existence, dans le cas du français, d'une langue écrite supra-régionale, créée sans base dialectale à une date ancienne, qui aurait initié tout le processus de standardisation ?
+Le problème central de la linguistique historique, comme chacun sait, c'est celui de l'insuffisance permanente des preuves. Les débuts de nouvelles langues sont invariablement les moins bien documentés et les plus difficiles à tracer : les documents écrits, ne deviennent prolifiques que lorsque la nouvelle langue est bien établie. Quelles leçons tirer des développements linguistiques que l'on trouve dans les documents rédigés en langue vulgaire au moyen âge? Reflètent-ils des changements survenus dans la langue orale? Se produisent-ils d'une manière plus ou moins indépendante de ce qui se passe dans la langue orale? Sont-ils susceptibles d'influencer, même d'initier des développements dans la langue orale?
+Dans ce papier, nous allons examiner d'abord l'approche néogrammairienne, qui soulignait le rôle d'un dialecte oral, baptisé pour l'occasion le francien; ensuite, nous examinerons la thèse, d'inspiration structuraliste, qui lui a succédée dans l'esprit des historiens de la langue et qui privilégie le rôle de la langue écrite; nous esquisserons enfin l'approche suggérée par la sociolinguistique historique qui affirme le rôle des 'locuteurs ordinaires' dans l'évolution des langues.
+Les Néogrammairiens voyaient les origines du français standard dans le dialecte parlé en Ile-de-France, auquel Gaston Paris (1889 : 486) donna l'étiquette de francien. Pour les linguistes de cette école, le francien constituait un stade nécessaire dans la séquence des lois phonétiques menant du latin au français moderne. Il fournissait en plus à la langue standard embryonnaire une base historique acceptable, c'est à dire, un dialecte-source localisé dans la région de la capitale et, surtout, un dialecte 'pur' (c'est-à-dire, contaminé ni par les langues germaniques ni par les autres dialectes gallo-romans). Ferdinand Brunot insista sur la pureté de ce dialecte : « le francien ne doit pas être considéré comme un amalgame » (Brunot 1905, t.2, p. 325). Si nous suivons la typologie de Haugen, le francien fut 'sélectionné au XIIe siècle, 'élaboré' au cours du bas moyen âge, 'codifié' au XVIIe siècle et 'accepté' par la majorité des Français au XIXe siècle.
+Les Néogrammairiens connaissaient bien les textes écrits en Ile-de-France au XIIIe siècle (voir Matzke 1880 et 1881), mais il est difficile de concilier leur concept du francien avec l'image du dialecte d'Ile-de-France que l'on trouve dans des textes de la période classique et dans les résultats d'enquêtes dialectales entreprises à l'époque moderne. Le francien est en effet une construction hypothétique, créée, semble-t-il, pour éviter de voir le français standard comme le produit d'un mélange dialectal, explication qui aurait le double inconvénient pour les Néogrammairiens de contrecarrer le libre jeu des lois phonétiques (grâce au contact de dialectes), et de donner au français des origines plus ou moins métissées, indignes d'une 'grande langue'. Prisonniers d'idées romantiques, les Néogrammairiens considéraient que la culture médiévale était plus 'naturelle', plus 'spontanée', plus statique et moins soumise à des conventions sociales que la culture moderne. En dépit des réserves exprimées par certains érudits, tels Gertrud Wacker (Wacker 1916), l'école néogrammairienne possédait une vision des rapports entre langue écrite et langue parlée au moyen âge qui nous paraît aujourd'hui quelque peu naïve.
+Les années 1980 virent un rejet général du positivisme présent dans le modèle néogrammairien, et plusieurs historiens du français mirent en question l'hypothèse du francien. Chaurand (1983 : 91) fut troublé par la circularité d'un raisonnement qui consistait à faire remonter la langue standard (le français) à un dialecte parlé (le francien) qui ne pouvait être reconstruit qu'à partir de cette même langue standard. Bergounioux (1989) alla plus loin : il soutint qu'un dialecte rural nécessitant l'étiquette francien n'a jamais existé en Ile-de-France, persuadé, semble-t-il, que celui-ci avait été anéanti dès sa naissance par l'influence linguistique de la grande ville (cet auteur n'indique pourtant pas les origines du parler de cette ville). Pour lui le francien est une expression sans référent, un terme à motivation exclusivement politique, créé par Gaston Paris dans le but d'une légitimation historique de la langue standard. Cerquiglini (1991 : 118) reprend cet argument pour consolider son hypothèse d'une langue standard fondée sur la langue littéraire : pour lui, Paris et l'Ile-de-France n'avaient jamais eu de dialecte :
+L'Ile-de-France ne se distinguait par aucun dialecte. Jusqu'aux portes, et sans doute dans les rues de la modeste bourgade parisienne, on devait parler picard, normand ou orléanais.+
La réalité de certaines de ces propositions est difficile à reconnaître, mais il en est ressorti, néanmoins, que le français standard est beaucoup moins 'pur' que Gaston Paris n'avait voulu le croire : des éléments fondamentaux de sa phonologie et de sa morphologie avaient leur origine dans des dialectes autres que celui qui était parlé en Ile-de-France.
+Il subsiste de nombreux sources qui nous permettent de lever le voile sur le passé des vernaculaires ruraux parlés en Ile-de-France : des représentations littéraires ou semi-littéraires de ces parlers composés à partir du XVe siècle, des observations métalinguistiques faites à partir du XVIe siècle, et enfin les données recueillies durant les grands projets d'atlas de la fin du XIXe siècle et du XXe siècle. Toutes ces sources indiquent la gouffre qui s'est creusée depuis le XIIe siècle entre le parler de la métropole, qui a évoluée très vite, et les parlers plus conservateurs de l'arrière pays rural. Dans une étude sur la composition dialectale du français standard, Claire Fondet (1995) a isolé un certain nombre de variables spatiales qui sont très significatives pour notre intelligence des rapports entre la langue standard et les dialectes de l'Ile-de-France. Le français standard est sans doute très proche à bien des égards du dialecte de l'Ile-de-France, mais il ne représente pas une forme 'pure' de ce dialecte, comme le voulaient les Néogrammairiens. Le français standard est une variété mixte, le produit d'une 'koinèisation'. Si le français standard a débuté sous la forme d'un koinè, comment expliquer sa formation?
+S'élevant contre le modèle proposé par les Néogrammairiens, les linguistes de la deuxième moitié du XXe siècle, fortement influencés par Saussure, soulignaient surtout la nature conventionnelle des systèmes linguistiques. Ils distinguaient rigoureusement langue et parole, s'attendant à ce que le linguiste regarde au-delà des variations présentes dans la parole pour déceler en dessous le système sous-jacent, invariant de la langue. Ils distinguaient également éléments internes et éléments externes de la langue, privilégiant la structure interne au détriment du contexte socio-démographique dans lequel la langue est employée.
+C.-T. Gossen (Gossen 1962, 1967) attira notre attention sur le haut niveau de conventionnalité présente dans les systèmes d'écriture vernaculaires au moyen âge. Il nota en particulier que les formes écrites présentes dans des manuscrits rédigés en ancien français dans des régions différentes possédaient de nombreuses formes communes et ne reflétaient pas les détails de la variation dialectale visibles sur les cartes d'atlas modernes.
+Il en concluait que les graphies de l'ancien français étaient très faiblement attachées à la langue orale. Détachées de leur dialecte local, ces graphies possédaient une valeur purement visuelle. L'unité de base du système de Gossen est le 'graphème' visuel, calqué sur le 'phonème' aural de la phonologie structuraliste. Gossen considérait que le système d'écriture de l'ancien français avait parcouru dès le XIIIe siècle une bonne partie du chemin séparant un système d'écriture phonémique et un système logographique. L'écriture vernaculaire médiéval ressemblait beaucoup aux systèmes d'écriture modernes où un système -émique uniforme couvre une multitude de réalisations -étiques appartenant à la langue parlée. Selon la 'théorie des scripta', chaque région du nord gallo-roman possédait une scripta régionale qui admettait une petite proportion (variable) de traits régionaux mais qui se conformait la plupart du temps aux normes d'une koinè écrite supra-régionale.
+Dans cette approche, la variation visible dans les textes des XIIe et XIIIe siècles est, d'une part, relativement libre (corrélée faiblement avec les variations régionales présentes au niveau de la parole), et, d'autre part, relativement superficielle, puisque, derrière cette variabilité existe une koinè écrite supra-régionale qui correspond à la langue sous-jacente, la langue standard à l'état embryonnaire. Ceci entraîne deux interrogations : d'abord, quelle époque a vu l'émergence dans le nord de la Gallo-Romania d'une koinè supra-régionale écrite, et ensuite, par quelle biais un ensemble de conventions conçues pour la langue écrite a-t-il pu modifier par la suite la langue parlée de la population parisienne ? Traitons ces questions une par une.
+Pour ce qui est de la chronologie, les linguistes qui adoptent cette approche supposent qu'une koinè supra-régionale écrite s'est constituée dans la France du nord à une date antérieur à 1100. Hilty attache cette ensemble de normes au parler parisien du VIIIe siècle (Hilty 1973 : 254). Delbouille fait descendre la date au IXe siècle, avant la diversification des dialectes d'oïl (Delbouille 1962 : 124). Cerguiglini opte pour la même date, soutenant qu'une koinè fut élaborée par un groupe d'auteurs littéraires et de scribes éclairés autour de la date des Serments de Strasbourg (842) :
+« C'est grâce à l'existence d'une société cléricale, guidée par une 'lumière de raison', animée par les litterati désirant illustrer un bel usage littéraire de l'idiome roman, que dès les premiers textes est fondé et pratiqué un 'illustre françois » (Cerguiglini 1993 : 124).+
Il y voit un grand projet à long terme, conçu dès l'époque carolingienne, pour donner à la nation une unité linguistique et politique :
+« Une langue française transcendant la diversité des parlures, inscrite dans le projet d'une forme commune échappant pour des raisons politiques ou esthétiques, à l'échange local et quotidien »+
Si l'on suit cette approche 'structuraliste', il est nécessaire d'expliquer comment, au cours du moyen âge, la combinaison de formes présentes dans la koinè écrite, littéraire a pu être 'acceptée' par la masse de la population parisienne comme leur façon de parler normale. Cette question reste la plupart du temps sans réponse, mais certaines remarques laissent supposer que les formes linguistiques appartenant à la koinè littéraire auraient été adoptées d'abord dans la langue parlée de l'élite (la cour du roi) avant de se déverser à travers les différents strates de la société parisienne, ne gagnant les différentes provinces qu'à l'époque moderne :
+« Ce fut, en France, la langue littéraire de la scripta, qui, sans être artificielle, s'élabora dans des conditions sociologiques différentes de celle des idiomes populaires. A partir du XIIIe siècle, le parler urbain, stratifié, certes, mais proche de celui de la classe aisée, n'a cessé de s'opposer au parler rural jusqu'à la Révolution » (Fondet 1995 : 201).+
La langue litéraire de la scripta, tout en ayant une existence indépendante des variations de la langue orale, était néanmoins capable d'influencer et même d'initier des développements dans cette même langue orale.
+La thèse que j'ai appelée 'structuraliste' soulève ainsi deux difficultés majeurs - celle de de la chronolologie et celle de l'acceptation de la koinè par la communauté générale des locuteurs (voir Weinreich, Labov et Herzog 1968 : 95 - 105).
+Les preuves textuelles de l'existence d'une koinè écrite stable avant 1300 ne sont guère suffisantes (voir Gsell 1995). Le nombre de manuscrits français remontant au-delà de 1100 est beaucoup trop réduit pour nous permettre de postuler l'existence d'une koinè écrite stable à cette époque lointaine. La production littéraire dans le nord de la Gallo-Romania fut, certes, très prolifique au XIIe siècle, mais les textes composés avant 1200 sont conservés presque tous dans des manuscrits copiés au siècle suivant (voir Pfister 1993). Il est d'ailleurs difficile de trouver un cadre institutionnel, cour ou administration royale, qui aurait pu fixer une telle koinè. L'administration royale, qui ne s'installa à Paris qu'au XIIe siècle, commença à se servir du vernaculaire comme langue écrite seulement vers le milieu du XIIIe siècle (voir Giry 1894 : 464 - 472). Dans une communication personnelle, Serge Lusignan de l'Université de Montréal m'écrit : « le français du roi s'est construit au XIVe siècle à la chancellerie et à la cour de Charles V, dans un rapport d'échange avec le latin.»
+C.-T. Gossen avait certainement raison de noter la présence dans les manuscrits du XIIIe siècle qu'il avait analysés une bonne proportion de formes invariables d'une région à l'autre, mais est-ce que ce fait entraîne automatiquement l'existence d'une koinè supra-régionale? Primo, il est certain que la diversité dialectale était moindre au XIIIe siècle qu'elle ne l'est devenue 600 ans plus tard. Secundo, les graphies médiévales étaient des approximations, et l'on peut supposer que c'est seulement les variantes phonétiques les plus saillantes qui s'attiraient une graphie locale spéciale. Tertio, les systèmes d'écriture vernaculaires qui ont émergé entre le Xe et le XIIe siècles étaient conçus à l'origine pour l'enregistrement de textes littéraires. Le fait que certains de ces manuscrits ont voyagé beaucoup a provoqué des mélanges dialectaux et le nivellement de formes très marquées sur le plan dialectal. Cependant, des convergences ad hoc variant d'un manuscrit à l'autre n'entraînent pas l'existence à une date ancienne d'une koinè littéraire stable.
+La focalisation des normes linguistique va normalement dans le sens normes locales > normes supra-locales > normes régionales > normes supra-régionales. Il aurait été surprenant de voir le processus de la normalisation s'acheminer dans le nord de la Gallo-Romania en sens inverse, les normes supra-régionales se manifestant dès le départ. Antonij Dees n'avait pas entièrement tort lorsqu'il affirma « La notion de koinè écrite, ainsi que la notion corrolaire de scripta régionale, n'ont aucune adéquation observationnelle pour la période antérieure à 1300 » (Dees 1985 : 113). Des normes régionales se sont manifestées longtemps avant 1300 (en Angleterre et en Picardie par exemple), mais il est difficile de démontrer l'existence de normes supra-régionales avant cette date.
+Si nous passons maintenant à la situation linguistique à Paris à la fin du moyen âge, nous constatons que le parler parisien était effectivement un dialecte mixte, comportant des formes tirés de sources dialectales différentes, le produit d'une koinéisation. Si l'on adopte la thèse de la koinè écrite, il est nécessaire d'expliquer comment une variété écrite, littéraire ait pu être adoptée comme langue par la population de cette très grande ville. Nous savons qu'une variété acrolectale a été cultivée à la cour du roi au XIIe siècle, sans doute dans le but de distinguer les 'courtois' des 'non-courtois'. Nous savons aussi, grâce au célèbre exemple de Conon de Béthune (voir Lodge 1993 : 99), que cette norme acrolectale a influencé le comportement linguistique des poètes itinérants. Mais, est-il plausible de supposer que l'influence linguistique ait pu marcher simultanément en sens inverse, et que les courtois dans l'entourage du roi aient voulu imiter les formes linguistiques proposés par des jongleurs? Les formes écrites peuvent influer sur l'oral dans une société fortement aphabétisée, mais on peut douter qu'au moyen âge les taux d'alphabétisation et le prestige de l'écriture vernaculaire aient été suffisamment élevés pour que cela se produise si tôt à Paris même chez les élites.
+Il est légitime et intéressant de considérer les systèmes d'écriture utilisés en ancien français dans des termes purement visuels, sans chercher à les corréler à une langue parlée sous-jacente. Les scripta régionales ont pu jouer un rôle identitaire très fort. Ceci dit, puisque la langue est essentiellement un phénomène parlé, examiner les scripta régionales uniquement comme des systèmes visuels autonomes contribue peu à notre compréhension du processsus de changement linguistique, qui est l'objectif principal de la linguistique historique. Dans la mesure où la variation est présente dans les manuscrits français du moyen âge, le sociolinguiste historique va la considérer non pas comme aléatoire ou libre, mais comme étant conditionnée par des facteurs linguistiques ou extra-linguistiques pertinents qu'il lui revient d'isoler et d'analyser.
+Pour pouvoir aborder ce genre de recherches, les variationnistes doivent estimer les limites de la variabilité dans les textes qu'ils ont sous leurs yeux, ainsi que la longueur du temps durant lequel cette variabilité persiste. Il est évident qu'au XIIIe siècle la variabilité phonétique et morphologique visible dans les documents écrits était considérable et qu'il diminue sensiblement au siècle suivant (voir Volker 2007). Le XIIIe siècle nous offre donc un créneau extrêmement précieux pour observer dans les manuscrits le processus de changement phonétique et morphologique. La variabilité observable dans les manuscrits du XIIIe siècle n'est pas à analyser en termes de déviations d'une norme centrale, car l'existence d'une norme centrale est loin d'être démontrée. Elle est donc à être analysée en termes de différences quantitatives dans la distribution de variables dialectales clefs, comme l'a fait Antonij Dees (1985).
+Comment et à quel moment une norme linguistique centrale a-t-elle pu se constituer? Nous avons vu plus haut que le français standard est basé à l'origine sur une sorte de koinè ou langue mixte. Nous venons de voir les problèmes de documentation sur lesquels nous butons si nous cherchons à voir se constituer cette koinè d'abord dans la langue écrite, et les problèmes de plausibilité sociolinguistique qui se posent si nous cherchons à cette époque à faire passer des formes écrites dans l'usage parlé d'une population peu alphabétisée. Est-ce que la sociolinguistique historique peut nous offrir un narratif plus satisfaisant ? Est-il possible que la koinè en question soit le résultat d'un mélange de dialectes qui s'est produit dans le parler de la ville qui, au XIIIe siècle, était en passe de devenir la capitale ? Une telle solution ne buterait ni contre le problème de la documentation, ni contre celui de la chronologie, ni contre celui du passage de l'écrit à l'oral.
+Chaque fois que des locuteurs provenant de secteurs différents d'un continuum dialectal viennent en contact, on s'attendra à ce que se développent des variétés mixtes temporaires. Nous avons parfois à faire à des locuteurs individuels qui, en se déplaçant sur le territoire, nivellent les traits les plus saillants de leur parler local. C'est le cas, on l'imagine, des jongleurs itinérants qui s'accommodaient aux parlers de leurs différents publics. Parfois nous avons affaire à des locuteurs provenant de régions différentes et convergeant sur une place centrale. Là, il est légitime de supposer que dans leurs interractions quotidiennes ils éliminaient leurs traits régionaux les plus marqués. On se place loin de la vérité si l'on imagine la société française médiévale comme étant une société statique. Les locuteurs du gallo-roman s'étaient toujours déplacés sur leur territoire, s'accommodant au parler de leurs interlocuteurs à chaque rencontre. Cependant, d'innombres actes d'accommodation individuels ne peuvent donner naissance à une koinè stable que lorsque certaines conditions auront été remplies : il faut surtout une période d'interractions sociales intenses et régulières durant laquelle les actes d'accommodation individuels commencent à s'orienter tous dans la même direction.
+Pour qu'une koinéisation puisse se produire, il est nécessaire qu'une focalisation significative des interactions ait lieu dans quelque place centrale, généralement une ville. Les siècles qui suivirent la chute de l'empire romain ont vu non seulement la dialectalisation du latin, mais aussi la fragmentation du réseau urbain du monde antique. C'est seulement au XIe siècle que les choses ont commencé à changer avec l'essor d'une nouvelle urbanisation qui a débuté en Italie du nord et dans les Pays-Bas avant d'affecter Paris qui, au cours du XIIe siècle passa au premier rang des villes européennes, abritant une population d'entre 100 000 et 200 000 habitants (voir Hohenberg & Lees 1985 : 11).
+Un trait essentiel de la démographie des villes médiévales était leur incapacité à se remplacer, encore moins à augmenter sur la seule base de la fertilité des habitants. Le maintien et encore davantage l'expansion d'une population urbaine dépendait presqu'entièrement de la capacité de la ville d'attirer le surplus démographique d'un arrière-pays rural toujours croissant. L'explosion démographique qu'a connue Paris au XIIIe siècle était dûe presqu'entièrement à l'immigration. Les historiens de la langue ne peuvent pas ignorer des développements démographiques de cette ampleur. On peut prévoir avec une grand part de certitude que l'intensité et la régularité des interractions sociales qui se produisaient à Paris au XIIIe siècle ont provoqué un grand mélange dialectal et la focalisation d'une nouvelle variété koinéisée. Ceci aura eu l'effet de surélever le parler de la grande ville non seulement au-dessus du continuum dialectal du nord gallo-romain en général, mais même au-dessus des parler de la campagne environnantes, baptisés traditionnellement le francien. Il est nécessaire de penser que le phénomène des dialectes urbains n'est pas l'apanage des sociétés industrielles modernes. Il a pu se manifester aussi dans les grandes villes médiévales.
+L'étude de Claire Fondet que nous avons citée plus haut (§2.0) a démontré comment le français standard comporte un mélanges de formes appartenant à l'Ile-de-France avec des formes venues d'ailleurs. Les quatre traits suivants peuvent servir d'exemples des premiers :
+Quant aux formes venues d'ailleurs, Fondet a isolé les quatre traits suivants :
+A ces variables nous pouvons ajouter la variable phonétique suivante :
+(ix) [o] ~ [jo] ex. manteau, seau, eau (ALF 1208)
+Où en était la mixture au XIIIe siècle? Paris est loin d'être la première ville du nord de la Gallo-Romania à se mettre à la production de documents en langue vulgaire, que ce soit pour des raisons littéraires ou administratives. Elle a été devancée notamment par les Anglo-Normands et par les villes picardes. La première charte royale en langue vulgaire remonte à 1241 (voir Videsott à paraître), mais c'est seulement dans la deuxieme moitié du siècle que la chancellerie royale émet relativement souvent des documents en français.
+L'étude des chartes parisiennes du XIIIe siècle nous indique que la koinéisation parisienne, loin d'être établie d'avance, a dû attendre le XIVe siècle pour être un tant soit peu stabilisée. Les documents parisiens contiennent une combinaison de formes dialectales qui se transforme continuellement. Les formes endogènes ((i)-(iv)) sont invariables, tandis que les formes exogènes sont soumises à la variation et au changement : le changement implicite dans (vi) semble être parvenu à terme. Les changements implicites dans (vii), (viii) et (ix) sont des changements en cours, et le changement (v) ne fait que commencer.
+Ce papier s'est consacré au premier des processus de standardisation isolés par Einar Haugen, celui de la 'sélection des normes'. Nous avons soutenu que, tandis qu'en allemand et en italien, où le processus de standardisation a commencé plus tard, la langue standard est basée historiquement non sur un dialecte dominant mais sur des modèles écrits, en français, où la dominance de la capitale a pu s'exercer beaucoup plus tôt, c'est l'usage parisien qui s'est imposé. Le français standard comporte un mélange de formes dialectales. On peut imaginer que cette koinè ait été à l'origine une construction purement écrite, mais il serait plus réaliste de supposer qu'elle résultait d'une koinéisation réelle survenue dans le parler parisien lors du prodigieux essor démographique qu'a connu cette ville aux XIIe-XIIIe siècles.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Les situations pédagogiques lors desquelles tout ou partie de la communication s'effectue à travers le réseau Internet sont de plus en plus répandues, qu'il s'agisse de formation d'enseignants à distance (par exemple, les master FLE en ligne de Grenoble ou du Mans), d'échanges exolingues en ligne (Degache & Mangenot, 2007) ou encore de travail collectif en complément d'une formation en présentiel (dispositifs dits « hybrides », cf. Charlier, Deschryver, Peraya, 2006). La didactique du français, qu'il s'agisse du FLM ou du FLE, n'est évidemment pas la seule à s'intéresser à ces nouvelles formes de communication pédagogique : les sciences de l'éducation, les sciences de l'information et de la communication (SIC), l'informatique (avec le sous domaine des Environnements interactifs pour l'apprentissage humain), voire la psychologie des apprentissages étudient également, sous des angles et avec des paradigmes de recherche divers, ces situations d'apprentissage instrumenté. Les sciences du langage et la didactique (du FLE, du FLM, des langues) possèdent cependant plusieurs atouts : elles analysent depuis longtemps les interactions en classe ; elles s'intéressent également aux interactions exolingues (Matthey, 2003) ; elles participent enfin, en concurrence - ou en interdisciplinarité - avec les SIC, au champ d'étude de la communication médiatisée par ordinateur (CMO), dont Jacques Anis (1998) est le pionnier en France. Ces précédents lui donnent, on le verra, un regard spécifique sur ce domaine. Mais on examinera tout d'abord, de manière plus générale, l'intérêt de prendre la communication pédagogique médiatisée par ordinateur (CPMO) pour objet d'étude, puis quelques questions de recherche émergentes.
+L'intérêt pour la CPMO se fonde sur un présupposé fort, celui qui pose que le véritable apport d'Internet à la formation tient plus à sa dimension horizontale (échanges, mutualisation, réseaux sociaux, communautés de pratiques, etc.) qu'à sa dimension verticale transmissive (de loin la plus répandue, comme le constatent Albero et Thibault, 2004). On abordera ici quatre dimensions de la CPMO qui ne s'excluent pas les unes les autres : la contribution qu'elle peut apporter à la conception de dispositifs innovants, le lien social qu'elle permet d'assurer dans le cas des formations tout à distance, la mise en relation de locuteurs de langues différentes et la réflexivité que permet l'écrit asynchrone partagé.
+La Formation ouverte et à distance (FOAD) peut être considérée comme un secteur en voie de structuration scientifique (surtout en sciences de l'éducation), parallèlement à son implication pratique dans le champ de la formation professionnelle. Les notions de « dispositif », d'« approche dispositive », d'accompagnement pédagogique, d'autonomie et d'autoformation sont au coeur des investigations menées par les chercheurs de ce champ.
+En langues, de plus en plus de dispositifs hybrides sont proposés aux étudiants non spécialistes (Degache & Nissen, 2007) et peuvent donc faire l'objet d'études empiriques. Charlier, Deschryver & Peraya (2006) définissent ainsi l'hybridation : « des dispositifs articulant à des degrés divers des phases de formation en présentiel et des phases de formation à distance, soutenues par un environnement technologique comme une plate-forme de formation » ; ils soulignent par ailleurs le caractère innovant de tels dispositifs. L'innovation peut se jouer à différents niveaux :
+Dans le cas de formations entièrement à distance, comme c'est le cas de plusieurs masters de FLE (Grenoble, Rouen, Le Mans), Internet permet d'une part de créer un lien plus interactif entre les enseignants et les étudiants, d'autre part et surtout d'établir un lien social entre les étudiants. On s'est assez rapidement rendu compte, à la fin des années 1990, que la faible participation des étudiants aux premiers forums qui accompagnaient les formations provenait plus d'un tutorat insuffisant et d'un manque d'objectifs fixés à ces forums que d'une réticence à échanger via Internet. Dès que des tâches collectives tirant parti de l'outil ont été proposées, la participation s'est fortement accrue et, à côté d'échanges de nature socio-cognitive, on a commencé à observer des phénomènes d'ordre socio-affectif et l'établissement d'un lien social (Develotte & Mangenot, 2004). Engagé depuis 1999 dans la migration vers Internet d'un master de FLE auparavant délivré par correspondance sous forme traditionnelle, Mangenot (2002, 2003) a pu analyser les échanges écrits asynchrones qui se faisaient jour dans ce cadre et notamment mettre en relation les tâches proposées avec la nature des échanges entre pairs et avec le tuteur.
+S'il est un domaine où les échanges en ligne ont tendance à se multiplier, c'est bien celui de l'apprentissage des langues. La tradition du « pen friend » existait depuis longtemps, mais Internet a permis de revivifier ce genre de pratiques. S'il est toujours possible de faire communiquer des apprenants en mode un à un, avec les Tandems par Internet, de nombreux projets amenant des groupes à échanger en ligne de manière institutionnelle se sont développés ces dernières années : centrés parfois sur l'intercompréhension à l'intérieur d'une famille de langues (Galanet), souvent sur la pratique à parité de deux langues, visant presque toujours un échange au plan culturel, impliquant dans certains cas de futurs enseignants de langue, ces projets sont d'une grande diversité et on se contentera ici de renvoyer à deux recueils consacrés à cette question : Online Intercultural Exchange (O'Dowd, 2007) et Lidil 36, Échanges exolingues via Internet et appropriation des langues-cultures (Degache & Mangenot, 2007). Plusieurs thèses, qui ont obtenu la qualification en sciences du langage, ont déjà été soutenues sur ce sujet.
+Dans le prolongement de l'approche anthropologique de Goody, Lévy (1990) a qualifié les TIC de « technologies intellectuelles ». Plus concrètement, des chercheurs anglais en sciences cognitives, Sharples & Pemberton (1990), ont relevé les divers modes d'extériorisation de la cognition liés aux différents artefacts, du post-it aux assistants logiciels à l'écriture. Dans cette même optique, Lamy & Goodfellow (1998) parlent de « conversations réflexives [...] par conférence asynchrone » et Mangenot (2004) souligne deux caractéristiques particulièrement intéressantes [des forums] : la souplesse chronologique qu'autorise le temps différé et la permanence de l'écrit qui fait du forum l'équivalent d'un texte en perpétuelle voie d'enrichissement. Cette permanence, liée à l'accessibilité, permet de parler à la fois d'extériorisation et de partage de la cognition.
+C'est dans cet esprit qu'il est de plus en plus fréquent d'accompagner les stages professionnels ou l'entrée en fonction des futurs enseignants (ou enseignants débutants) par des forums ou des blogs ayant pour objectifs :
+Outre la formation d'enseignants, le réseau permet de mener des projets d'écriture avec des élèves de l'école primaire ou du collège ; dans ce cas, l'outil sert avant tout à valoriser et socialiser les écrits, dans le même esprit que ce qui se pratique dans les Ateliers d'écriture. Il ne semble pas encore y avoir beaucoup de recherches s'intéressant à ce dernier cas de figure.
+Ayant ainsi un peu mieux caractérisé notre objet, les échanges en ligne, nous allons maintenant passer en revue quelques questions de recherche.
+La formation à distance constituait déjà un objet de recherche avant l'émergence du réseau Internet. Mais l'instrumentation de la communication a rendu plus nécessaires les approches pluridisciplinaires. L'on peut ainsi distinguer des questions de recherche préexistantes au réseau Internet de celles qui abordent plus spécifiquement les situations pédagogiques collectives instrumentées. Précisons que cette partie ne prétend pas à l'exhaustivité.
+On ne fera qu'évoquer d'une part la théorie de la distance transactionnelle, de M.G. Moore (bien décrite et opérationnalisée par Jézégou, 2007), et celle de l'industrialisation de la formation (Moeglin, 1998), ancrée pour l'une en sciences de l'éducation, pour l'autre en SIC. Ces deux théories ont le mérite de resituer la formation à distance dans un contexte institutionnel et sociopolitique plus large que les questions de CPMO, mais elles n'offrent que peu d'accroche pour le chercheur en didactique des langues.
+A l'inverse, deux courants importants de la didactique des langues analysent les échanges en ligne. Ainsi, les acquisitionnistes anglo-saxons (Second Language Acquisiton Research) ont-ils conduit de nombreuses études autour de questions liées aux spécificités des situations de CPMO par rapport aux situations présentielles. Trois questions ressortent fréquemment, que nous ne ferons qu'évoquer en renvoyant à une référence, celle de la prise de parole plus aisée et mieux répartie (Kern, 1995 ; Fitze, 2006), celle des variations entre langue orale, langue écrite et langue de la CMO (Kern, 1995), celle de la richesse lexicale (Fitze, 2006), celle de la négociation du sens (Vandergriff, 2006).
+De même, la question de l'acquisition d'une compétence interculturelle a-t-elle fait l'objet de plusieurs recherches récentes portant sur les échanges en ligne. Aux Etats-Unis, un courant est même apparu, avec la publication d'un ouvrage éponyme, l'Internet-mediated Intercultural Foreign Language Education (Belz & Thorne, 2006). Les auteurs de cet ouvrage se penchent souvent sur des épisodes de communication manquée (« missed communication ») et tentent de modéliser les conditions d'un dialogue interculturel efficace. Dans le même esprit, Mangenot & Tanaka (2007), s'appuyant sur la notion d'ethos communicatif, montrent comment certains malentendus potentiels entre étudiants japonais et français peuvent être désamorcés - voire explicités - par les coordonnateurs de l'échange.
+Les trois principales questions de recherche nouvelles suscitées par les échanges collectifs en ligne sont l'effet des outils de communication, le tutorat en ligne et les formes de travail collectif.
+L'artefact technologique, on l'a déjà évoqué en citant Goody, n'est évidemment pas neutre par rapport aux pratiques langagières. Il est alors pertinent d'essayer de modéliser l'interrelation (également appelée « affordance ») entre les caractéristiques technologiques, les interactions verbales et les tâches réalisées par les apprenants, comme le font Lamy & Hampel (2007, p. 33) dans un tableau où ces trois paramètres sont représentés sous forme de cercles entrecroisés. Cette approche est forcément pluridisciplinaire : les sciences du langage apportent leur connaissance des interactions verbales, l'informatique et l'ergonomie leurs analyses de la technologie, les SIC l'analyse des usages, les sciences de l'éducation ou la didactique des langues les typologies de tâches et d'objectifs. A noter l'intéressante notion de « culture-of-use », développée par Thorne (2006, p. 21), qui souligne que les outils de communication, en tant qu'artefacts culturels, prennent différentes significations et font l'objet d'usages différents (notamment en termes de genre) selon les communautés qui les utilisent ; cet auteur cite des exemples de communication ratée du fait de l'utilisation d'un outil (le courriel) ressenti par les étudiants américains comme inadapté aux échanges entre pairs.
+Le tutorat en ligne, pour sa part, s'il partage quelques caractéristiques avec d'autres formes d'accompagnement en face à face, présente néanmoins de fortes spécificités, notamment sur le plan temporel et sur celui du mode principal d'expression, la langue écrite. De nombreux travaux analysent ainsi le discours tutoral, que ce soit pour y repérer les différentes fonctions qu'il remplit (Denis, 2003), pour analyser la manière dont chacun s'efforce de créer un lien social (Develotte & Mangenot, 2004), ou encore, de manière plus praxéologique, pour déterminer quel impact sur l'apprentissage ont différentes modalités d'intervention tutorale (Quintin, 2007).
+L'étude des apprentissages collectifs en réseau, enfin, est l'objet de tout un champ de recherche très développé dans le monde anglo-saxon, le Computer-supported Collaborative Learning (CSCL). Contentons-nous ici de signaler que Dejean-Thircuir & Mangenot (2006) critiquent l'omniprésence, au plan de la recherche, de la question de la collaboration (très exigeante pour les étudiants comme pour les tuteurs), au détriment de l'analyse d'autres formes d'apprentissage collectif comme la mutualisation ou la discussion.
+Il y a une douzaine d'années, des chercheurs en technologies éducatives relevant du champ du CSCL (cf. supra) avaient suggéré d'aborder les apprentissages collectifs médiatisés à partir d'une analyse qualitative des interactions verbales :
+A promising possibility for collaborative learning research therefore is to exploit selective branches of linguistics research on models of conversation, discourse or dialogue to provide a more principled theoretical framework for analysis. [Dillenbourg et al., 1996, p. 203]+
Leur hypothèse était que l'analyse des interactions pouvait permettre de caractériser les situations lors desquelles la collaboration se révélait efficace, plus sûrement qu'une approche expérimentale cherchant à contrôler le maximum de variables et à établir des rapports de cause à effet entre d'autres variables définies a priori. Cependant, la grande majorité des études qui ont emprunté cette voie (par exemple, Quintin, 2007) se sont appuyées sur l'analyse de contenu quantitative (ACQ), méthodologie impliquant « deux opérations fondamentales, la précatégorisation thématique des données textuelles, et leur traitement quantitatif, généralement informatisé » (Charaudeau & Maingueneau (2002, p.39) ; on notera que ces auteurs opposent cette méthodologie à l'analyse du discours. De Wever et al. (2006) se livrent à une revue critique de quinze recherches consacrées à l'étude des forums pédagogiques et utilisant la méthodologie de l'ACQ ; en réaction à cette étude, Mangenot (2007) remarque que la plupart des cadres théoriques passés en revue relèvent de la dimension cognitive ou socio-cognitive et émet l'hypothèse que l'ACQ se prête moins bien que des approches plus linguistiques à l'examen de phénomènes complexes liés à la dimension socio-affective ou au contexte socio-culturel, dans la mesure où elle se contente de coder et compter des énoncés au lieu de les analyser de manière plus fine.
+L'on peut ainsi avancer que l'apport des sciences du langage se situerait plutôt du côté du qualitatif et de démarches ethnométhodologiques, l'idée étant d'observer, de décrire et de chercher à comprendre les logiques (les « méthodes ») des acteurs, éventuellement de parvenir à certaines modélisations, plutôt qu'à essayer de prouver l'efficacité de telle ou telle situation de collaboration à distance. Par manque d'espace, on se contentera ici de trois rapides illustrations, qui ne prétendent pas épuiser l'apport des sciences du langage à l'analyse des interactions en ligne.
+L'approche « interactionniste cognitiviste » en didactique des langues, telle que proposée par Matthey (2003), peut assez aisément être reprise, plus ou moins fidèlement, pour l'analyse des interactions en ligne (Lamy & Goodfellow, 1998), notamment dans le cas d'échanges plurilingues (Degache & Tea, 2003). Rappelons que Matthey développe « une théorie de l'acquisition des langues secondes basée sur l'analyse d'interactions concrètes et dans lesquelles on cherche à observer des transmissions et des constructions de savoirs. » (p.136).
+Anis (1998) a sans doute été le premier linguiste français à appliquer à des échanges électroniques, en l'occurrence des conversations par Minitel, un certain nombre de notions apportées par l'analyse conversationnelle ; il complétait cet apport par une approche sémiolinguistique, portant une grande attention aux nouveaux « usages grapho-linguistiques ». Dans le domaine éducatif, il est tout à fait possible de s'appuyer sur une telle approche, pour observer par exemple la manière dont se structurent les interactions (Celik, 2007), dont se positionnent et se mettent en scène les acteurs les uns par rapport aux autres (Blandin, 2004), dont se jouent les questions de faces (Mangenot, 2004), notamment en situation interculturelle.
+Concernant l'analyse du discours, celle-ci peut être appelée à la rescousse pour caractériser les marques énonciatives permettant de repérer l'établissement d'une communauté d'apprentissage ou plus largement les marques caractérisant le lien socio-affectif (Develotte & Mangenot, 2004) ; ou encore pour relever une source possible de malentendu dans les échanges interculturels liée à la question des genres de discours en ligne (Ware & Kramsch, 2005, Thorne, 2006). Elle est également bien outillée pour repérer les ethos communicatifs (Kerbrat-Orecchioni, 2005) selon l'appartenance culturelle, voire la « dimension idioculturelle des micro-communautés d'apprentissage en ligne » (Dolci & Spinelli (2007).
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Ce texte a pour objectif d'expliciter un certain nombre d'enjeux qui se posent de manière générale en sciences du langage aujourd'hui et qui reçoivent une réponse spécifique de la part de la linguistique interactionnelle. Cela permet de situer la contribution d'une littérature récente et souvent encore peu connue en France et de poser les bases pour une discussion sur ses évolutions actuelles.
+Une des exigences de plus en plus affirmées au sein de la linguistique contemporaine concerne la nécessité d'articuler différents paliers d'analyse, qui s'exprime de diverses manières selon les paradigmes théoriques : articulations entre syntaxe et pragmatique, entre propriétés structurelles de la langue et ses usages en société, entre contraintes formelles et fonctionnelles. Plusieurs courants linguistiques ont joué un rôle fondamental dans le développement de ces interfaces : on peut mentionner la linguistique fonctionnelle de Talmy Givon, les développements récents de la construction grammar, les différentes formes d'émergentisme, l'étude de la grammaticalisation qui prend de plus en plus en compte les contraintes pragmatique et discursives, voire interactionnelles.
+Cette première exigence va de pair avec une seconde, consistant à reconnaître l'importance de travailler sur des corpus de données attestées : cette exigence, critique aussi bien envers la démarche introspective qu'envers les techniques d'élicitation de réponses contraintes sur le langage, répond à l'enjeu théorique de développer des usage-based grammars.
+La linguistique interactionnelle est un paradigme récent, qui a émergé comme tel durant les années 90, tout en reposant sur les acquis de l'analyse conversationnelle, apparue dans les années 60. Elle répond de manière spécifique à ces exigences, en développant un projet systématique d'étude de la langue dans l'interaction, sur la base d'enregistrements d'interactions en situation naturelle. Très présente dans la linguistique scandinave, anglo-saxonne et allemande, elle l'est encore peu dans le paysage de la linguistique française, tout en commençant à s'y développer, comme en témoignent les articles présents dans cette section. Dans ce qui suit nous allons rappeler quelques repères historiques (1.), préciser la démarche relative aux corpus (2.) et à leur analyse (3.), avant d'expliciter la manière dont s'imbriquent analyse de l'organisation de l'interaction et analyse des ressources linguistiques (4.), avant de conclure sur quelques enjeux majeurs qui ouvrent sur un chantier encore largement à défricher (5.).
+Il est intéressant de constater que les principes de l'interactionnisme émergent chez des auteurs très disparates au début du XXe siècle - aussi divers que les pragmatistes américains, tels que Mead, Dewey, ou James, et les auteurs soviétiques tels que Bakhine-Volosinov et Vygotsky. Tous reconnaissent de différentes manières l'ancrage des dynamiques de l'esprit comme du langage dans la pratique et plus précisément dans les pratiques interactionnelles.
+Pour ne prendre qu'un exemple, Volosinov affirme dès 1929 que :
+Word is a two-sided act. It is determined equally by whose word it is and for whom it is meant. As word, it precisely the product of the reciprocal relationship between speaker and listener, addresser and addressee [...] A word is territory shared by both addresser and addressee, by the speaker and his interlocutor. (Volosinov, 1929, trad. anglaise, 1973 : 86).+
Cette reconnaissance précoce du rôle de l'interaction dans la structuration du langage et de l'action réciproque des co-participants non seulement sur la compréhension de ce qui est échangé mais sur la production même (cf. Bronckart et Brès, ici-même, pour une discussion de cet héritage) entre en résonance avec les contributions plus récents de la linguistique interactionnelle - notamment le travail pionnier de Goodwin, dans son analyse, dès 1979, de l'énoncé comme étant co-produit interactionnellement par les interlocuteurs dans les détails les plus subtils de son énonciation (voir Goodwin, 1981), permettant d'inscrire le principe interactionnel au sein d'unités traditionnellement traitées comme relevant typiquement de l'activité monologale du locuteur.
+C'est dans les années 60 que l'héritage de l'interactionnisme dans différentes disciplines (sociologie, psychologie, linguistique) donne lieu à la formulation de modèles d'analyse qui joueront un rôle fondamental pour le développement de la pragmatique, de l'analyse du discours et de l'analyse de l'interaction en linguistique, avec de fortes ramifications interdisciplinaires. Goffman y intervient comme un point de référence central, inspirant aussi bien l'analyse conversationnelle (Sacks, Schegloff, Jefferson, 1979, 1977, Schegloff & Sacks, 1973 ; Sacks, 1992 ; Schegloff, 2007 - cf. Lerner 2004 pour une anthologie d'écrits des fondateurs), sur le modèle de l'Ecole de Birmingham (Sinclair & Coulthard, 1975), qui sera repris en France par l'Ecole de Genève (Roulet, 1980, Roulet et alii 1985), sur la sociolinguistique interactionnelle (Gumperz, 1982), sur les théories de la politesse (Brown & Levinson, 1978) reprises en France par les travaux de Kerbrat-Orecchioni (1990 - 94).
+Dans ce contexte, l'analyse conversationnelle (AC) apparaît dans les années 60 comme une manière de développer le programme ethnométhodologique (fondé par Garfinkel, 1967) en ancrant l'étude de l'organisation située des pratiques sociales dans l'analyse fine d'enregistrements - audio à l'époque - de pratiques interactionnelles naturelles. L'analyse conversationnelle est le premier courant qui a répondu de manière systématique à l'exigence de travailler sur des données enregistrées naturelles : l'intérêt pour la parole conversationnelle est à maintes reprises signalé par Sacks (1984) comme ne relevant pas d'un intérêt particulier pour le langage en soi mais comme étant un byproduct de l'exigence de fonder la description des « méthodes » par lesquelles les co-participants organisent, interprètent et produisent leurs contributions à l'interaction sur des enregistrements de situations de parole naturelles. Reste que cette exigence produira un corps important d'études sur les caractéristiques systématiques de la parole-en-interaction, centrées sur la conversation d'abord - entendue comme l'usage prototypique du langage le moins contraint et donc offrant la plus grande diversité de formats séquentiels - sur des interactions institutionnelles et professionnelles ensuite, permettant d'observer la spécialisation des formats conversationnels dans divers contextes sociaux (Drew & Heritage, 1982).
+Le but de l'AC, dans sa généralité, est de rendre compte de la conversation comme un phénomène ordonnné. Cet ordre toutefois n'est pas préexistant à la conversation, ni n'obéit à des principes qui lui seraient extérieurs et qui ne feraient qu'y être reproduits : cet ordre est produit in situ, par les participants, de manière endogène. L'objet de l'analyse est donc moins l'ordre lui-même que la manière dont il est accompli, grâce à des procédés - des méthodes - mis en oeuvre par les participants, qui sont, eux, reproductibles et généralisables. Ainsi que le résume Psathas, la tâche de l'analyste est par conséquent de produire une description des principes d'ordre, tels que traités par les participants :
+++Conversation analysis studies the order/organization/orderliness of social action, particularly those social actions that are located in everyday interaction, in discursive practices, in the sayings/tellings/doings of members of society.
+Its basic assumptions are :
++
+- Order is a produced orderliness.
+- Order is produced by the parties in situ; that is, it is situated and occasioned.
+- The parties orient to that order themselves; that is, this order is not an analyst's conception, not the result of the use of some preformed or preformulated theoretical conceptions concerning what action should/must/ought to be, or based on generalizing or summarizing statements about what action generally/frequently/often is.
+- Order is repeatable and recurrent.
+- The discovery, description, and analysis of that produced orderliness is the task of the analyst.
+- Issues of how frequently, how widely, or how often particular phenomena occur are to be set aside in the interest of discovering, describing, and analyzing the structures, the machinery, the organized practices, the formal procedures, the ways in which order is produced.
+- Structures of social action, once so discerned, can be described in formal, that is, structural, organizational, logical, atopically contentless, consistent, and abstract, terms.
+(Psathas, 1995, 2 - 3) +
Fidèle en cela à son inspiration ethnométhodologique, l'analyse conversationnelle observe un double principe : d'une part, elle reconnaît que l'action est située, occasionnée, sensible aux contingences et orientée vers le contexte de sa production et vers sa spécificité : elle est irrémédiablement indexicale. D'autre part part, elle considère que cette action est localement organisée grâce à des procédés qui, eux, traversent les contextes de leur mise en oeuvre et se caractérisent non seulement par leur récurrence mais plus fondamentalement par leur systématicité. La prise en compte de ces deux aspects ensemble - alors même qu'ils sont souvent traités comme contradictoires ou mutuellement exclusifs - est fondamentale pour apprécier le programme de l'AC.
+La linguistique interactionnelle apparaît dans ce contexte, en réponse à la question de savoir quel rôle, à la fois structurant et structuré, jouent les ressources grammaticales dans et pour l'organisation de l'interaction. Dans l'émergence de ce courant, la publication de l'ouvrage collectif Grammar in Interaction, édité par Ochs, Schegloff & Thomspon (1996), fonctionne comme un déclencheur, avec l'ambition de revisiter la grammaire à l'aune de l'interaction. Le terme de « linguistique interactionnelle » apparaît quelques années plus tard (Mondada, 1998/2001 ; Selting & Couper-Kuhlen, 2001a, 2001b). Depuis, il a eu une fortune considérable, surtout en Europe, en parvenant à unifier un nombre croissant de chercheurs, autour d'un congrès régulier (International Conference on Conversation Analysis, ICCA, Copenhagen, 2002, Helsinki, 2006, Mannheim, 2010) et avec des ouvrages collectifs de référence (Ochs, Schegloff, Thompson, 1996 ; Couper-Kuhlen & Selting, 2001 ; Ford, Fox, & Thompson, 2002, Hakulinen & Selting, 2005). L'objectif qui est poursuivi est double (cf. infra 5.) : décrire la manière dont les structures formelles de la grammaire - entendues comme des ressources exploitées par les participants - sont mobilisées de manière à la fois adéquate à et contrainte par l'organisation de l'interaction et, en retour, montrer comment l'organisation de l'interaction laisse émerger des formes et des emplois formels particuliers, répondant à des fonctionnalités interactionnelles.
+La situation dans le domaine francophone est paradoxale : alors que les travaux s'intéressant à l'interaction y apparaissent dans les années 80, certains faisant une plus ou moins grande place à l'analyse conversationnelle et se diffusent largement dans les années 90 (voir les travaux de Kerbrat-Orecchioni, 1990 - 94), les travaux d'analyse conversationnelle stricto sensu y sont moins nombreux. Aujourd'hui la production en linguistique interactionnelle est encore largement moins développée à côté d'autres langues comme l'anglais, les langues scandinaves, le finnois, l'allemand ou le japonais.
+Malgré la reconnaissance, dès Saussure, de la langue parlée comme objet premier de la linguistique, les normes de l'écrit on continué pendant longtemps à configurer les modèles du langage et de la langue (Harris, 1981, Linell, 2005). Même si les technologies pour enregistrer la parole vive sont disponibles depuis très longtemps - il suffit de penser à la création du Phonogrammarchiv de Vienne en 1899, de celui de Berlin en 1902 et des Archives de la parole par Ferdinant Brunot en 1911 ; mais aussi, en anthropologie, au fait que Haddon filme des danses et cérémonies à Torres Strait dès 1898 - ce n'est que à partir des années 50 que ces techniques commencent à être systématiquement utilisées par certains chercheurs. La Natural History of an Interview (McQuown, 1971), basée sur un entretien entre Bateson et Doris, une patiente, et filmé en 1955, joue un rôle pionnier non seulement en tant que corpus enregistré mais aussi pour l'exploitation systématique et interdisciplinaire qui en a été faite par ses auteurs - dont la tentative de codage des mouvements du corps par Birdwhistell est peut-être le plus connue (voir Mondada, 2006a, note 2, 315 - 316).
+Depuis les années 60, l'AC est le mouvement qui a le plus thématisé l'importance des données enregistrées « naturelles », condition sine qua non d'une étude détaillée de l'interaction telle qu'elle est localement organisée par les participants (Sacks, 1984). Sacks s'est intéressé très tôt aux possibilités d'utiliser non seulement le magnétophone mais aussi la caméra (voir l'article de Sacks & Schegloff, 1971, publié en 2002). Mais c'est Charles Goodwin, fort d'une formation professionnelle dans la production filmique, qui dès les années 70 réalise un grand nombre de corpus vidéo (analysés dans sa thèse, publiée en 1981, mais aussi largement diffusés dans la communauté conversationnaliste).
+L'importance que prennent les moyens d'enregistrement et par là les exigences en matière de corpus (de « naturally occurring data ») va de pair avec une approche du langage comme pratique sociale : la langue, aux antipodes d'un système abstrait, y est conçue comme un ensemble de ressources indexicalement liées aux conditions de leur usage, prenant sens dans l'action, et donc fortement liée à sa temporalité émergente (cf. Mondada, 2005, 2006b).
+Plus précisément, la linguistique interactionnelle inspirée de l'AC insiste tout particulièrement sur l'importance d'observer les activités des participants dans des événements de la vie sociale ordinaire, dans des naturally occurring interactions, c'est-à-dire des interactions qui auraient eu lieu même en l'absence du chercheur et qui n'ont pas été élicitées ou orchestrées par lui en vue de leur enregistrement. Cette exigence est articulée de manière cohérente avec les exigences de l'analyse. Une de ses raisons fondamentales relève du caractère à la fois context-free, context-shaped et context-renewing des pratiques des locuteurs : d'une part, celles-ci s'organisent de manière localement située, au sens où elles sont dotées d'une indexicalité inévitable et généralisée, en s'ajustant aux contingences affectant les événements et les activités - tout en contribuant réflexivement à en (re)définir le contexte. Transposer ces pratiques dans un autre contexte signifierait les altérer de manière radicale, puisqu'elles s'ajusteraient à d'autres contingences.
+Ce qui constitue les données a ainsi profondément changé durant ces dernières décennies en linguistique : on est passé des exemples notés à la volée, sans aucun enregistrement et donc sans aucune garantie quant à la précision de la notation, à des enregistrements qu'on a eu tendance, pendant un certain temps, à délaisser dès qu'était établie leur transcription, ainsi autonomisée, fondant l'analyse de chercheurs qui ne revenaient pas toujours aux bandes originales ; à des transcriptions alignant le texte avec sa source et permettant de matérialiser grâce à la technologie (grâce à des logiciels tels que CLAN, ELAN, Praat, ANVIL...) l'indissociabilité entre données primaires et données secondaires, garantie d'un travail effectué en référence constante aux données enregistrées.
+L'AC est un des courants qui a massivement contribué à attirer l'attention vers l'importance de la transcription soigneuse des données, non seulement du point de vue de la représentation du segmental, mais aussi de la temporalité de son déroulement pas à pas (chevauchements, pauses, accélérations, décélérations, structures rythmiques). Celle-ci concerne aussi bien la parole que les autres ressources multimodales (gestes, regards, mimiques faciales, mouvements du corps, manipulations d'artefacts) qui pose des problèmes complexes de représentation détaillée de la coordination et synchronisation fine entre les participants (voir sur la transcription de données interactionnelles en français Bonu, 2002, Bürki & De Stefani, 2006, Mondada, 2000, 2006a, 2007a).
+Cette attention pour les données s'incarne depuis les années 60 dans une pratique d'analyse qui est indissociable de la pratique de la transcription et de l'enregistrement des données : elle répond à l'exigence de travailler sur des données dont on a une connaissance approfondie. Néanmoins, cela n'exclut pas que pour une systématisation des analyses (cf. infra), de grandes masses de données soient nécessaires, mises à disposition par des échanges informels entre chercheurs ou bien par des banques de données conçues à cet effet. C'est ainsi que sont apparues progressivement en linguistique des banques de données accessibles sur Internet : celles-ci restent pour la plupart spécialisées dans l'écrit ou constituées d'oral en grande partie élicité (entretiens ou dispositifs expérimentaux) ; les banques de données de corpus facilement accessibles à la communauté, constitués de données enregistrées, en audio et en vidéo, d'interactions naturelles ne sont pas nombreuses sur le plan international : on mentionnera d'abord la TalkBank, développée par Brian MacWhinney aux USA, qui en est l'exemple le plus ancien, dont les corpus sont unifiés grâce au recours au logiciel CLAN - pour lequel une version spécialement aménagée pour l'AC a été développé avec Johannes Wagner (CLAN_CA). On mentionnera aussi la banque de données CLAPI (Corpus de LAngue Parlée en Interaction), développée par le groupe ICOR du laboratoire ICAR à Lyon, qui est une plateforme qui articule une archive de corpus d'interactions en milieu naturel et des moteurs de recherche en permettant l'exploitation outillée.
+Sur la base de ces matériaux recueillis au fil de « naturally occurring interactions », l'AC se caractérise par deux procédures analytiques : la première consiste à proposer une single case analysis, portant sur une donnée qui est parcourue dans sa complexité ; la seconde consiste à effectuer une « analyse de collection » qui se focalise sur un phénomène particulier dans des données différentes et qui vise à en montrer la systématicité. Dans la première, « the resources of past work on a range of phenomena and organizational domains in talk-in-interaction are brought to bear on the analytic explication of a single fragment of talk » (Schegloff, 1987 : 101) alors que la seconde consiste à utiliser « a set of fragments, then, to explicate a single phenomenon or a single domain of phenomena » (1987 : 101). Alors que la première façon de faire exploite les connaissances analytiques existantes pour comprendre un cas singulier dans sa complexité et pour énoncer des conjectures, la seconde permet d'envisager l'étude d'un objet inédit dans sa systématicité et généralité.
+La première procédure a été privilégiée lors de la réception de l'AC : elle renvoie à l'attention pour la dimension indexicale de l'organisation conversationnelle, se traduisant par une attention aux détails particuliers qui fondent l'agencement de tel ou tel extrait enregistré d'un corpus. En revanche, la seconde, qui prolonge la première et s'incarne dans l'élaboration de collections, se traduisant par une exigence de démonstration du caractère récurrent et systématique des phénomènes d'ordre, a été davantage ignorée (cf. Bonu, éd., à paraître pour un panorama sur la production francophone).
+Pourtant cet aspect est central dès les premiers travaux de l'AC dans les années 60, comme en témoignent les Lectures de Sacks (1992). Il y parle de l'objectif de l'AC visant à décrire une « technologie » voire une « machinerie » de la conversation, i.e. un « apparatus », un « ensemble de méthodes » qui puisse renvoyer à la manière dont les instances observées ont été produites. Ces objectifs ont le mérite de clarifier le fait que pour Sacks le but de l'AC n'a jamais été de se limiter à décrire aussi précisément soit-il une situation particulière ; le but reste - comme chez Garfinkel - la description de « procédés », qu'il appelle des « méthodes » (des « ethnométhodes »), qui produisent les instances observées (Schegloff, 1992b : 1338 parle de « procedural infrastructure of interaction »).
+Ainsi Sacks caractérise son travail analytique comme visant une description de la façon dont les membres parviennent à produire méthodiquement une action reconnaissable comme telle. Par exemple, en travaillant sur des instances d'« invitations », le focus n'est pas mis sur un « énoncé » en tant que tel qui permettrait de réaliser l'invitation, ou sur l'établissement de définitions générales et constitutives de verbes de parole, à la manière des actes de langage (Schegloff, 1992a, I, xxvi), mais sur les méthodes qui produisent des énoncés reconnaissables et reconnus par les participants comme une invitation (Sacks, II, 367). Ces méthodes permettent éventuellement de distinguer les invitations surgissant de l'interaction (« generated in that interaction ») des invitations dont l'énoncé est planifié à l'avance, voire qui sont le but de l'interaction (comme les invitations placées dans la raison de l'appel téléphonique) - les deux recevant des réponses différentes et générant ainsi une suite d'actions différente, ayant des trajectoires séquentielles propres (Sacks, 1992, 1, 792 - 3 ; II, 210).
+Cette analyse ne part pas d'un exemple d'invitation typique produit par introspection ; elle ne consiste pas à identifier comme point de départ un type d'action. En revanche, elle se penche sur une occurrence particulière, attestée dans un corpus, pour se demander comment elle a été produite méthodiquement et de manière située (le caractère méthodique étant responsable de la systématicité des procédés, alors que le caractère situé relève de l'agencement indexical et contingent des détails en situation). Une fois identifiée et analysée cette occurrence, il s'agit de construire une collection d'occurrences similaires, qui sont reconnues par les participants comme des accomplissements reconnaissables de la même action.
+La construction d'une collection vise ainsi à explorer l'organisation récurrente d'un phénomène dans plusieurs fragments de corpus, en obéissant à un certain nombre d'exigences qui fondent la « mentalité analytique » particulière de l'AC et que nous allons rappeler brièvement, en retraçant la manière dont Schegloff (1996a) organise son analyse exemplaire d'une pratique particulière, « confirming allusions ». Il identifie cette pratique en repérant dans son corpus un ensemble de répétitions d'un segment préalable, identifié comme ce qui était visé dans le tour précédent, afin de ratifier les allusions qu'il contenait implicitement/qu'il laissait entendre. Cette répétition est une pratique qui permet de réaliser une action particulière, confirmer les allusions, apparemment minimale et optionnelle mais qui fait partie du « répertoire culturel » des locuteurs (Schegloff 1996a : 209) et qui permet de traiter le thème important de l'implicite. Au moment de commencer l'enquête, Schegloff n'avait pas la moindre idée qu'il pouvait y avoir une action de ce type dans notre société, il ne la présupposait pas, n'en cherchait pas des occurrences pour l'illustrer, ne pouvait pas l'imaginer. D'ailleurs, cette action ne reçoit pas de nom, de catégorie métapragmatique en langue : pour la découvrir, il n'aurait pas pu se baser sur « our vernacular understanding of typicalized couses of action » (Schegloff 1996 : 211). Et pourtant, ce sont de telles actions qui constituent une société dans son fonctionnement moment par moment dans l'interaction (et non telle qu'elle a été définie comme un objet disciplinaire d'étude).
+On notera que le « phénomène » ainsi découvert est une « pratique », qui implémente, accomplit, réalise une « action » : en sont des exemples, outre les études de collections d'ouvertures et de confirmation des allusions que nous avons déjà citées, les analyses des évaluations (assessements) par Pomerantz (1984), des réparations par Schegloff (1979, 1992b, etc.), de l'annonce de mauvaises nouvelles par Maynard (1997), de yes/no questions par Koshik (2000), ou de la raison de l'appel téléphonique (Couper-Kuhlen, 2001).
+On notera que l'analyse d'un « phénomène » ne porte pas a priori sur une « forme » : plus facilement recherchable dans un grand corpus, une forme ne constitue toutefois pas un point de départ de l' « unmotivated looking ». La raison en est que généralement une forme isolée ne réalise pas en elle-même une action. Les formes du langage sont plutôt des « ressources » qui accomplissent des actions de par leur position particulière au sein d'une pratique et au sein d'une séquence particulière. Même si dans la littérature conversationnelle un certain nombre de formes ont fait l'objet d'analyses systématiques en collections - comme « oh » (Heritage, 1984, 1998, 2002) - il est significatif qu'elles l'aient été en rapport avec un positionnement séquentiel particulier (1984), par exemple en réponse à une question (1998) ou à une évaluation (assessment, 2002) : c'est en tant que réponse à un assessment par exemple que « oh » devient une « méthode » pour moduler l'accord et le désaccord entre les participants.
+Une fois identifiée une pratique - qui peut être effectuée en mobilisant des ressources grammaticales récurrentes, mais pas uniquement - il s'agit de vérifier qu'elle est bien une instance de l'action sur laquelle porte la collection, en montrant qu'elle a été reconnue comme telle par les participants. L'orientation des participants - le caractère emic des phénomènes étudiés - fonctionne ainsi comme une procédure de vérification et de preuve, incarnée par et dans les tours suivants, qui manifestent le type d'action accomplie par le tour précédent et sa compréhension par les participants. On voit donc bien que le caractère reconnaissable de l'action pour les participants est étroitement lié aux caractéristiques de l'environnement séquentiel de la pratique étudiée (ce qui précède, ce qui suit, les caractéristiques du formatage du tour, son insertion dans un type de séquence, etc.), qui constitue l'objet de la description systématique.
+L'analyse de collections constitue la manière spécifique à l'analyse conversationnelle de produire un ensemble systématique et cumulatif de connaissances sur l'organisation séquentielle des ressources linguistiques en interaction. Ces connaissances sont souvent produites sur la base de grandes masses de données ; si elles donnent lieu à ce que l'on a appelé une quantification « informelle » (expression de fréquences et d'estimations quantitatives sous forme descriptive mais non chiffrée), leur quantification est sujette à d'importantes discussions, qui ne nient pas a priori l'intérêt de ce type de généralisation mais qui en interrogent critiquement les conditions. Ainsi dans un article fameux, Schegloff (1993) énonce les problèmes à résoudre préalablement à la quantification - identification d'un dénominateur commun, défini comme l'environnement séquentiel spécifique des occurrences retenues, définition d'un numérateur, ou de la série d'items comptant comme des occurrences du phénomène ; délimitation d'un domaine d'activité organisationnellement pertinent pour le phénomène décrit. Ces préalables montrent que la constitution d'une collection (core collection, une fois résolus les problèmes de boundary instances), au sens technique de l'AC, est bien l'étape analytique indispensable pour pouvoir songer à une quantification (voir Robinson, 2007 sur ce point et Haakana, 2002 pour une discussion sur la possibilité de quantifier les rires).
+En décrivant la « machinerie » de l'alternance des tours de parole, Sacks, Schegloff et Jefferson remarquent que a) les locuteurs alternent régulièrement au cours de la conversation, b) généralement une seule partie parle à la fois, c) le passage d'un tour à l'autre se fait en minimisant les chevauchements et les silences (1974 : 700). La question ouverte par ces constats apparemment très simples consiste à se demander comment les locuteurs effectuent cette alternance d'un tour à l'autre avec précision, systématicité et méthodicité, sans qu'ils aient à se concerter d'avance ou à en thématiser explicitement le moment et la manière. La réponse à cette question a été cruciale pour l'essor de l'analyse conversationnelle et de la linguistique interactionnelle, puisqu'elle a fondé une analyse des ressources linguistiques telles que traitées par les participants aux fins pratiques de la gestion du turn-taking.
+Depuis l'article princeps sur la « machinerie de l'alternance des tours » (Sacks, Schegloff, Jefferson, 1974), la notion de TCU (turn-constructional unit) a été reconnue comme définissant l'unité interactionnelle minimale pour les participants ordonnant leurs contributions à la conversation. Le système du turn-taking se base en effet sur deux composantes, l'une responsable de la composition des tours (turn-constructional component), l'autre de leur allocation (turn-allocation component). La première permet de rendre compte de la façon dont les participants parviennent à identifier le moment où l'alternance du tour peut avoir lieu, en réduisant à la fois les chevauchements et les silences. L'efficacité de la machinerie du turn-taking repose sur une analyse (par les participants) temporellement très précise du déroulement de la parole, permettant la projection de la complétude des unités de construction du tour en train d'émerger dans la parole, dégageant ainsi des possibles points de transition pertinents (transition-relevance places, TRP).
+La question des TCU est fondamentale pour la linguistique interactionnelle parce qu'elle montre que « given conversation as a major, if not THE major, locus of language's use, other aspects of language structure will be designed for conversational use and, pari passu, for turn-taking contingencies » (Sacks, Schegloff, Jefferson, 1974 : 722) et que donc non seulement l'organisation interactionnelle exploite la structure des ressources langagières existantes mais aussi, et en retour, que les structures de la langue sont configurées de sorte à remplir leurs fonctionnalités interactionnelles. Dans l'article sur le turn-taking, les TCUs sont définis pour la première fois de cette manière :
+There are various unit-types with which a speaker may set out to construct a turn. Unit-types for English include sentential, clausal, phrasal, and lexical constructions (cf. 4.13 below). Instances of the unit-types so usable allow a projection of the unit-type under way, and what, roughly, it will take for an instance of that unit-type to be completed. (1974 : 702).+
As for the unit-types which a speaker employs in starting the construction of a turn's talk, the speaker is initially entitled, in having a turn, to one such unit. The first possible completion of a first such unit constitutes an intial transition-relevance place. Transfer of speakership is coordinated by reference to such transition-relevance places, which any unit-type instance will reach. (1974 : 703).+
La première caractérisation des TCUs est donnée en termes syntaxiques par Sacks, Schegloff et Jefferson, dont le modèle « identifies the types of turn-constructional units as sentential, clausal, phrasal, and lexical - i.e. syntactically » : son traitement « should indicate the deep ways in which syntax matters to turn-taking, albeit a syntax conceived in terms of its relevance to turn-taking. » (1974 : 720 - 721). Cette primauté de la syntaxe est complétée par la référence à la prosodie : « Clearly, in some understanding of 'sound production' (i.e. phonology, intonation, etc.), it is also very important to turn-taking organization. For example, discriminations between "what" as a one-word question and as the start of a sentential (or clausal or phrasal) construction are made not syntactically but intonationally. When it is further realized that any word can be made into a 'one-word' unit-type, via intonation, then we can appreciate the partial character of the unit-types' description in syntactic terms » (1974 : 721 - 722).
+Cette caractérisation initiale des TCUs a porté au développement d'une littérature importante, qui a développé plusieurs paliers d'analyse, en insistant sur les interfaces entre eux :
+Du point de vue de la linguistique interactionnelle, il ne faut pas oublier que la définition des TCUs et des TRPs reste un accomplissement pratique des membres - et que cette définition praxéologique prime sur les considérations formelles qu'il serait possible d'énoncer sur la complétude de l'unité. Cela signifie que les propriétés formelles du tour ne sont pas un ensemble de paramètres pouvant être évalués de manière exogène par l'analyste, mais plutôt un ensemble de ressources des participants, soumises à leur appréciation. Autrement dit, les TCUs concernent moins des structures formelles que des pratiques méthodiquement organisées des locuteurs (Ford, Fox, Thompson, 1996 : 431 ; Ford, 2004).
+Cette dimension praxéologique a comme conséquence que plutôt que de vouloir circonscrire des unités, l'objectif de l'analyse est de caractériser des pratiques de construction du tour et de l'activité effectuée dans et par le tour ; plutôt que de viser des critères nécessaires et suffisants de segmentation d'unités, d'identifier des pratiques qui accomplissent la complétion ou la continuation d'une unité.
+De ce point de vue, des convergences aussi bien que des divergences entre dimensions sont observables : alors que la syntaxe peut indiquer une articulation en plusieurs unités, la prosodie, la relation séquentielle avec ce qui précède ou la gestualité peuvent indiquer une continuation de l'unité : ces divergences peuvent être amplifiées par l'interprétation en temps réel des co-participants, qui peuvent privilégier l'une ou l'autre lecture aux fins pratiques de leur propre action - par exemple pour prendre ou ne pas prendre le tour.
+En particulier, le locuteur peut intervenir sur la forme qu'est en train de prendre le tour et ses TCUs, en la transformant - par exemple en produisant une expansion ou bien en choisissant un format plus compact (Sacks, Schegloff, Jefferson, 1974 : 726), qui changent les conditions auxquelles les co-participants peuvent ou non prendre la parole.
+Ainsi, Local & Kelly (1986) montrent que le silence suivant une conjonction peut être configuré de sorte à faire l'objet de deux analyses possibles mais opposées : d'une part les participants peuvent traiter ce silence comme projetant quelque chose à venir de la part du locuteur (et, dans ce cas, comme ne représentant pas des TRP) ; d'autre part, ce silence peut être produit, grâce à des caractéristiques phonétiques spécifiques, comme permettant une alternance du tour. Dans un cas on pourra le traiter comme une pause appartenant au tour in fieri, dans l'autre comme une pause inter-tour offrant un TRP.
+Cela produit, en définitive, une « ultimate 'indefinability' of TCUs [which] is essential to their functionality. Interactants regularly extend, foreshorten, reanalyze, and repair their developing turns in response to contingencies emergent at particular points in particular conversations » (Ford, Fox, Thompson, 1996 : 428) ; « thus projection creates a manipulable potential end point, a provisional and negotiable goal that can be confirmed or manipulated through the same practices that produced it in the first place » (1996 : 449).
+Plus généralement, l'essor de la linguistique interactionnelle permet aujourd'hui d'interroger de manière cohérente la relation entre
+Si la démarche consistant à constituer des collections invite à articuler étroitement ces trois dimensions, on remarque au sein de la linguistique interactionnelle contemporaine des variations - relevant souvent de la manière dont les auteurs se positionnent vis-à-vis d'autres recherches en linguistique et définissent par conséquent leur objet - quant à la dimension qui est privilégiée et qui structure l'analyse.
+Une première stratégie consiste à se focaliser sur une forme, ensuite explorée dans les séquences qui la caractérisent et les actions qu'elle contribue à effectuer : cela représente une manière de procéder alignée avec la tradition linguistique, permettant dans certains cas de revisiter le traitement fonctionnel qui en a été proposé par elle (cela a été privilégié par les travaux sur les connecteurs et marqueurs linguistiques, comme « actually », Clift, 2001 ; « obwohl » Günther, 1999 ; en français « ben » ou « voilà » Bruxelles et Traverso, 2001, 2006, Groupe ICOR, 2008 ; « attends », Groupe ICOR 2007, ou par les travaux sur certaines constructions syntaxiques, comme en français les dislocations à gauche, Fornel, 1988, Pekarek, 2001 ou la dislocation à droite, Horlacher, 2008).
+Une seconde stratégie consiste à se focaliser sur des séquences particulières : cette manière de procéder s'aligne avec la tradition de l'analyse conversationnelle et privilégie des environnements séquentiels particuliers, que ce soient des positionnements séquentiels au sein du tour (Schegloff, 1996b, Auer, 1996 ; en français Mondada, 2007b, à paraître), des séquences spécifiques (voir par exemple les nombreuses analyses des séquences de réparation, et leur contribution à l'étude de la syntaxe : Schegloff, 1979, Fox & Jasperson, 1995, Egbert, 1997, Wu, 2007 ; en français voir les travaux de Gülich, 1986, Gülich & Kotschi, 1987 sur la reformulation), ou des phénomènes séquentiels particuliers (comme les chevauchements, Schegloff, 2000, en français Oloff, à paraître).
+Une troisième angle d'approche consiste à adopter comme point de départ une action ou la structuration d'une activité, pour y analyser les types de ressources mobilisées pour les accomplir (par exemple les plaintes, Drew, 1998, les offres Curl, 2006 ; par exemple la structuration des activités en transitions d'un épisode à un autre, Bruxelles, Greco, Mondada, à paraître, Mondada, 2006c, Mondada & Traverso, 2005, en séquences d'ouverture, Schegloff, 1968 ; en français et en allemand Mondada & Schmitt à paraître ; ou de clôture, Schegloff & Sacks, 1973, en italien De Stefani, 2006). L'analyse multimodale complexifie encore davantage ce paysage : les analyses des ressources gestuelles, visuelles, actionnelles se focalisent sur des clusters de phénomènes concomitants et coordonnés au sein d'actions particulières, sans oublier la matérialité et la spatialité du contexte où elles sont accomplies (sur l'importance des déplacements, par exemple, voir une réanalyse de la deixis spatiale Mondada, 2005b, du rapport entre construction du tour et déplacement dans l'espace, Relieu, 1999, du rapport entre mouvement et organisation des tours De Stefani & Mondada, 2007).
+Ces différentes options ne se contredisent pas en principe mais produisent des développements cumulatifs distincts, ayant des implications théoriques différentes pour la pensée et l'approche de la langue en interaction.
+Une telle conception de la parole en interaction relève plus généralement d'une approche des structures du langage qui considère non seulement que les premières sont sélectionnées, mobilisées, exploitées de manière fonctionnelle à l'interaction mais, plus radicalement, qu'elles sont configurées, en tant que structures, d'une manière sensible à leur usage prototypique dans l'interaction. Comme le dit Schegloff,
+« it would hardly surprise us if some of the most fundamental features of natural language are shaped in accordance with their home environment in copresent interaction, as adaptations to it, or as part of its very warp and weft (Schegloff, 1989 : 142 - 4, 1991 : 153 - 5). For example, if the basic natural environment for sentences is in turns-at-talk in conversation, we should take seriously the possibility that aspects of their structure - for example, their grammatical structure - are to be understood as adaptations to that environment. In view of the thoroughly local and interactional character of the organization of turn-taking in conversation (SSJ, 1974), the grammatical structures of language should in the first instance be understood as at least partially shaped by interactional considerations (Schegloff, 1979). And one locus of those considerations will be the organization of the turn, the organizational unit which 'houses' grammatical units » (1996a : 54 - 55).+
Cette vision est proche de celle défendue par Hopper de la « grammaire émergente » (1987), par laquelle il critique une grammaire basée sur un système fixe voire figé, pour inviter à penser la grammaire en relation avec les expériences des locuteurs en action, comme répondant aux contraintes et aux pressions exercées par le discours. Dans la perspective interactionnelle, cela amène à considérer que « it seems appropriate that grammar would arise from, or emerge from, a dynamic constellation of interactional practices » (Fox, 2007 : 302). Cette conception émergentiste peut se penser à deux niveaux distincts mais interreliés :
+Une première conséquence en est que la grammaire est conçue comme un ensemble de ressources interactionnelles, non seulement actualisées, non seulement mobilisées mais aussi configurées en réponse aux contingences de l'interaction ; cette grammaire partage avec les unités interactionnelles les caractéristiques de l'indexicalité, de la plasticité, de l'ajustement aux contraintes praxéologiques.
+Une seconde conséquence concerne la définition même de ces ressources : s'il s'agit de considérer les ressources effectivement mises en oeuvre par les locuteurs dans l'organisation de leurs tours en interaction, alors il n'y a aucune raison de séparer d'un côté ressources « verbales » et de l'autre ressources « non-verbales ». Une approche de la multimodalité permet précisément de traiter ensemble les ressources grammaticales, prosodiques et corporelles (gestes, regards, mimiques faciales, mouvements de la tête, postures corporelles, etc.) que les participants mettent en oeuvre de manière holiste dans l'organisation méthodique de leur conduite, dans une orientation commune vers les opportunités et les contraintes émergeant de l'interaction. Une telle conception des ressources ne se situe pas en dehors de la linguistique mais la rend simplement moins logocentrique.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+On fera ici le point sur une des questions majeures de la syntaxe du français : la disposition des constituants les uns par rapport aux autres. On s'intéressera seulement aux constituants majeurs de l'énoncé, en laissant de côté l'analyse interne des syntagmes, notamment des syntagmes nominaux.
+L'étude de l'ordre des mots est un des domaines majeurs de la syntaxe. Longtemps dominé par des considérations idéologiques sur le rapport avec un "ordre de la pensée" décrit comme universel, l'ordre des mots du français a fait l'objet d'une investigation systématique à l'époque moderne. Un travail pionnier qui reste une source d'inspiration pour la richesse de ses données est le livre de Blinkenberg (1928). Parmi les grammaires, il faut surtout prendre en compte Damourette & Pichon (1911 - 1940), notamment les chapitres du volume IV sur la "rétrogression" (les inversions du sujet). Pour les théories contemporaines, Kayne 1973 est un texte fondateur, qui fixe une terminologie toujours utilisée à l'heure actuelle. D'autres approches ont joué un rôle majeur dans ce domaine : l'approche topologique est à l'origine du travail en diachronie de Skårup (1975) qui reste une référence majeure pour l'ancien français. Pour le français moderne, dans une approche contrastive, Herslund (2006), et pour une présentation des analyses typologiques, Gerdes & Muller (2006). Plus récemment, d'autres théories se sont intéressé à l'ordre des mots en français (voir entre autres Bonami & Godard 2001 pour HPSG, sur l'inversion du sujet nominal; Kampers-Mahne et alii 2004, sur le lien entre les inversions nominales et la théorie de l'information; Abeillé & Godard 2004, sur le rôle du "poids" des constituants dans l'ordre; dans une perspective fonctionnaliste, Cornish (2001, 2005) à propos des inversions "locatives"; enfin, tout un pan de l'organisation de l'énoncé surtout repérable en français parlé a été étudié par l'école de Blanche-Benveniste : voir C. Blanche-Benveniste (1996).
+Dans le présent congrès, trois des communications en syntaxe touchent à ces questions (Tseng; Bonami & Godard; Abeillé, Godard & Sabio).
+Dans de nombreuses théories actuelles, l'ordre des mots est distingué de la constituance. Ce n'était pas le cas autrefois, notamment dans les théories génératives, pour lesquelles l'ordre des mots découlait de l'ensemble des règles de formation de l'énoncé. Les modifications par rapport aux ordres conformes à la constituance étaient décrites par des modifications post-transformationnelles telles que Scrambling (Ross, 1986 : 51).
+La prise en compte de langues "non configurationnelles" comme le warlpiri a conduit à distinguer un ordre variable, soumis de fait à des facteurs pragmatiques, à la constituance ordonnée des langues configurationnelles (par exemple pour LFG : Bresnan, 2001 : 9). Il en est résulté la prise en compte en syntaxe d'ordres régis par des facteurs communicatifs (E. Kiss, 1994).
+Dans les théories génératives, l'ordre configurationnel est vu généralement comme le produit d'un paramètre sur la position des têtes, initiale (anglais) ou finale (japonais). A cela s'ajoutent des modifications qui doivent être motivées (scrambling, passif, inversion "stylistique"). L'analyse de Kayne (1994) basée sur une relation c-commande asymétrique suppose un ordre universel de type spécifieur-tête qui conduit à poser l'ordre SVO comme basique (Kayne, 1994 : 35).
+Le français moderne est typiquement une langue configurationnelle de type SVO, avec plusieurs fonctions affectées à l'ordre :
+Un autre angle d'étude est offert par la diachronie : selon les analyses admises, l'ancien français était une langue de type V2 dans les indépendantes avec probablement deux stades dans l'évolution, si on suit Rouveret 2004. Le statut du terme initial semble avoir été assez proche de celui des langues germaniques actuelles, soit topique soit focus, souvent aussi un adverbial "cadratif". Comment est-on passé au type SVO qui se manifeste nettement entre le 16e et le 17e siècle? Peut-on voir dans les "inversions" actuelles la survivance de structures de type TVS?
+Avec les mêmes réserves que ci-dessus sur l'appartenance ou non à la syntaxe, le statut des clitiques a évolué (vers plus de cliticisation et une rigidification qui contraste plus ou moins avec le statut des autres clitiques romans). Comment le français s'est-il distingué sur ce plan des autres langues romanes? Faut-il analyser tous les clitiques comme relevant de la morphologie (Miller 1992)?
+On se limitera ici aux questions relatives au français actuel. Après une brève présentation de la structure canonique des phrases, le type SVO, on examinera les constructions à inversion (VS, le plus souvent de type VOS avec sujet nominal), puis les constructions à objet antéposé (OSV). Faute de place, on ne parlera pas des disloquées.
+Le type SVO du français moderne standard écrit offre les propriétés suivantes :
+Tout SN (non adverbial) directement placé devant le verbe fini est son sujet. Si on a la suite SV(initial)-SN, tout SN (non adverbial) directement à droite de V ou de la suite Aux-Vpp est objet direct sauf cas de construction impersonnelle avec un verbe non inaccusatif. Les constructions à V inaccusatif ont ici un sujet qui partage certaines propriétés de l'objet direct mais qui accorde à lui le verbe.
+Les constructions orales offrent quelques possibilités supplémentaires sans qu'on y rencontre des ordres absolument absents de l'écrit (Blanche-Benveniste 1996 : 109).
+Les possibilités d'éléments X intercalés entre une structure de type SVO sont différentes selon les cas :
+-entre S et V, il est assez difficile sauf dislocation d'insérer un élément non clitique :
+(1) ?Paul tous les soirs promène son chien+
En particulier, l'insertion d'adverbes liés entre S et V est exclue, contrairement à ce qui est observé dans une autre langue SVO, l'anglais (Pollock 1989).
+-si V est auxiliaire : entre V et Vpp, on peut insérer des adverbiaux :
+(2) *Paul a son chien promené+
(3) Paul a toujours obtenu une réduction+
(4) Paul a pendant des heures joué avec son chien+
L'insertion de groupes prépositionnels non adverbiaux semble difficile :
+(5) ??Paul a de son patron obtenu une réduction+
(6) *Paul avait à Marie donné ce livre+
-entre V et O, il n'y a pas de contrainte d'ordre indépendamment des choix pragmatiques et communicatifs :
+(7) Paul donne à Marie un livre / Paul donne un livre à Marie+
Sur l'ordre des compléments dans une langue SVO comme le français, il y a plusieurs explications possibles. Pour Hawkins (1994; 1998), l'explication des ordres observés en performance est à rattacher à des choix liés à la complexité plus ou moins grande des compléments, les plus simples précédant les complexes. Selon lui, les explications par des différences de type communicatif dérivent de la complexité structurale.
+Sans que cela soit une objection aux explications par des choix de performance liés à la complexité ou à des choix communicatifs, il semble qu'il y ait en français un ordre neutre de la séquence des compléments dans le SV, si on suit les propositions de Korzen 1996 :
+V SN (objet direct) SPrép (objet indirect) SAdv scéniques (temps /lieu) Autres SAdv+
La séquence linéarisée peut correspondre à deux types totalement différents de structuration. Dans les analyses génératives classiques à branchement binaire, il faut supposer une expansion à droite alliée à une dépendance structurale. L'hypothèse avancée par C. Philips 2003 supposerait une expansion par accrétion sur des constituants syntagmatiques formés de façon successive de gauche à droite : une première association formerait ainsi un groupe V SN, ce groupe étant ensuite associé à un SPrép, et ainsi de suite.
+L'argumentation détaillée de Korzen sur l'ordre neutre est basée sur les propriétés d'extraction des mots Qu- avec placement non final du sujet, on y reviendra plus loin.
+Dans cet ordre neutre, les adverbiaux peuvent se placer selon les facteurs de poids, de complexité ou de focalisation, à des places diverses différentes de l'ordre neutre. Leur ordre relatif peut évidemment être significatif s'ils ont des relations prédicatives de portée l'un sur l'autre : c'est alors la précédence qui correspond à la position prédicative dominante :
+(8) Luc n'a toujours pas répondu / Luc n'a pas toujours répondu+
L'insertion d'un élément entre auxiliaire et participe passé n'est probablement pas neutre. Il faut distinguer certains éléments "légers" comme l'objet pronominal tout :
+(9) Il a tout cassé vs. ?Il a cassé tout+
Les propriétés morphophonologiques ne suffisent pas pour expliquer cette position, qui semble rendue possible par un statut catégoriel particulier, peut-être semi-adverbial : on ne peut pas avoir :
+(10) *Il a ça cassé vs. Il a cassé ça.+
Autre cas particulier : celui d'adverbes à statut de déterminant détaché, étudié par Obenauer 1983, avec une possible différence d'interprétation aspectuelle entre les deux constructions :
+(11) Dans cette caverne, il a beaucoup trouvé de pièces d'or+
(11') Dans cette caverne, il a trouvé beaucoup de pièces d'or (Obenauer 1983 : 78)+
Il faut aussi distinguer l'auxiliaire à valeur de temps du passé de l'accompli utilisable avec d'autres prédicats que les participes passés : dans cette dernière interprétation, un SN sujet sémantique du prédicat peut précéder :
+(12) J'ai cassé mon moteur+
(12') J'ai mon moteur (de) cassé /...qui est cassé+
Dans ce dernier cas, l'accompli n'a pas de valeur passée : par exemple on peut opposer :
+(13) J'ai cassé mon moteur mais il est réparé+
(13') *J'ai mon moteur cassé mais il est réparé+
La différence tient sans doute au statut assez différent de avoir dans les deux constructions.
+Il est souvent admis que les clitiques objets des langues romanes sont attachés morphologiquement au support verbal (dans la plupart des langues modernes actuelles, malgré certains cas d'attachements à d'autres supports : portugais par exemple, ou encore l'attachement secondaire en gascon aux particules initiales). L'attachement préverbal ou postverbal des clitiques objets encore observable dans les langues romanes du sud pour les formes non finies du verbe a disparu depuis longtemps du français, et la possibilité de placer les clitiques objets sur un auxiliaire distinct des auxiliaires de l'accompli et du causatif en faire est totalement archaïque en français :
+(14) *Il le leur veut donner+
La principale question relative à l'ordre syntaxique des constituants est celle que pose le pronom faible sujet, cliticisé en français, d'abord en position postverbale (c'est déjà fait en français médiéval selon Skårup), puis en position préverbale à la fin de la période de l'ancien français. Les analyses de ce phénomène varient : soit le clitique est décrit comme un élément morphologique sans incidence sur la syntaxe de la phrase en français moderne : sa postposition serait morphologique (Morin 1979), soit il est décrit comme un terme occupant une position syntaxique distincte, analogue à celle du sujet nominal avec une cliticisation postsyntaxique, au niveau phonologique (Kayne 1983, Rizzi & Roberts 1989, position identique dans l'analyse diachronique de Dufresne & Dupuis 1996). L'analyse proposée par Rizzi & Roberts alignait la syntaxe du français sur celle des langues germaniques avec une montée du verbe au-delà de la position du sujet occupée par le clitique, donc en C. Cette analyse est insatisfaisante pour plusieurs raisons, notamment la difficulté de décrire de façon non ad hoc les constructions à sujet nominal coexistant avec le sujet clitique (on parle dans ce cas d'inversion complexe) : le sujet nominal devrait occuper la position de spécifieur de C, mais se trouve alors en concurrence avec la possibilité de trouver aussi un mot Qu- :
+(15) Depuis quand Jean la connaît-il? (Kayne 1994 : 44)+
Enfin, on n'a pas en français (ou plus exactement, on ne trouve plus depuis le 13e siècle) des constructions interrogatives de type :
+(16) *Est Jean venu?+
Ces deux raisons ont conduit Kayne à abandonner l'hypothèse d'un mouvement vers C (Kayne 1994 : 44). Depuis les propositions de Rizzi, 1997, l'hypothèse posant la présence de plusieurs têtes fonctionnelles à la périphérie gauche de la proposition permet d'expliquer les phénomènes d'inversion en subordonnée ou comme en ancien français l'existence de constructions de type V2 après une conjonction (Rouveret 2004 : 227).
+La dérivation des inversions clitiques dans une théories HPSG est esquissée dans la communication de J. Tseng. Cette communication se limite cependant au problème du sujet, alors que l'inversion clitique implique la syntaxe d'un élément déclencheur en position précédant le sujet, soit adverbe, soit pronom Qu-, soit segment en discours direct dans les incises :
+(17) Peut-être Jean est-il arrivé vs. *Jean est-il peut-être arrivé.+
(18) Où Jean est-il allé? vs. *Jean est-il allé où?+
(19) "Viens ici", me dit-il. vs. *Me dit-il : "Viens ici".+
L'absence de ce déclencheur en contextes antérieur et postérieur vides impose une interprétation interrogative, il faut donc poser impérativement un élément vide dans ce cas, dans le paradigme des autres déclencheurs :
+(20) Jean est-il parti *(?)+
On peut donc analyser l'inversion clitique comme un phénomène de rection un peu particulier, distinct de la subordination : l'interprétation énonciative de la séquence (SN) V-il dépend du déclencheur, un déclencheur vide aboutissant à une interprétation interrogative (Muller 1996 : 76). La présence ou absence d'un SN intercalé (dans les contextes à inversion complexe) est transparente :
+(21) Peut-être (Jean ) est-il arrivé+
Les déclencheurs sont spécifiques à ce type d'inversion, même s'il y a une interférence avec ceux de l'inversion du sujet nominal (voir plus loin). Pour l'inversion complexe, il s'agit : des mots Qu- interrogatifs, d'adverbes, soit de modalisation énonciative ( peut-être, sans doute, assurément...) soit à fonction de connecteurs (aussi, ainsi,...) avec un énoncé antérieur, quelques adverbes à orientation négative (rarement, difficilement), et des constructions à corrélation, à interprétation hypothétique :
+(22) Quand Jean est-il venu?+
(23) Assurément Jean est-il arrivé+
(24) ...Aussi Pierre est-il intervenu+
(25) Rarement trouvait-on le curé à son logis (M. Aymé, La Table-aux-Crevés, Pléiade, 1, 253)+
(26) A peine Marie était-elle sortie que Jean est entré+
(27) Jean sort-il que Marie entre aussitôt+
(28) Une discussion venait-elle à s'élever au bureau, il ne s'en mêlait point que son avis ne fût sollicité...(M. Aymé, Aller-retour, Pléiade, 1, 113).+
L'inversion clitique se confond avec l'inversion du sujet nominal dans les contextes suivants :
+(29) Puisse-il (Puisse Jean) réussir!+
(30) Salut! dit-il (...dit Jean)+
(31) Que fait-il? (Que fait Jean?)+
La plupart du temps, on trouve l'inversion clitique dans les indépendantes et les principales, ce qui a été interprété comme l'obligation que le constituant C0 soit vide et non régi par un terme recteur (pronom relatif ou interrogatif par exemple). Il est cependant possible de trouver cette inversion clitique en subordonnée :
+(32) Il a tellement envie de venir que peut-être viendra-t-il quand même nous voir.+
(33) C'est que peut-être ne s'agissait-il pas d'une nouvelle manière de peindre, mais, plus fondamentalement, d'une nouvelle manière de faire...(J. Cassou, Panorama des arts plastiques contemporains, 1960, 171, Frantext).+
(34) Tant de filles honnêtes sont devenues de malhonnêtes femmes, que peut-être serai-je un exemple contraire (Diderot, Jacques le Fataliste, 1784, Frantext, 647).+
(35) Ane et cheval, ils travaillaient chacun de leur côté, et le soir, à l'écurie, se retrouvaient si harassés qu'à peine, avant de s'endormir, avaient-ils le temps d'échanger quelques plaintes sur la dureté de leurs maîtres. (M. Aymé, Contes du chat perché, Pléiade, 2, 1013).+
Cette situation n'est que le prolongement en français moderne d'une particularité du français : contrairement à d'autres langues V2, qui ont une structure différente en principale et en subordonnée, le français a toujours eu la possibilité de construire ses subordonnées sur les types syntaxiques des indépendantes : dès l'ancien français (seconde moitié du XIIe siècle), la subordonnée adopte le modèle des indépendantes avec possibilité (très minoritaire) d'inverser le sujet (Skårup 1975 : 515).
+L'inversion du clitique sujet pose la question de la nature du sujet (Tseng, dans sa communication). Il ne semble pas, malgré quelques vues discordantes qu'il y ait à discuter de la fonction du SN accordé au clitique : même si à l'origine c'était indiscutablement un nom en extraposition, séparé par une pause du sujet, ou même antéposé parfois au déclencheur, son intégration comme sujet découle de la possibilité de voir les indéfinis dans cette position avec accord au clitique :
+(36) Peut-être quelqu'un est-il arrivé+
alors que les indéfinis de ce type ne sont pas thématisables librement :+
(37) *Quelqu'un, est-il arrivé?+
Autre argument : l'accord avec un pronom neutre non humain, exclu en français moderne en cas de thématisation :+
(38) Cela est-il vrai?+
(39) *cela, est-il vrai? vs. Cela, est-ce vrai?+
Il faut donc voir dans ce SN un sujet, et d'autre part aucun argument ne permet de lui fixer une position syntaxique distincte de celle des sujets nominaux des énoncés sans clitique.
+La nature du sujet tient à l'accord. Il semble qu'on puisse admettre les possibilités suivantes :
+-il et son paradigme sont imposés par l'utilisation d'un temps fini. cette particule est donc à interpréter comme une marque de temps. Sans argument à construire (verbes impersonnels), on a l'interprétation impersonnelle, avec antéposition ou postposition selon les mêmes critères que dans les constructions avec accord.
+-L'accord est indépendant de toute considération sémantique : il s'adapte évidemment à la pluralité obtenue par coordination :
+(40) Pierre et Marie sont-ils venus?+
-Les emplois en pronom personnel sont dus à l'absence de réalisation du pronom fort après accord : il ne reste que le clitique avec la sémantique des pronoms personnels cette fois. Ce phénomène doit être étendu à ce qui rend inutile la réalisation phonologique d'un cela, ça, ou a on qui correspond à un SN humain indéterminé.
+La structure des constructions à inversion clitique pourrait suivre le modèle suivant, basé sur l'hypothèse d'une position distincte du sujet clitique basique (il impersonnel) :
+Déclencheur (Sujet nominal) V-il [(e)]V ...+
Cela suppose, pour les phrases sans clitique, un mécanisme d'élagage du clitique lorsque le sujet nominal est réalisé sans inversion clitique, et donc la possible réalisation non standard de phrases à double sujet à gauche, actuellement bien attestée en français familier (Zribi-Hertz 1994) et dans les corpus de français parlé. Par exemple, Auger 1996 :
+(41) mon frère le plus vieux il jouait du violon+
(42) en campagne, quand quelqu'un il dansait...(Auger 1996 : 25)+
Il n'en découle pas nécessairement que le français standard soit analysable de même (Auger 1996 : 39). Position identique dans Zribi-Hertz 1994.
+Il s'agit de diverses constructions à sujet nominal (non clitique) accordé au verbe qui le précède. Cette inversion a été nommée "inversion stylistique" (Kayne 1973). Il existe de nombreuses études depuis une trentaine d'années sur ce sujet. L'article de Kampers-Mahne, Marandin, Drijkoningen, Doetjes & Hulk (2004) distingue plusieurs types :
+1. L'inversion dans les contextes d'extraction (questions partielles, relatives, clivées) :
+(43) Où est allée Marie? Je me demande où est allée Marie.+
(44) La personne qu'a rencontrée Pierre est ma cousine.+
(45) C'est dans cette maison qu'est né Victor Hugo.+
2. L'inversion inaccusative (Marandin 2003), liée à des verbes spécifiques (verbes de mouvement, verbes avec auxiliaire être, passifs); elle est observable dans deux classes distinctes de contextes :
+-complétives :
+(46) Je voudrais que soient distribués ces prospectus (Kampers-Mahne et al., 2004 : 557).+
(47) On eût dit que traînait dans la pièce quelque chose de cette atmosphère lourde...(Gracq, Le rivage des syrtes, 32, Frantext).+
-indépendantes avec ou sans adverbe introducteur :
+(48) A ce moment-là se fit entendre un bruit strident.+
(49) Entre alors notre gardien avec de la nourriture.+
Elle pourrait être liée à un statut particulier du sujet inversé, attaché à une position "profonde" d'objet direct distincte de la position standard du sujet dans les analyses génératives, comme spécifieur et non comme complément du verbe. En témoigne la propriété de ce type de sujet inversé de pouvoir lier un en au sujet postposé quantifieur :
+(50) (des examens) Il faudrait qu'en soient reportés plusieurs.+
(51) (des hommes) Alors en entrèrent trois / En entrèrent trois.+
(exemples (17) de Bonami-Godard (2001 : 123)).+
3. L'inversion "elaborative" (Kampers-Mahne et al.) ou "à focalisation forte" (Kayne & Pollock 2001) : il s'agit d'inversions à sujet focalisé, souvent lourd, incluant les listes, et sans contrainte d'utilisation de la première place :
+(52° Ont obtenu leur licence les étudiants suivants : Pierre Dupont, Marie Dubois...+
Le sujet pluriel cataphorique n'est pas obligatoire : la liste peut suivre immédiatement le verbe, constituant ainsi le seul cas connu de sujet syntaxique disloqué :
+(53) Ont obtenu leur licence : Pierre Dupont, Marie Dubois...+
Un objet est possible comme on le voit ci-dessus, il est alors toujours placé avant le sujet (plus généralement, le sujet est final dans ce type) :
+(54) Rendront un devoir supplémentaire tous les élèves qui ont échoué (Kampers-Mahne et al. 2004 : 559).+
4. Il faut ajouter à ces inversions étudiées par Kampers-Mahne et al. les inversions à topique adverbial ou adjectival initial parmi lesquelles les inversions locatives étudiées par F. Cornish (2001), A. Borillo (2006), C. Fuchs (2006) : un adverbial de lieu, parfois de temps, introduit une construction à sujet le plus souvent, mais pas obligatoirement, final :
+(55) Sur la place se dresse la cathédrale.+
(56) A midi sera organisé un apéritif dans la salle des fêtes.+
(57) Il y a trois siècles, ici naissait Blaise Pascal (Borillo 2006 : 25)+
Sans doute n'est-ce qu'un sous-type fréquent d'inversions à adverbial initial focalisé :+
(58) Ainsi se termina le spectacle.+
(59) Avec Autun se distingue Alésia par le nombre d'ateliers découverts. (Dossiers d'archéologie, n°316, sept. 2006, 52).+
ou de constructions à adjectif initial :
+(60) Nombreux sont les gens qui se plaignent.+
(61) Frugal est leur quotidien : du thé au beurre, une poignée de farine d'orge grillée...(Tibet, dans le Monde Voyages, Mars 1992, 16).+
Cet ensemble de constructions ressemble par le type de verbe aux constructions inaccusatives mais a une spécificité dans l'analyse informationnelle du verbe : celui-ci est soit faiblement informatif, soit de signification réduite dans la construction à inversion locative (cf. plus loin).
+5. Il faut ajouter aussi les constructions à incise. Bonami & Godard (communication à cmlf) distingue deux types, dont l'un avec inversion est obligatoire, qu'elle soit nominale ou clitique, lorsque l'incise est un "ajout" à une citation considérée comme une "tête" :
+(62) Je ne vous crois pas, s'emporta enfin la femme. (Dorgelès, dans Grevisse, §1352).+
Selon ces auteurs, ce type d'incise obéit aux critères des structures à extraction, le critère essentiel étant la possibilité de régir la citation par un verbe enchâssé :
+(63) "Je n'en peux plus" semblait croire pouvoir dire Paul. (op. cit. ex. 33d).+
Enfin, contrairement à d'autres langues romanes comme l'italien, le français ne connaît pas d'inversion du sujet nominal en réponse, avec focalisation (Marandin 2003) ou sans (Lambrecht, 1994) :
+(64) Ha telefonato Gianni (Lambrecht 1994)+
(65) *A téléphoné Jean.+
Le statut du sujet inversé est discuté par divers auteurs. Selon Bonami-Godard 2001, sept propriétés caractérisent le sujet inversé (en laissant de côté les sujets des inversions inaccusatives, plus proche de l'objet direct)
+Dans le détail, les inversions ont un fonctionnement assez différent selon les types. Sur l'inversion locative, A. Borillo 2006 : 33, note que le prédicat est "léger" d'un point de vue informationnel, au point de perdre du sens, comme le montrent les exemples suivants :
+(66) Dans l'armoire étaient rangées les chaussures.+
(66') Dans l'armoire, les chaussures étaient rangées. (Cité par Nølke 1995, ex; (33), l'exemple originel étant d'A. Borillo; repris dans Cornish 2001 : 110)+
Le sens est différent : dans la structure à sujet final, le verbe localise simplement les chaussures; dans la phrase à sujet préverbal, le verbe focalisé prend son sens plein et "rangé" a un sens qualitatif. Cela peut conduire à un inacceptabilité si le verbe final n'est pas susceptible de focalisation, comme dans :
+(67) *Dans l'armoire, les chaussures se trouvaient (Nølke 1995, ex. (36))+
D'autres effets peuvent apparaître, par exemple (dans Cornish 2001 : 106) :
+(68) Dans ce bureau travaillent quatre personnes.+
(68') Dans ce bureau quatre personnes travaillent.+
La phrase à inversion prend un sens habituel, alors que la phrase à sujet préverbal a un sens actualisé.
+On peut ajouter à ces exemples la paire suivante, avec un verbe d'action :
+(69) Dans l'armoire, les chaussures sont cirées.+
(69') Dans l'armoire sont cirées les chaussures.+
La seconde montre comment l'inversion s'associe au sens habituel pour localiser l'action, donnant à la phrase le sens bizarre du lieu où se fait l'action. La phrase à verbe final est interprétée comme un accompli descriptif avec le sens qualitatif déjà vu plus haut.
+L'inversion à extraction pose d'autres problèmes. Le sujet peut plus facilement n'être pas final, et sa position semble être préférentiellement à l'endroit où le terme extrait avait sa position in situ (Korzen, 1992; 1996). L'analyse de Korzen propose une explication à la position du sujet : celui-ci doit se placer, sauf facteurs supplémentaires comme la lourdeur particulière de certains syntagmes, juste après la position d'un terme Qu- in situ, et l'ensemble du verbe et des compléments allant jusque là constitue une unité pragmatique distincte de la constituance syntagmatique, qu'elle nomme unité prédicative minimale. Ainsi, sachant que les adverbiaux de temps précèdent par défaut les adverbiaux de lieu, on expliquera le contraste suivant :
+(70) A quelle heure ferment les magasins en France?+
unité prédicative : ferment à quelle heure.
+(71) *Dans quel pays ferment les magasins à huit heures? (Korzen 1996 : 61)+
unité prédicative : ferment à huit heures dans quel pays.
+On dira, conformément à cette analyse :
+(71') Dans quel pays ferment à huit heures les magasins?+
La valeur empirique de l'analyse de Korzen est admise par Kayne & Pollock 2001 et incorporée aux transformations multiples produisant dans leur cadre la structure à inversion par une série de mouvements à gauche.
+La concurrence, à droite du verbe, de l'objet direct et du sujet pose des problèmes spécifiques. L'objet direct précède en principe le sujet :
+(72) Le dieu (Hugo) est entouré d'êtres féminins. Il y en a tout un canapé, parmi lesquels fait les honneurs du salon une vieille femme aux cheveux d'argent... (Goncourt, Journal, 10 - 12_1870).+
Certains cas où le sujet précède l'objet s'expliquent bien par les propositions de Korzen :
+(73) (il les disperse) ainsi que fait un vent d'orage les épis. (Genevoix, Ceux de 14, Frantext, 42)+
L'extraction implique un adverbial de manière qui précède l'objet : un vent d'orage disperse ainsi les épis. L'ordre inverse serait impossible ici :
+(74) * ainsi que fait les épis un vent d'orage+
Autre cas, l'extraction d'un locatif circonstanciel qui peut être naturellement interprété comme précédant l'objet :
+(75) C'est chez eux que trouvent leurs invalides la fameuse "loi de l'offre et de la demande" (L. Febvre, Combats pour l'histoire, Frantext, 173)+
= leurs invalides trouvent [là] la fameuse loi de l'offre et de la demande.
+Il existe pourtant de nombreux cas d'inacceptabilité qui ne s'expliquent pas par la théorie de Korzen. Par exemple :
+(76) *A qui a donné ce livre Jean? (Kayne et Pollock 2001, ex. (167))+
comparé à l'exemple suivant, plus acceptable :
+(77) ?Qu'a donné à Marie Jean? (ex. (166))+
Sur un exemple presque identique :
+(78) *L'enfant auquel donnera ce livre Paul (Bonami & Godard, ex (1b) et (71b))+
Il n'y a pas d'exclusion de la fonction objet direct, puisque les objets clitiques sont toujours possibles :
+(79) J'éprouve un peu du tressaillement qui saisit M. de Portebize quand les lui décrit M. d'Oriocourt (M. Proust, dans Damourette & Pichon, §1590).+
Bonami & Godard posent une contrainte de domaine excluant la succession de deux GN non prédicatifs non locatifs non lourds. De fait, les GN lourds sont admis dans ce cas en position finale après un objet direct :
+(80) C'est finalement à Marie qu'a présenté son projet l'étudiant que Paul avait refusé de recevoir. (B & G, op. cit.)+
Exemple réel :
+(81) Où puisait donc sa sagesse improvisée cette catalane mercenaire, qui n'était jamais qu'un mercanti de la littérature? (J. Donoso, Le jardin d'à-côté, Frantext).+
Cette analyse ne me semble pas entièrement satisfaisante, puisqu'il me semble qu'on peut dire facilement :
+(82) Où donc cueillent des fleurs les parisiens?+
(83) A qui donc offrent des fleurs les maris, à la Saint-Valentin?+
Il s'agit de constructions dans lesquelles le sujet suit des termes régis par le verbe principal dans une autre proposition, sans être nécessairement final. On trouve en effet des sujets inversés entre compléments régis, sans limite, que ce soit des compléments infinitifs ou des verbes finis :
+(84) Quel genre de cadeau veut offrir Marie à Jean-Jacques? (Kayne & Pollock 2001 ex. (159)).+
(85) Quelle maison veut que j'achète Jean-Jacques? (idem ex. (157)).+
(86) Une chance que trouvent toujours plus ou moins qu'on a les femmes dont on devient l'amant... (P. Léautaud, Le petit ouvrage inachevé, 30, Frantext; dans MUller 2002).+
Avec un verbe fini régi, la possibilité de trouver un sujet non final semble plus réduite :
+(87) *Quelle maison veut que j'achète Jean-Jacques à Marie?+
Ces constructions, comme on le voit, ne respectent pas la constituance en syntagmes. Pour Bonami & Godard (2001 : 133) "toutes les structures proposées pour l'inversion simple sont inadéquates pour l'inversion longue". Leur démonstration se base sur une analyse par extraposition droite du sujet, elle même suivie d'une extraposition droite plus haut placée du terme final. Cette extraposition doit être non bornée, ce qui contrevient à la règle établie par Ross (1967/ 1986) selon laquelle les extrapositions droites sont des dépendances bornées. Par conséquent, ces auteurs proposent de distinguer l'ordre et la constituance.
+Pour Kayne & Pollock, les déplacements multiples à gauche supposent un déplacement particulier du terme qui apparaîtra en position finale; deux solutions alternatives sont présentées : soit ce terme est déplacé par pied-piping avec le mot Qu-, soit il est déplacé ultérieurement et séparé de son recteur par 'topicalisation' (section 16). Il faut en outre une transformation particulière, IP movement, pour déplacer le verbe et les verbes dépendants, tensés ou non.
+Les constructions avec régis à l'infinitif présentent des possibilités contrastées. Les cas les plus simples sont ceux d'infinitifs contrôlés par le même sujet, avec une série non limitée de verbes régis :
+(88) Qu'a oublié de raconter Luc à Marie?+
Du point de vue de l'ordre, et probablement aussi pour les propriétés phonologiques et prosodiques, "a oublié de raconter" est traité comme une unité, qui peut ici correspondre à une extension de la notion pragmatique d'unité prédicative minimale de Korzen 1983. Lorsque le contrôle de l'infinitif est exercé par un autre actant, des contraintes supplémentaires apparaissent qui peuvent contraindre le sujet inversé à être final. Bonami & Godard 2001 opposent :
+(89) *La personne que m'a convaincu de présenter le patron du labo à Marie.+
(89') La personne que m'a convaincu de présenter à Marie le patron du labo.+
Il fait sans doute poser que l'unité prédicative minimale incluant un sujet sémantique de verbe à l'infinitif (son contrôleur) doit aussi incorporer tous les compléments rattachés à ce verbe (Muller 2002).
+D'autres constructions de ce type sont à prendre en compte, en particulier :
+-les coordonnées à sujet à droite commun :
+(90) Peu importe dès lors ce que valent et ce que deviennent les fruits de la terre. (Teilhard de Chardin, Le milieu divin 38, Frantext)+
-les dépendantes à sujet commun, qui semblent acceptables dans certains cas :
+(91) C'est ce que dit que fait Mimi quand elle a des visites. (Damourette & Pichon, §1589)+
(92) Ce qu'a dit que ferait Luc à Marie est inquiétant+
Le français, surtout oral, connaît une structure marquée de type OSV. Elle a été analysée à partir des corpus de français parlé (cf. par exemple Blanche-Benveniste 1996 : 112), mais elle avait déjà été signalée par Blinkenberg (1928 : 164). Elle fait l'objet d'un traitement macro-syntaxique, avec la distinction de deux constructions, dans Sabio 2006. C'est aussi l'objet de la communication d'Abeillé, Godard & Sabio au congrès, avec une argumentation qui conduit ces auteurs à distinguer deux constructions, l'une d'un type disloqué à complément nul anaphorique, dans lesquelles le "complément" initial est un thème :
+(93) Les conjugaisons j'aimais bien (auteurs cités, ex. (1))+
l'autre à extraction, avec un complément non thème :+
(94) et là, tu sais ce qui lui est arrivé -une antenne ils lui ont jeté à la tête...(ex. (15a))+
(95) Trois heures il avait de retard, le train. (ex. (7b))+
La propriété principale permettant dans ce dernier cas de parler d'extraction est l'impossibilité de supprimer le complément antéposé, à la différence de la première construction.
+La seconde construction obéit à des contraintes particulières contextuelles, qui conduit les auteurs à parler d'extraction dialogique. Même avec un indéfini, une reprise est possible :
+(96) Mon père il va m'acheter un petit mouton + un petit mouton il va m'acheter. (Ex. (15c)).+
Très sommairement, faute de place, je me contenterai de souligner quelques points saillants parmi les principales évolutions de ces recherches : la distinction faite de plus en plus souvent entre ordre et constituance; la prise en compte croissante de la structure de l'information dans les structures non canoniques; le développement des investigations syntaxiques sur le français parlé.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+L'étude de l'histoire et de l'évolution des idées en linguistique s'est considérablement développée ces dernières années. La recherche porte le plus souvent sur des périodes précises du passé sur lesquelles on a un certain recul, afin d'en faire ressortir les orientations et les lignes de force. Il est beaucoup plus risqué d'analyser la période récente. Pourtant, on ne peut qu'être frappé par les hauts et les bas d'un domaine, la linguistique, quelque peu délaissée après la guerre, si forte dans les années 1960, et à nouveau en plein questionnement aujourd'hui, pour autant que l'on puisse en juger. Ce sont ces mouvements de flux et de reflux que l'article essaie de cerner et d'évaluer.
+Notre point de départ sera l'étude de Jean-Claude Chevalier et Pierre Encrevé, Combats pour la linguistique (2006). Ce livre est en fait la reprise d'entretiens réalisés en 1982 « auprès de linguistes français notoires, participants, dirigeants de la spectaculaire expansion de cette discipline de 1958 à 1968 », entretiens qui ont donné lieu en 1984 à un article des deux auteurs appelé « La création des revues dans les années 1960. Matériaux pour l'histoire récente de la linguistique en France » (paru dans le n°63 de Langue française intitulé « Vers une histoire sociale de la linguistique »).
+L'étude initiale de Chevalier et Encrevé se situe clairement dans une perspective sociologique, « à la Bourdieu ». Il s'agit, à travers ces entretiens, d'étudier le « champ » linguistique, les positions de « pouvoir » et de « lutte » entre individus et entre théories. Cette dimension est évidemment présente, et le livre des deux auteurs laisse bien apparaître ces oppositions entre Classiques et Modernes, entre anciennes théories et nouveauté des années 1960, etc. Mais les entretiens tendent à éclater le domaine en autant de descriptions parcellaires ; ils ne permettent pas d'avoir directement accès à une vision globale qui expliquerait les hauts et les bas de la discipline ; enfin, ils donnent une vision subjective à partir du témoignage des acteurs mais laisse (volontairement) dans l'ombre des éléments qu'il nous semble intéressant de reprendre ici.
+Dans cet article, nous essayons de déterminer la portée de courants de recherche en linguistique en France dans l'après-guerre, sur le plan scientifique, épistémologique, voire philosophique, à l'intérieur comme à l'extérieur des frontières. Ce faisant, nous sommes amené à nous poser diverses questions : quelles sont les oppositions à l'oeuvre ? Y a-t-il un réel clivage entre philologie et linguistique ? Y a-t-il une spécificité française dans le renouveau linguistique de l'après-guerre ? Quel est le poids des études classiques par rapport aux études portant sur les langues modernes ? Dans quelle mesure peut-on parler de « structuralisme à la française » ? Dans tous les cas, nous examinons l'influence de ces courants de recherche, notamment à l'international, dans le domaine linguistique et à sa périphérie. Il semble utile de s'interroger sur les progrès et les découvertes lors de la période visée, de façon macroscopique, dans la mesure où la notoriété de certains chercheurs (et la discrétion de certains autres) n'est pas toujours proportionnelle à la fécondité des travaux qu'ils inspirent.
+On examine d'abord la terminologie et les lignes de partage au sein du champ linguistique (section 3). On prend ensuite en compte des éléments volontairement laissés de côté par Chevalier et Encrevé : le continuité de la recherche en philologie classique (section 4), l'influence du structuralisme au-delà de la linguistique, l'intérêt pour de nouvelles problématiques en linguistique (section 5). On essaiera aussi de voir l'influence du renouveau linguistique de la période 1958 - 1968 sur la période plus récente (section 6), avant d'en venir à la conclusion (section 7).
+Comme on l'a déjà dit, l'article initial de Chevalier et Encrevé (1984) se situe dans une perspective sociologique influencée par Bourdieu. Les auteurs sont guidés par le concept sociologique de champ : il s'agit de montrer comment « se constituait, s'organisait et se transformait le champ de la linguistique en France en objectivant le réseau des « prises de position » des acteurs, liées à leurs « dispositions » et à leurs « positions », tous termes pris dans l'acceptation de Pierre Bourdieu » (Chevalier et Encrevé 2006, p. 10). L'ouvrage de 2006 est d'une nature très différente, « tout aussi fortement orienté vers l'histoire sociale mais plus proche d'une ambition biographique, qui retrace des destins particuliers ; une conception plutôt sartrienne et non plus bourdieusienne » (idem, p . 11).
+Nous reprenons ici les thématiques des auteurs selon une voie médiane : laissant de côté les aspects biographiques du livre de Chevalier et Encrevé, nous revenons sur des évolutions plus globales du champ linguistique (ou de sous-champs à l'intérieur de la linguistique). La notion de sous-champ nous semble pertinente car, comme le souligne Bourdieu, « un champ n'a pas de parties, de composantes. Chaque sous-champ a sa propre logique, ses règles et ses régularités spécifiques, et chaque étape dans la division d'un champ entraîne un véritable saut qualitatif (comme, par exemple, quand on passe du niveau du champ littéraire dans son ensemble au sous-champ du roman ou du théâtre). Tout champ constitue un espace de jeu potentiellement ouvert dont les limites sont des frontières dynamiques, qui sont un enjeu de luttes à l'intérieur du champ lui-même. Un champ est un jeu que nul n'a inventé et qui est beaucoup plus fluide et complexe que tous les jeux qu'on peut imaginer » (Bourdieu, 1992, p. 80).
+Nous essaierons de saisir les frontières du champ linguistique en nous interrogeant sur le sens même des dénominations employées, notamment l'opposition entre linguistique et philologie. Le sens que l'on accorde à ces termes varie suivant « le lieu d'où l'on parle », révélant les frontières dynamiques de Bourdieu. De fait, les linguistes interrogés par Chevalier et Encrevé ne partagent pas tous la même perception d'un événement donné (on pourrait dire qu'ils ne partagent pas le même habitus, cf. Bourdieu, 1992 ; Lahire, 2001). En dehors de ces aspects purement sociologiques, nous accordons une importance majeure aux réalisations et aux avancées observées dans la mesure où la perspective sociologique en science est inséparable de la production de nouvelles connaissances (l'apport scientifique, au sens traditionnel).
+La dénomination des champs scientifiques n'est pas neutre : on sait qu'une terminologie reflète des différences de domaines, d'approches et de sensibilités (Cori et Léon, 2002). Les termes servant à désigner le champ de l'analyse des langues est à cet égard intéressant : on y trouve différentes dénominations, notamment les termes de « linguistique » et de « philologie ». De plus en plus de chercheurs s'interrogent sur cette dimension et sur ce qu'elle implique au niveau scientifique, sociologique et historique (voir par exemple le colloque de la Société d'histoire et d'épistémologie des sciences du langage en 2008 : Philologie et Linguistique aux XIXe et XXe siècles dans les pays d'Europe, Paris, le 2 février 2008).
+Jean-Claude Chevalier et Pierre Encrevé, dans Combats pour la linguistique, partent d'une distinction supposée entre linguistique et philologie. Même si les auteurs ne donnent pas de définition formelle des termes qu'ils emploient, on peut déduire de leur propos que, pour eux, la linguistique vise à offrir une théorie d'ensemble des langues. Quand le linguiste étudie une langue particulière, c'est toujours en vertu de principes généraux qui ont une validité au-delà de la langue étudiée. À l'inverse, le philologue s'intéresse principalement à une langue particulière, en s'appuyant sur des documents écrits mais sans souci de généralisation au-delà de la langue ou du phénomène étudié.
+Cette distinction, cette séparation de la recherche sur le langage en deux champs complémentaires est sans doute discutable, mais elle permet de caractériser les deux principaux acteurs du domaine français au début du 20e siècle, à savoir Ferdinand Brunot et Antoine Meillet. Ferdinand Brunot (1860 - 1938) s'intéresse à l'histoire de la langue française dans une tradition philologique, fondée sur le texte (étude des textes, commentaires stylistiques), sans volonté de généralisation au-delà de son domaine (ainsi, Brunot ignore Saussure). Antoine Meillet (1866 - 1936) est le maître incontesté de la grammaire comparée au début du siècle, il règne sur un domaine qui, par définition, couvre un vaste ensemble de langues, dans l'héritage et la tradition saussurienne.
+Si cette description permet de caractériser à gros trait mais assez justement le paysage français au début du siècle, il faut se demander si cette séparation persiste au-delà de la guerre. Il semble important de regarder de plus près, à commencer par l'emploi de la terminologie. Il se trouve que la tradition d'analyse du langage, dans les cursus classiques, est appelée « philologie » (notamment dans le cursus universitaire français). Si cet enseignement universitaire visait (et vise toujours), au moins partiellement, à former les étudiants au concours de l'enseignement, c'est aussi sur cette base qu'est enseignée la grammaire comparée, dans la tradition saussurienne. Il y a donc là un risque de confusion.
+Se focaliser sur des dénominations qui ne sont pas clairement définies peut être dangereux. La philologie est le nom communément admis pour couvrir toutes les activités liées à l'analyse des langues dans le cadre des études classiques. Cette philologie a assurément une portée plus large que la simple étude des textes, même si elle est avant tout fondée sur les textes. Comme le dit Perrot (Chevalier et Encrevé, 2006, p. 199), fonder la linguistique sur les textes, « ça interdit de spéculer gratuitement sans tenir compte de ce qu'est la réalité des langues ». De ce point de vue, il n'y a pas de différence fondamentale entre philologie et linguistique (c'est notamment le point de vue de Perrot, héritier de la tradition classique ; à l'intérieur du livre de Chevalier et Encrevé, d'autres chercheurs ont une opinion différente, d'où parfois ce qui peut apparaître comme des incompréhensions).
+Le livre de Chevalier et Encrevé (2006) laisse apparaître une autre ligne de partage, beaucoup plus nette à notre avis, entre la tradition classique fondée sur la grammaire comparée, et l'essor plus récent des études portant sur les langues modernes. On peut noter que cette ligne de partage peut aussi servir à distinguer les travaux de Brunot de ceux de Meillet, mais elle est surtout vraie pour l'après-guerre, où l'on voit émerger des linguistes comme Martinet et Culioli (agrégés d'anglais) ou encore Pottier (agrégé d'espagnol) à côté de plus traditionnels spécialistes des langues anciennes. Chevalier et Encrevé (2006, p. 43 sqq) signalent en outre l'arrivée des chercheurs d'origine étrangère, exclus de l'agrégation (pour laquelle la nationalité française était naguère nécessaire). Ces chercheurs, à l'image de Greimas ou Quemada, vont aussi avoir une influence majeure sur le domaine et contribuer à en faire évoluer les problématiques.
+Le champ linguistique en France dans l'après-guerre est donc marqué par deux ou trois grands types d'études, en dehors des courants théoriques : un ensemble de chercheurs continuant à s'intéresser aux langues anciennes, dans une perspective classique ; un autre ensemble se focalisant sur le français et enfin l'expansion d'un troisième groupe s'intéressant aux langues contemporaines (indo-européennes ou non). Il semble que ce phénomène se soit accentué ces dernières années : le fait que le déchiffrement de langues anciennes inconnues a eu tendance à se tarir vers la fin du 20e siècle limite les possibilités de découvertes originales dans le cadre classique. Les chercheurs sont donc amenés à se tourner vers d'autres langues moins explorées et parfois à abandonner la perspective historique. Ce n'est toutefois pas le cas jusqu'à une période récente où la grammaire comparée a gardé une place importante au sein de la communauté linguistique française.
+L'enseignement universitaire dans l'après-guerre est clairement orienté vers les concours. La grammaire comparée est cependant enseignée, y compris à la Sorbonne, mais cet enseignement est marginal par rapport aux nécessités du concours. La masse des connaissances à engranger en latin et en grec est telle que les enseignements se focalisent sur chaque langue avant de pouvoir vraiment aborder un enseignement donnant une vision d'ensemble. De fait, le plupart des étudiants deviennent à leur tour enseignants sans avoir reçu de formation spécifique en grammaire comparée. Cela ne signifie toutefois pas que ce domaine de recherche soit ignoré par la tradition de recherche française, bien au contraire.
+La grammaire comparée est présente à Paris dans l'après-guerre, de manière diffuse, à l'Ecole Pratique des Hautes Etudes (à travers les enseignements de Benveniste, Cohen, Vendryes, etc.), au Collège de France (Benveniste y enseigne à partir de 1937) et dans d'autres sociétés ou cercles savants (Société de Linguistique de Paris, le Groupe de Linguistique Marxiste de Marcel Cohen, etc.). De ce point de vue, la situation n'est pas très différente aujourd'hui, même si les acteurs ont changé. La grammaire comparée a toujours été l'apanage d'un petit groupe, il s'agit avant tout d'un domaine, à la frontière de la recherche et de l'enseignement, qui demande des compétences rares et étendues.
+Au niveau de l'enseignement, la grammaire comparée est en général enseignée après une formation de base sur la structure et le fonctionnement des langues classiques, formation généralement appelée « philologie » dans le cursus classique (philologie latine, philologie grecque). Cet enseignement est centré sur la langue et fondé sur les principes plus généraux hérités de Saussure. De ce point de vue, il ne semble donc pas qu'il y ait une grande coupure entre philologie et linguistique, ces deux notions couvrant des recherches et des méthodes tout à fait comparables (étude de langues particulières en vue d'en décrire la structure et le fonctionnement, dans une perspective saussurienne).
+Dans ce cadre, la mise en avant du structuralisme après la guerre n'est pas une révolution (pour des points de vue plus circonstanciés, voir Ducrot, 1973 ; Dusset, 1995). Comme le remarque Jean Perrot dans le livre de Chevalier et Encrevé (2006) « il faudrait d'abord savoir ce que l'on entend par « nouvelle linguistique » (p. 200). Il est évident qu'il était question de système et de structure en linguistique bien avant 1945. C'est sur un autre plan qu'il y a rupture : le renouveau structuraliste des années 1960 modifie radicalement le champ en mettant en avant les rapports entre le langage et la société, et en reléguant en arrière plan l'approche grammairienne. Ce renouveau, influencé entre autres par Lévi-Strauss, a surtout pour conséquence d'étendre le structuralisme au champ sémiotique dans son ensemble, au-delà de la linguistique (Dusset, 1995). Nous y reviendrons (cf. § 5.2).
+Le 20e siècle est marqué par le déchiffrement de plusieurs langues anciennes dont l'écriture était jusque là inconnue (Bader, 1998). Les principales découvertes concernent, outre le tokharien (il s'agit en fait de deux langues, quelquefois appelées koutchéen et agnéen), le hittite (déchiffré en 1915 par le hongrois Hrozny) et le grec mycénien (déchiffré en 1952 par l'anglais M. Ventris (Chadwick, 1963)). Si ces découvertes ne sont pas l'oeuvre de chercheurs français (mis à part Sylvain Lévi, qui a contribué au début du 20e siècle à la compréhension et à l'édition de textes tokhariens), elles ont été nourries par les travaux de nombreux chercheurs français : notamment E. Laroche pour le hittite, et M. Lejeune pour le mycénien (e.g. Lejeune, 1955 - 1997). C'est d'ailleurs la France qui organisera le premier colloque international sur la langue mycénienne (en avril 1956, à Gif-sur-Yvette, sous l'impulsion de Lejeune). Lejeune sera en outre l'auteur d'avancées majeures à travers ses travaux sur différentes langues des familles italique et celtique à partir des années 1960.
+Ces travaux de philologie classique, au plus près des textes quand il s'agit de déchiffrement, ne doivent pas occulter la réussite plus générale de la grammaire comparée. Les travaux sur le mycénien de Lejeune par exemple sont fondés sur les principes phonétiques mis en avant par la grammaire comparée. Les formes identifiées ne sont pas toujours celles que l'application pure et simple des règles d'évolution phonétique produiraient (l'analogie et l'« économie » du système jouent aussi), mais les règles sont, d'une manière générale, respectées. La philologie - ou la linguistique, comme l'on préfère - atteint ici un véritable statut de science, capable d'hypothèses qui peuvent être vérifiées ou invalidées. Il s'agit non seulement d'une science expérimentale mais également d'une science prédictive dans la mesure où des formes peuvent être posées, sans avoir à être attestées.
+Ces avancées sont en quelque sorte le triomphe de la grammaire comparée, dans la plus pure tradition saussurienne. Une tradition qui ne remonte pas tant aux travaux du Cours de Linguistique Générale qu'au Mémoire sur le système primitif des voyelles dans les langues indo-européennes de 1879. Soulignons là aussi l'apport de l'école de grammaire comparée française. Meillet domine le domaine jusqu'à sa mort en 1936. C'est ensuite Benveniste qui propose la théorie de la racine en 1935 (Origines de la formation des noms en indo-européen ), simultanément avec Kurylowicz. Cette théorie aura une influence majeure sur le domaine, de par son pouvoir explicatif et son élégance théorique. Les travaux de l'après-guerre continuent cette tradition, même si personne n'aura plus jamais le poids de Meillet au niveau international.
+C'est d'ailleurs Benveniste qui a un rôle de passeur entre théories classiques et renouveau structuraliste, dès les années 1950. Il est sans doute un des premiers avec Lévi-Strauss à voir la fécondité de la notion de système, au-delà du champ linguistique.
+Le développement de la linguistique à partir de la fin des années 1950, puis dans les années 1960, amène une recomposition radicale du champ de la linguistique en France. Au cours de ces années, le nombre d'étudiants explose, de nombreuses universités créent des départements de linguistique (notamment à Paris avec l'éclatement de la Sorbonne) et de nouvelles thématiques apparaissent. En schématisant à gros traits, on peut dire que la grammaire comparée cède progressivement sa place, prédominante, à de nouvelles théories comme la grammaire générative.
+Si l'on porte un regard plus fin sur les événements de la période, il semble en fait qu'il faille distinguer deux éléments complémentaires. Le domaine devient emblématique à travers la popularisation de la méthode structurale dès les années 1950. C'est essentiellement cette théorie qui d'abord rend la linguistique populaire, puis se répand à l'ensemble des sciences humaines. Par la suite, vers la fin des années 1960, ce sont les nouvelles théories linguistiques qui prolongent cet engouement.
+Le tournant structuraliste de la fin des années 1950 n'est pas vraiment une révolution. On assiste en fait à la généralisation en France des théories du Cercle de Prague, exposées initialement lors du congrès des linguistes à Copenhague en 1928. L'Ecole praguoise propose notamment « une méthode propre à permettre de découvrir les lois de structure des systèmes linguistiques et de l'évolution de ceux-ci ». Cette approche sera ensuite généralisée à d'autres domaines des sciences humaines et sociales.
+Les années 1950 sont marquées par le retour en France de Martinet (il enseigne aux Etats-Unis, à l'Université de Columbia, jusqu'en 1955) qui n'est pas pour rien dans l'évolution de la linguistique à la fin des années 1950. Il faut rappeler que Martinet est angliciste, spécialiste de phonologie et promoteur de l'approche fonctionnelle. Les ouvrages marquants de Martinet à la charnière des années 1960 ne concernent pas les langues classiques de manière fondamentale : il s'agit, en 1955, de son Economie des changements phonétiques (livre élaboré lors de la fin de son séjour aux Etats-Unis qui renouvelle radicalement la perspective en phonologie) puis, au début des années 1960, des Eléments de linguistique générale. Le livre connaîtra un immense succès car il est à la fois suffisamment simple pour fournir une porte d'accès vers le structuralisme et suffisamment complexe pour laisser entrevoir les généralisations possibles au-delà de la phonologie.
+Le tournant structuraliste est marqué par un certain nombre de points importants, que l'on peut essayer de lister même si cet inventaire est schématique (nous ne détaillons pas davantage ces points qui sont bien décrits dans le livre de Chevalier et Encrevé, notamment dans la seconde partie de l'ouvrage) :
+Cette évolution, qui déborde le structuralisme, est en partie liée à une conjonction de facteurs : citons l'apparition des premiers ordinateurs qui facilite les comptages de mots sur de gros corpus ou la guerre froide qui pousse au développement de la traduction automatique. D'autres facteurs, plus généraux, ne sont pas à négliger : la priorité politique accordée à la recherche, l'augmentation des budgets, la création d'instituts dédiés, l'accueil de chercheurs fuyant leurs pays d'origine, etc.
+Les années 1960 voient les méthodes structuralistes issues de la linguistique se répandre dans l'ensemble des sciences humaines et sociales. Cette généralisation est déjà entrevue, dès la fin des années 1950, par Benveniste.
+Indépendamment des recherches de la philosophie anglo-saxonne autour de la notion du langage ordinaire, Benveniste développe au cours des années 1950 une théorie globale sur la langue et, plus particulièrement sur l'analyse du discours (Dessons, 2006). Ce nouveau champ d'investigation lui permet d'étudier la façon dont l'homme se projette dans la langue. Ces analyses, publiées dans diverses revues, seront reprises dans les Problèmes de linguistique générale (Benveniste, 1966 et 1969) et connaîtront un immense succès. Certains des articles publiés à l'époque demeurent des classiques toujours étudiés en linguistique aujourd'hui.
+Ce renouveau projette la méthode structuraliste en dehors de son cadre traditionnel, à savoir l'analyse de la structure et de l'évolution des langues classiques. Benveniste se rapproche alors de chercheurs d'autres domaines et va appliquer la méthode structuraliste à l'analyse d'autres phénomènes anthropologiques. Il fonde ainsi, avec C. Lévi-Strauss et P. Gourou la revue L'homme en 1961, qui s'intéresse à l'anthropologie selon un point de vue pluridisciplinaire. Il étudie aussi des phénomènes de discours, la question des institutions indo-européennes (Benveniste, 1969), etc .
+Cet essor du structuralisme permet à la linguistique d'apparaître comme la science première (au détriment, notamment, de la philosophie) et met en avant des « sciences » nouvelles comme la psychanalyse ou la sémiotique. Greimas, Barthes puis Kristeva sont en France les hérauts de ces disciplines.
+Ces aspects vont ensuite se développer essentiellement en dehors de l'espace français. En effet, il s'agit de thèmes de recherche trop techniques pour que le grand public s'en empare et trop sulfureux pour que l'institution universitaire les accepte. De fait, on retrouvera essentiellement ce courant aux Etats-Unis, notamment à travers le développement des Cultural studies.
+Les années 1970 voient un déclin relatif de l'influence de la linguistique, tant à l'intérieur qu'à l'extérieur du territoire national, alors que les prémices de ce qui deviendra la French Theory apparaissent sur les campus anglo-saxons.
+La fin des années 1960 voit exploser le domaine de la linguistique, au-delà du structuralisme. Ruwet importe la grammaire générative ; Gross importe les grammaires formelles puis développe une approche originale du traitement des langues naturelles, sur une base d'inspiration harrissienne. Culioli développe sa propre école avec une forte dimension cognitive, Quemada s'intéresse à la linguistique quantitative, etc. C'est aussi le temps des grands projets, le plus emblématique étant le lancement du dictionnaire de la langue française et le lancement conjoint de l'Institut Nationale de Langue Française (INaLF) à Nancy.
+On assiste donc à un double mouvement.
+D'une part l'importation de théories élaborées à l'étranger, le plus souvent aux Etats-Unis, rend moins originales les recherches menées en France. Les chercheurs français traiteront ces théories d'origine anglo-saxonne avec un point de vue original, à l'image du regard critique de Milner sur la grammaire générative (1989) ou de Gross travaillant sur la base d'une analyse de type harrissien (1975). Toutefois, le point de vue français a une influence limitée au-delà des frontières : la France n'est plus le pays moteur en matière d'innovation et de création en linguistique.
+ + +On assiste donc au développement d'écoles françaises sur la base de théories étrangères, mais l'écosystème linguistique français a des interactions limitées avec le monde extérieur. Par exemple, Harris développe à partir des années 1960 sa théorie des sous-langages sur une base distributionnelle mais les recherches de Gross restent relativement hermétiques à ces développements. Les deux chercheurs mènent dès lors des voies séparées et l'influence de Gross restera limitée. Quemada développe de son côté l'analyse lexicographique à partir de comptages systématiques sur corpus, mais ses recherches se développent indépendamment du monde anglo-saxon (même si des représentants de l'école anglo-saxonne ont assisté au grand congrès fédérateur organisé à Besançon en 1961, cf. Léon, 2004).
+Le bilan est donc contrasté : alors que la France est en pointe dans les années 1960, les innovations sont principalement le fait d'auteurs anglo-saxons. De fait, la place de la France décline relativement au niveau international (comme la plupart des autres places européennes). Les revues restent confinées au domaine français, elles perdent en audience et en originalité au cours des années 1970. Par ailleurs, plusieurs chercheurs français d'audience internationale s'expatrient aux Etats-Unis dans les années qui suivent. On pense ainsi à Jean-Roger Vergnaud (USC, Californie), Gilles Fauconnier (UCSD, Californie) ou, dans un domaine connexe, René Girard (Stanford et Duke University).
+Le constat n'est malgré tout pas entièrement négatif. De grands laboratoires demeurent, avec des figures reconnues. L'Université Paris 8 (ancien Centre expérimental de Vincennes) garde des liens privilégiés avec la grammaire générative et reste un lieu reconnu à l'international. De grands laboratoires se créent et se renforcent au CNRS, y compris pour des domaines relativement nouveaux comme l'étude de l'histoire de la linguistique (autour notamment de Jean-Claude Chevalier, puis de Sylvain Auroux).
+Le déclin relatif de la linguistique française au niveau international dans les années 1970 ne doit pas masquer l'influence très importante de la French theory (Cusset, 2005) sur les Cultural Studies, particulièrement aux Etats-Unis. Ce domaine ne recouvre pas strictement le domaine linguistique, mais l'influence de la France est irrémédiablement liée à l'influence du structuralisme et à sa généralisation à d'autres domaines des sciences humaines.
+Une figure comme celle de Julia Kristeva (interviewée dans Chevalier et Encrevé, 2006) est à cet égard emblématique. Kristeva est infiniment plus reconnue aux Etats Unis qu'en France. Elle n'a pas développé une théorie linguistique à proprement parler, mais elle a élaboré une théorie du texte et de l'intertextualité très marquée par le structuralisme et la sémiotique des années 1960.
+L'influence des chercheurs français au sein du mouvement ultérieurement dénommé French Theory est d'autant plus grande qu'elle dépasse les frontières traditionnelles entre disciplines. Kristeva exporte les principes de l'analyse structuraliste à la littérature, en relation avec des groupes (Tel Quel) et des chercheurs ayant émergé de la révolution des idées des années 1960 (Todorov pour la sémiologie, R. Girard ou G. Genette pour l'analyse littéraire, etc.). Au-delà de la littérature, le champ s'étend progressivement à la philosophie (avec Derrida par exemple), à la psychanalyse (avec Lacan) et à l'anthropologie (avec Sperber). Ce ne sont que quelques noms représentatifs d'un domaine qui a connu un très fort succès à l'étranger. Paradoxalement, ces recherches sont restées relativement à l'écart en France, peut-être à cause de leur caractère pluridisciplinaire qui ne les font pas entrer dans une « case » précise de la carte universitaire.
+Ces courants, dont la French Theory est emblématique, semblent en perte de vitesse sur les campus américain. La disparition de grandes figures (Deleuze, Derrida, Baudrillard) n'y est sans doute pas pour rien, ainsi que les pamphlets dénonçant le caractère hasardeux de certaines métaphores utilisées dans ce domaine (Sokal et Bricmont, 1999).
+Il est sans doute risqué de s'interroger sur le paysage actuel de la linguistique en France, à partir de la brève esquisse brossée dans cet article. Les évolutions du champ peuvent être rapides : le renouveau du domaine à la fin des années 1950 a été extrêmement brusque. La linguistique était alors passée, en moins de dix ans, d'un statut un peu déprécié à un statut fortement valorisé. Même si cette période fut marquée par une extraordinaire conjoncture (économique, idéologique, scientifique), on voit que les évolutions peuvent être rapides.
+Dans cet article, nous nous sommes tout d'abord interrogé sur la dimension terminologique du problème, afin de déterminer si les variations de dénomination recouvrent de véritables oppositions ou plus simplement des différences de perception d'objets proches ou similaires (suivant le point de vue adopté). Nous avons montré le flou des dénominations employées, ce qui ne contribue bien évidemment pas à clarifier les questions de frontières et de sous-champs. Il n'en reste pas moins qu'une tradition classique demeure tout au long de la période : celle-ci repose sur une base clairement structuraliste et a eu une influence importante. C'est par exemple de cette tradition classique, notamment des travaux de Benveniste, qu'émerge l'intérêt pour l'étude des rapports entre langue et société, si caractéristiques du renouveau des années 1960.
+L'autre fait important de la période est l'importation de théories anglo-saxonnes. Ce phénomène amène à un éclatement du domaine en plusieurs écoles, souvent antagonistes, ce qui limite d'autant leur audience. L'éclatement des universités parisiennes en 1968 est à cet égard emblématique, dans la mesure où chaque figure majeure du domaine s'accapare une part de pouvoir institutionnel (Perrot à Paris 3, Martinet à Paris 5, Culioli à Paris 7, les chomskyens à Paris 8, les grammairiens à la Sorbonne et à l'EPHE) et que peu de passerelles existent entre les différentes centres. L'histoire du Centre Expérimental de Vincennes, ultérieurement transféré à Saint-Denis est intéressante à cet égard. Le Centre est, au cours des années 1970, au coeur de l'innovation, notamment parce que les chomskyens entretiennent des relations suivies avec le MIT et les Etats-Unis. Ces relations se poursuivent jusqu'à aujourd'hui mais le prestige de la linguistique n'est plus le même, le caractère novateur des analyses chomskyennes est parfois contesté, ainsi que la validité des analyses produites. Au-delà, dans ce cas comme dans d'autres, il est clair que le coeur de l'innovation se situe aux Etats-Unis, quel que soit le brillant des études produites en France.
+Le résultat est une perte d'audience des recherches en linguistique menées en France (mais ceci n'est sans doute pas un problème spécifique à la France). Aucune des revues créées dans les années 1958 - 1968 n'a pu acquérir un caractère véritablement international (cf. Chevalier et Encrevé, 1984 et 2006). Le manque de débouchés contribue aussi à faire diminuer le prestige et l'attrait de la discipline, surtout à partir des années 1970 où apparaît le chômage de masse. L'émergence de nouveaux sous-champs (notamment la linguistique informatique, aujourd'hui plutôt appelée ingénierie des langues) contribue aussi à modifier le paysage à partir de la fin des années 1960.
+Remerciements
+Je remercie l'ensemble de mes collègues qui ont accepté de relire et de critiquer des versions antérieures de ce texte, ainsi que les deux relecteurs anonymes du Congrès mondial de linguistique française. Toutes les erreurs qui peuvent émailler cet article sont bien évidemment les miennes.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Les savoirs impliqués dans l'activité lexicographique sont avant tout de nature professionnelle. Il s'agit de connaissances et de compétences théoriques et pratiques, développées au cours des siècles par les lexicographes et que l'on associe presque exclusivement à la tâche de rédaction de dictionnaires ou de bases de données lexicales. Dans ce texte, nous proposons d'envisager les savoirs lexicographiques de façon beaucoup plus générale, en portant plus particulièrement notre attention sur le domaine de l'enseignement et apprentissage de la langue. Nous procéderons en trois étapes. Tout d'abord, nous expliciterons ce que nous entendons par savoirs lexicographiques (connaissances linguistiques impliquées, principes descriptifs et méthodologiques, etc.). Nous détaillerons ensuite les raisons qui nous poussent à envisager l'exploitation de ces savoirs dans le contexte de l'enseignement de la langue. Finalement, nous illustrerons notre propos à partir des travaux que nous avons entrepris pour une exploitation pédagogique des notions et principes de la Lexicologie Explicative et Combinatoire (LEC).
+En explorant la notion de savoirs lexicographiques, nous cherchons à répondre à une question en apparence toute simple : qu'est-ce qu'un lexicographe expérimenté sait que ne sait pas le commun des mortels ? Au cours de la présente discussion, nous utilisons le terme pluriel savoirs pour chapeauter la distinction maintenant bien établie entre :
+Dans le contexte qui nous intéresse ici, nous devons bien entendu tenter de caractériser la nature même des savoirs lexicographiques ; mais nous devons aussi nous interroger sur la façon dont les connaissances et compétences lexicographiques interagissent dans le processus d'analyse des phénomènes lexicaux. Comme nous le montrerons plus bas, ce processus est, bien entendu, au coeur de l'activité lexicographique, mais il est aussi central dans les activités didactiques liées à l'enseignement et apprentissage des connaissances lexicales - nous dirons, dorénavant, enseignement et apprentissage du vocabulaire.
+Nous commençons par récapituler, très brièvement, où en est la lexicographie en tant que discipline (section 2.1). Ensuite, nous défendons l'idée d'une meilleure organisation et formalisation des savoirs lexicographiques (section 2.2).
+Le terme lexicographie (angl. lexicography) désigne le plus souvent, dans la tradition française et anglo-saxonne, la discipline visant l'écriture de dictionnaires. Il s'agit d'un domaine d'activité très ancien, qui a fortement évolué au cours des siècles (Van Hoof, 1994 ; Quemada, 1968), principalement sous l'influence des trois paramètres suivants :
+Ce dernier point fait surtout référence à la généralisation du recours à l'outil informatique dans le travail du lexicographe. Cet outil permet de construire les dictionnaires sous forme de bases de données lexicales - en remplacement des classeurs de fiches lexicographiques (Pruvost, 2000) - et d'utiliser les corpus informatisés comme source de données sur la langue (Stubbs, 2001). Les savoirs du lexicographe ont toujours relevé de ce que l'on pourrait appeler en anglais a craft : la maîtrise d'une discipline se situant entre une technique, un métier et un art (Landau, 1984). Comme pour toute discipline de cette nature, l'acquisition des savoirs lexicographiques se fait par un long et progressif apprentissage, fondé en grande partie sur la pratique de l'activité lexicographique elle-même. Le développement de la linguistique moderne et la généralisation de l'utilisation de l'informatique ont rendu possible l'émergence d'une « nouvelle » lexicographie dans la seconde moitié du XXe siècle. Celle-ci possède toutes les caractéristiques fondamentales de la lexicographie traditionnelle qui viennent d'être décrites ; elle présente aussi une plus grande structuration du fait des concepts scientifiques, techniques et méthodologiques qu'elle met en jeu.
+Différentes approches structurées de la description lexicale ont été proposées (Zgusta, 1971 ; Hartmann, 1983 ; Wierzbicka, 1985 ; Sinclair, 1987 ; Svenson, 1994 ; Mel'cuk et coll., 1995). Les principales équipes lexicographiques adoptent toutes des « théories » lexicologiques et lexicographiques données pour mener à bien leurs tâches descriptives, même si les théories en question peuvent être plus ou moins explicites. Ce qui ressort de toutes les approches modernes du travail lexicographique, c'est l'importance croissante du recours aux nouvelles sources de données sur la langue (corpus informatisés et Internet). Le lexique décrit dans un dictionnaire est, comme la grammaire présentée dans les grammaires usuelles, une entité aux contours flous, une abstraction ou idéalisation d'un code soumis aux variations régionales, sociales, diachroniques, etc. Dans un tel contexte, plus on peut observer de données et plus diversifiées sont les sources de ces données, plus on est en mesure de faire une description ayant une couverture et une précision acceptables. L'étude et le traitement informatique des données lexicales ont donné naissance à une discipline à part entière, à mi-chemin entre la lexicographie, l'étude de corpus et la modélisation des connaissances. Puisqu'elle vise la théorisation des savoirs et techniques d'analyse des phénomènes lexicaux, nous avons appelé cette discipline lexicanalyse (Polguère, 2003a :196). Quel que soit le nom qu'on lui donne, le travail d'accès aux données, de traitement de celles-ci, de préparation des modèles dérivés que sont les bases de données lexicales, est devenu une discipline-clé dans l'étude de la langue (Quemada, 1987).
+De nombreux chercheurs et lexicographes ont écrit sur les différents concepts du domaine et ont décrit les techniques de lexicanalyse utilisées dans le cadre de la modélisation lexicale. On doit cependant constater qu'il n'existe pas à l'heure actuelle de modélisation complète et rigoureuse des connaissances et des compétences mises en jeu dans le travail lexicographique. Parmi les connaissances lexicographiques, on peut mentionner les quatre catégories suivantes :
+Les compétences peuvent, quant à elles, être classifiées ainsi :
+Bien entendu, un riche bagage a déjà été accumulé sur chacun des points mentionnés ci-dessus, et nombre de publications ont présenté de façon partielle comment tel ou tel aspect du problème de la description lexicale pouvait être modélisé. Ce qui nous manque, c'est un véritable modèle intégré de tous ces savoirs, modèle de type ontologique, qui permettrait de traiter l'activité lexicographique comme un cas particulier de résolution de problème (problem solving).
+Dans ce contexte, nous venons d'entreprendre à l'Observatoire de linguistique Sens-Texte (OLST) de l'Université de Montréal une recherche visant l'identification et l'ontologisation des savoirs lexicographiques en vue de leur transfert, notamment, dans le domaine de l'enseignement de la langue. Ce projet, appelé Lexitation, s'appuie en grande partie sur une approche expérimentale de l'identification des savoirs lexicographiques : simulation « en laboratoire » de l'activité lexicographique suivie d'une analyse et modélisation formelle de cette dernière.
+Nous nous intéressons ici principalement au transfert des savoirs lexicographiques vers le domaine de l'enseignement et apprentissage du vocabulaire. Tout d'abord (section 3.1), nous proposons quelques réflexions sur la place (actuelle et souhaitable) du lexique dans l'enseignement de la langue. Ensuite (section 3.2), nous tentons de convaincre nos lecteurs de la nécessité d'effectuer, dans le contexte du transfert des savoirs lexicographiques vers le domaine de l'enseignement de la langue, une formalisation aussi complète et systématique que possible des savoirs en question.
+Les connaissances lexicales sont au coeur de la connaissance linguistique puisque la langue est un système sémiotique complexe constitué de signes qui sont, dans leur immense majorité, de nature lexicale. Le lexique est une nébuleuse de plusieurs centaines de milliers d'unités, si l'on tient compte de la polysémie des vocables et de la présence des unités lexicales nultilexémiques (locutions). De plus, chaque élément de ce réseau informationnel est lui-même associé à son propre treillis de caractéristiques : sens, formes (écrites et orales), propriétés de combinatoire et réseau de liens sémantiques qui connectent chaque unité lexicale aux autres unités lexicales de la langue. On le voit, la connaissance lexicale est un tout immense, complexe et relativement hétérogène. Il ne s'agit pas d'une simple collection de mots, mais bien d'un système lexical (Polguère, 2006). On pourrait alors s'étonner, comme le fait Picoche (1984), que si peu d'efforts aient été investis depuis que la scolarisation existe dans l'enseignement des notions générales permettant de comprendre l'organisation du lexique. Cet état de fait peut cependant s'expliquer. Tout d'abord, l'enseignement linguistique au primaire et au secondaire a traditionnellement été centré, non sur le développement d'une capacité à apprendre des notions et techniques permettant de décrire la langue, mais sur la mémorisation de règles normatives (Wilmet, 2000). Ainsi, l'enseignement classique de la grammaire consiste à faire apprendre des règles de grammaire, et non à montrer comment on peut mettre au jour par soi-même de telles règles à partir de l'observation des faits grammaticaux. Même si l'on assiste à l'émergence de nouvelles stratégies dites « actives » pour compenser les manques de l'approche traditionnelle (Chartrand, 1995), on est encore loin de voir une généralisation de ce type de méthodes. Dans le cas du lexique, comme il n'est pas envisageable de faire mémoriser aux apprenants des articles de dictionnaires, on se limite souvent à la mémorisation de « listes de vocabulaire » (au primaire) en espérant que le reste de l'acquisition des connaissances lexicales se fera par simple imprégnation. Ce faisant, aussi bien les élèves que les enseignants sont rarement entraînés à décrire les phénomènes lexicaux et à les comprendre. Un résultat typique de ce manque de préparation à la compréhension du lexique est que nombre de problèmes rencontrés par les apprenants sont mal identifiés et, donc, mal traités. Parce qu'il est impossible d'isoler un ensemble simple et clairement délimité de « règles lexicales » qu'il faudrait enseigner, on ignore souvent le lexique comme composante centrale de la connaissance linguistique et on passe à côté de la véritable solution : il faut apprendre à observer et à décrire les phénomènes lexicaux pour mieux acquérir la connaissance lexicale. Il ne s'agit pas tant ici d'apprendre à « utiliser des dictionnaires » (Lipp, 1992) que d'acquérir les notions fondamentales qui structurent la connaissance lexicale et sa modélisation - voir à ce propos Simard (1994).
+Nous avons la conviction qu'il faut sortir la lexicographie de son champ d'application traditionnel (la construction de dictionnaires ou bases de données lexicales) pour lui donner un statut de champ de compétences général. Dans ce contexte, nous voyons l'élaboration d'un modèle complet et bien formalisé des savoirs lexicographiques, du type de celui mentionné plus haut (section 2.2) à propos du projet Lexitation, comme un outil essentiel de propagation de ces savoirs vers le domaine didactique.
+Un modèle relativement complet et formalisé des savoirs lexicographiques aurait une influence directe sur l'écriture de descriptions lexicales. Compte tenu des enjeux associés à la construction de grandes bases de données lexicales en traitement automatique des langues (Wilks et coll., 1996 ; Fellbaum, 1998), on peut considérer que cette application directe d'un modèle lexicographique justifie en soi que l'on s'y intéresse. Cependant, il existe d'autres champs d'application de ces savoirs que la seule lexicographie ; nous faisons notamment le constat suivant :
+la maîtrise des savoirs lexicographiques n'est pas seulement nécessaire dans les tâches propres à la construction de dictionnaires et de bases de données lexicales : elle renforce considérablement les compétences professionnelles de toute personne impliquée dans l'enseignement de la langue.+
Prenons le cas particulier des enseignants de français du primaire. Dans leur interaction avec les élèves, ils sont constamment amenés à répondre à des questions sur les mots de la langue, à établir des diagnostics sur des erreurs de nature lexicale et à aider les élèves à trouver des solutions à leurs problèmes d'expression. Dans la plupart des cas, ces enseignants, qui n'ont pas appris à déduire des modèles de la langue à partir de leurs propres observations, cherchent à donner des réponses fondées sur ce qu'ils pensent être inscrit dans les dictionnaires. Même s'il est impensable, pour des raisons pédagogiques et pratiques, que les enseignants aillent à chaque fois consulter un dictionnaire (ou une grammaire) avant d'émettre un avis sur la langue, ils voudraient sans doute la plupart du temps pouvoir le faire. Pourquoi ? Parce que la connaissance linguistique, notamment lexicale, est souvent perçue comme un savoir statique, normalisé, que l'on ne peut modéliser de façon simple et rapide au moyen d'un ensemble de techniques aisément accessibles. Modéliser le lexique serait strictement une affaire de lexicographes professionnels. Ceux-ci auraient pour fonction sociale de rendre disponibles des modèles de référence, comme si la construction ou, du moins, l'ébauche de tels modèles n'était pas envisageable en dehors de la lexicographie professionnelle.
+Nous ne remettons nullement en question le fait que la lexicographie soit une affaire de spécialistes. Bien au contraire, nous savons d'expérience à quel point elle est fondée sur des savoirs difficiles à acquérir. Cependant, l'observation que nous avons pu faire de l'apprentissage de la lexicologie par les étudiants (dont un grand nombre se destinent à l'enseignement des langues) nous a convaincu que les savoirs lexicographiques augmentent considérablement l'autonomie disciplinaire du professionnel de la langue et lui permettent de fonctionner de façon optimale dans les situations où l'analyse des faits linguistiques doit se faire instantanément, comme dans les contextes d'enseignement. Si l'on reconnaît l'importance primordiale de la bonne maîtrise de langue dans la vie de nos sociétés, les quelques remarques qui viennent d'être faites ne peuvent que nous convaincre de la nécessité, et non simplement de l'utilité pratique, d'un transfert des savoirs lexicographiques vers le domaine de l'enseignement.
+On trouvera dans Polguère et Tremblay (2003) plusieurs propositions concrètes sur la façon dont les savoirs lexicographiques peuvent être mis en pratique dans l'enseignement des connaissances lexicales. Tel que l'illustre la citation ci-dessous, l'accent est mis par les auteurs sur la nécessité de structurer la démarche pédagogique en fonction de l'organisation même des phénomènes linguistiques qu'il s'agit de prendre en charge :
+++Nous postulons qu'il importe avant tout d'explorer deux types de phénomènes, qui se manifestent à travers l'ensemble du lexique, y compris dans le cas des mots tout à fait courants de la langue. Il s'agit de
++
+- - la polysémie, qui doit nous forcer à isoler les différentes acceptions d'un mot pour pouvoir les caractériser et les différencier ;
+- - la connexion lexicale, qui fait qu'une unité lexicale n'existe que par (i) son positionnement dans le réseau lexical de la langue (liens paradigmatiques) et (ii) ses propriétés individuelles, qui contrôlent la façon dont elle se combine aux autres unités lexicales dans la phrase (liens syntagmatiques).
+
Bien entendu, un transfert des savoirs lexicographiques vers l'enseignement de la langue consiste non seulement à inculquer aux enseignants de nouvelles connaissances et compétences, mais aussi à leur fournir des outils descriptifs sur lesquels ils peuvent s'appuyer pour mettre en oeuvres des stratégies d'enseignement du vocabulaire ; il s'agit avant tout des dictionnaires ou bases lexicales spécialement conçus pour appuyer l'étude des phénomènes identifiés dans la citation ci-dessus (structure polysémique des vocables et connexions paradigmatiques ou syntagmatiques entre unités lexicales). On mentionnera ici notamment, pour le français, le Dictionnaire du français usuel (Picoche, 2002) et le Lexique actif du français (Mel'cuk et Polguère, 2007). Nous aurons l'occasion de revenir sur ce dernier ouvrage dans la section qui suit.
+Dans cette dernière section, nous allons donner quelques informations sur l'approche que nous adoptons pour tenter de faire progresser le transfert des savoirs lexicographiques que nous prônons ici. Nous commencerons (section 4.1) par brièvement justifier l'intérêt du cadre théorique et descriptif dans lequel nous nous situons : la Lexicologie Explicative et Combinatoire. Nous dirons ensuite quelques mots (section 4.2) sur deux ressources spécifiques qui ont été développées selon cette approche afin de répondre, en tout premier lieu, aux besoins des enseignants du français.
+La lexicographie moderne est intimement liée à l'étude scientifique des lexiques des langues naturelles, c'est-à-dire à la lexicologie. Il est clair qu'un travail de modélisation et de transfert des savoirs lexicographiques doit s'appuyer sur un cadre théorique bien défini, afin d'assurer la cohérence conceptuelle du modèle à construire. Pour ce qui est du cadre lexicologique de référence, nous nous appuyons dans nos travaux sur la Lexicologie Explicative et Combinatoire ou LEC, qui est la branche lexicale de la théorie linguistique Sens-Texte. La présentation qui en est faite dans la littérature linguistique (Mel'cuk et coll., 1995 ; Polguère, 2003a) correspond à ce que l'on pourrait appeler une ontologie semi-formelle de cette théorie du lexique : réseau notionnel et ensemble de critères et de méthodes présentés en langue naturelle, mais en suivant des contraintes d'expression et des contraintes terminologiques strictes.
+L'approche de la LEC est, selon nous, particulièrement appropriée pour servir au développement d'une modélisation formelle et à un transfert des savoirs lexicographiques pour les raisons suivantes :
+L'énumération ci-dessus n'a pas pour finalité de démontrer que la LEC est la seule et unique approche disponible « sur le marché » pour mettre en oeuvre le transfert des savoirs lexicographiques. Elle vise simplement à justifier le caractère raisonnable de son utilisation pour atteindre les buts que nous nous fixons.
+Le projet Lexitation de modélisation formelle des connaissances lexicographiques ne faisant que débuter (voir section 2.2), les seuls efforts de transfert des notions de la LEC que nous allons mentionner ici sont ceux visant la production de ressources lexicographiques adaptées à l'enseignement et apprentissage des connaissances lexicales : il s'agit du Lexique actif du français ou LAF et du DiCoPop.
+Le LAF, rédigé en collaboration avec Igor Mel'cuk, est un travail qui a déjà mentionné à la section 4.1. En tant qu'ouvrage publié, il tire son originalité du fait qu'il est à la fois un manuel de lexicologie destiné, en tout premier lieu, aux enseignants de langue et un échantillon de dictionnaire du français, reposant sur une adaptation des descriptions formalisées de la LEC. Il s'accompagne d'un site web, où sont notamment rendus disponibles pour les enseignants de français des modèles d'exercices visant l'apprentissage du vocabulaire. Par sa finalité et par sa double nature (présentation de notions lexicologiques et de descriptions lexicographiques), le LAF peut être rapproché de Picoche (2007). Il est intéressant de constater que le travail d'interfaçage des principes et descriptions de la LEC opéré lors de la rédaction du LAF a permis, de façon rétroactive, de faire progresser l'approche théorique elle-même. On trouvera un bilan de l'expérience acquise au cours de la rédaction du LAF dans Polguère (2007). Dans ce texte, on fait notamment état des innovations introduites pour ce qui est de la caractérisation sémantique des unités lexicales (au moyen d'étiquettes sémantiques) et de l'encodage des relations lexicales paradigmatiques et syntagmatiques (au moyen de formules dites « de vulgarisation »).
+Une autre caractéristique originale du LAF est sa méthodologie d'élaboration (Polguère, 2000b). Il est en effet entièrement dérivé de la base lexicale DiCo des dérivations sémantiques et collocations du français, développée par Igor Mel'cuk et le présent auteur. Cette façon de procéder assure au LAF une rigueur formelle sous-jacente et, surtout, nous permet de dériver de la base source DiCo d'autres « produits », comme celui dont il va maintenant être question.
+Le DiCoPop est une première étape vers la réalisation de ce que Jousse et coll. (2008) appellent un site lexical. Il équivaut pour l'instant à un dictionnaire en ligne, très proche du LAF, et qui est tout comme ce dernier entièrement dérivé de la base DiCo. Outre le fait qu'il ne s'agit pas d'un ouvrage papier, deux caractéristiques importantes distinguent le DiCoPop du LAF. Tout d'abord, les descriptions du DiCoPop sont extraites du DiCo de façon entièrement automatique, sans intervention des lexicographes pour ce qui est de la « pédagogisation » des descriptions lexicales de la base source. Ensuite, et cela est fondamental, le DiCoPop n'existe, en tant que dictionnaire, que de façon virtuelle. Les descriptions lexicographiques qu'obtiennent les utilisateurs du DiCoPop sont construites à la volée, en réponse aux requêtes particulières adressées à la base. Le DiCoPop est donc bien un dictionnaire virtuel, au sens de Atkins (1996). Cette caractéristique du DiCoPop offre les trois avantages suivants :
+Dans ce qui précède, nous avons brièvement tenté de présenter et défendre les trois idées suivantes :
+Plutôt que d'offrir un panorama général de ce qui se fait en lexicologie et lexicographie dans le cadre du transfert des savoirs lexicographiques, nous avons préféré nous concentrer sur l'explicitation de nos propres idées et des efforts que nous avons entrepris en ce sens. En effet, il nous semble, peut-être à tort, que l'idée même de la nécessité d'un transfert des savoirs lexicographiques vers le domaine de l'enseignement et apprentissage du vocabulaire est très peu répandue. Selon ce que nous savons, elle est essentiellement mise en pratique en didactique des langues dans le cadre d'exercices ponctuels de rédaction d'articles ou de parties d'articles de dictionnaire (définition, etc.) qu'élaborent les enseignants de langue. Ajoutons que, généralement, ces exercices sont conçus sans qu'il soit fait appel à une modélisation suffisamment complète des savoirs lexicographiques. Nous serions personnellement très heureux de recevoir toute information sur des projets et des initiatives pédagogiques allant dans le même sens que les idées que nous défendons ici.
+Remerciements +Les travaux de l'Observatoire de linguistique Sens-Texte (OLST) de l'Université de Montréal mentionnés ici sont financés par le Fonds québécois de recherche sur la société et la culture (FQRSC) et par le Conseil de recherches en sciences humaines du Canada (CRSH).
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé + par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+On illustrera quelques-unes des problématiques associées à la thématique « Histoire, Epistémologie, Réflexivité » par la notion de « grammaire philosophique ». L'allusion au tournant linguistique en philosophie est transparente dans le titre de cette contribution. L'idée n'est pas de renverser le sens de cette entreprise, mais plutôt d'emprunter, à partir de la linguistique, le même chemin dans l'autre sens. Si le tournant linguistique en philosophie se fondait sur l'idée que l'accès privilégié aux concepts passe par leur expression linguistique partagée, mon idée est qu'une description exhaustive des expressions linguistiques complexes et de leur contenu a besoin d'une voie d'accès à des systèmes de concepts indépendants de l'expression linguistique.
+Comme le montre une étude systématique des contenus conflictuels, la structure interne des signifiés complexes a une racine double (Prandi 1987) : la capacité des structures syntaxiques d'imposer un moule créateur aux concepts convoqués, mais aussi le rôle joué par un système de relations conceptuelles établies indépendamment dans la mise en place des relations sémantiques. Dans cette optique, les contenus conflictuels - les contenus d'expressions comme Le soleil versait sa lumière sur le Mont Blanc (H.-B. De Saussure) - sont à considérer comme des observatoires privilégiés des facteurs de la connexion des contenus complexes et des facteurs de la signifiance. Dans un contenu cohérent - Jean versait du vin dans son verre -, les deux facteurs, la connexion syntaxique formelle et la cohérence des concepts, dessinent exactement le même réseau de relations, ce qui rend tout à fait impossible un partage des tâches et des responsabilités. Dans les signifiés conflictuels, par contre, la connexion formelle force les concepts convoqués dans une relation qu'ils refusent. De ce fait, les relations nouées par chacun des deux facteurs se dissocient, rendant possible leur étude séparée.
+L'étude des contenus conflictuels exalte la capacité des structures syntaxiques formelles d'imposer un moule indépendant au concepts, s'inscrivant dans la tradition de la Philosophie des formes symboliques (Cassirer 1922), mais souligne aussi avec force une organisation indépendante des concepts dans des réseaux cohérents. Comme il y a une syntaxe des expressions fondée sur le critère de la bonne formation, il y a une syntaxe des concepts fondée sur le critère de la cohérence. D'après cette syntaxe, il est cohérent de verser une substance liquide ou de l'argent, mais il n'est pas cohérent de verser la lumière.
+A la différence du contenu des expressions, l'expérience des choses est tautologiquement cohérente. Dans un texte, nous pouvons surprendre la lune en attitude de rêve ; dans la vie, cette expérience est inaccessible. Cette remarque banale entraîne une conséquence. Tant que nous sommes confinés dans le monde de l'expérience, la cohérence est simplement assumée comme allant de soi ; même si elle était remise en question, les critères qui la fondent resteraient obscurs. Si nous nous tournons vers le monde des expressions, et que nous nous penchons sur les contenus conflictuels, au contraire, la cohérence des concepts est remise en question, alors même que ses critères deviennent accessibles. Parcourant à rebours les trames de l'incohérence, nous découvrons en filigrane le réseau des conditions de la cohérence. C'est un bon exemple des raisons qui ont poussé les philosophes à se tourner vers les expressions.
+Le privilège indiscutable de l'expression linguistique dans l'expérience de l'incohérence et dans l'étude de ses conditions, cependant, n'implique pas que la syntaxe des concepts fasse partie de la structure de la langue. Depuis Chomsky (1965) cette idée s'est imposée comme allant de soi, et il s'agit seulement de savoir si les conditions de cohérence - appelées restrictions de sélection dans le jargon des linguistes - appartiennent à la syntaxe, selon la tradition de Carnap (1932) relancée par Chomsky, ou plutôt au lexique, comme il est normal de penser aujourd'hui (McCawley 1970(1971); Lakoff 1971; Wierzbicka 1980 : 87; Dik 1989(1997 : 91); Geeraerts 1991).
+En fait, les conditions de cohérence n'appartiennent ni à la syntaxe ni au lexique, car elles sont totalement étrangères à la structure de la langue. Elles forment un système de présupposés conceptuels qui règlent en premier lieu la cohérence de notre comportement spontané - l'attitude naturelle dont parle Husserl (1913) - et par là la cohérence de nos concepts partagés, et des signifiés des mots et des expressions. Personne n'adresse des questions à la lune ; pour les mêmes raisons, le contenu de l'expression La lune rêve (Baudelaire) est reçu comme incohérent. Ce système de présupposés n'est ni un objet de connaissance ni une structure cognitive : l'attitude intentionnelle partagée qui investit ces structures n'est pas une attitude théorique mais pratique, à savoir une attitude de confiance. Il s'agit de présupposés auxquels nous faisons une confiance aveugle, comme à un terrain solide sur lequel nous marchons. Comme tels, il ne sont ni remis en question ni argumentés, ni même explicitement exprimés. Ce système de présupposés forme la partie la plus qualifiante de notre ontologie naturelle partagée (Prandi 2004 : Ch. 8).
+L'ontologie naturelle est une sorte de constitution qui fonde la légalité conceptuelle de notre forme de vie, y compris notre comportement symbolique. Sur le plan structural, la légalité grammaticale et la légalité conceptuelle sont totalement autonomes. Sur le plan fonctionnel, par contre, l'activité symbolique de l'être humain n'est concevable que sur le fond de l'ontologie naturelle et des systèmes de concepts cohérents qu'elle fonde. D'où l'intérêt de l'analyse philosophique des concepts pour le linguiste. Dès qu'il quitte le domaine des structures strictement formelles, et qu'il s'engage sur un parcours fonctionnel, il est poussé à intégrer la grammaire des formes avec une composante philosophique, à savoir, une grammaire des concepts formée par un système de concepts cohérents et par les conditions de leur cohérence.
+La syntaxe des concepts joue d'abord un rôle passif à l'égard des expressions, qui consiste à détecter les contenus conflictuels. Mais elle joue aussi un rôle actif : elle alimente le raisonnement cohérent, qui est prêt à prendre la relève du codage dans la mise au point des relations sémantiques en dehors du noyau de la phrase. De ce fait, l'idée d'une interaction entre structures grammaticales et structures conceptuelles, inspirée par l'observation des contenus conflictuels, ouvre des perspectives nouvelles dans l'étude des contenus complexes cohérents.
+L'idée que dans la structure d'une phrase un noyau structural solide se combine avec des couches périphériques plus floues n'est pas en elle-même nouvelle, mais elle peut être définie sur des bases nouvelles. Dans la tradition issue de Tesnière (1959) et prolongée par les grammaires fonctionnelles (par exemple, Dik 1989 (1997)), le critère de démarcation entre le noyau de la phrase et les couches périphériques est un critère fonctionnel, qui se fonde sur la structure du procès mis en place dans la phrase, et coïncide avec la distinction entre arguments et circonstants, ou satellites. Une réflexion sur les conditions doubles, formelles et conceptuelles, de la signifiance, justifie par contre la pertinence d'un critère interne, fondé sur une différence de régime de codage, et notamment sur la distinction entre un codage relationnel et un codage ponctuel des différentes couches du procès.
+Chaque phrase contient un noyau qualifié formé par un réseau de relations grammaticales - par exemple le sujet, l'objet direct, l'objet prépositionnel, l'objet indirect - qui sont à la fois vides de contenu et codées indépendamment des concepts convoqués, et qui de ce fait sont capables de contraindre les concepts dans un « moule rigide » (Blinkenberg 1960). Dans ces conditions, le noyau du procès n'est pas en premier lieu le reflet d'un concept complexe indépendant, mais une construction active de la part de l'expression, comme le prouve la possibilité formelle de signifiés incohérents (Husserl 1901 (1962 : 4ème Recherche)). A la différence d'un contenu cohérent - par exemple Jean rêve - un contenu incohérent - par exemple La lune rêve - ne peut pas être conçu comme le reflet dans l'expression d'un concept indépendant. Nous parlons en ce cas de codage relationnel : le noyau d'une phrase code le noyau d'un procès comme un réseau de relations - comme un tout. Une expression donnée - par exemple l'expression nominale la lune - ne code pas immédiatement un rôle mais une relation grammaticale - le sujet - qui à son tour est prête à recevoir un rôle à partir du contenu relationnel du terme principal du prédicat - notamment du verbe. De ce fait, le référent du sujet d'un verbe comme rêver est obligé d'assumer le rôle d'experiencer du rêve indépendamment de sa cohérence conceptuelle.
+En dehors de ce noyau, chaque phrase est prête à accueillir des couches d'expressions périphériques, ou marges (Thompson, Longacre 1985), dont la présence et la structure ne se justifient que par leur aptitude à porter à l'expression des relations conceptuelles cohérentes accessibles indépendamment. Cela implique qu'une expression donnée n'entre pas dans une structure unitaire de phrase grâce à ses propriétés formelles, mais en tant qu'expression au service d'une certaine relation conceptuelle, inséparable de celle-ci. Cette fracture est enregistrée par la terminologie, qui se réfère explicitement à des relations conceptuelles comme l'instrument, la cause ou les relations spatiales ou temporelles. Le sens du codage se renverse : au lieu d'entraîner les concepts convoqués dans un réseau de relations grammaticales qui les précèdent, la structure de l'expression complexe se met au service d'un concept complexe accessible indépendamment. Nous parlons en ce cas de codage ponctuel : avant d'entrer dans une structure grammaticale, chaque expression code directement et immédiatement un rôle du procès.
+Du fait qu'il est instrumental vis-à-vis d'un système de relations conceptuelles cohérentes, le codage ponctuel se présente comme une grandeur graduée. Le degré de codage dépend du contenu du mot de liaison, qui peut répondre à sa destination fonctionnelle dans une mesure variable. Pour rester dans le domaine des prépositions, il y en a qui codent pleinement une certaine relation conceptuelle, mais il y en a aussi qui s'arrêtent en deçà d'un codage plein ou qui se poussent bien au-delà. En cas de surcodage, l'expression linguistique ne se limite pas à faire affleurer une relation conceptuelle accessible indépendamment, mais lui impose un profil sémantique plus fin. En cas de sous-codage, l'expression réussit dans la mesure où une relation conceptuelle pertinente est accessible indépendamment du codage au raisonnement cohérent du destinataire - à l'inférence. La préposition malgré est un exemple de codage plein : dans Je sortirai malgré la pluie, malgré ne code ni plus ni moins qu'une relation concessive. La préposition avec, par contre, est un exemple de sous-codage. Elle n'arrive à coder pleinement aucun rôle, et si elle peut être utilisée dans l'expression, ce n'est que dans la mesure où une relation conceptuelle cohérente est accessible par inférence. Située à la périphérie d'une phrase comme Jean a coupé le bois, par exemple, l'expression avec une hache introduit l'instrument, alors que l'expression de la même forme avec Pierre code le collaborateur de l'agent. Située à la périphérie d'un procès comme Jean s'est sauvé, elle perd son rôle instrumental. L'expression est au service de relations conceptuelles accessibles indépendamment et se plie à leur cohérence. L'inférence relaie le codage : il s'agit du phénomène connu en littérature comme « enrichissement inférenciel » (König, Traugott 1988; Hopper, Traugott 1993 : 74 ; Kortmann 1997). Nous aborderons plus bas le problème, plus complexe, du surcodage.
+L'interaction entre sous-codage et raisonnement inférenciel n'est pas un phénomène marginal, mais le mode de fonctionnement le plus typique de l'expression en dehors du noyau, où le codage plein est plutôt l'exception que la règle. Cela impose une réflexion sur le statut de l'inférence. Si l'inférence est conçue comme une stratégie pragmatique, fondée sur des données contingentes, elle nous porte en dehors de la sémantique des expressions complexes. Mais si elle se fonde sur cette même charpente de concepts de longue durée qui forme la constitution conceptuelle de notre forme de vie, elle fournit à l'analyse sémantique une base tout aussi solide que la grammaire des formes.
+L'inférence qui prend la relève d'un codage insuffisant est généralement identifiée avec ce type d'inférence que Grice (1975) appelle implicature conversationnelle, et que Sperber et Wilson (1986) ont décrit dans le cadre de la théorie de la pertinence. Or, celle-ci est en effet une stratégie pragmatique, qui remonte du signifié d'un énoncé à une intention communicative sur le fond d'une configuration contingente de facteurs rassemblés sur la base d'un critère de pertinence à son tour contingent. Transférant ce modèle dans le domaine de l'enrichissement inférenciel, Kortmann (1997 : 203) parle de « pragmatic processes of intepretative enrichment », qui pour Hopper et Traugott (1993) donnent lieu à une forme de « pragmatic polysemy ». Mais l'inférence est-elle vraiment inséparable d'une motivation contingente, et donc pragmatique ?
+L'inférence, décrite par Aristote (Analytiques Premiers, II, 70a), est une forme de raisonnement naturel qui remonte d'une constellation de prémisses tenues pour vraies à une conséquence à son tour tenue pour vraie ou, plus typiquement, pour probable. L'inférence n'est pas une stratégie linguistique ou liée de façon particulière à l'expression linguistique, mais une stratégie cognitive plus générale qui est prête à utiliser, parmi ses prémisses, des contenus d'expressions tenus pour vrais. Si je vois que la fenêtre donnant sur les toits est ouverte et que le chat a disparu, par exemple, je peux en inférer, sur le fond d'un certain nombre de données contingentes, que le chat s'est sauvé par la fenêtre. A la seule condition que les données pertinentes soient partagées, la réponse « La fenêtre est ouverte » à ma question sur le chat m'autorise à inférer le message « Le chat s'est sauvé par la fenêtre ». Si je vois Jean muni d'une hache s'attaquer à un tas de gros bois, j'en conclue, sur la base d'un réseau de concepts partagés, qu'il va se servir de la hache comme d'un instrument. La même inférence, je suis prêt à la tirer si mon interlocuteur me dit qu'il va couper le bois avec la hache, à la seule condition que je partage avec lui la structure conceptuelle de l'action humaine et la relation entre l'agent et l'instrument.
+Comme les exemples le montrent, l'inférence interagit avec la communication verbale à deux niveaux distincts et se fonde sur deux ordres de prémisses distinctes.
+D'une part, l'inférence peut établir une relation entre le signifié d'une expression et le message qui lui est confié dans des circonstances données, mais elle peut aussi tracer des relations dans le contenu d'une expression ou entre contenus d'expressions. En raison de la fonction qu'elles remplissent, nous pouvons distinguer au moins deux formes différentes d'inférence, que nous proposons d'appeler inférence externe et interne.
+L'inférence externe porte sur la relation extrinsèque, de nature indexicale (voir Prandi 1992 ; 1995b ; 2000 ; 2004), entre le signifié d'une expression linguistique et la valeur de message contingent dont elle se charge dans des circonstances données. Elle répond à la question : « Qu'est-ce que le locuteur veut dire en utilisant cette expression ayant ce signifié ? », ou « Quelle est la valeur de cette expression dans ce texte particulier ? ». Dans ce cas, l'expression signifiante est interprétée en bloc comme un indice attirant l'attention du destinataire sur un message contingent. C'est ce genre d'inférence qui est étudié dans le cadre de la théorie de la pertinence.
+L'inférence interne contribue à la mise au point d'un signifié complexe. Elle répond à la question : « Quel est le signifié de cette expression ? ». La mise au point du contenu d'une expression est une démarche qui ne relève pas de la dimension indexicale et contingente, et donc pragmatique, de l'acte de communication, mais de la dimension symbolique, et donc de longue durée, de l'expression. C'est ce genre d'inférence qui est pertinent pour l'enrichissement inférenciel d'un contenu complexe sous-codé.
+D'autre part, cette différence de fonction se double électivement d'une différence dans la nature des prémisses. Il y a notamment une corrélation tendancielle entre l'inférence externe et une constellation contingente de données contextuelles et entre l'inférence interne et un système de relations conceptuelles stables, de longue durée. Pour remonter du signifié de l'expression La fenêtre est ouverte au message « Le chat s'est sauvé », le destinataire du message se fonde sur une constellation contingente d'informations sur un chat particulier et sur la position d'une fenêtre donnée qu'il partage avec le locuteur et qu'il tient pour pertinentes dans les limites de cette situation de discours. Le critère de l'inférence externe est donc la cohérence textuelle et discursive (en anglais, coherence), qui est une donnée contingente relevant de la pragmatique. Pour relier l'instrument à une action, tout au contraire, le sujet de l'acte d'inférence s'appuie sur un système de modèles cognitifs cohérents et de conditions de cohérence qu'il partage dans la longue durée avec une communauté culturelle tout entière indépendamment de la situation contingente de discours. Le critère de l'inférence interne est donc la cohérence conceptuelle (en anglais, consistency), qui relève d'une grammaire des concepts.
+Ce passage est stratégique pour l'idée de grammaire philosophique. Les bases contingentes de l'inférence externe ne peuvent pas faire l'objet d'une description systématique. Elles peuvent seulement être illustrées par des exemples significatifs. Les bases stables de l'inférence interne, tout au contraire, peuvent faire l'objet d'une analyse systématique, comme il se fait dans la tradition de la métaphysique descriptive (Strawson 1959). De ce fait, une analyse rigoureuse des réseaux de concepts cohérents sous-tendant l'expression linguistique - une véritable syntaxe des concepts régie par le critère de la cohérence - peut être associée à la grammaire des formes comme l'une des sources de la structure sémantique des expressions complexes.
+Comme je suis obligé d'illustrer le tout par la partie, je vais concentrer mon attention sur les relations transphrastiques, et notamment sur le microsystème de concepts cohérents formé par la cause, le motif de l'action et le but.
+Traditionnellement étudiées dans le cadre de la phrase complexe comme autant de signifiés de propositions subordonnées dites circonstancielles, les relations transphrastiques sont en fait des relations conceptuelles cohérentes - des ponts conceptuels entre procès. Décrire les relations transphrastiques, donc, c'est d'abord définir le profil conceptuel de ces relations, pour explorer ensuite dans toute son étendue l'éventail de leurs moyens d'expression (§ 3.1).
+Contrairement à ce que l'on pourrait penser, une telle approche n'appauvrit pas l'étude de l'expression, mais l'enrichit d'une façon impressionnante.
+Si l'étude des relations transphrastiques répond à un critère grammatical, le répertoire se restreint : c'est ce qui arrive dans les approches traditionnelles, où des concepts comme la cause ou le but se réduisent au contenus d'autant de propositions subordonnées dites circonstancielles. Vu du côté des concepts, le répertoire des moyens d'expression s'élargit jusqu'à inclure des ressources d'ordre textuel et lexical (§ 3.2.).
+De plus, la plupart des expressions ne se limitent pas à coder une relation conceptuelle donnée, mais greffent sur un tronc conceptuel commun des structures sémantiques spécifiques, en quelque cas d'une richesse impressionnante (§ 3.3).
+S'inspirant d'une distinction purement grammaticale entre propositions dites causales comme (1, 3, 4) et propositions dites finales comme (2), on souligne traditionnellement la distinction entre la relation de cause et la relation de but, alors qu'on ignore complètement la distinction entre causes et motifs de l'action (3), qui est interne à la forme dite causale :
+1. La rivière a débordé parce qu'il a beaucoup plu.+
2. Jean a acheté les clous pour réparer l'étagère.+
3 Jean a acheté un nouveau vélo parce que l'ancien s'était cassé.+
En fait, la relation pertinente en termes conceptuels est la distinction entre la cause et les motifs (Danes 1985). La cause trouve sa place dans notre catégorisation spontanée des événements du monde des phénomènes et de leurs relations impersonnelles, alors que les motifs renvoient aux actions accomplies par des êtres humains libres et responsables, capables d'évaluer et de décider. A partir de cette distinction, le but se réduit, en termes strictement conceptuels, à un type de motif. Un motif peut être ou rétrospectif, fondé sur l'évaluation d'un fait passé, comme (3), ou prospectif, fondé sur une prévision ou une intention du sujet portant sur le futur. Dans les limites de la phrase complexe, le motif prospectif coïncidant avec le contenu d'une intention admet deux formes d'expressions : une forme finale comme (2) et une forme causale comme (4), qui se rapproche de l'expression d'un motif rétrospectif comme (3) et par là de l'expression d'une cause comme (1) :
+4. Jean a acheté les clous parce qu'il avait l'intention de réparer l'étagère.+
Les exemples nous montrent qu'une même forme d'expression peut neutraliser des différences conceptuelles aussi lourdes que la cause (1) et le motif (3, 4), alors qu'une seule relation conceptuelle - le motif prospectif coïncidant avec une intention - peut être confiée à des formes d'expression aussi différentes que (2) et (4). Sur la base de considérations de ce genre, la relation biunivoque entre relations conceptuelles et types de propositions subordonnées, qui réduit l'étude traditionnelle à une liste, est brisée.
+Une fois qu'un microsystème de concepts cohérents a été défini, l'éventail des moyens d'expression de chaque relation peut être décrit sur la base de deux paramètres. Observons les exemples suivants :
+5. La rivière s'est gonflée parce que le dégel a commencé.+
5a. Depuis que le dégel a commencé, la rivière s'est gonflée.+
6. Le dégel a commencé et la rivière s'est gonflée.+
6a. Le dégel a commencé et depuis la rivière s'est gonflée.+
6b. Le dégel a commencé et à cause de cela la rivière s'est gonflée.+
7. Le dégel a commencé. La rivière s'est gonflée.+
7a. Le dégel a commencé. Depuis la rivière s'est gonflée..+
7b. Le dégel a commencé. A cause de cela la rivière s'est gonflée.+
8. Jean a acheté le Guide Michelin dans le but de passer ses vacances en Normandie.+
8a. Jean a acheté le Guide Michelin avec l'intention (le projet, le rêve) de passer ses vacances en Normandie.+
9. Jean aimerait passer ses vacances en Normandie, et a acheté le Guide Michelin.+
9a. Jean aimerait passer ses vacances en Normandie, et dans ce but (avec ce projet (désir, rêve...) il a acheté le Guide Michelin.+
10. Jean aimerait passer ses vacances en Normandie. Il a acheté le Guide Michelin.+
10a. Jean aimerait passer ses vacances en Normandie. Dans ce but (avec ce projet (désir, rêve...) il a acheté le Guide Michelin.+
D'une part, nous avons l'opposition entre la connexion grammaticale dans le cadre d'une phrase complexe (5, 5a, 6, 6a, 6b, 8, 8a, 9, 9a) et la cohérence d'un fragment de texte formé par deux énoncés indépendants (7, 7a, 7b, 10, 10a), le cas échéant soutenue par des moyens cohésifs, et notamment par des relations anaphoriques (7a, 7b, 10a). La disponibilité de stratégies textuelles montre que la grammaire elle-même est une option pour la connexion transphrastique. S'il est vrai qu'il y a des relations conceptuelles qui se nouent indépendamment de la connexion formelle, cela implique que la grammaire des concepts excède la juridiction de la grammaire des formes.
+D'autre part, tant dans la juxtaposition que dans la coordination et dans la phrase complexe, l'expression ne coïncide pas avec le simple codage, mais résulte d'une interaction très riche entre codage et raisonnement inférenciel motivé par la structure d'un système de concepts cohérents partagés.
+La simple juxtaposition, tout d'abord, montre que les relations conceptuelles transphrastiques peuvent être exprimées en l'absence de codage du fait qu'elles sont directement accessible au raisonnement inférenciel. Dans les cas où la juxtaposition contient des relateurs anaphoriques, tous les degrés de codage - du sous-codage (7a) au surcodage (10a) - sont accessibles en l'absence de connexion grammaticale. Les mêmes ressources anaphoriques sont prêtes à appuyer la coordination, prêtant leur aide à une connexion grammaticale typiquement pauvre en contenu (6a, 6b, 9a).
+Ensuite, même à l'intérieur des structures présentant une charpente grammaticale solide, le codage linguistique de la relation n'est pas une donnée homogène. En présence de sous-codage, le contenu de la relation n'est atteint que si un complément inférenciel prend la relève d'un codage insuffisant (5a, 6, 6a). A l'extrémité opposée, l'expression linguistique ne se limite pas nécessairement à coder une relation conceptuelle accessible indépendamment, mais elle est en mesure de greffer sur celle-ci une composante sémantique spécifique : c'est le cas du surcodage, sur lequel nous allons nous arrêter un peu (8a, 9a, 10a).
+Pour identifier des réseaux cohérents de relations conceptuelles, il faut donc abandonner l'idée d'une relation biunivoque entre expressions et contenus. D'une part, un système de concepts cohérents est accessible indépendamment de telle ou telle expression ; de l'autre, l'expression ne se limite pas à rendre accessibles des concepts, mais elle est capable d'enrichir leur profil d'un surplus sémantique.
+L'exemple le plus intéressant qui illustre ce dernier point vient du domaine de la finalité (Gross, Prandi 2004). Sur le plan strictement conceptuel, nous l'avons vu, le but se réduit à un motif prospectif coïncidant avec le contenu d'une intention. Cette relation conceptuelle est prête à entrer dans quatre moules formels différents : la forme dite causale (11), la forme dite finale (12), la coordination (13) et la juxtaposition (14) :
+11. Jean a acheté le Guide Michelin parce qu'il veut passer ses vacances en Normandie.+
12. Jean a acheté le Guide Michelin dans le but de passer ses vacances en Normandie.+
13. Jean aimerait passer ses vacances en Normandie, et a acheté le Guide Michelin.+
14. Jean aimerait passer ses vacances en Normandie. Il a acheté le Guide Michelin.+
Dans chacun de ces moules, nous pouvons rencontrer à tour de rôle des dizaines de noms prédicatifs, que G. Gross (1998) a regroupé en quatre classes caractérisées par des propriétés distributionnelles spécifiques : les métaphores locatives, comme but ou objectif ; les noms liés à la vision, comme vue ou perspective ; les noms d'intention consciente, comme intention, volonté, propos ou projet ; les noms de sentiments, comme désir, rêve ou illusion :
+11a. Jean a acheté le Guide Michelin parce qu'il avait comme but (il avait en vue, il avait l'intention, il ressentait le désir) de passer ses vacances en Normandie.+
12a. Jean a acheté le Guide Michelin dans le but (en vue, avec l'intention, dans le désir) de passer ses vacances en Normandie.+
13a. Jean aimerait passer ses vacances en Normandie, et dans ce but (en vue de ce propos, avec cette intention, avec ce rêve) a acheté le Guide Michelin.+
14a. Jean aimerait passer ses vacances en Normandie. Dans ce but (en vue de ce propos, avec cette intention, avec ce rêve) l a acheté le Guide Michelin.+
Si nous pensons que chaque nom prédicatif peut recevoir différents verbes supports et être modifié par plusieurs adjectifs, il est facile de constater que les formes d'expression disponibles pour la seule relation de but reviennent à plusieurs centaines, et que chacune de ces expressions impose à la même structure conceptuelle un profil sémantique spécifique.
+Comme les philosophes ont ressenti le besoin de dessiner la trame des concepts parcourant leur expression linguistique, le linguiste s'aperçoit qu'une description rigoureuse du signifié des expressions demande un accès direct, indépendant du codage linguistique, à un système de concepts cohérents et à leurs conditions de cohérence. Ainsi, le cercle ouvert par le tournant linguistique en philosophie se boucle : s'il est impossible d'étudier les concepts comme si l'expression n'existait pas, il n'y a pas plus de sens à étudier l'expression en oubliant qu'elle ne bâtit ses structures sémantiques spécifiques ni sur la « nébuleuse » dont parlait Saussure (1916) ni sur le « sable » de Hjelmslev (1943), mais sur une couche solide de concepts partagés. Le dialogue ininterrompu entre l'expression linguistique et les concepts partagés ne se fonde pas sur la primauté de l'un des partenaires, mais connaît une infinité de points d'équilibre, où le dosage exact de codage et de raisonnement motivé par la structure des concepts s'ouvre à la recherche empirique. C'est pour cette tâche que je propose d'emprunter à une noble tradition l'appellatif de 'grammaire philosophique'.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé + par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+A l'évidence, la catégorie de « récent » n'est pas une catégorie historiographique bien construite : entre passé, présent et avenir, elle semble ne pas décider. Présent comme dilaté? Passé non accompli? Futur en gésine ?
+Pourtant, cela n'a pas empêché les historiens de la fin du siècle dernier de s'approprier d'une certaine manière cette modalité temporelle en créant par exemple un Institut du Temps Présent. Celui-ci vise à prendre en charge, précisément, un passé pas tout à fait passé (un « passé qui ne passe pas » parfois...) et donc à historiciser ce qui ne se manifeste pas « par soi même » comme historique. La question que pose le « récent » est donc celle de l'historicité. En quoi consiste au juste la fameuse « distance » historique censée rendre possible la réflexivité (pour reprendre l'un des termes de notre session du colloque)?
+Il n'est évidement pas question de répondre ici à cette question, mais seulement d'en faire l'horizon sur lequel les problèmes posés ici apparaissent. Une grande partie des propositions parvenues concernent en effet le XXe siècle, certaines, ce qu'on peut appeler l'actualité même des sciences du langage. On peut voir dans ce fait un besoin de mise en perspective qui est en même temps un besoin d'orientation, on peut se demander aussi pourquoi ce besoin n'est pas ressenti de manière plus fréquente, on peut enfin s'interroger sur les motivations et la nature de ce recours au passé.
+Au fond, il n'est pas sûr que l'intérêt pour le passé des théories linguistiques « récentes » soient fondamentalement différent de celui qui anime les historiens d'un passé plus sûrement « révolu ». A cela plusieurs raisons :
+- Dans les disciplines à faible cumulativité, là où « le taux de réinscription » des connaissances est faible, un état passé (et/ou oublié) de la discipline peut acquérir dans l'actualité une pertinence qu'il n'avait plus.
+- L'historicité n'est pas le déroulement temporel de la chronologie. Le développement de l'histoire des idées linguistiques des quarante dernières années montre que la connaissance historique dépend a) de la documentation disponible, b) de la capacité des historiens à nouer des « connexions d'intrigue » plausibles, contrôlables, évaluables.
+- Si le « passé » n'est pas « l'histoire », il faut donc reconnaître que le recours des grammairiens et linguistes du passé à l'histoire est lui-même variable dans le temps, divers dans ses modalités et intérêts.
+ +C'est ce point que nous voudrions envisager ici cette catégorie du « récent » en prenant un exemple qui touche à la manière dont - pour combien de temps encore? - de nombreux linguistes se réfèrent encore activement ou réactivement au passé récent de la linguistique : le saussurisme et le structuralisme.
+Dans un premier temps, il semble inévitable de reconnaître que tout recours au passé n'est pas encore de l'histoire au sens moderne du terme, c'est-à-dire au sens où on commence à l'entendre véritablement au XVIIIe siècle.
+Au XVIe siècle, renvoyer à une Autorité du passé (en s'en recommandant ou en s'en démarquant), pour asseoir la légitimité de son propre discours, peut ne manifester qu'une volonté de dialogue entre des opinions que le temps n'affecte pas en profondeur. Comme l'a montré montre B. Colombat à propos de Linacre (1524), Scaliger (1540), Ramus (1569), Sanctius (1587), une doxographie sans véritable profondeur historique, un recueil d'opinions où modernes et anciens dialoguent à égalité dans un espace de discussion fondamentalement contemporain constitue une sorte de recueil de « vérités » et « d'erreurs » dont l'âge, la succession dans une temporalité irréversible à valeur causale, explicative, n'importent guère. Dans un tel cadre, l'erreur comme la vérité ne sont pas directement produites par une historicité quelconque mais par un système axiologique de valeurs qui peut toujours être réactualisé dans une chronologie réversible. Pour l'historien de la linguistique d'aujourd'hui, il s'agit alors et d'un même mouvement de reconstruire ce système de références pour l'indexer, et de prendre conscience dans le même temps que, ce faisant, il historicise ce qui ne l'était pas ; les conditions de l'observation transformant ici la nature même de l'objet de l'enquête.
+A l'autre extrémité du spectre, dans la science moderne telle qu'elle se met en place au cours du XIXe siècle et telle qu'elle se réalise au XXe siècle, c'est incontestablement l'idée de progrès qui règle de manière relativement paradoxale le rapport des théories linguistiques à leur passé.
+- D'un côté en effet s'installe un mode d'exposition vraisemblablement emprunté aux sciences de la nature et qui passe par un « exposé historique » des questions traitées. On trouve ce dispositif d'exposition dans la plupart des sciences humaines et l'exposé historique, ouvre, à l'image des traités médicaux ordinaires, et pour ne prendre qu'un seul exemple familier, L'interprétation des rêves de Freud.
+La charnière des XIXe et XXe siècles est une période particulièrement féconde en rétrospection de ce type. Cet effort rétrospectif, quand il est le fait des linguistes eux-mêmes, trouve sa place dans un moment de crise de la discipline et s'insère parfois dans des dispositifs annexes (préfaces : Delbrück 1880, avertissements, Meillet 1903, chapitres d'ouvrages Whitney, 1875...). De plus en plus souvent, pourtant, ils semblent faire l'objet d'ouvrages complets (Benfey 1869, Raumer 1870, Bursian 1883...) qui règlent l'empan de l'enquête historique (court / moyen / long terme) sur deux finalités complémentaires :
+- D'une part, revenir aux noeuds qui ont scellé la crise en restituant les données qui ont scandé le développement scientifique, qui en ont constitué les acquis, qui en ont installé les apories, les obstacles surmontés ou restant à surmonter. Or, il nous semble que c'est à ce moment de clôture d'une période relativement longue pour les sciences du langage de cumulativité des résultats scientifiques, et alors même que cette cumulativité de la grammaire historique et comparée est menacée par la crise des lois phonétiques, que l'histoire émerge comme une pièce essentielle d'un dispositif critique, moins tourné vers le passé comme source de valeurs scientifiques que comme appui pour de nouvelles fondations et refondations (la linguistique générale).
+- Est-ce un hasard, d'autre part, si c'est à la charnière des deux siècles, et à l'issue de cette crise, que s'affirme avec le plus d'insistance et selon une thématique promise à un long avenir dont il faudrait faire l'histoire fine la revendication d'autonomie de la discipline linguistique, autonomie qui ne cessera d'être à la fois reprise, disputée et contestée dans la postérité saussurienne tout particulièrement, mais aussi au-delà?
+En 1916 en tous cas, Bally et Sechehaye n'hésitaient pas à ouvrir leur version du Cours de linguistique générale sur le bref et fameux « coup d'oeil sur l'histoire de la linguistique » qui précède significativement le chapitre consacré à l'examen des « Matières et tâches » de la linguistique », et celui qui définit « L'objet de la linguistique ».
+Le caractère partial de ce court exposé est bien connu : histoire ad hoc (dont Saussure n'a évidemment pas l'exclusivité) qui vise avant tout à installer le « nouveau » (la linguistique est une science historique, le point de vue « grammatical » est définitivement dépassé, la diachronie n'est pas l'histoire...) comme socle d'une discipline qu'on ne peut réduire à son passé et qui prépare à une véritable conversion de point de vue. Comme on sait, c'est la sémiologie - c'est-à-dire une discipline à constituer entièrement - qui constitue selon Saussure l'avenir ou, plus exactement, l'idéal régulateur, de la linguistique générale à venir.
+La rédaction de ce chapitre par Bally et Sechehaye exprime donc bien sûr d'abord la volonté des deux rédacteurs de poser Saussure en Maître : cette « historiographie » n'est pas loin d'une hagiographie indirecte. Mais au-delà, si l'on tient compte du bref paragraphe qui, dans le cours, projette l'avenir de la linguistique sur celui de la sémiologie, on voit bien que ce recours à l'histoire n'est qu'une pièce d'un dispositif disciplinaire d'ensemble pour lequel la maîtrise de la temporalité du développement scientifique est devenue un enjeu conscient, de premier plan. Ce fameux « coup d'oeil » n'est pas une introduction dans un sens purement rhétorique, il est un agencement stratégique de la mémoire en vue de l'avenir même de la discipline.
+Pour l'historien de la linguistique d'aujourd'hui, que faire de ce type de représentation du passé ? On peut (on doit) en dénoncer la partialité et la fausseté relative. On doit sans doute en aussi restituer la logique, la finalité, l'efficacité au delà de sa lettre même.
+Or, dans l'historiographie de Saussure et du saussurisme, il a servi tantôt à avaliser une rupture radicale avec la linguistique historique et comparée, tantôt à rétablir au contraire une continuité avec elle. Dans l'héritage saussurien, il a servi à argumenter (non sans contradictions et hésitations) l'idée d'une refondation complète de la discipline (Cf. J. L. Chiss et C. Puech, 1999). Dans les différentes versions du structuralisme, à partir de la fin des années vingt, c'est Saussure lui même et le Cours qui vont devenir la référence sinon unique, du moins principale et principielle d'Ecoles qui moduleront la « référence à Saussure » à partir de la matrice disciplinaire dont elles font leur « héritage » (Puech - 2000). C'est d'une certaine manière cette « matrice » qui est aujourd'hui encore discutée de toutes parts. On notera enfin que ce bref « coup d'oeil historique sur l'histoire de la linguistique » est comme vectorisé par la distinction entre langage langue et parole, c'est-à-dire la triple distinction qui sera à la fois la plus reprise et la plus discutée dans la postérité saussurienne, le texte saussurien (le Cours et non les sources manuscrites) fournissant à la fois une base de ralliement et de dispersion aux différentes écoles du structuralisme (Prague, Copenhague, New-York...) et à la « sortie » du structuralisme.
+On pourrait sans doute suivre cette division en Ecoles à partir d'une référence commune, caractéristique à bien des égards d'une organisation « moderne » de la production scientifique, et noter que le rôle (indéfiniment discutable et d'ailleurs indéfiniment discuté) dévolu à Port-Royal par le générativisme, témoigne également à sa manière d'un usage « stratégique » du passé dans la constitution de théories, dans l'émulation scientifique, et l'acquisition d'un statut culturel des résultats et hypothèses les plus contemporaines par « filiation ». Du même coup, cette notion de « filiation » demanderait elle-même à être questionnée. Sa teneur en historicité n'est jamais évidente, ni même acquise : la relation privilégiée à un fondateur (qui n'est lui même qu'une référence sans référence assignable) ne peut être historique qu'en apparence. Vraisemblablement, elle relève davantage de l'ordre de la légitimité et de la légitimation que de l'ordre d'une historicité causale. Du point de vue qui est le nôtre - celui d'une épistémologie historique descriptive et neutre - elle invite à se pencher sur le rôle réel des « textes fondateurs » dans l'histoire des idées linguistiques. Pour reprendre l'exemple tant débattu du Cours de linguistique générale et de son rôle dans l'histoire des idées linguistiques contemporaines, il me semble qu'on a aujourd'hui deux manières de considérer son statut :
+- ou bien on considère que c'est le Cours qui a effectivement joué un rôle séminal dans la genèse des différents structuralismes comme si le texte possédait en lui-même et de manière virtuelle son historicité, le principe de son devenir ;
+- ou bien on cherche la productivité historique de ce texte dans la manière dont on y a renvoyé, dont on s'y est référé en cherchant à caractériser le plus précisément possible les « modes de références » et les reconstructions dont il a été l'objet dans des contextes scientifiques, culturels, institutionnels les plus divers.
+Dans le premier cas, on voit bien que la référence à un texte du passé ne nous fait pas quitter un présentisme profondément anhistorique : tout tient dans la lecture d'un texte et dans les lectures de lectures qui en ont été faites, la question de la littéralité du texte se confondant avec celle de sa vérité et rien n'empêchant de penser qu'une bonne lecture ou un retour au vrai texte (celui qu'on nous avait caché, qu'on avait défiguré, qu'on a retrouvé par hasard, qu'on va retrouver...), permettra de faire retour au Saussure authentique, et permettra également de dessiner pour la linguistique une avenir dont elle avait été abusivement privée. Il ne suffit plus alors qu'à s'auto-proclamer le hérault de cet avenir indéfiniment ouvert... (cf. F. Rastier - 2004, P. Bouissac - 2001 qui l'un et l'autre plaident pourtant pour un retour « historique » à Saussure. Avec quel sens ici tu terme histoire ?).
+Dans le second cas, il s'agira plutôt de considérer le texte de 1916 comme une matrice projective et productive, assez puissante pour ordonner une série de projets scientifiques apparentés (la linguistique des Cercles, le structuralisme « généralisé », les sémiologies, etc.) apparentés, mais aussi assez fondamentalement concurrents et dispersés. (Pour ce point de vue « minoritaire », cf. Puech 2000 et 2005, Trabant, 2005).
+Ceci obligerait à préciser quel type de détermination temporelle implique avec elle la notion « d'héritage » et devrait conduire à un ré-examen du régime historiographique complexe qui commande le « destin » du texte saussurien.
+A) D'abord, on pourrait faire valoir que les traditions grammaticales se sont toujours instaurées dans le long terme de processus ininterrompus de transmission, à partir de textes canoniques (parfois explicitement cités, parfois non). C'est en ce sens qu'on peut prendre toute la mesure de « l'héritage » légué par le Donat à travers plusieurs siècles de tradition grammaticale en Occident. On montrerait facilement que le CLG ne possède pas ce statut : d'une part, le recul manque, la période est trop courte, qui nous sépare du point d'origine. Ensuite, l'héritage grammatical ne se transmet qu'à travers des pratiques pédagogiques instituées de longue durée dont l'ouvrage de Saussure ne participe pas, ou du moins pas de la même manière. Certes, il y eut bien un impact de la linguistique saussurienne dans la disciplinarisation scolaire/universitaire de la linguistique, et le CLG est bien, dès son inaccessible origine, un cours. Mais l'action de réformation des études grammaticales, menée en partie seulement sous l'égide de la linguistique saussurienne dans les années 60 en France, s'est précisément opérée sous le signe d'un refus ou d'un amendement (réussi ou non) de la tradition...
+B) Ensuite, si la diffusion du Cours a accompagné de près l'émergence d'une « conscience disciplinaire » de la linguistique depuis le premier congrès international des linguistes à La Haye au moins en 1928, c'est sous le signe d'une internationalisation/unification des pratiques de recherche, à un niveau principiel tellement général, qu'il est bien difficile de faire après-coup le partage entre héritiers légitimes et illégitimes, fidèles et infidèles, plutôt attachés à la lettre ou plutôt à l'esprit (cf.infra). L'hypothèse la plus vraisemblable est que le Cours a fourni après-coup, une référence déterritorialisée et polémique à des entreprises le plus souvent concurrentes et tardivement perçues sous l'intitulé unique du « structuralisme » (ce qu'on a appelé la linguistique des « cercles »). Cette étiquette a toutes les chances d'être en grande partie trompeuse, elle fait partie intégrante, néanmoins de l'histoire du CLG. D'une certaine manière, il n'y a jamais eu de saussurisme au sens de Prague, Copenhague, Paris sans une saussurologie minimale : exégèse valorisante, inventaire discriminant du patrimoine légué, emphatisation de certains aspects au détriment d'autres aspects...
+C) Ce qui nous conduit au troisième point : la pluralisation des figures de Saussure. C'est elle qu'on invoque plus ou moins implicitement aujourd'hui quand on oppose Genève et Paris : le Saussure de l'indispensable « saussurologie » genevoise (pour parler vite) ne coïnciderait que très partiellement - parfois pas du tout - avec celle du « héros théorique » parisien.
+On remarquera que cette idée d'un Saussure pluriel possède elle-même son histoire. Elle est apparue dès les années 70 avec l'image des deux Saussure, celui du Cours et celui des Anagrammes, et elle est étroitement liée en France à la philologie saussurienne de J. Starobinski, relayée par les paragrammes de J. Kristéva, diffusant largement le portrait en dyptique du Saussure diurne et nocturne. Mais on peut se demander si cette démultiplication des figures de Saussure n'a pas commencé bien plus tôt, même si c'est avec des valorisations différentes, voire, parfois, opposées. Quant on étudie les comptes-rendus du CLG (cf. Chiss 1978, in Normand e.a. 1978) qui ont accueilli les premières éditions, on s'aperçoit qu'on a sans doute toujours opposé Saussure à lui-même et du même coup non seulement Genève à Paris ou Paris et Genève à Leipzig, mais Genève à Genève. On pouvait faire valoir, plus ou moins explicitement, que le Saussure du Cours était le Saussure nocturne (le théoricien spéculatif) auquel on pouvait opposer le Saussure cristallin, positif et génial du Mémoire (cf. le compte-rendu de H. Schuchardt, in Normand op. cit p. 174 - 181), comme plus tard, et dans une perspective inversée, on opposera le Saussure du Cours à celui des Anagrammes, à celui de la correspondance avec Flournoy ou, plus récemment, à celui des Légendes germaniques... La démultiplication des figures de Saussure passe par l'interprétation toujours rétrospective et/ou projective d'un texte certes mutilé par sa première édition, mais dont on peut douter qu'une édition complète retire certaines des caractéristiques les plus remarquables qui ont sans doute fait sa productivité et son destin labile.
+D) Parmi ces caractéristiques, il me semble donc qu'on peut quatrièmement isoler celles qui se prêtent le plus à ce jeu interprétatif/projectif, le mieux à même de produire de l'historicité, indépendamment de la volonté et des vraies « intentions » de l'auteur.
+a) Il s'agit ici d'abord d'un style épistémologique qu'on pourrait qualifier de « minimaliste ». En simplifiant, on pourrait risquer l'idée que les principales interprétations du CLG se sont appuyées sur le jeu des dichotomies minimales qu'il met en place (dans la version Bally/Sechehaye) soit pour rajouter un terme à son « dualisme » (comme lorsque G. Guillaume fait valoir les droits du « discours » à côté de ceux de la « langue » ou de la « parole »), soit pour restituer d'une manière ou d'une autre la dignité théorique de la branche prétendument exclue de ses dualismes (la diachronie à côté de la synchronie pour Jakobson et surtout Troubetzskoi, ou Martinet, la parole pour Benveniste et déjà pour Bally), soit pour les radicaliser comme semble le faire Hjelmslev avec la distinction forme/substance. Dans tous ces cas ici évoqués de manière trop désinvolte et qu'on pourrait facilement compléter, le Cours apparaît non comme un manuel doctrinal, mais comme une réflexion principielle qui demande à être complétée parce qu'elle ne semble jamais accorder quoi que ce soit d'une main, sans retirer une contrepartie négative de l'autre. Ce style minimaliste est un style déceptif qui ne semble pouvoir promettre qu'en frustrant. On ne peut s'empêcher de le rapprocher de celui d'un contemporain moins visible, V. Henry, qui donnait lui aussi, et en son nom propre, à lire un traité de linguistique générale en 1896 à travers trois antinomies, et de se demander ce qui à la fin du XIXe siècle commande à ce style « critique » dans la réflexion à la fois générale et technique sur le langage dont Saussure est le principal mais non l'unique exemple.
+b) Le Cours de Bally et Sechehaye laisse déjà percevoir sa place dans une situation de crise des savoirs, crise que la postérité aura tendance à oublier, comme elle aura tendance à oublier la dimension critique/réflexive du projet sémiologique saussurien. On sait que la nouveauté de celui-ci n'apparaîtra guère aux yeux des contemporains, et A. Meillet ne le mentionne même pas dans son compte-rendu. Par contre, quand Saussure sera devenu, rétrospectivement, une borne de la mémoire des sciences humaines dans leur version structuraliste, la sémiologie pourra passer alors pour un paradigme unificateur et transdisciplinaire. On oublie alors que, dans le Cours, la sémiologie n'apparaît que comme un axe réformateur de la psychologie et de la sociologie, plus généralement, de toute discipline à condition qu'elle s'occupe « de la valeur » et non comme un projet positiviste de totalisation de disciplines définitivement entrées dans la voie royale de la science. T. de Mauro a noté les hésitations (des éditeurs ? de Saussure ?) concernant les termes de « psychique » et de « psychologique » dans le Cours. Quant à l'affirmation du « caractère social (interne) des faits linguistique », elle prend place (Durkheim/Tarde, entre autres) au sein de discussions principielles de la sociologie en voie de constitution. Ici aussi, les conditions de la scientificité sont, chez Saussure, essentiellement restrictives, à la fois enthousiasmantes et déceptives
+c) Enfin, il faudrait pouvoir mesurer de manière systématique les effets de reformulation (et de reformulation de reformulations) dont le Cours a été l'objet dès sa parution et de toutes parts. Il s'est constitué là, sans nulle doute, une grille de lecture privilégiant nettement les thèses saussuriennes au détriment des démarches, empêchant de percevoir la complexité historique de la réception du CLG dans des travaux comme ceux de Ch. Bally, G. Gougenheim ou G. Guillaume (entre autres), à la fois continuateurs de Saussure et inassimilables pourtant au structuralisme...auquel Saussure lui-même est sans doute étranger. Dès 1917, dans son compte-rendu du Cours (« Les problèmes de la langue à la lumière d'une théorie nouvelle »), A. Sechehaye inaugure un certain type de référence à Saussure : il « ramène », selon ses propres termes, la doctrine de Saussure à un certain nombre de « thèses » (langue/parole, arbitraire, point de vue sémiologique, valeur...), dont il montre à la fois le caractère inaugural... et l'insuffisance.
+Minimalisme épistémologique, crise des savoirs, constitution d'une vulgate qui va bien au delà du travail d'édition de Bally et Sechehaye sont bien des caractéristiques du corpus saussurien qui ont largement contribué à faire de lui un outil historique de « disciplinarisation » des savoirs linguistiques pour le XX° siècle. C'est cet outil de disciplinarisation qu'on ne cesse de reprendre à partir des années 30 pour en discuter les thèses, en mesurer l'apport proprement cognitif, certes, mais aussi pour en répéter des versions figées ou s'en démarquer, ou le prolonger dans une dynamique incessante de « reprise ».
+E) C'est pourquoi, cinquièmement, alors que s'achève une partie du travail de « reconstruction » du corpus saussurien (R. Godel, R. Engler, Komatsu, S. Bouquet...), il devrait devenir possible d'en mesurer les effets. L'un d'entre eux me paraît paradoxal : plus le « vrai visage » de Saussure se dessine, et plus les choix de Bally et Sechehaye apparaissent pour ce qu'ils sont : des choix dont les motivations doivent être interrogées de manière plus sophistiquée que ce que l'on fait en général à partir de l'alternative trahison/fidèlité ou d'autres considérations plus psychologiques qu'historiques. On sait que Bally et Sechehaye ont développé une conceptualité linguistique qui n'est en rien un ajout ou un prolongement de l'oeuvre (connue) de Saussure. Comment expliquer alors que les « omissions » des deux éditeurs concernent tout particulièrement les domaines et types d'approche qu'ils ont le plus constamment privilégiés dans leurs oeuvres respectives : la psychologie et la linguistique de la parole pour Sechehaye depuis Programme et méthodes de la linguistique théorique (1908), ouvrage dédié à Saussure, la linguistique de la parole et la « stylistique » pour C. Bally ? Chez ce dernier, il s'est agi d'abord de constituer la linguistique de la parole non pas en complétant et en systématisant le CLG, mais en déplaçant résolument le champ conceptuel de Saussure. La stylistique initialement envisagée par son auteur comme une « province » annexée au domaine de la langue saussurienne, apparaît ultérieurement comme une étape qui mène de la linguistique psychologique à une véritable théorie linguistique de l'énonciation.
+D'ailleurs, selon quelle nécessité Bally et Sechehaye devraient-ils être des linguistes saussuriens ? Les éditeurs du Cours n'ont pas été formés à l'école saussurienne, mais en Allemagne, comme Saussure lui-même (P. Wunderli 1982). Ce n'est que par téléologie rétrospective et sans doute par hypostase des principes saussuriens hérités à travers le prisme de leurs réinterprétations ultérieures, qu'on en vient à oublier le fond des débats de la fin du XIXe siècle sur lequel s'enlèvent les « décisions théoriques » de Saussure : l'omniprésence de la catégorie plurielle de « parlers », l'importance redécouverte en particulier avec la sémantique de Bréal de la notion de « sujet parlant », les ébauches multiples de pragmatiques (cf. B. Nerlich, 1986) et de théories des actes de langage... Sans doute l'étude systématique des sources confirme-t-elle du même coup que les « décisions » saussurienne telles qu'elles apparaissent dans le Cours rédigé communiquent plus étroitement avec cette constellation de problèmes des théories du langage que ne le laissent croire les réinterprétations tardives et les épistémologies correctives (Saussure n'a pas vu que...) ultérieures.
+F) Enfin, on sait que tout héritage, tout exercice d'un droit de succession, commence par un inventaire explicite et exhaustif des biens transmissibles; et il est clair que la philologie saussurienne pratiquée à Genève relève d'un tel inventaire. Pourtant, il me semble que cet indispensable inventaire parce qu'il suit - et de loin - et non précède la diffusion large du Cours, pose deux problèmes. D'une part, celui de l'existence d'un héritage implicite : Saussure aurait transmis même ce qu'il n'aurait pas transmis. D'autre part, celui d'un héritage tellement général qu'il s'en trouve comme « dématérialisé ». Dans les deux cas, c'est à nouveau l'esprit de Saussure qui frappe, et à coups redoublés.
+- Dans le premier cas, il s'agit de la tentation très forte de faire du « vrai » Saussure le « programmateur » de pans entiers de la linguistique moderne : ceux qui, précisément, n'avaient cru pouvoir s'instituer légitimement que contre le programme saussurien. On fera valoir, par exemple, que le concept de « valeur in praesentia » qu'on trouve développé dans les sources (et qui est négligée dans le Cours) a valeur de programme :
+« Peut-on dire, face à sa théorie syntagmatique de la valeur, que, de par sa non- élaboration de la notion de « parole » (ou de « discours »), Saussure a manqué, dans son programme, à poser les concepts épistémologiques propres à permettre des théories de la compétence syntaxique, de la pragmatique linguistique ou de l'analyse du discours ? C'est tout le contraire : son concept de « valeur in praesentia » dessine le programme de ces linguistiques. Aussi, si d'autres - que ce soient des syntacticiens,, des sémanticiens ou des pragmaticiens - ont thématisé des concepts épistémologiques liés à cette valeur in praesentia qui n'apparaissent pas dans le Cours et qui n'apparaissent qu'en pointillé dans les textes originaux, il serait injuste qu'ils en sachent mauvais gré au maître genevois et revendiquent ici une rupture d'avec son programme épistémologique : il est aisé de montrer que leur linguistique s'est, au contraire, essentiellement bâtie sur ce programme .» (S. Bouquet, 1997 : 344 - 345)
+Mais que vaut alors la notion « d'épistémologie programmatique » ? La notion de « programme » ? Ne revient-elle pas ici à une forme moderne et pseudo-scientifique de la prédestination ? Même si - c'est également notre cas- on n'accorde à la notion « d'influence » qu'une valeur historiographique très faible en raison de son téléologisme (il n'y a chez l'influencé que ce qui se trouvait à l'origine chez « l'influent »), l'idée d'un tel « programme » agissant à distance et sans support n'aboutit-elle pas à une déhistoricisation non moins radicale ? A une héroïsation renouvelée du penseur, là ou le travail critique aurait dû nous faire sortir de la légende (legenda = « ce qui doit être lu ») ?
+- Dans le second cas, c'est la question de la continuité du saussurisme à Genève même qui est en question. On sait que - de l'aveu des genevois eux-mêmes - ce topos en effet crucial reste problématique depuis Sechehaye 1927, jusqu'à O. Amsterdamska (1987), en passant - entre autres - par Sechehaye (1940), H. Frei (1945), R. Godel (1961), R. Amacker (1976), Wunderli (1982). La filiation institutionnelle à la chaire de linguistique générale de Saussure à Prieto suffit-elle à assurer une continuité conceptuelle vraiment opératoire ? Comment mesurer cette dernière ? En 1961, R. Godel défend l'idée d'une Ecole saussurienne de linguistique spécifique à Genève. Cet exercice nécessite un avertissement préalable qui dépasse les simples précautions rhétoriques :
+« Pour les linguistes saussuriens, les principes posés par le CLG ne sont pas des dogmes [...], ils sont selon une expression de Saussure lui-même des « points de vue sur le langage »
+Ce relativisme du « point de vue » conduit à la définition d'une sorte de saussurisme minimal en cinq points fondamentaux, noyau dur de l'héritage, en somme :
+- la primauté de la langue sur la parole
+- la distinction rigoureuse de la diachronie et de la synchronie
+- la conception de la langue/système et institution
+- la double nature du signe
+- l'arbitraire du signe et sa motivation par combinaison syntagmatique
+Si ces cinq points définissent le minimum de l'héritage, ils définissent également des tâches, et, là encore, un programme : développer des « principes » qui ne sont qu'esquissés par le Cours, en éprouver la solidité en les mettant à l'épreuve de l'analyse d'autres systèmes, les comparer surtout à d'autres systèmes explicatifs en s'appuyant sur la saussurologie scientifique (édition critique de R. Engler).
+Or, ces cinq articles de foi et leurs avenants sont-ils ceux de la charte fondatrice d'une « Ecole » ? Ne peut-on légitimement penser que bien des entreprises, diversement localisées et se réclamant ou non de Saussure, pourraient se réclamer de ce programme ? Mieux, celles qui n'y souscrivent pas à la lettre ne peuvent-elles néanmoins s'y inscrire, tant il est vrai que ces principes ont fourni, de fait, dans la postérité saussurienne, le cadre à partir duquel des révisions et critiques donneront à la discipline la physionomie que Saussure n'était pas (selon ses héritiers mêmes) en mesure, d'emblée de lui donner, lui qui en aurait fourni cependant la meilleure esquisse ? De ce point de vue, si la linguistique saussurienne est la linguistique de « l'Ecole de Genève », Genève n'est- elle pas la capitale sinon du monde, du moins du monde de la linguistique ? Quoi qu'il en soit, la démarche de Godel indique, même si c'est par défaut, l'une des voies souhaitables de l'historiographie de la linguistique à partir de Saussure : qu'est-ce qu'une école ? Une école linguistique ? Quel rapport existe-t-il en linguistique entre théorisation(s), enracinement national et linguistique à l'âge de la science, au moment de l'internationalisation des normes présidant à la recherche ?
+Au terme de ce trop rapide parcours (pour de plus amples développements, cf. J. L. Chiss et C. Puech, 1987, 1997, 1999) dont on aura compris qu'il ne vise en rien à dévaluer le travail sur les sources, mais au contraire à l'inclure à sa place dans le continent du saussurisme en essayant de voir en quoi il est susceptible d'en faire bouger les représentations convenues et répétitives, il est peut-être temps d'énumérer quelques unes des difficultés que présente à notre sens l'historiographie saussurienne.
+- La première tient sans doute aux anachronismes qui scandent les différents avatars de la réception de Saussure. Le Saussure auquel font références les thèses des années 30 (à La Haye ou Prague principalement, puis Copenhague également) est déjà métabolisé dans des préoccupations qui ne sont plus tout à fait celles de la genèse du Cours, et qui ont leur trajectoire propre dans l'univers des slavisants (Cf. Sériot, 1999). Le structuralisme linguistique est déjà une autre histoire, à la recherche d'une légitimité par les origines, qui éprouve le besoin d'une borne de mémoire disciplinaire pour s'installer, conquérir sa place, en gagner de nouvelles, affirmer sa prééminence au centre à partir de la périphérie. Le long dialogue de Jakobson avec Saussure tout au long de sa carrière ne dit pas autre chose : Saussure est un commencement dont on ne peut se passer, mais n'est qu'un commencement qu'il faudra rectifier, voire recommencer. Troubetzkoi sera plus radical encore dans cette voie...
+Avec le structuralisme généralisé de l'après-seconde guerre mondiale, ce mode de référence à Saussure ne fera que s'accentuer et se radicaliser : le Cours ne joue alors son rôle de référence absolue (une référence qui n'est pas elle-même référée), qu'à travers une série indéfinie de médiations, de lectures de lectures, de prismes disciplinaires dont les intérêts de connaissance sont infiniment divers : Levi-Strauss lit Saussure à travers Jakobson, Merleau-ponty à travers G. Guillaume et Lévi-Strauss, puis Martinet, Lacan à travers Merleau-Ponty et Jakobson, Derrida à travers Hjelmslev, etc.
+Par contraste, la lecture de certains comptes-rendus du Cours (Bloomfield, Meillet, Vendryès, Sechehaye, Schuchardt...) montrent à quel point la réception « immédiate » a été subordonnée à des problématiques (celle d'une linguistique sociale, d'une psycholinguistique, d'une linguistique historique, celle du changement linguistique, de la syntaxe...) qui reviennent toutes à la manière de définir la linguistique générale, et qui conduisent le plus souvent à regretter soit l'absence de considérations sociologiques plus affirmées (Meillet, Vendryès à sa manière), soit une « abstraction transcendante » (A. Sechehaye), soit l'historien comparatiste de naguère (Schuchardt)... dans tous les cas à rabattre la nouveauté du Cours sur l'actualité et le passé immédiat d'un Kampfplatz.
+- La deuxième difficulté réside dans la tentation, certes en partie légitime, de ne retenir du travail des éditeurs que l'opération soustractive de tri dans les matériaux dont ils disposaient, ou les lacunes de leur information. La connaissance approfondie des sources ne permet-elle pas aujourd'hui de voir aussi la contrepartie positive de ces choix discriminants et de ces ignorances dans toute leur positivité ? En particulier, Bally et Sechehaye ont au moins pris soin de retenir dans les matériaux choisis ce qui concerne l'horizon de rétrospection de l'entreprise de Saussure (dans le « coup d'oeil sur l'histoire de linguistique »), son lien avec la définition de l'objet, de la méthode et de la théorie de l'objet, sans oublier - même s'ils ne le font que de manière réductrice - l'horizon de projection (la sémiologie) ; bref, tout ce qui constitue une discipline comme cristallisation de problèmes historiques, conceptuels et culturels.
+Il n'y a sans doute pas là l'unité d'une « doctrine » linguistique dont le contenu serait transmissible par cumul et capitalisation (la voie ordinaire de constitution des héritages...) sans perte ni reste, ni non plus sans doute un « programme » qui n'aurait attendu que sa réalisation, mais il y a sûrement par contre une matrice disciplinaire qui pouvait être réinvestie, transformée, étendue et contestée. Le structuralisme lui aura donné forme et extension pour un moment. Elle n'apparaît peut-être aujourd'hui pour ce qu'elle est... que parce qu'elle est en train de se défaire sous nos yeux.
+- C'est pourquoi, enfin, il conviendrait sans doute - mais est-ce toujours possible ? troisième difficulté - de commencer par distinguer dans l'aval du Cours ce qui relève d'une réception proprement dite, qui s'intègre donc dans un « horizon d'attente » balisé par des concepts opératoires repris, évalués, méconnus et/ou critiqués et ce qui relève de « l'héritage » à proprement parler, c'est à dire de cette valorisation rétrospective d'une origine qui nous présente le passé, parfois tardivement, sous la figure paradoxale de notre avenir anticipé.
+ +exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé + par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Même si le nombre de participants à notre section semble prouver le contraire, on peut quand même constater que la formation des mots du français a connu un certain renouveau depuis deux décennies. Renouveau qui, en France, a trouvé son impulsion surtout, au début, grâce à l'activité infatigable de Danielle Corbin, décédée prématurément, et de son groupe de recherche à Lille III, mais qui entre temps a atteint d'autres villes universitaires comme Paris ou Toulouse, pour ne nommer que les plus importantes.
+Ce renouveau toutefois a concerné presque exclusivement l'étude de la formation des mots dans le français actuel. La Bibliographie Linguistischer Literatur (Francfort : Klostermann 1976ss.) contient, bon an mal an, une vingtaine de travaux dédiés à la formation des mots du français, dont le nombre de ceux qui sont écrits dans une perspective diachronique ne dépasse que rarement 10 pour cent, et il y a des années où aucun travail diachronique n'est recensé. Il n'en a pas toujours été ainsi. Dans la bibliographie raisonnée de Schpak-Dolt (2003), par exemple, qui inventorie 665 travaux sur la morphologie française - flexion incluse - publiés entre 1875 et 1950, l'approche diachronique est encore très largement prépondérante. Il n'est pas difficile d'identifier la raison de cette inversion de tendance spectaculaire en faveur de la synchronie : le structuralisme, le générativisme et, plus généralement, 68, du moins dans les pays de langue allemande, ont porté un coup dur à l'étude de l'ancien français.
+Une autre différence voyante entre les deux bibliographies concerne le métalangage : tandis que la moitié des contributions recensées par Schpak-Dolt sont écrites en allemand, plus de 90% des travaux récents sont écrits en français. Le fait qu'une portion si importante des travaux de l'époque diachronique, dont la consultation est toujours recommendable, ait été écrite en allemand constitue certainement un obstacle ultérieur pour les francophones qui voudraient se dédier à l'étude de l'histoire de la formation des mots en français.
+Le français ne dispose pas de manuels à jour sur la formations des mots. C'est sans doute la lacune la plus douloureuse de notre domaine de recherche. Les manuels récents sont tous de type pédagogique, et ne permettent donc nullement au lecteur de se faire une image fidèle de l'état de la recherche, ni de la bibliographie existante. L'intention pédagogique de ces manuels comporte aussi une approche presque exclusivement synchronique.
+Pour la diachronie, il faut toujours recourir à Nyrop (1908) et, si on lit l'allemand, à Meyer-Lübke (1921). Ces deux manuels, très méritoires en leur temps, ne reflètent plus, sur beaucoup de points, l'état actuel de la recherche. De l'élégant manuel de Meyer-Lübke, il existe bien une édition mise à jour en 1966, par les soins de son élève J. M. Piel, mais celui-ci, malheureusement, ne s'est pas montré à la hauteur de la tâche (v. les comptes-rendus substantiels de Höfler 1967, Bork 1968, Jänicke 1969).
+La situation n'est pas plus réjouissante en ce qui concerne la description synchronique d'états de langue passés. Les grammaires de l'ancien français n'incluent pas, normalement, de chapitre sur la formation des mots. Buridant (2000 : 14) dit que des "contraintes éditoriales" l'auraient empêché de retenir, dans sa Grammaire nouvelle de l'ancien français (Paris : Sedes 2000) un dernier chapitre consacré à la morphologie dérivationnelle. Entre temps, on peut du moins consulter ses Prolégomènes (Buridant 2000), qui font le tour des travaux existants et des multiples problèmes méthodologiques liés à un tel projet, notamment la prise en compte des dimensions diatopique (dialectes, scriptæ) et diaphasique (genres textuels).
+Si les manuels de Nyrop et de Meyer-Lübke sont aujourd'hui obsolètes, ce n'est pas tellement pour des raisons méthodologiques - la conception analogique de la formations des mots qui est à leur base est toujours d'actualité (v. l'exposé de G. Dal à cette table ronde) -, mais parce que le grand essor de la lexicographie historique du français a eu lieu après leur publication.
+Dans ce contexte, il faut, bien sûr, mentionner en premier lieu le Französisches Etymologisches Wörterbuch (Bâle : Zbinden 1928ss.), l'oeuvre monumentale initiée par W. von Wartburg et poursuivie aujourd'hui sous la direction de J.-P. Chauveau, dont la consultation toutefois n'est pas aisée : c'est encore une fois l'allemand qui constitue pour beaucoup de non-germanophones l'obstacle le plus important pour son usage dans l'étude diachronique de la formation des mots, mais rappelons que les gloses du moins sont données en français. Pour l'ancien français, à part le Dictionnaire de l'ancienne langue française (10 voll., Paris : Vieweg 1881 - 1902) de F. Godefroy, signalons l'achèvement, sous l'égide de H. H. Christmann, de l'Altfranzösisches Wörterbuch (11 voll., Wiesbaden : Steiner 1925 - 2002) d'A. Tobler et E. Lommatzsch. L'étude de la suffixation est grandement facilitée par le Dictionnaire inverse de l'ancien français de D. G. Walker (Ottawa 1982), basé sur le Tobler/Lommatzsch. Le Dictionnaire étymologique de l'ancien français (Tübingen : Niemeyer 1974ss.), commencé par K. Baldinger, ne couvre jusqu'à maintenant que les lettres H à JOR. Concernant l'époque qui va de 1330 à 1500, le Dictionnaire du Moyen Français est, lui aussi, désormais achevé et disponible sur internet. Pour le xvie, on dispose depuis longtemps du Dictionnaire de la langue française du seizième siècle (7 voll., Paris : Champion 1925 - 67) d'E. Huguet. Et pour les Temps Modernes, le Trésor de la Langue Française informatisé met à disposition une masse d'informations qui attend, elle aussi, d'être mise à profit dans des études monographiques sur l'histoire de la formation des mots. Les notes étymologiques de ce dictionnaire, d'ailleurs, sont en train d'être mises à jour dans le cadre du projet TLF-étym. À cette série extraordinaire de dictionnaires, s'ajoute un nombre important de textes accessibles désormais électroniquement, comme ceux de Frantext ou de Blum (2001).
+Ces dictionnaires sont sans doute bien connus des participants de notre section. Si je les ai énumérés de nouveau ici, c'est pour donner plus de force au paradoxe suivant : comment se fait-il que la langue qui dispose des meilleurs dictionnaires historiques et étymologiques du monde affiche un score si maigre en ce qui concerne l'étude diachronique de la formation des mots ? Les études monographiques d'envergure qui exploitent à fond ces trésors lexicographiques se comptent en effet sur les doigts de la main. Dans ce qui suit, je mentionnerai brièvement quelques travaux récents qui s'inscrivent dans la perspective diachronique (ou la description synchronique d'un état de langue passé), en me limitant essentiellement aux vingt dernières années.
+Comme étude exemplaire qui a mis à profit les richesses du FEW, à défaut d'un exemple plus récent, je signalerai un travail qui remonte déjà aux années 70, Lindemann (1977), dédié au remplacement de -eresse par -euse et -trice au xvie siècle suite à la décadence des noms d'agents en -ere. Cette thèse de doctorat, qui se base sur un dépouillement exhaustif du FEW, suit une approche onomasiologique : elle étudie de près une catégorie dérivationnelle, en l'occurrence la féminisation des noms de personnes, et essaie de dégager les restrictions des suffixes en lice et les causes de la déchéance de l'un et du triomphe des autres. Cette étude constitue toujours un modèle à suivre.
+Les suffixes tombés en disgrâce dans la langue standard, d'ailleurs, se sont souvent conservés dans les dialectes. C'était aussi le cas de -eresse (v. Lindemann 1977 : 46ss. et Lechanteur 1999 ; sur -eur, Lachance 1988). La prise en compte des dialectes est souvent fondamentale pour la reconstruction des états de langue anciens. Ce sont les dialectes de la langue d'oïl, p. ex., qui m'ont fourni dans Rainer (2005b) la solution au problème épineux de la relation entre noms d'agents et noms d'instruments en -eur : tandis que l'usage instrumental a traditionnellement (v. Baldinger 1972) été considéré comme le résultat d'une extension métaphorique à partir du sens agentif, l'absence de telles extensions dans les dialectes nous fournit la preuve qu'il n'y a jamais eu d'extension métaphorique en latin vulgaire ou en protoroman. La "polysémie" agent/instrument est donc le résultat d'autres mécanismes (emprunts, ellipses). Les dialectes sont aussi cruciaux quand il s'agit de faire l'histoire des suffixes populaires et argotiques (v., p. ex., Buchwald 1992, Baldinger 1995 sur -zingue, 1997 sur -uche, Rézeau 1997 - 98 et Roché 2002, 2008 sur -ouille).
+L'approche sémasiologique domine dans l'étude récente de M. Roché (v. Roché 2006) sur le suffixe -ier, fortement polysémique, en ancien français. Cette étude, qui séduit par la finesse et le réalisme de son analyse sémantique, peut aussi servir d'antidote à la pratique, portée à des extrêmes invraisemblables dans Corbin/Corbin (1991) mais aussi omniprésente dans les travaux d'inspiration guillaumienne, de vouloir à tout coût réduire la polysémie des suffixes à un signifié unitaire à un niveau "abstrait". Je ne veux certes pas plaider pour une multiplication præter necessitatem des entités, mais là où les sens concrets observables dans les textes ne sont plus dérivables automatiquement et naturellement par des inférences pragmatiques à partir d'un sens abstrait (Wortbildungsbedeutung, en allemand), il vaut mieux opter pour la polysémie. Les locuteurs, contrairement à certains linguistes, n'ont pas peur de la polysémie, au contraire : une étude attentive de l'évolution sémantique des affixes à travers les temps montre souvent une tendance inexorable à la fragmentation sémantique (v. Rainer 2003, et plus généralement sur les mécanismes du changement sémantique dans la formation des mots, Rainer 2005a).
+Dans des cas concrets, il est souvent difficile de décider combien de sens exactement on peut ou doit attribuer à un affixe particulier. Ce problème est au centre de Martin (2006), qui se base sur les matériaux du DMF, qu'il a lui-même dirigé, et propose d'en distinguer trois sens au lieu d'un seul ou de deux, comme le voulait la tradition, à savoir 'éloignement', 'inversion' et 'extraction', sens qui sont issus respectivement des préfixes latins de-, dis- et ex- (renforcé par de-/des-). À part les préfixes, l'ancienne langue se servait aussi couramment de "préverbes" pour moduler le sens des verbes (v. Buridant 1995, Turcan 2001), usage qui, en français moderne, s'est atrophié. Mais il existe aussi, en français, des constructions comparables du type aller dehors, tomber dessus, etc., constructions qui se trouvent à mi-chemin entre syntaxe et formation des mots et qui ont attiré l'attention dernièrement des spécialistes d'un grand nombre de langues, dont aussi une langue soeur du français, l'italien (v. Cini à paraître). Il serait d'un grand intérêt d'approfondir les études du phénomène en français, tant d'un point de vue typologique que de celui de la reconstruction de l'évolution du latin aux langues romanes.
+La perspective romane est essentielle pour bien apprécier certains phénomènes de la formation des mots en français, surtout dans une perspective diachronique. Je me limiterai ici à attirer l'attention sur Bork (1990), qui rejette l'analyse traditionnelle selon laquelle les composés VN seraient le résultat de la réanalyse de phrases à l'impératif et propose d'établir une filiation directe entre ce type de composés et les composés latins du type Verticordia 'tourne-coeur(s)' (surnom de Vénus). Les spécialistes ont été unanimes à louer les qualités philologiques de ce livre, mais sont restés divisés sur la substance (pour : Lindner 2003 : 131, Lüdtke 2005 : 274 - 279 ; contre : Löfstedt 1994, Gather 2001 : 192 - 209).
+La langue française écrite, comme on sait, a commencé à intégrer des mots latins dès les tout premiers textes. L'étude diachronique de la formation des mots se voit donc pratiquement toujours devant la tâche de déterminer l'étendue de l'influence latine dans l'évolution d'un affixe ou type compositif particulier. La plupart du temps, cette influence est évidente pour des raisons formelles, mais il existe aussi des cas plus subtils. Buridant (2000 : 16 - 17), p. ex., fournit des observations intéressantes sur la concurrence, en ancien français, entre -ere/-eor et les constructions périphrastiques du type cil qui + verbe : avant la relatinisation massive en moyen français, ces dernières étaient utilisées fréquemment pour rendre des noms d'agents latins en -tor quand un dérivé français correspondant faisait défaut. Un problème d'un autre ordre a été traité par Thibault (1989 : 85 - 110), à savoir les techniques adoptées par le français dans l'adaptation des mots latins en -uus (-æus, -eus et -ius, d'ailleurs, ont causé le même genre de problèmes ; v. hebræus > hébreu, pharisæus > pharisien, pygmæus > pygmée, etc.).
+L'influence du latin a connu des hauts et des bas, mais elle n'a jamais cessé complètement. Une époque de latinisation intense a été celle de l'essor des sciences, qui commence au xviie siècle et dure jusqu'au xixe, quand le latin est abandonné définitivement comme langue scientifique dans la plupart des pays européens. À cette époque, ce n'est plus le latin classique qui fournit les modèles, mais le latin scientifique. Les lexicographes et morphologues continuent à sous-estimer fortement le rôle du latin à cette époque, pour la simple raison qu'il n'y a pas de dictionnaire du latin scientifique qu'ils pourraient consulter, comme il y en a pour le latin du Moyen Âge et, depuis quelque temps, aussi pour la Renaissance (v. Hoven 1994). Dans l'étude diachronique de la formation des mots dans certaines langues de spécialités particulièrement latinisantes, comme celles de la médecine ou de l'histoire naturelle, il ne reste que de retourner aux sources latines (v. Rainer 2003, à paraître a et b), ce qui d'ailleurs depuis quelque temps est grandement facilité par Google Books. Généralement, les termes français sont de simples calques du latin scientifique, mais parfois la situation s'avère plus compliquée : ainsi j'ai pu montrer (v. Rainer 2007) que le fr. mammifère, malgré son caractère latinisant, et contrairement à ce qu'en disent certains dictionnaires étymologiques, n'est pas un calque de mammifer, qui n'a jamais été en usage dans le latin scientifique, mais une formation latinisante française. Du point de vue de la formation des mots, il s'agit d'étudier quand et à quel point les différents types latins ont été intégrés dans le système de la formation des mots du français. C'est un autre vaste champ pratiquement vierge, dont l'étude est fondamentale pour améliorer le traitement lexicographique des mots savants mais aussi leur traitement synchronique dans la formation des mots.
+Pour terminer, j'insisterai surtout encore une fois sur la situation privilégiée dont jouissent, en principe, les études diachroniques sur la formation des mots en français grâce à l'état excellent de la lexicographie historique et étymologique. À cela s'ajoute le privilège, que le français partage avec ses langues soeurs, d'avoir une langue mère bien documentée, le latin, et de pouvoir compter en plus, en France, avec la tradition la plus solide d'étude de la formation des mots du latin. Si l'on se décidait à exploiter à fond ces atouts, le français devrait tout naturellement occuper le rôle de leader dans l'étude diachronique de la formation des mots au sein de la linguistique mondiale.
+ +libre de droits
+ANNODIS
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+pour la création d'un corpus de français écrit annoté discursivement
+Les noms et les adjectifs que nous regrouperons sous l'étiquette commune d' « ethniques » posent à la morphologie constructionnelle des problèmes qui passent généralement inaperçus dans la mesure où ils n'affectent pas la forme des unités concernées. Comment construire l'un par rapport à l'autre Français et français, Russe et russe ? Comment relier ces lexèmes à un nom de pays qui est tantôt en amont (France) tantôt en aval (Russie) ? Comment rendre compte du fait que, quelle que soit sa forme, l'adjectif renvoie aussi bien au pays (les paysages français, la plaine russe) qu'à ses habitants (le caractère français, l'à¢me russe) ? Dans une publication antérieure (Roché, 2005), nous avons ébauché une description d'ensemble du système et évoqué le rôle qu'y joue la conversion. Après avoir rappelé ces données, on se propose de poursuivre ici cette exploration en observant, dans un premier temps, la double « dimension paradigmatique » (van Marle, 1985) dans laquelle s'intègrent ces formations : celle du paradigme lexical que constituent les ethniques dans leur ensemble et celle du paradigme dérivationnel qui regroupe chacun d'entre eux avec le nom de pays, le nom de langue et les adjectifs correspondants. On s'intéressera ensuite à deux séries de dérivés construits sur les ethniques - préfixés en anti- et suffixés en -isme et en -iste - qui héritent de certaines caractéristiques du système et manifestent à leur tour le rôle de la marque morphologique dans la structuration du lexique.
+On appellera « ethniques » les noms de peuples (Russe, Tzigane), les gentilés construits sur un nom de pays ou de région historique ou géographique (Italien, Piémontais) et les adjectifs correspondants (russe, tzigane, italien, piémontais), à l'exclusion des gentilés construits sur un nom de ville ou de circonscription administrative. Le corpus constitué pour ce travail rassemble 1090 dénominations, dont 830 suffixales. Pour simplifier les notations, les noms de personnes et les adjectifs seront donnés uniquement sous leur forme de citation (masculin singulier). Il va de soi que, sauf à être épicènes, ils sont systématiquement variables en genre.
+Le système que constituent ces lexèmes peut se présenter morphologiquement, en français contemporain, sous quatre formes :
+(1) Tzigane N : tzigane Adj "de Tzigane"+
(2) Russe N : russe Adj "de Russe"+
Russie : russe Adj "de Russie"+
(3) France : français Adj "de France"+
Français N : français Adj "de Français"+
(4) Hongrois N : hongrois Adj "de Hongrois" Hongrie : hongrois Adj "de Hongrie"+
Dans le type (1), il n'y a pas de nom de pays (ou il n'est pas usuel). Dans le type (2), le nom de pays est formé sur le nom de peuple, par suffixation (Russie, Arabie, Birmanie, Turquie...) ou par composition (Angleterre, Pays Basque, Thaïlande, Kurdistan...). Dans le type (3), le noms des habitants est formé, par suffixation, sur le nom de pays (Français, Zaïrois, Tunisien, Andorran, Chypriote, Emirati...). Dans le type (4), les finales de l'un et de l'autre ne permettent pas d'orienter la relation constructionnelle. Formellement, les deux dénominations peuvent être identiques (Corse / Corse, Suisse / Suisse...), prendre les apparences d'une alternance flexionnelle (Lorrain / Lorraine, Argentin / Argentine...), faire alterner deux suffixes par troncation réciproque (Hongrois / Hongrie, Albanais / Albanie...), opposer une finale quelconque à une finale suffixoïde (Breton / Bretagne, Catalan / Catalogne...), etc. Le plus familier est le type (3), parce qu'il est commun aux gentilés formés sur les noms de villes et qu'il correspond à la vision contemporaine du monde, structuré en Etats bien délimités. Mais le type (1) et le type (2) sont plus fondamentaux, et ils ont longtemps été majoritaires. Le type (4) résulte de divers aléas historiques sur lesquels nous reviendrons.
+Dans tous les cas, on observe un certain nombre de points communs que nous présenterons schématiquement (pour une argumentation plus détaillée, voir Roché (2005)) :
+(5) Hongrois "habitant de la Hongrie" : Hongrie "pays des Hongrois"+
Russe "habitant de la Russie" : Russie "pays des Russes"+
Français "habitant de la France" : France "pays des Français"+
Ainsi, en dépit des différences entre les divers types et des multiples variantes de détail, le système contemporain des ethniques et des noms de langues est remarquablement unifié et cohérent. Cette structure est le résultat de la pression lexicale qui s'exerce sur le lexème construit du fait de son appartenance à deux paradigmes :
+Nous verrons successivement comment ces deux types de paradigmes se sont constitués pour les ethniques, et comment ils peuvent entrer en conflit.
+Même quand il est complet et qu'il comporte un nom de pays et un nom de langue, le paradigme dérivationnel dans lequel s'inscrit un ethnique est, en français comme dans les autres langues romanes, particulièrement économe. Six lexèmes (nom de peuple ou d'habitants, nom de pays, nom de langue, plus les trois adjectifs de relation correspondants) partagent deux formes seulement, voire une seule (Corse / corse). Comment en est-on arrivé là ?
+Au départ, il y a le fait que les principaux suffixes spécialisés (-ais, -ois) et privilégiés (-ien, -ain) sont sous-spécifiés quant à l'opposition Nom / Adjectif. Cela ne va pas de soi a priori. L'allemand oppose systématiquement un suffixe -er nominal à un suffixe -isch adjectival (österreicher N "Autrichien" / Österreichisch Adj "autrichien"). En latin, si les dérivés en -anus sont à la fois nom et adjectif, ceux en -icus sont seulement adjectifs ; et lorsque les deux sont en concurrence sur une même base, ils ont tendance à de spécialiser (asianus comme nom désignant une personne, par exemple, et asiaticus comme adjectif). En français donc, formés avec le même suffixe, Français N "habitant de la France" et français Adj "de la France" ont la même forme.
+C'est sans doute cette caractéristique qui a entraîné la deuxième : la formation d'un adjectif de relation par conversion quand le primitif est le nom de peuple : Russe N : russe Adj "de Russe". Ceci non plus n'était pas évident. Le recours à la conversion, pour ce type de formations, est généralement soumis à des conditions qui ne sont pas toutes réunies ici. Ce qui nous fait dire que la conversion est en l'occurrence un moyen de sauvegarder le parallélisme avec le type Français N / français Adj. L'allemand (Russe N "Russe" : russisch Adj "de Russe"), le latin (Gallus N "Gaulois" : gallicus Adj "de Gaulois") recourent systématiquement, dans ce cas, à la suffixation.
+Troisième caractéristique : une fois posé ce premier adjectif de relation, il est réinvesti, ou plutôt sa forme est réinvestie pour l'autre adjectif de relation. Dans le type (3), la forme construite- par suffixation- pour français "de France" va être réutilisée pour français "de Français". Dans le type (2), la forme construite- par conversion- pour russe "de Russe" va être réutilisée pour russe "de Russie". Ce phénomène, à la différence des précédents, semble assez général. Il y a quelques exemples de suffixation en chaîne quand la base est un nom de ville- it. Roma : Romano N "Romain" : romanesco Adj "de Romain" (distinct de romano Adj "de Rome", mais réservé à certains emplois), al. Berlin : Berliner N "Berlinois" : berlinerisch Adj "de Berlinois" (distinct de berlinisch Adj "de Berlin") -, mais l'allemand, comme l'italien ou le français, opère généralement le même transfert. Quand le nom de personne est construit (österreicher "Autrichien"), l'adjectif construit sur le nom de pays (Österreichisch "d'Autriche") renvoie aussi au nom de personne (Österreichisch "d'Autrichien"). Quand c'est le nom de pays qui est construit (Russland "Russie"), l'adjectif construit sur le nom de personne (russisch "de Russe") renvoie aussi au nom de pays (russisch "de Russie"). österreicherisch est attesté (à propos de la langue autrichienne), russländisch également, mais ils ne sont pas usuels. En néerlandais, où le nom d'habitant est également tantôt construit (Amerikaan "Américain", Israeliet "Isrélien"), tantôt non construit (Noor "Norvégien", Belg "Belge"), l'adjectif construit sur ce nom (Amerikaans, Israelietisch, Noors, Belgisch) est repris systématiquement pour renvoyer au nom de pays (resp. Amerika, Israel, Noorwegen, Belgià...). En latin enfin, gallicus pourrait, formellement, être construit sur Gallia aussi bien que sur Gallus mais l'antériorité de Gallus invite à y voir le même processus : formé d'abord sur Gallus, gallicus est réinvesti pour renvoyer à Gallia. Symétriquement, asiaticus construit sur Asia renvoie également à Asianus.
+Dernière étape : le nom de langue et l'adjectif qui y renvoie. L'un et l'autre, on l'a dit, ont la même forme que les autres adjectifs de relation, quelle que soit la façon dont ils sont construits. Les rares exceptions (hébraïque) sont des restes du système latin sur lequel nous reviendrons.
+Ainsi, à plusieurs niveaux, se manifeste un « principe d'économie » de portée plus générale, qui fait que la langue, plutôt que de construire une forme nouvelle, réutilise une forme déjà existante. L'adjectif de relation électoral, par exemple, formé sur électeur, renvoie normalement à ce nom (les listes électorales sont des "listes d'électeurs'), mais il sert également d'adjectif de relation à élection (le droit électoral traite de tout ce qui concerne les élections) à la place de °électionnel, qui devrait logiquement prendre place dans l'abondante série des dérivés en -el construits sur un nom en -ion.
+(6)élire : électeur : électoral "qui concerne les électeurs" (listes électorales)+
: " "qui concerne les élections" (droit électoral)+
élire : élection : °électionnel+
Résultat : une discordance entre la compositionnalité formelle et la compositionnalité sémantique du mot construit.
+Ce décalage peut en entraîner un autre par rapport à l'instruction propre au suffixe. Hors contexte, débats éducatifs serait compris comme "(débats) qui éduquent". Mais dans la phrase « En France, les débats éducatifs sont trop souvent réduits aux débats sur l'école. » (Le Monde, 23.03.2007 : 23), il s'agit de débats "qui concernent l'éducation".
+(7)éduquer : éducatif "qui éduque" (jeux éducatifs)+
: " "qui concerne l'éducation" (débats éducatifs)+
éduquer : éducation °éducationnel+
Le dérivé en -if construit sur la base verbale est réutilisé comme adjectif de relation pour renvoyer au dérivé en -ion appartenant au même paradigme. Autre exemple : les « problèmes érectiles » évoqués par un sexologue sur France-Inter (06.01.2005) ne sont pas les problèmes susceptibles de surgir mais ceux qui concernent l'érection.
+A côté de ces manifestations ponctuelles, les adjectifs en -iste donnent un exemple d'application systématique du principe d'économie comparable à celui des ethniques. Leur valeur propre est identique à celle des noms en -iste : axiologique (esclavagiste "favorable à l'esclavage") ou agentive (récidiviste "qui récidive"). Mais ils servent également d'adjectif de relation pour renvoyer tantôt à la base (l'époque tsariste), tantôt au dérivé en -isme (les théories tsaristes), tantôt au dérivé nominal en -iste (les milieux tsaristes). Vérification indirecte : il n'y a pratiquement pas d'adjectifs de relation en -al ou en -ique construits sur des dérivés en -isme ou en -iste. Sauf exception, les adjectifs en -ismal ou en -ismique sont construits sur des bases démotivées (rhumatismal, cataclysmique...). Quant aux finales en -istique, elles ne sont pas le résultat d'une dérivation en chaîne (linguistique renvoie à langue, pas à linguiste), -istique est simplement une variante de -ique. Mais- autre manifestration du principe d'économie- s'il y a déjà, dans le même paradigme, un adjectif de relation construit sur le primitif, il pourra être réutilisé pour renvoyer au dérivé en -isme. C'est ainsi que les adjectifs alcoolique, palustre ou gigantesque, qui, normalement, renvoient respectivement à alcool, marais et géant, peuvent servir d'adjectif de relation à alcoolisme, paludisme et gigantisme :
+« [des] excès alcooliques répétés » (Robida, in Rob.)+
« des accès palustres courts et rapprochés » (Quillet, in TLF)+
« Gigantisme et acromégalie sont en effet une seule et même affection [...] elle donne naissance au type gigantesque lorsqu'elle se développe avant la soudure des épiphyses; elle évolue au contraire vers le type acromégalique quand elle apparaît plus tard. » (TLF s.v. acromégalie).+
Les adjectifs, logiquement, sont plus souvent concernés par le principe d'économie : dénués de capacité référentielle directe, ils ont davantage de plasticité sémantique. Mais on trouve également des exemples parmi les noms, avec les mêmes effets de décalage dans la compositionnalité du mot construit ou par rapport aux caractéristiques (sémantiques ou catégorielles) du suffixe. Le développement récent d'assistanat au sens de "condition d'assisté", "système d'assistance", est sans doute une « récupération » de assistanat "fonction d'assistant". Dans la série des noms de sportifs construits sur le nom de l'arme avec laquelle ils pratiquent l'escrime (épée, fleuret, sabre), à côté de épéiste et de fleurettiste on trouve sabreur, qui reprend une dénomination antérieure construite (avec un autre sens) sur le verbe sabrer. Échappant au paradigme des dérivés en -iste, elle rejoint celui des noms de sportifs construits avec le suffixe -eur sur un verbe ou un nom d'activité. Application systématique de ce principe dans la série des dérivés en -isme et en -iste : l'existence, dans le même paradigme dérivationnel, d'un adjectif de relation en -ien bloque la formation d'un dérivé en -iste (la forme en -ien en tient lieu) et réciproquement l'existence d'un dérivés en -iste bloque généralement la formation d'un adjectif de relation en -ien (la forme en -iste en tient lieu), alors que les deux suffixes ne sont pas équivalents (cf. Roché, 2007).
+(8a)Staline : stalinien Adj "de Staline"+
: " N Adj "partisan de Staline", "favorable à Staline"+
Staline : °staliniste+
(8b)Lénine : léniniste N Adj "partisan de Lénine", "favorable à Lénine"+
: " Adj "de Lénine"+
Lénine : léninien+
Ici encore, la dimension lexicale - l'influence du paradigme dérivationnel - l'emporte sur la logique constructionnelle.
+Revenons aux ethniques pour observer maintenant le paradigme lexical qu'ils constituent. Lorsqu'ils sont formés sur le nom de pays, ils sont marqués comme tels soit par un suffixe spécifique- -ais ou -ois le plus souvent (Congolais, Béninois), -(i)ote (Chypriote), -ite (Yéménite), -i (Emirati), etc. -, soit par un suffixe dont c'est un emploi privilégié- -ien et -ain principalement (Canadien, Cubain). Lorsque le nom de peuple est le primitif, en revanche, sa forme est imprévisible (Russe, Turc, Arabe...) et ne permet pas de le caractériser. D'où la tendance à doter le nom de peuple originel d'une finale suffixale qui va l'intégrer dans le paradigme : Anglais se substitue à Angle, Danois à Dane, Finnois à Finn, Hongrois à Hongre, etc. Il s'agit là du phénomène d' « hypercaractérisation diachronique » depuis longtemps mis en évidence (cf. Malkiel, 1957 - 1958) : un lexème déjà caractérisé par son sens tend à l'être également par sa forme, si les deux se sont pas conjointement marqués d'emblée. Ou, en d'autres termes, d'une « intégration paradigmatique » (Corbin, 1987). Cette forme très particulière de suffixation- sémantiquement tautologique- est exactement semblable à l'exemple classique des noms d'arbres du type peuplier (formé sur l'afr. peuple, qui avait déjà le même sens). Dans certains cas, le suffixe sert directement d'habillage à un emprunt (Malais, Iroquois, Illinois), comme pour le non moins classique palétuvier. D'autres dénominations (Gascon, Breton) sélectionnent un ancien cas régime de préférence au cas sujet (Gasc, Bret sont également attestés) parce qu'il leur donne une apparence suffixale et les agrège à un paradigme en -on (Wallon, Frison, Saxon, Teuton) qui s'étend lui aussi par intégration paradigmatique (Lapon, Letton).
+Une variante consiste à construire par suffixation un nouvel ethnique sur le nom de pays construit lui-même sur le primitif : Malais : Malaisie : Malaisien. D'où les nombreux doublets : Finnois / Finlandais, Somali / Somalien, Azéri / Azerbaïdjanais, Thaï / Thaïlandais, etc. Ils peuvent servir à distinguer le groupe ethnique proprement dit, d'un côté, et les citoyens d'un Etat, de l'autre : tous les Azéris ne sont pas Azerbaïdjanais et tous les Malaisiens ne sont pas Malais. Mais dans la pratique ils tendent à être interchangeables, avant que l'un chasse l'autre. On trouve sur la Toile de nombreuses attestations de « gouvernement thaï », « gouvernement malais », « gouvernement azéri » alors qu'on attendrait normalement « thaïlandais », « malaisien », « azerbaïdjanais ». Ainsi se continue sous nos yeux le processus historique qui a fait passer les ethniques du type (1) au type (2) puis au type (3). Un peuple sans territoire attitré (type (1)) s'installe dans un « pays » auquel il faut donner un nom (type (2)) ; et quand ce pays devient un Etat au sens moderne du terme les individus ne sont plus perçus comme les membres d'un peuple mais comme les habitants de cet Etat (type (3)). Si les Espagnols sont aujourd'hui les habitants de l'Espagne, l'Espagne (Hispania) a d'abord été le pays des Hispani. Et ainsi de l'Italie, de la France, etc.
+La place manque pour étudier le rôle des différents suffixes dans ce double mouvement. D'une façon générale, leur distribution dépend en grande partie de critères phonologiques. Les bases en /i/ donnent à 88 % des dérivés en -ien (italien, estonien, bolivien, tanzanien, fidgien...). Que ces dénominations soient, souvent, empruntées à d'autres langues européennes n'y change rien : il est vraisemblable que les mêmes conditionnements y sont à l'oeuvre. Proprement française, la répartition des deux variantes qu'étaient, à l'origine, -ais et -ois est identique à celle qu'a observée Plénat (à paraître) pour les gentilés construits sur un nom de commune française. Dans notre corpus, sur 152 dénominations en -ais ou en -ois, un radical dont la dernière voyelle est une voyelle d'avant donne 31% de dérivés en -ais et 69% de dérivés en -ois tandis qu'un radical dont la dernière voyelle est une voyelle d'arrière donne 76% de dérivés en -ais et 24% de dérivés en -ois. Ainsi en Afrique, face à soudanais, gabonais, congolais, burundais, sénégalais, etc. les seuls ethniques en -ois sont béninois et zaïrois. En Asie orientale, chinois et tonkinois s'opposent de façon prévisible à japonais et taïwanais. Mais balinais a suivi sans doute le modèle de javanais, comme atjehnais et sumatranais (même consonne épenthétique). Pour l'Allemagne, seul -ois est présent, quelle que soit la voyelle qui précède (badois, hessois, brandebourgeois...). Parce que des bases en -bourg ne pouvaient donner que des dérivés en -bourgeois et que ceux-ci ont entraîné les autres ? Pour des raisons historiques, si tous ces ethniques sont apparus au même moment dans l'évolution phonétique de -ais / -ois ? Quoi qu'il en soit, ces exemples font apparaître un « effet de série », voire un simple effet de rime, une diffusion de proche en proche où l'histoire se mêle à la géographie. Les dénominations en -on énumérées plus haut dessinent un arc de cercle qui va des Pyrénées à la Baltique, dans lequel s'insèrent parfaitement percheron, augeron, beauceron et brabançon (et en s'écartant un peu berrichon et bourguignon). Toutes les bases en -land(e) donnent des dérivés en -ais (hollandais, irlandais, finlandais, thaïlandais, groenlandais...), alors que séparément des radicaux en -an(e) ou en -ad(e) peuvent être suivis d'un autre suffixe (iranien, tchadien).
+Dans certains cas, le mouvement qui s'était amorcé selon l'un des deux schémas précédents n'a pas abouti mais a laissé des traces dans des expressions complexes (feu grégeois, poulet basquaise...), des nominalisations démotivées (mongolien "trisomique", turquoise "pierre fine", persiennes "contrevents"...), des emplois particuliers (slavon comme nom de langue). Pendant un certain temps, une dénomination suffixale, construite sur le nom de peuple ou le nom de pays, a concurrencé la dénomination originelle. Elle avait vocation à la supplanter dans tous ses emplois, y compris nominal. Mongolien s'est dit des habitants de la Mongolie et Russien de ceux de la Russie. Basquaise, d'après les dictionnaires, sert de féminin à Basque comme Suissesse à Suisse. Mais le nom de peuple primitif a résisté, la nouvelle dénomination ne s'est pas imposée et ce qu'il en reste est tombé ou tombe en désuétude. Les Russes sont toujours des Russes et les Basques (des deux sexes) sont restés (ou redevenus) des Basques. Cas particulier : persien ne s'est pas imposé mais son concurrent persan a eu plus de chance, jusqu'à ce qu'iranien le relègue dans un rôle historique ou comme nom de langue tandis que perse subsistait pour la Perse antique.
+D'autres dénominations (gomme arabique, Golfe Persique, acide prussique, italiques...) représentent, avec les doublets néo-classiques déjà mentionnés (germanique, hispanique, helvétique...), un cas de figure nettement différent. Le suffixe -ique n'est pas, à la différence des précédents, un suffixe spécialisé, il forme des adjectifs de relation en général. Conséquence essentielle : ces dénominations sont restées, sauf exception, cantonnées à un usage adjectival. La plupart sont des formations grecques ou latines utilisées pour des référents anciens ou antiquisants (guerres médiques, limes germanique, colonnes doriques), comme formes supplétives (Confédération Helvétique, relations germano-polonaises) ou pour des emplois particuliers (dans pays germaniques, études hispaniques, par exemple, l'adjectif a une portée plus large que celle d'allemand ou espagnol et sert en quelque sorte de collectif). Les dénominations figées ou démotivées citées plus haut témoignent, jusqu'en français classique, d'un usage plus large de certains de ces adjectifs hérités (arabique, indique, persique...). Italique, par exemple, est dans (lettres) italiques un équivalent d'italien. D'autres sont des formations modernes, via le latin scientifique en général, mais ne se sont implantées plus ou moins durablement que dans des expressions complexes du vocabulaire savant : acide prussique en chimie, selle turcique en anatomie, mer Baltique... Seul, semble-t-il, balkanique reste d'un emploi libre mais il constitue un cas particulier dans la mesure où il réfère non à un Etat ou à un peuple mais à une région géographique.
+A côté du suffixe « savant » -ique, le suffixe « populaire » -esque a joué un temps le même rôle. Arabesque, barbaresque, grecquesque, mauresque, sarrasinesque, tartaresque, tudesque, turquesque sont attestés et s'étaient un temps plus ou moins diffusés. Il n'en reste que des traces infimes, mais ils sont intéressants à la fois par leur existence et par leur échec. Malgré quelques emplois nominaux (les Barbaresques, Mauresque comme féminin de Maure), ils sont comme les dérivés en -ique essentiellement adjectivaux. Ils témoignent donc que la tendance à construire des ethniques spécifiquement adjectivaux n'est pas seulement une subsistance néo-classique, une continuation du système latin dans le registre savant. Elle répond, sous une autre forme, au même besoin de caractérisation, d' « intégration paradigmatique » que la formation de dérivés en -ais, -ois, -on à partir d'un nom de peuple (supra, § 2.2). L'adjectif est « marqué » comme tel par son appartenance aux vastes paradigmes des adjectifs de relation en -ique ou en -esque.
+Mais cette logique d'intégration de l'adjectif dans un paradigme lexical typiquement adjectival entre en conflit avec celle du paradigme dérivationnel qui tend à imposer dans chaque famille une forme identique pour l'adjectif et pour le nom de personne (supra, § 2.1). Arabique et arabesque ont vocation à remplacer arabe comme adjectif, mais ils ne peuvent pas s'imposer si Arabe subsiste comme nom, parce que leur coexistence donnerait un paradigme dérivationnel hétérogène. Pour la même raison, grégeois et turquois, qui avaient commencé à se diffuser comme adjectifs, n'ont pas pu se maintenir parce que Grec et à Turc avaient résisté comme noms. Il n'y a pas de place pour arabesque et grégeois à côté d'arabe Adj et de grec Adj, et ils ne peuvent pas les éliminer si Arabe N et Grec N subsistent.
+Les dérivés en anti- qui expriment une idée d'opposition (médicament antigrippe / antigrippal "contre la grippe"), essentiellement adjectivaux mais souvent nominalisés, sont caractérisés, comme les dérivés en pré- ou en post-, par un « principe de copie » (Dell, 1970 ; Corbin, 1987 ; Levkovych, 2004) qu'on peut schématiser ainsi : s'il existe déjà un adjectif formé sur la base, le dérivé lui emprunte son suffixe (antiparlementaire "contre le parlement", antigouvernemental "contre le gouvernement", etc.) ; s'il n'y en a pas, le préfixe est la seule marque (antihalo "contre l'effet de halo", antipuces "contre les puces"). Les nombreux doublets (antigrippe / antigrippal) attestent que le suffixe est (généralement) facultatif et que la base de antiparlementaire, par exemple, est bien le nom parlement et pas l'adjectif parlementaire.
+Le principe de copie est une manifestation exemplaire de la double dimension paradigmatique de la dérivation et de la tendance à l'hypercaractérisation. Tous les dérivés en anti- sont marqués sémantiquement par le préfixe. Sur le plan catégoriel, la marque n'est pas indispensable : (brigade) antigang, (centre) antipoison(s) sont clairement des adjectifs. Mais quand il est présent, le suffixe traduit la composante catégorielle de la dérivation et intègre le résultat dans un paradigme lexical homogène. Que cette marque catégorielle soit obligatoirement empruntée à un autre membre du paradigme dérivationnel illustre d'une autre façon le principe d'économie énoncé plus haut. Y compris au détriment de l'instruction sémantique du suffixe mobilisé. Il s'agit, le plus souvent, d'un suffixe formateur d'adjectifs de relation, donc sémantiquement neutre, mais antidépresseur "contre la dépression", par exemple, reprend le suffixe instrumental de dépresseur "qui abaisse", anti-fermentescible "contre la fermentation" le suffixe modalisateur de fermentescible "susceptible de fermenter", etc.
+La dérivation en anti- est une des plus productives et les dictionnaires ne recueillent qu'une petite partie des dérivés construits à partir d'un ethnique ou d'un nom de pays qu'ont peut relever sur la Toile. Ils partagent les caractéristiques qu'on vient de résumer. Formellement, ils sont généralement construits sur l'adjectif. Anti-allemand, anti-russe, anti-américain sont beaucoup plus fréquents que anti-Allemagne, anti-Russie, anti-Etats-Unis ou anti-Allemands, anti-Russes, anti-Américains. Mais comme l'adjectif qui renvoie au nom de pays est formellement identique à celui qui renvoie au nom de personne, anti-américain, par exemple, signifie à la fois "contre les Etats-Unis" et "contre les Américains". Il y a des contextes où la distinction ne serait pas pertinente, mais ailleurs l'ambiguïté de ces dérivés oblige à expliquer, par exemple, si l'on est taxé d'anti-américanisme, qu'on peut être contre les Etats-Unis, en tant qu'Etat représenté par son gouvernement, sans être contre les Américains.
+Comme la préfixation en anti-, la suffixation en -isme ou en -iste à partir d'un ethnique, d'un nom de pays ou d'un nom de langue (italianisme, japonisme, angliciste...) est particulièrement féconde. Et tout autant la combinaison des deux (anti-américanisme). Dans ces formations, les confusions formelles et sémantiques propres au système des ethniques sont encore accrues du fait de la polyvalence de ces deux suffixes, auxquels plusieurs modèles constructionnels sont attachés (cf. Roché, en préparation). C'est cette imbrication que nous voudrions maintenant essayer de démêler.
+Un premier modèle de dérivation en -isme instaure une relation axiologique par rapport à la base et nominalise cette relation (l'esclavagisme est "le fait d'être favorable à l'esclavage"), tandis que la dérivation en -iste correspondante construit le nom de la personne qui y est impliquée (l'esclavagiste est "celui qui est favorable à l'esclavage"). Conformément à ce modèle, le dérivé en -isme peut désigner un mouvement politi-que, culturel ou d'opinion en relation avec le pays ou ses habitants, et le dérivé en -iste ses partisans (ou, en tant qu'adjectif, qualifier ce qui le concerne) :
+(9)catalanisme "autonomisme catalan" / catalaniste "partisan du catalanisme"+
scandinavisme "système politique qui s'inspire de la communauté ethnique et linguistique des pays scandinaves"+
italianisme "goût pour ce qui vient d'Italie"+
Un deuxième modèle sert à construire des noms d'action ou d'activité en -isme (exorcisme, alpinisme) et, parallèlement ou isolément, des noms d'agent en -iste (exorciste, alpiniste, pianiste). Dans le domaine qui nous intéresse, le dérivé en -isme désignera l'étude de la langue et de la civilisation concernées et le dérivé en -iste ceux qui s'y adonnent :
+(10)indianisme "étude des langues et des civilisations de l'Inde"+
océaniste "spécialiste des langues et civilisations océaniennes"+
germaniste "linguiste spécialisé dans l'étude des langues germaniques"+
Le troisième modèle construit, à partir d'un adjectif ou d'un nom de personne, un nom de qualité en -isme (parallélisme, dilettantisme) sans correspondant en -iste. A partir d'un ethnique, le dérivé, comme ceux en -ité (ivoirité) ou en -itude (belgitude), désignera le caractère de ce qui est propre au pays et à ses habitants :
+(11)germanisme "caractère germanique et plus particulièrement allemand de quelque chose ou de quelqu'un"+
italianisme "caractère semblable à celui qui est propre à l'Italie et aux Italiens"+
celtisme "ensemble des caractères particuliers aux Celtes"+
Ou bien, à partir de l'adjectif correspondant au nom de langue, il désignera un idiotisme ou un emprunt :
+(12)américanisme : "idiotisme américain (par rapport à l'anglais)"+
italianisme "expression italienne empruntée par une autre langue"+
provençalisme "particularité propre au provençal".+
La base - le lexème qui sert de point de départ à la dérivation - est logiquement, suivant le cas, tantôt le nom de pays ou celui des habitants, tantôt le nom de langue, tantôt l'un ou l'autre des adjectifs correspondants. Compte tenu des nombreuses homonymies qui caractérisent le système et de divers accidents morphophonologiques, le résultat formel, cependant, est souvent le même. Un latiniste, par exemple, étudie le latin (N) tandis qu'un latinisme est une tournure typiquement latine (Adj). Mais le radical - la forme à laquelle est concaténé le suffixe - est identique dans les deux cas. A cause de l'haplologie, scandinavisme peut être construit sur Scandinavie aussi bien que sue scandinave. Il n'en reste pas moins que, le plus souvent, le nom de pays est différent du nom de personne, du nom de langue et des adjectifs. Des dérivations sur Italie et italien, sur Japon et japonais devraient donner respectivement italisme et italianisme, japonisme et °japonaisisme. Or deux faits massifs caractérisent les dérivés construits sur les uns et les autres :
+Si l'on y regarde de plus près, on constate que la forme du dérivé dépend principalement de celle de l'adjectif (qui est aussi, rappelons-le, celles du nom de personne et du nom de langue). Trois ensembles se dessinent (on laissera de côté les finales rarement représentées et les exceptions, qui ne remettent pas en cause le classement proposé) :
+D'un point de vue morphologique, l'élimination des segments -ais- et -ois- est logique : ces suffixes « populaires » sont incompatibles avec la suffixation « savante » que sont les dérivations en -isme et en -iste. Le phénomène est le même devant -ité et -itude (Dal & Namer, 2005). Devant -isme et -iste, il se double d'une difficulté phonologique : une finale en -aisisme ferait se succéder deux sifflantes trop rapprochées. Pour les mêmes raisons, le traitement de ces bases est identique devant -iser : japonais donne japoniser et non °japonaisiser. La troncation de -ien- s'il s'agit bien d'une troncation- est plus paradoxale. Son yod est certes indésirable à peu de distance du /i/ du suffixe, mais ailleurs, au contraire, c'est une base en -ien ~ -ian qui se substitue à la base attendue (dans le type Hegel : hégélianisme vs Kant : kantisme, cf. Roché, 2007). Le traitement de -ique est encore plus déroutant. D'un point de vue phonologique, sa tronca-tion est logique et attendue : favorisée par l'identité de la voyelle (pour ce qui la concerne, on pourrait parler d'haplologie), elle évite la rencontre des deux sifflantes due à la spirantisation. En dehors de la présente série, le type romantique : roman-tisme est beaucoup plus fréquent que le type catholique : catholicisme. Mais parallèlement le segment -ic- est maintenu là où il pourrait être facilement évité (celticisme, doublet de celtisme) ou introduit via une base supplétive latine ou latinisante (gallicisme, anglicisme, belgicisme, flandricisme, sinicisme, basquicisme...), comme le segment -(t)(a)c- dans la série rhotacisme, lambdacisme, iotacisme (ibid.).
+Sur le plan prosodique, certaines différences de traitement semblent logiques. Méditer-ranéen (6 syllabes) a plus de chances d'être tronqué que coréen (3 syllabes). D'où méditerra-né-isme face à coréaniste, tandis qu'européen, de longueur intermédiaire, donne aussi bien européisme qu'européanisme. Parmi les bases supplétives en -ique ~ -ic-, les trisyllabes germanic-, hispanic-, helvetic- sont tronquées (d'où germanisme, hispanisme, helvétisme) tandis que les dissyllabes anglic-, gallic-, nordic- ne le sont pas (d'où anglicisme, gallicisme, nordicisme). Tous aboutissent ainsi au même calibre, qui est aussi celui de latinisme ou d'hellénisme et qui est obtenu dans flandricisme et basquicisme par l'introduction d'un segment parasite, dans belgicisme par le choix de la base Belgique plutôt que belge. A partir d'une base en -ien, en revanche, si l'on s'attend à trouver lacédémonisme plutôt que °lacédémonianisme, pourquoi dorisme, par exemple, plutôt que °dorianisme, alors qu'italianisme, algérianisme, canadianisme ont des bases plus longues ? D'une façon générale, un examen systématique des bases en -ien montre que, pour elles, le facteur prosodique n'est pas pertinent. S'il intervient, c'est en renfort d'autre éléments.
+Il faut tenir compte, en effet, en amont de la finale adjectivale, de la forme qui subsiste lorsque l'adjectif est tronqué ou qu'il est remplacé par le nom de pays. Et revenir, par exemple, sur le couple Inde / indien : indianiste vs Océanie / océanien : océaniste. Indianiste et océaniste sont plus proches du gabarit optimal, pour un dérivé, que ne le seraient °indiste et °océanianiste : base dissyllabique, dérivé trisyllabique (cf. Plénat & Roché, 2003). Mais aussi, et surtout, océaniste a deux avantages déterminants sur son compétiteur °océanianiste :
+Les facteurs phonologiques, par conséquent, ne sont pas seuls en cause, puisque sur ce plan on relève un certain nombre d'incohérences, mais ils sont souvent déterminants. Et ils le sont d'autant plus s'ils tendent à renforcer certaines séries lexicales.
+Cette observation invite à se tourner vers les ensembles qu'on voit se dessiner en parcourant le corpus, dans lesquels une identité formelle correspond à une parenté géographique ou culturelle : dorisme, ionisme, éolisme, sur des bases tronquées en -ien (ou en -i-que) désignant (ou qualifiant) des dialectes grecs ; hébraïsme, aramaïsme, chaldaïsme pour le Proche Orient ancien ; gallicisme, belgicisme, flandricisme... Mais on butte immédiatement sur atticisme, par exemple, qui appartient à la troisième série pour la forme, à la première pour le sens. A y regarder de plus près, cependant, le paradoxe n'est qu'apparent. Hérité du grec, atticisme a été introduit très tôt en français (16e s.) et a servi de modèle immédiat à gallicisme, au moment où sont forgés également francisme, latinisme et italianisme. Anglicisme (17e s.), hispanisme et germanisme (18e s.) ont suivi. Tous ces dérivés utilisent les bases latines ou latinisantes disponibles, comme il est logique pour ce type de formation, avec pour les bases en -ic- une différence de traitement (tronca-tion ou spirantisation) conditionnée par le facteur prosodique mentionné plus haut. Les séries de dérivés en -icisme, -ianisme, -anisme sont ainsi en germe. Les érudits qui forgent flandri-cisme et belgicisme, à la fin du 18e siècle et au début du 19e, ne font que transposer un des modèles. Sur la lancée, wallonicisme et bruxellicisme viendront même concurrencer wallonisme et bruxel-lisme. Parallèlement, les hellénistes, qui ont trouvé en grec δωÏισμός "langage dorien, prononciation dorienne", l'adaptent directement en dorisme et sur ce modèle forgent ionisme et éolisme. Quant à aramaïsme et chaldaïsme, ils sélectionnent comme base arama-ïque et chadaïque plutôt qu'araméen et chaldéen à cause d'hébraïsme (16e s.), qui suit lui-même le modèle de judaïsme, emprunt médiéval, via le latin, au grec Î¹Î¿Ï Î´Î±ÏŠÏƒÎ¼ÏŒÏ‚. Ainsi une même cause produit des effets différents. Trois dérivés- αττικισμός, δωÏισμός, Î¹Î¿Ï Î´Î±ÏŠÏƒÎ¼ÏŒÏ‚- construits régulièrement en grec et empruntés à des époques et dans des conditions différentes servent de leader words pour amorcer des séries lexicales dans lesquelles une parenté formelle renforce la cohérence sémantique ou culturelle. Ce rôle de leader word n'est pas réservé, d'ailleurs, au prototype historique de la série : si atticisme est à l'origine de celle des idiotismes en -icisme, le relais a été pris par gallicisme et anglicisme, dont la diffusion contribue largement à l'étendre.
+A cet effet de série sont liées les quelques différenciations sémantiques qu'on peut observer entre formes concurrentes, dans les doublets ou les triplets mentionnés plus haut. Les dérivés en -icisme désignent plutôt des idiotismes, tandis que les noms de mouvements d'opinion privilégient une forme directement associée à l'adjectif ethnique ou au nom de pays. Mais la répartition est loin d'être systématique. Francisme, qui a désigné un mouvement politique fascisant dans les années 1930, a été employé dès l'origine pour "gallicisme" et est encore abondamment attesté dans ce sens. Inversement, belgicisme, par exemple, pourra être employé pour un nom de qualité renvoyant à belge ( « Qu'ils [les écrivains belges] écrivent la langue de leur éducation, mais qu'ils ne rougissent pas si elle est parfois teintée de belgicisme, trempée dans les originalités locales. » (Gourmont, in TLF s.v.)) ou pour un courant d'opinion ( « La défense des francophones et de la langue française, en dehors du belgicisme unilingue, commence dès la fin de ce cadre. Divers organismes le représentent, comme la Ligue contre la flamandisation de Bruxelles dans les années 30. » (fr.wikipedia.org/wiki/Mouvement_wallon)). L'effet de série sélectionne une forme liée à une acception (-icisme pour un idiotisme, par exemple), mais cette forme est ensuite disponible pour les autres acceptions.
+En fait, le choix des formes, quand plusieurs sont possibles, ou leur distribution, dans les doublets, dépendent surtout du niveau de langue. Les bases supplétives ou allomorphisées sont privilégiées dans le discours « savant » et le niveau soutenu tandis que des locuteurs plus frustes ou d'autres contextes utiliseront des formes plus proches de la base- québéquisme et turquisme plutôt que québécisme et turcisme, autrichianisme plutôt que austriacisme, allemandisme et francisme (voire françaisisme) à la place de germanisme et gallicisme. Si les formes en -ianiste sont fréquentes parmi les noms de spécialistes, y compris sur des bases longues (indonésianiste, calédonianiste, polynésianiste...) ce n'est pas que ces dérivés sélec-tion-neraient spécialement la base adjectivale alors que les autres péfèreraient la base nomi-nale, mais simplement parce que ces lexèmes apparaissent dans des contextes « savants » tandis que les formations en anti-, par exemple, sont fréquentes dans des contextes journalistiques ou des forums de discussion.
+L'effet de série peut aussi s'exercer de l'extérieur, à partir d'un autre paradigme spécialisé de dérivés en -isme. A côté de macédonisme "mouvement politique", qui adopte la forme- attendue compte tenu de la longueur de la base et du segment qui précède le suffixe, macédonianisme, qui désigne spécifiquement un courant religieux, viole les contraintes d'euphonie pour rejoindre la série des dérivés en -ianisme construits sur un anthroponyme et appartenant au même domaine (arianisme, nestorianisme, pélagia-nisme...).
+D'une façon générale, dans les deux ensembles, très vastes et diversifiés, que constituent les dérivés en -isme et en -iste, la dimension paradigmatique de la dérivation se manifeste par une tendance à élargir la marque formelle en amont du suffixe pour constituer des séries spécialisées. Plus la rime est riche, mieux le dérivé est perçu comme appartenant à un paradigme donné. De la même façon qu'une finale en -ianisme est privilégiée pour une doctrine philosophique ou religieuse, une finale en -anisme (après consonne) ou en -icisme le sera pour un dérivé construit sur un ethnique ou sur un nom de langue. Reste à déterminer par quelle manipulation morphophonologique ce résultat est obtenu.
+L'intégration du dérivé dans une des séries que nous venons d'évoquer, à l'intérieur du paradigme lexical, peut être réalisée de deux manières : en jouant sur le choix de la base (nom de pays plutôt qu'adjectif ou l'inverse) ou grà¢ce à une manipulation morphophonologique (ajout d'un segment parasite ou, beaucoup plus souvent, troncation). Nous avons jusqu'à maintenant évoqué cette question avec prudence à cause de l'ambiguïté du type japonisme, palestinisme, etc. : une dérivation sur le nom de pays (Japon, Palestine) donne le même résultat qu'une dérivation sur l'adjectif (japonais, palestinien) amputé de sa dernière rime, comme dans la suffixation substitutive (les types valise : valoche, bà¢tonnier : bà¢tonnat, (Saint) Thomas (d'Aquin) : thomisme, etc.).
+Quelques cas particuliers, cependant, permettent de distinguer les deux solutions. Européisme et asiatisme ne peuvent pas être construits formel-lement sur Europe et Asie : une dérivation directe aurait donné °europisme et °asisme. Ils ne peuvent être construits que sur européen et asiatique, moyennant une troncation de la dernière rime. Britannisme et gaélisme, hébraïsme et finnisme, peuvent difficilement être construits sur d'autres bases que britannique et gaélique, hébraïque et- finnois. La troncation, là aussi, est évi-dente. Mais elle ne suffit pas à expliquer hébraïste, par exemple. Si un hébraïsme est une tournure typiquement hébraïque, un hébraïste est quelqu'un qui étudie l'hébreu. Sémantiquement, lexicalement, la base est ici le nom. Il y a donc eu à la fois, dans ce cas, substitution de hébraïque à hébreu puis troncation pour former le radical de hébraïste. Le processus est le même dans un dérivé comme européiste lorsqu'il désigne- dans la bouche de leurs adversaires- les partisans de l'Europe intégrée. La base lexicale est le nom Europe, auquel l'adjectif européen- tronqué- a été substitué.
+Inversement, baviérisme, champagnisme, flandrisme, guatémalisme, monacoïsme, périgordisme ne peuvent être construits que sur Bavière, Champagne, Flandres, Guatemala, Monaco, Périgord et pas sur une troncation de bavarois, champenois, flamand, guatémaltèque, monégasque, périgourdin. Mais en passant d'une province à l'autre, c'est bourguignonisme qu'on trouvera et pas °bourgo-gnisme, catalanisme et pas °catalognisme, provençalisme et pas °provencisme, même quand il s'agit d'un mouvement politique lié à la région et non d'un idiotisme lié à la langue. Toutes choses égales par ailleurs, le dérivé est construit tantôt sur la base nominale, tantôt sur la base adjectivale sans qu'on puisse rendre compte de ce chassé-croisé par l'effet d'une troncation.
+D'une façon générale, les phénomènes de troncation sont incontestablement attestés dans notre corpus mais ils ne suffisent pas à expliquer les faits observés. Il faut revenir à l'autre type de paradigmes, les paradigmes dérivationnels, et admettre, suivant les cas, tantôt que la base nominale (nom de pays ou nom de langue) s'est substituée à la base adjectivale, tantôt que la base adjectivale s'est substituée à la base nominale. Des exemples comparables peuvent être observés dans d'autres secteurs de la dérivation en -isme et en -iste. Dans le type hégélianisme déjà mentionné, le dérivé est construit lexicalement sur le noms de personne Hegel et non sur l'adjectif hégélien, même nominalisé (l'hégélianisme est la philosophie de Hegel, comme le kantisme est celle de Kant, et pas celle des hégéliens). De nombreux dérivés en -alisme et en -arisme ne peuvent pas être construits, sémantiquement, sur l'adjectif en -al ou en -aire qui semble être leur base : le personnalisme est une philosophie fondée sur la personne et non sur ce qui est personnel (cf. Roché, en préparation). Dans tous ces exemples, comme dans l'exemple néerlandais analysé par Booij (1997 : 50), où l'adjectif de relation Chomskyaans "de Chomsky" est construit non sur ce nom mais sur Chomskyaan "partisan de Chomsky", c'est à une « substitution paradigmatique » qu'on assiste : un membre du paradigme dérivationnel s'est substitué à un autre comme base du dérivé à former.
+Substitution paradigmatique et troncation aboutissent au même résultat dans les cas où un mot comme japonisme ne peut être construit que sur japonais (s'il désigne une particularité de la langue, par exemple). Mais les deux phénomènes ne se situent pas sur le même plan. La troncation est d'ordre morphophonologique et obéit à des conditionnements principalement phonologiques (prosodiques ou segmentaux). La substitution paradigmatique est d'ordre lexical et rejoint le principe d'économie mis en évidence plus haut : là où l'on attendrait deux dérivés, construits l'un sur le nom de pays et l'autre sur l'adjectif ou le nom de langue, une même forme sert pour les deux. Les notions de troncation et de substitution paradigmatique sont donc séparément nécessaires puisque, on l'a vu, certains cas de figure ne relèvent que de l'une ou de l'autre. Et celle de substitution paradigmatique est plus « généralisante » puisqu'elle se traduit par diverses manifestations formelles (dont un allongement de la base dans le type hégélianisme, par exemple) et pas seulement par un accourcissement.
+Si le conditionnement de la construction des lexèmes était uniquement affaire de règles morphologiques, et commandé par les seules caractéristiques catégorielles et sémantiques de chaque dérivation, il serait identique pour tous les dérivés. On constate au contraire, dès qu'on observe un corpus un peu étendu, que le choix du procédé, celui de l'affixe, le traitement morphophonologique de sa concaténation à la base dépendent aussi de deux séries de facteurs : les contraintes phonologiques de « bonne formation », que l'on n'a fait qu'entrevoir ici sans approfondir leurs effets faute de place, et les contraintes lexicales qui tendent à renforcer l'insertion du mot construit dans les deux paradigmes auxquels il est destiné à appartenir. Une finale en -icisme, par exemple, ne devrait résulter que d'une base en /ik/ spirantisée. On a vu cependant qu'elle pouvait être à la fois attractive, pour des raisons lexicales, au point de se trouver dans des dérivés dont la base ne comportait pas elle-même une finale en -ique (le type flandricisme) ; et répulsive, pour des raisons phonologiques, si bien que la finale de la majorité des bases en -ique est tronquée (le type germanisme). Dans la formation des ethniques et des dérivés auxquels ils servent de base, la dimension lexicale se traduit par une même tendance à la structuration dans chacun des paradigmes concernés, mais selon des modalités différentes. Les paradigmes dérivationnels tendent à adopter la même structure, dans laquelle le principe d'économie joue un rôle déterminant : même forme, dans les ethniques, pour le nom de personne, le nom de langue et les trois adjectifs de relation, dont seul se distingue le nom de pays ; même forme pour les dérivés en anti- et les dérivés en -isme, qu'ils soient construits sur le nom de pays ou sur l'ethnique. Dans les paradigmes lexicaux, la marque morphologique renforce la cohérence sémantique et un même effet de série, à partir de leader words, se traduit par un effet de rime qui contribue tantôt au choix de l'affixe tantôt à son renforcement par une homophonie du segment qui précède. Mettre en évidence le rôle des leader words revient à souligner le poids de l'histoire, mais la vision diachronique n'est pas la seule à devoir en tenir compte. La trace de l'histoire est présente dans le lexique existant à un moment donné, donc dans la synchronie actuelle, qui façonne la créativité lexicale et ses modalités morphophonologiques.
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Les dictionnaires informatisés ouvrent un accès nouveau à la connaissance du lexique. Si l'apport de ces outils documentaires à la sémantique a été plus spécialement souligné (Martin, 2001), on aimerait ici en indiquer une autre exploitation possible, orientée vers une description diachronique du lexique. La première approche se focalise sur la rubrique « Définition » du dictionnaire ; celle que l'on propose s'appuie sur la date de publication du dictionnaire et sur la rubrique « Étymologie », quand elle existe. Idéalement, les informations contenues dans cette rubrique devraient permettre de constituer des ensembles lexicaux en fonction de la date de première attestation, de la langue d'origine, de l'étymon, des morphèmes dérivationnels. Dans la réalité actuelle, les dictionnaires informatisés n'offrent pas toujours la possibilité même d'une requête étymologique, parce qu'ils n'ont pas nécessairement jugé utile de fournir des informations de cette nature. Quand ils l'offrent, ils sont loin d'ouvrir les différents accès que constitue chaque caractéristique étymologique. Le Trésor de la langue française informatisé (TLFi), le Nouveau petit Robert électronique (PRE) et le Nouveau Littré électronique (NLE) esquissent pourtant les premiers linéaments de ce type d'investigation. Les résultats de chacun à une même requête étymologique révèlent des disparités. Sans doute la qualité du balisage, et parfois de l'enquête étymologique, peut-elle être mise en cause, mais plus souvent ces disparités révèlent des décisions lexicographiques différentes, c'est-à-dire des questions linguistiques non résolues. On indiquera dans un premier temps les limites actuelles des recherches par critère étymologique dans les dictionnaires informatisés. À travers deux études de cas : la recherche par langue d'origine et la recherche par date, on montrera cependant comment le TLFi, le PRE et le NLE peuvent d'ores et déjà constituer non seulement un instrument, mais aussi un aiguillon pour l'histoire du lexique.
+Le succès d'une recherche étymologique dans un dictionnaire informatisé dépend à la fois des informations contenues dans le texte des articles et du balisage que les informaticiens-linguistes y ont opéré. La première limite de cette recherche réside dans la présence même de l'information étymologique : de ce point de vue, lexicographie ancienne et lexicographie moderne ne présentent pas les mêmes normes. La seconde, qui ne concerne que les dictionnaires modernes, se trouve dans les choix de balisage et leur degré de précision.
+Le souci étymologique n'est apparu que progressivement chez les lexicographes. Les « Dictionnaires d'autrefois », pour reprendre la dénomination choisie par les concepteurs d'une précieuse base de données lexicographiques, ne comportent pas de rubrique « Étymologie ». Leur forme informatisée, aussi minutieuse soit-elle (Wionet, Tutin, 2001) ne peut donc pas directement permettre de navigation par ce type de critère. Deux biais toutefois rendent possibles leur exploitation dans une perspective d'histoire du lexique : l'exploitation des dates de publication des dictionnaires et les informations de nature étymologique dispersées dans le texte des articles.
+À la faveur de leur réunion dans une même base de données, on peut comparer leur nomenclature : on saisira ainsi le moment de la lexicographisation d'un mot ou d'un sens nouveaux. Si la base Dictionnaires d'autrefois permet ce type d'enquête, son maillage, avec sept dictionnaires pour parcourir cinq siècles, reste cependant un peu lâche. À cet égard, la base informatisée du Petit Larousse de 1905 à 2005, en cours d'élaboration au Laboratoire « Lexiques, Dictionnaires et Informatique » (Cergy-Pontoise), devrait procurer des résultats beaucoup plus fins, du moins pour le 20e siècle. Valoriser, par le développement de telles bases de données, un patrimoine lexicographique qui constitue « une spécificité française au coeur de la galaxie Gutenberg » (Pruvost, 2000 : 10), c'est aussi donner un tremplin à la description diachronique du lexique français.
+Même si les dictionnaires anciens ne consacrent pas systématiquement une rubrique spécifique à l'étymologie, certains, comme par exemple le Dictionnaire critique de la langue française de l'abbé Féraud (1787 - 1788), jugent utile de signaler la langue d'origine d'un mot emprunté. Les recherches en plein texte ouvrent dès lors une voie d'investigation. On pourra par exemple reprendre sur de nouveaux frais l'enquête menée par John Humbley, il y a une vingtaine d'années, sur les anglicismes dans le Dictionnaire critique de Féraud (Humbley, 1986). La recherche en plein texte du mot : anglicisme dans la base de données du Dictionnaire critique permet de repérer 10 mots que l'enquête traditionnelle n'avait pas relevés (coalition, compassioner, dépravité, disgrâcieux, empiètement, inconsistance, inofficieux, non-sens, prescriptions, spontanément) ; celle du mot : anglais en fournit encore 11 de plus (bambou, importation, importer, interlope, lord, paquebot, ponche, redingote, toste, toster, vote). UneDes étude plus large sur le traitement des emprunts dans les dictionnaires d'autrefois pourra, grâce à leur informatisation, trouver un aboutissement rapide.
+Le TLFi offre une grande richesse dans le balisage général des articles : les critères de recherche, regroupés en 30 « Types d'objet » (par exemple : Synonymes, Domaine général, Construction, Indicateur) sont déterminés par l'utilisateur, qui pourra ainsi, dans le type Domaine général spécifier l'objet « vestimentaire », ou dans le type Indicateur spécifier « populaire ». Toutefois, pour la rubrique « Étymologie », un seul « Type d'objet » a été retenu : la Langue empruntée. Les autres informations, sur les dates et sources de première attestation, sur l'étymon, sur la formation du mot, n'ont pas été balisées et ne sont accessibles que par une recherche en plein texte, par le « Type d'objet » Paragraphe. Sans doute la rubrique « Étymologie » ne donnait-elle pas encore pleine satisfaction aux concepteurs du TLFi : une équipe de l'ATILF travaille actuellement à une révision des notices étymologiques, dont l'aboutissement est annoncé pour 2014 (Steinfeld, Petrequin, Evrard, 2005).
+Les notices révisées sont publiées sur le web au fur et à mesure de leur rédaction : actuellement 150 notices sont consultables à l'adresse : www.atilf.fr/tlf-etym. Une interrogation commode par « classes étymologiques » est mise en place ; trois classes ont été prévues : « le lexique héréditaire », « les transferts linguistiques », « les formation française », avec, pour chacune, une sous-catégorisation rigoureuse. L'interrogation par date n'est cependant pas prévue, et l'information diachronique ne reste accessible que par la recherche en plein texte.
+Le NLE a, du point de vue des requêtes étymologiques, suivi cet exemple de prudence. Si, avec 11 critères de recherche, il permet des requêtes diversifiées (notamment par Domaine, Usage, Code grammatical), la requête « Étymologie » n'informe que sur la langue d'origine. Quelque 150 langues ont été distinguées, avec un luxe de finesse dans la catégorisation ; pour le grec par exemple, le NLE ne définit pas moins de 14 sous-catégories. Quelques catégorisations prometteuses ont été, bien qu'externes à la notion de « Langue d'origine », insérées dans la liste : les catégories « Nom propre » et « Étymologie populaire ». Si elles ne fournissent pas pour l'instant de résultats considérables - trois résultats seulement pour la requête « Étymologie= Étymologie populaire » -, il suffirait de compléter les indications portées dans la rubrique « Étymologie » pour récolter de meilleures moissons.
+Cette rubrique ne comporte pas, dans le NLE, d'indication sur la date de première attestation. Le Littré ne donnait pas de date de première attestation, mais seulement des indications d'usage, par siècle. Une approche diachronique est cependant possible par la requête « Ancienneté », qui exploite la présence de deux strates rédactionnelles dans le NLE. Elle met en évidence d'une part les mots qui se trouvent dans l'édition de 1874, mais sont sortis d'usage, et d'autre part ceux qui sont présents dans la nouvelle édition, mais ne l'étaient pas dans celle de 1874. Le NLE permet par exemple de lister 11 interjections sorties d'usage, de ahi à tarare, en passant par diablezot et morguienne. Menée à plus grande échelle, la requête par « Ancienneté » met à jour deux états synchroniques du lexique, celui de 1874 et celui de 2004/2006, tel que Littré, puis les rédacteurs du NLE les ont perçus.
+Les concepteurs du PRE ont été, concernant les dates de première attestation, moins circonspects que ceux du TLFi : ils tirent parti, dès à présent, des informations contenues dans la rubrique « Étymologie » du PRE. Ont été balisées non seulement la langue empruntée, mais aussi la date de première attestation ; une recherche par intervalle entre deux dates a été rendue possible, ainsi qu'une recherche en plein texte limitée à la rubrique « Étymologie ». Ce dernier type de requête permet d'extraire du dictionnaire l'ensemble des mots issus du même étymon. Quelques interrogations par des métatermes, comme sigle, sont également possibles. Ainsi, une requête par « Mots de l'étymologie » avec le mot sigle fournit une liste des 145 articles ; en retranchant siglé et siglaison, dont l'étymologie mentionne sigle en tant qu'étymon et non en tant que descripteur, on obtient la liste des 143 sigles retenus comme entrées par le PRE.
+Les requêtes par « Mots de l'étymologie » se révèlent cependant décevantes à cause de l'absence de systématicité dans l'emploi des métatermes : si un effort a été fait pour sigle, acronyme et mot-valise, on constatera que suffixe, préfixe, composé, nom propre, attraction, ou encore métathèse, ne sont utilisés que de façon épisodique ; suffixe par exemple ne semble employé que dans les étymologies non triviales. Ainsi lira-t-on dans l'étymologie de chauffard : « 1897 ; de chauff(eur) et suffixe péj. -ard », mais dans celle de chauffeur seulement : « 1680 ; de chauffer ». Une plus grande systématicité dans l'emploi des métatermes donnerait évidemment plus de valeur aux listes constituées à partir de ce type de requête. À l'heure actuelle, c'est donc seulement sur la langue d'origine que l'on peut mener l'enquête à la fois dans le TLFi, le NLE et le PRE, pour procéder à une analyse comparative des résultats.
+On utilisera ici la comparaison des résultats pour mettre en évidence les problèmes certes informatiques, mais aussi linguistiques, qui fragilisent la fiabilité des requêtes par langue empruntée.
+Le balisage de la langue empruntée présente, dans les trois dictionnaires contemporains, des anomalies. Par exemple, le mot mah-jong, pourtant signalé dans le TLFi et le NLE comme « mot chinois » dans la rubrique « Étymologie » de l'article qui lui est consacré, n'est trouvé ni dans le TLFi, par la requête « chinois » dans le type d'objet « Langue empruntée », ni, dans le NLE, par la requête « Étymologie= chinois » : les listes des résultats doivent être complétées par une fastidieuse recherche en plein texte. Dans le TLFi, le repérage de la langue-cible n'est pas toujours des plus aisés : ainsi pour trouver les mots issus de l'ancien scandinave, il ne convient pas de saisir « ancien scandinave », ni « norrois », ni « ancien nordique », mais « a. nord. ».
+Dans le PRE, le balisage des emprunts a été systématiquement revu. Toutefois, la mention de l'origine étrangère pour les locutions calquées, introduit dans les listes obtenues des mots que l'on peut percevoir comme des intrus. Apparaissent par exemple dans la liste des emprunts au chinois :
+Ce n'est pas ici la réalisation technique du balisage qu'il faut incriminer, mais son manque de finesse : en l'état actuel, il ne permet pas de distinguer les emprunts des calques, et renvoie aux contours donnés à la définition linguistique de l'emprunt (Tournier, 1985 ; Sablayrolles, 2000 ; Jacquet-Pfau, 2003).
+Ces quelques imperfections des requêtes par langue empruntée étant prises en compte, expérimentons la recherche par langue empruntée sur un exemple : les emprunts au russe. Dans le TLFi, la requête par le Type d'objet « Langue empruntée » et l'objet : « Russe » ne fournit que 46 résultats. Elle doit être complétée par une recherche en plein texte, par le Type d'objet « Paragraphe » et l'objet « Russe ». Dans le NLE, la requête « Étymologie=Russe » ramène 47 résultats ; elle doit de même être complétée par la requête « Mot du texte=russe ». Dans le PRE en revanche, la requête étymologique choisissant pour critère la langue russe ramène 96 résultats, dont quelques-uns, comme personnalité ou perspective, surprennent. Personnalité figure en fait dans la liste seulement parce que le PRE signale que la collocation culte de la personnalité est une adaptation du russe ; et perspective est présent à cause de l'emploi de perspective au sens de « grande avenue rectiligne », qui est la traduction d'un mot russe. Ces mots seraient à prendre en considération dans une étude sur les calques, mais, comme les deux autres dictionnaires ne les ont pas intégrés, il est préférable dans cette étude de les laisser de côté. Les trois dictionnaires fournissent, après corrections, une liste d'environ 80 mots. Si les trois ensembles comportent une intersection, chacun présente un sous-ensemble spécifique : comment expliquer ces différences ?
+Une particularité bien connue du TLFi tient à sa documentation d'orientation principalement littéraire. Elle explique notamment la présence des emprunts introduits au 19e siècle par la vogue des romans russes traduits en français : pour cette période, les rédacteurs du TLFi ont, contrairement à ceux du NLE et du PRE, choisi de retenir les mots : tcherkesse attesté dans Frantext chez Alain Fournier et Romain Gary, barine (Gaston Leroux, Paul Bourget, Camus), sotnia (Leroux, Kessel) et nagaïka (Kessel, Cavanna).
+La documentation de Littré était, elle aussi, à dominante littéraire. Le NLE, comme le TLFi, et contrairement au PRE, retient kirghiz, introduit en français par la traduction d'un roman de Pouchkine. Il est le seul à mentionner byline, « épopée populaire russe ».
+La documentation du TLFi diffère de celle du NLE et du PRE par sa date. Le dernier russisme enregistré par le TLFi est samizdat (1971) ; le PRE et le NLE ont pu ajouter cinq emprunts postérieurs : tokamak, nomenklatura, refuznik, glasnost, perestroïka. La postériorité de publication n'explique cependant pas tout. Enregistré par le PRE et le NLE, le mot goulag, par sa date de première attestation, 1938, aurait semblé susceptible de constituer une entrée du TLFi ; il ne figure pourtant pas dans la nomenclature. C'est sans doute ici l'usage qui a guidé les rédacteurs du TLF. Jusqu'en 1981 en effet, goulag n'est mentionné dans Frantext qu'en citation du titre de l'ouvrage de Soljenitsyne : il n'a pas encore acquis le statut de nom commun autonome, ce qui justifie l'abstention des rédacteurs du TLF. Dans un autre domaine, on pourrait de même s'étonner que le TLFi, contrairement au PRE et au NLE, ne comporte pas d'entrée datcha (1843), ni blini (1883) : là encore, l'usage au moment de la publication du dictionnaire peut expliquer ces choix ; les modes immobilières et alimentaires ont déterminé l'enregistrement de ces emprunts dont la première attestation est ancienne, mais l'entrée dans l'usage plus récente.
+Le TLFi et le NLE se montrent plus accueillants à l'égard des ethnonymes que le PRE : ils enregistrent tchérémisse, peuple d'origine finnoise et kirghiz, peuple nomade d'Asie centrale ; le TLFi retient en outre : ossète, peuple indo-européen du Caucase central, et tcherkesse, peuple du nord-ouest du Caucase. Alain Rey et Josette Rey-Debove justifient la mise à l'écart des ethnonymes de la façon suivante :
+Les noms propres de personne (anthroponymes) ou de lieux (toponymes) produisent de nombreux dérivés, adjectifs ou noms ordinaires. Ces mots sont embarrassants pour le lexicographe dans la mesure où les noms propres sont internationaux et donc translinguistiques. Ce n'est qu'une question d'usage, rien n'empêche de produire des adjectifs français à partir de tous les noms allemands ou arabes d'une encyclopédie, par exemple. D'autre part la plupart de ces dérivés n'ont pas véritablement de sens linguistique : ils désignent par leur radical et signifient seulement par leur suffixe. (Rey, Rey-Debove, 1993 : 13)+
Deux arguments sont avancés : premièrement, la production des ethnonymes est virtuellement non limitée aux lexèmes effectivement attestés, « ce n'est qu'une question d'usage » ; deuxièmement, ces dérivés n'ont pas « véritablement de sens » car « leur radical », c'est-à-dire le nom propre, « désigne », et ne signifie pas. Ces deux arguments peuvent être contestés. On peut s'étonner de voir balayée d'un revers de main la question de l'usage dans un dictionnaire de langue : le TLFi et le NLE ont préféré mentionner, non pas tous les ethnonymes virtuellement possibles, mais ceux dont l'emploi est attesté.
+Le second argument repose sur une conception classique du nom propre, développée par Stuart Mill et reprise par Kripke : cette conception, selon laquelle le nom propre serait dépourvu de sens, est aujourd'hui mise en débat (Siblot, 1995 ; Leroy, 2004). Le TLFi et le NLE manifestent une plus grande ouverture à ce que Paul Siblot appelle la « signifiance » des noms propres : ce choix linguistique les amène à inclure dans leur nomenclature non seulement les ethnonymes cités ci-dessus, mais aussi des mots à référent unique comme kremlin, pour lequel le TLFi donne la définition : « Résidence des tsars à Moscou », tandis que le PRE l'écarte.
+La réflexion linguistique sur l'emprunt a souffert, dans la perspective synchronique longtemps privilégiée par la linguistique, d'un certain désintérêt ; pour Saussure en effet, « le mot emprunté ne compte plus comme tel, dès qu'il est étudié au sein du système » (Saussure, 1915 : 42). On perçoit dans la présentation lexicographique des emprunts une hésitation entre description diachronique et synchronique.
+Se voulant outil de transmission d'un patrimoine historique, les trois dictionnaires choisissent en principe une description diachronique ; pourtant, des flottements apparaissent dans la description des emprunts dont la morphologie est accessible en synchronie. Pour le TLFi, décembriste et planifier sont des russismes, alors que le PRE y voit des dérivés de décembre et de planifier ; inversement, pour le PRE, défaitisme et vernalisation sont des russismes, tandis que, pour le TLFi, il s'agit de dérivés de défaite et de vernal. Selon le NLE, aucun de ces mots ne serait emprunté au russe. Tous, de fait, sont formés sur des étymons latins : même si ce sont des locuteurs russes qui ont créé le dérivé, le rédacteur a pu être tenté de négliger une étymologie quelque peu contre-intuitive. L'intérêt récent des linguistes pour la notion d'événement linguistique (Guilhaumou, 2006) amènera peut-être à ne pas sous-estimer l'importance de l'acte de création, et à trancher plus nettement en faveur d'une description diachronique.
+Une hésitation de même nature apparaît dans la description des mots-voyageurs. Pour le TLFi, cosaque et polatouche sont des emprunts au polonais, qui les emprunte lui-même au russe ; le PRE signale leur origine russe, sans mentionner leur passage par le polonais. Inversement, le PRE ne mentionne pour tsarine que l'emprunt à l'allemand, tandis que le TLFi n'indique que l'origine russe. Il est évidemment un peu surprenant de voir le mot tsarine décrit comme un emprunt à l'allemand, mais si l'on veut serrer au plus près les étapes du transfert lexical, il importe de connaître la langue de transmission.
+La comparaison des listes fournies par les trois dictionnaires informatisés révèle donc une double instabilité. La première est inhérente à la nature de l'outil de recherche : le dictionnaire ne donne pas un recensement exhaustif des emprunts qu'a pu faire, au cours de son histoire, le français, mais retient seulement ceux qu'il juge utiles à l'usager contemporain : de là, par exemple, la présence de datcha et blini dans le PRE et le NLE, mais pas dans le TLFi. Une seconde instabilité est due à des incertitudes dans l'analyse linguistique : les ethnonymes ont-ils leur place dans un dictionnaire de langue ? Les mots-voyageurs doivent-ils être présentés comme des emprunts à la langue qui les a créés ou à la langue qui les a transmis ? Si le dictionnaire tranche clairement en faveur d'une lexicologie diachronique, il devra tenir indiquer les différentes étapes du parcours et articuler le balisage des langues à celui des dates de première attestation.
+La contribution la plus évidente du dictionnaire à la connaissance de l'histoire du lexique est la datation de la première attestation d'une forme lexicale ou de ses changements de sens. La requête par date de première attestation n'est actuellement possible que dans le PRE.
+Si, généralement, la rubrique « Étymologie » indique une seule date de première attestation, il est deux situations où elle en mentionne deux, voire davantage.
+Lorsque la forme graphique du mot a évolué, le PRE donne la date de la forme stabilisée en français moderne, et indique la date de première attestation de la graphie initiale : par exemple, pour kopeck, il donne comme date de première attestation : 1806, et signale : « copec ; 1607 ».
+Une autre situation de pluri-datation se présente lorsqu'il y a décalage entre la première attestation du mot et son entrée dans l'usage. Ainsi, pour aristocrate, le PRE donne : « 1550 ; répandu en 1778 » et, avec une autre présentation, pour patriotique : « 1750 ; hapax 1532 ». Or les deux datations ont été balisées : ainsi, aristocrate et patriotique seront ramenés à la fois par une requête sur le 16e siècle, et par une requête sur le 18e ; de même, kopeck apparaîtra à la fois dans les listes du 17e et du 19e siècle. Dès lors, une hiérarchisation dans le balisage des dates semble souhaitable ; elle suppose qu'ait été menée en amont une réflexion linguistique sur ce qu'il convient de considérer comme l'entrée du mot dans la langue.
+Dans une perspective d'histoire du lexique, le développement de la notion d'événement linguistique, avec la dimension sociale et institutionnelle qu'il comporte, semble devoir conduire à privilégier la date où le mot est « répandu » dans l'usage, donc à préférer pour aristocrate et patriote la seconde date. En revanche kopeck peut très bien avoir été répandu dans l'usage avec une graphie variable, et la première datation peut sembler plus pertinente. La réponse du lexicographe à la question de la datation requiert à la fois une réflexion théorique sur la constitution de la norme lexicale, et un travail d'analyse de discours sur l'archive.
+Dans l'état actuel de son élaboration, le PRE fournit dès à présent un outil utile à l'historien du lexique, et permet de mener des investigations d'une amplitude qu'il lui aurait été difficile d'atteindre sans le secours du dictionnaire informatisé. Pour en donner une illustration, procédons à une recherche comparée des emprunts du français au néerlandais et à l'allemand du 16e au 20e siècle.
+Une interrogation par période de 50 ans permet d'évaluer rapidement l'évolution de ces emprunts. Le travail le plus long réside dans la correction des réponses contestables, nécessaire à cause des hésitations que nous avons notées plus haut :
+enregistrement des calques, comme surhomme (1892), pour traduire Ûbermensch,+
enregistrement de la langue d'origine alors que ce n'est pas la langue par laquelle le mot est entré en français : par exemple, commodore apparaît dans les résultats de la requête des mots issus du néerlandais au 18e siècle, alors qu'il s'agit d'un emprunt certes du 18e siècle, mais à l'anglais (qui l'avait emprunté au néerlandais) ;+
double enregistrement des mots dont la graphie a évolué, comme asticoter, qui figure à la fois dans les résultats du 18e et du 17e siècle, parce que la rubrique étymologie signale la graphie dasticoter, attestée dès 1642 ;+
double enregistrement des mots dont la date de première attestation est décalée par rapport à la date d'entrée dans l'usage, comme L.S.D., sigle formé en allemand à partir du mot Lysergsäurediäthylamid, attesté dès 1948, mais répandu seulement en 1966.+
Après ces corrections, on obtient les résultats suivants :
+ +Tableau 1
+La grande époque des emprunts au néerlandais correspond au « siècle d'or » des Pays-Bas. En 1681, l'Acte de La Haye proclame l'indépendance des Provinces unies, qui se libèrent du joug espagnol. Les Hollandais développent leur puissance maritime et disputent, souvent avec succès, aux Espagnols et aux Portugais leurs possessions coloniales. Le pays est prospère et ouvert aux réfugiés politiques ou religieux.
+Les emprunts à l'allemand se situent, pendant la période du 16e au 18e siècle, à un niveau comparable à ceux du néerlandais. C'est à partir du début du 19e siècle qu'ils franchissent un seuil quantitatif. Du 19e siècle jusqu'au début du 20e siècle, au moment du plus grand rayonnement scientifique et philosophique de l'Allemagne, les emprunts à l'allemand restent à un niveau élevé, et amorcent leur déclin dans le première moitié du 20e siècle.
+Les listes obtenues permettent de préciser la nature des emprunts. Sur la période 16e-18e siècle, emprunts au néerlandais et emprunts à l'allemand s'opposent nettement par leur domaine : alors que les premiers sont liés à la puissance maritime des Provinces unies, les seconds ressortissent du vocabulaire de la mine.
+Les emprunts au néerlandais manifestent en effet de deux manières le rayonnement des Provinces unies sur les mers :
+d'une part, ils relèvent du vocabulaire spécialisé de la mer : dès le 16e, on importe des noms de poisson (flétan, églefin) ; puis au 17e siècle, ce sont plutôt des mots qui nomment les parties du bateau (foc, rouf),+
le néerlandais, d'autre part, sert d'intermédiaire entre le français et les mots venus des comptoirs : comme thé, venu du chinois (ou du malais), et palissandre venu d'un créole de Guyane. De la même manière, il sert d'intermédiaire pour diffuser les dénominations portugaises de relias lointaines, comme dans le cas de sargasse, ou de pamplemousse.+
À la même époque, c'est pour nommer les ressources de la terre que le français recourt à l'allemand, avec cobalt, gangue au 16e, castine, zinc, bismuth au 17e, quartz, blende, hornblende, pechblende, spath, feldspath, mispickel, gneiss au 18e. L'exploitation des ressources minières des montagnes hercyniennes, de part et d'autre de la forêt noire, s'est inspirée du modèle allemand.
+Comme le néerlandais, l'allemand peut être une langue de transmission. Le facteur historique déterminant n'est pas alors la puissance maritime, mais la guerre : les transferts lexicaux sont passés par les mercenaires allemands, qui servent sous le commandement français depuis le 15e siècle, auxquels ce sont ajoutés, après leur défaite à Marignan, les Suisses. Sont ainsi empruntés à l'allemand : obus (du tchèque haufnice), sabre et hussard (du hongrois szablya et huszar, « le vingtième », parce qu'en 1458 le gouvernement hongrois ordonna la levée d'un homme sur huit pour former une cavalerie), uhlan (du polonais oglan).
+Matelots et soldats, mais aussi main d'oeuvre en quête de travail, ont au fil des siècles laissé des traces dans la langue populaire. Les apports du néerlandais sont quantitativement modestes, mais réguliers :
+au 16e siècle : ripaille, drôle,+
au 17e, gribouiller, gredin, micmac,+
au 18 e, cambuse, bastringue,+
au 19 e, gribiche (« mégère »), vaser (« pleuvoir »),+
au 20e, margaille (« bagarre, désordre »).+
Ceux de l'allemand, plus nombreux, témoignent d'une circulation linguistique constante, particulièrement riche au 19e siècle, lorsque, de part et d'autre du Rhin, la Révolution industrielle jette sur les routes des ouvriers itinérants à la recherche d'embauche. On relève :
+au 16e siècle : chenapan, brinde (devenu bringue au 19e siècle)+
au 17e, glass (« verre d'une boisson alcoolisée »), nouille,+
au 18e, asticoter, drille, loustic, schnaps,+
au 19e, chnouf (« drogue »), turne (« chambre »), estourbir, schlague (« coup »), nase, chlinguer, arpète (« jeune couturière apprentie »), flingue, clamser, schproum (« dispute violente »), mouise.+
Dans un contexte historique d'affrontement, le 20e siècle multiplie les emprunts servant de dénominations familières et péjoratives des Allemands, avec fritz, fridolin, frisé ; de l'argot des camps restent Kapo, Stalag, Oflag.
+À partir de la fin du 18e siècle, un nouveau type d'emprunt apparaît : les emprunts formés par les savants allemands sur des bases latines ou grecques. Des domaines scientifiques très variés sont concernés ; on en donnera ici seulement quelques illustrations, choisies parmi les emprunts du 19e siècle :
+la chimie : benzine, émulsine, barbiturique,+
la médecine : leucémie, embolie, homéopathie,+
la philosophie : noème, déterminisme, pragmatisme,+
et, bien sûr, la linguistique : morphologie (créé par Goethe d'abord pour la botanique), orthoépie, stylistique, syntactique, sémasiologie.+
Certes, du point de vue de la morphologie lexicale, ces mots ne présentent pas de caractère germanique (Jacquet-Pfau, Moreaux, 1998), mais, du point de vue de l'histoire de la langue, l'interrogation par le dictionnaire informatisé met en évidence un moment de forte influence du discours savant allemand sur le lexique français.
+ +Les dictionnaires informatisés facilitent, et donc favorisent une approche historique du lexique français. Adossés à une riche documentation étymologique, ils sont susceptibles de donner à voir sa structuration diachronique. Certes, les balisages actuels, encore timides ou imparfaits, pourront être améliorés ; plus fondamentalement, la représentation de la structure diachronique dessinée par les dictionnaires ne coïncide pas exactement avec sa réalité historique : les dictionnaires ne retiennent dans leur nomenclature que les mots qu'ils jugent pertinents dans le discours contemporains, et, du fait de cette sélection, renvoient de l'histoire du lexique une image déformée. Mais cette image elle-même, variable d'un dictionnaire à l'autre, évolutive, constitue la trace mémorielle active du passé linguistique (Paveau, 2006) et fait elle-même partie de la description du français. Aux diachroniciens de comparer les images successives données par les dictionnaires, et de confronter ces représentations à l'histoire du lexique telle qu'ils peuvent la reconstituer, notamment grâce à l'informatisation des dictionnaires anciens. Forte d'une tradition lexicographique exceptionnelle (Pruvost, 2000 : 9 - 11), la linguistique française a aujourd'hui, avec les dictionnaires informatisés, l'opportunité de développer un secteur des sciences du langage longtemps relégué au second plan par le primat d'un structuralisme synchroniste.
+ + + +exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé + par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Mes recherches sur les noms propres m'ont amené à lire des travaux de philosophie analytique, d'anthropologie, de psychologie ou encore de critique littéraire. Le nom propre intéresse ces disciplines à divers degrés et il est évident qu'il n'est pas nécessairement observé sous un angle identique. Le problème principal qui se pose demeure toutefois la question de son sens. Si l'on estime assez fréquemment en logique qu'il n'a aucun sens, il devient extrêmement riche de sens pour de nombreux ethnologues. On pourrait penser qu'il ne s'agit que d'un effet de prisme lié au fait que ces deux disciplines ne considèrent pas le nom propre sous le même angle, mais ce paradoxe se retrouve au sein même des sciences. La linguistique en donne la preuve car, entre la position de Brøndal qui adopte un point de vue millien - c'est-à-dire lié au vide de sens - et celle de Bréal, pour qui le nom propre a plus de sens que le nom commun, il existe un fossé incommensurable. Pourtant, les principaux arguments avancés par les uns et par les autres, sont le plus souvent recevables. Il est certain qu'une personne qui se nomme Paul Petit n'est pas fatalement petit, mais il est également paradoxal d'affirmer que Berlusconi n'a aucun sens alors que berlusconien ou l'antonomase le nouveau Berlusconi en ont.
+Ces polémiques récurrentes cachent deux types de problèmes terminologiques : tout d'abord, on range sous le nom de sens trois éléments bien différents : l'étymologie (ou la motivation dans la perspective synchronique), la signification et le sens. On note ensuite une prolifération de termes dans ce débat : sens, signification, référence, désignation, contenu, contenu informatif, dénotation, connotations, intension, extension, etc. Les termes sont nombreux, il leur arrive de se chevaucher ou de s'opposer, mais il est finalement difficile de trouver un terrain d'entente à leur sujet.
+Il ne s'agit pas pour moi d'affirmer avec l'école viennoise de terminologie qu'il est indispensable de normaliser l'écriture scientifique. Il me semble par contre évident que de nombreux problèmes d'interprétation proviennent de cette confusion : la polysémie des termes sens et signification existe, et s'il n'est pas question de les supprimer, il faut toutefois en prendre conscience. Nous verrons dans un deuxième temps ce qu'implique la notion de sens dans différentes disciplines, puis nous tenterons de prouver qu'une distinction nette entre étymologie, signification et sens permet une clarification nécessaire.
+Ogden et Richards recensent dans The Meaning of Meaning vingt-trois significations de signification (Touratier, 2000 : 10) et cette liste n'est pas exhaustive. Parmi toutes les définitions publiées, on note des éléments qui s'opposent les uns les autres et qui peuvent aussi être très éloignés des préoccupations linguistiques : si d'après Wittgenstein, la signification d'un mot est son usage dans le langage, pour Schlick, la signification d'un signe est équivalente à la méthode de sa vérification et pour Frege, elle relève du mode de donation de l'objet. En linguistique, les définitions sont elles aussi variées : au sein d'une même ligne de pensée, Baldinger (1984 : 72) estime que sa vision de la signification (« Sémème (objet mental) lié à un signifiant ») est différente de celle d'Ullman (« Relation entre un concept et une forme »). Bref, il est difficile de trouver un terrain d'entente sur cette question de la signification et une recherche sur la définition de sens donnerait probablement des résultats similaires.
+La relation entre ces deux termes est également problématique car, si pour Lerat (1983 : 5), sens et signification sont synonymes, ils sont bien distincts chez Hagège (1985 : 293). Toutefois, lorsqu'ils sont distincts, ils peuvent correspondre à des concepts différents : le sens de Robert Martin correspond à la signification de Hagège et sa signification au sens de l'auteur de L'homme de paroles. J'opterai pour cette dernière définition car elle demeure la plus traditionnelle dans le paysage français. En effet, on trouve la détermination du sens comme « signification d'un discours » dans les dictionnaires de Furetière et de Trévoux puis dans l'Encyclopédie sous les plumes de Diderot, Du Marsais et Beauzée (qui poursuivra dans cette voie pour L'Encyclopédie méthodique). Cette distinction entre signification et sens ressemble en partie à celle établie par Arnauld et Nicole entre signification propre et idées accessoires car la signification est généralement désignée comme une forme stable, indépendante des contextes, alors que le sens varie selon ces mêmes contextes.
+Pour illustrer les difficultés terminologiques rencontrées, on notera que les idées accessoires des Messieurs de Port-Royal sont désormais appelées des connotations et que la question de la polysémie est évidente avec ce dernier terme : entre un philosophe - Mill - qui affirme que les noms propres n'ont pas de connotations et un linguiste - Jespersen - qui estime que les noms propres ont énormément de connotations, on a non seulement un hiatus, mais aussi un énorme problème terminologique : Mill et Jespersen ne parlent tout simplement pas la même langue. L'opposition qu'établit Mill entre dénotation et connotation est identique à l'opposition classique entre extension et intension. La connotation est alors la somme des traits essentiels pour définir un terme. Les connotations de Jespersen sont au contraire des traits accidentels, de la valeur ajoutée. À cette différence s'ajoutent bien d'autres définitions des connotations, de Hjelmslev à Martinet, mais nous n'aurons pas le temps de nous y attarder..
+Un autre facteur est à prendre en compte : celui de la traduction des travaux par différents professionnels. Parfois, un même terme allemand ou anglais est traduit par sens chez un premier traducteur, par signification ou un autre terme chez un second, mais cette question ne se limite pas au passage d'une langue à l'autre comme nous venons de le voir avec les termes sens, signification et connotations. La polysémie et la présence d'acceptions idiosyncrasiques (quelquefois liées à la nature particulière du travail universitaire) sont des problèmes suffisamment conséquents pour passer rapidement sur cette dimension traductionnelle.
+Une fois ces problèmes de dénomination posés, le problème du sens (et de la signification) n'est certainement pas réglé. Sens est un terme employé dans toutes les disciplines, mais rien ne prouve que ce soit un concept commun à ces disciplines, que lorsqu'en linguistique on tente de circonscrire le sens de telle ou telle lexie, on adopte le même point de vue qu'en logique ou en psychologie. Ce que nous avons vu avec les différents sens de signification tendrait plutôt à démontrer le contraire. Nous allons donc observer quelques définitions du sens des noms propres dans plusieurs disciplines pour faire ressortir leurs spécificités.
+La majorité des ethnologues affirme que les noms sont porteurs de sens. Dans de nombreuses sociétés, le nom propre est, au même titre que le corps, une partie de la personne ; il est donc courant de changer de nom selon les étapes de sa vie (puberté, mariage, naissance d'un enfant, mort d'un parent), pour que chaque nom soit en accord avec la personnalité de celui qui le porte. Comme le relate Eliade (1959 : 73 - 74), la modification du nom à la suite d'une cérémonie d'initiation est une coutume archaïque universellement répandue (Terre de Feu, Australie, etc.). L'étymologie du nom est également essentielle. Ainsi, celui qui porte le nom de l'ours possède la force de l'ours ou entre dans une relation particulière avec cet animal.
+Le sens dont nous parlent les ethnologues relève de ce qu'on pourrait nommer un « sens magique » et qui n'est pas recevable d'un point de vue scientifique. Ce sens magique est décrit dans d'autres disciplines, en histoire ou en psychologie, car il semble, aux yeux du commun des mortels, presque « naturel ». Encore aujourd'hui, il suffit de fréquenter les boutiques de souvenirs pour trouver des bols ou des porte-clefs expliquant que toutes les Jennifer ont telle ou telle qualité.
+En plus de sa théorie du nom propre classificateur, Lévi-Strauss (1962 : 245 - 246) a écrit que l'étymologie du prénom pouvait avoir une influence psychologique : chaque prénom possède, consciemment ou inconsciemment, une connotation culturelle qui imprègne l'image que les autres se font du porteur, et qui, par des cheminements subtils, peut contribuer à modeler sa personnalité de manière positive ou négative. D'autres études prouvent que cette influence concerne la personne mais aussi son entourage. Par exemple, Garwood (1976 : 484) a exposé que les enseignants avaient des a priori distincts selon le prénom des enfants : ceux qui possèdent les prénoms dont les connotations sont jugées comme satisfaisantes obtiennent de meilleures notes.
+Qu'il soit réel ou non, ce « sens psychologique » semble inabordable pour le linguiste et les outils et méthodes dont il dispose.
+Le point de vue de Bourdieu n'est pas psychologique mais sa conclusion est d'une certaine manière proche de celle de Lévi-Strauss car, en recevant un nom, on hérite également d'un programme imposé par la société (et qui peut/doit avoir une influence psychologique) :
+L'institution d'une identité, qui peut-être un titre de noblesse ou un stigmate (« tu n'es qu'un... »), est l'imposition d'un nom, c'est-à-dire d'une essence sociale. Instituer, assigner une essence, une compétence, c'est imposer un droit d'être qui est un devoir être (ou d'être). C'est signifier à quelqu'un ce qu'il est et lui signifier qu'il a à se conduire en conséquence. (1982 : 125 - 126).+
Ce rôle social de l'anthroponyme se retrouve dans les cas de changements de patronyme. Ajouter à son nom de famille une particule ou un patronyme noble (d'Estaing par exemple) a une visée évidente. Petit (1994 : 104) cite également le cas des personnages célèbres disparus sans descendance mâle et dont le nom sera ajouté au patronyme initial en raison de leur rayonnement : Raiga-Clemenceau, Salles-Eiffel, Nussy-Saint-Saëns, etc.
+Le « sens sociologique » que présente Bourdieu pose exactement le même problème que le « sens psychologique » : il est en quelque sorte un sens prospectif. Le second point soulevé par les sociologues est plus commodément utilisable en linguistique puisqu'il touche directement des formes linguistiques : le morphème de employé dans un patronyme marque une origine noble ; il est alors aisé pour la fiction de classifier un personnage comme faisant partie d'une certaine couche de la société.
+Un nouveau problème terminologique se pose en abordant les rivages de la logique : si Mill employait des noms propres grammaticaux pour ses exemples, les noms propres de Frege et de Russell sont très différents de la définition classique. Ainsi, pour Frege, la capitale de l'empire allemand ou Ce qui augmenté de 2 donne 4 sont des noms propres puisqu'ils désignent un objet singulier. La définition de Russell est d'un autre ordre : les noms propres logiques se limitent à ceci et cela, les seuls termes qui soient des symboles simples et irréductibles à l'analyse. Je limiterai inévitablement cette étude aux noms propres qui seront reconnus comme tels en linguistique.
+Bien qu'il ne soit pas le premier à se pencher sur la question, on juge généralement que le débat logique sur les noms propres débute au xixe siècle avec le Système de logique de Mill. Sa thèse est célèbre : les noms propres n'ont pas de signification car ils n'ont aucune connotation, ils sont semblables à une marque de craie sur un mur. Même lorsque l'étymologie est visible, elle ne peut être prise en compte : il n'est donc pas essentiel que la ville de Dartmouth soit située à l'embouchure de la Dart. Certes, les liens magiques entre le nom et le porteur sont coupés, mais refuser toute forme de sens et, dans la comparaison avec la marque de craie, leur retirer implicitement tout statut linguistique, est une position trop tranchée : Mill jette tout simplement le bébé avec l'eau du bain. Il reconnaît dans un autre passage que les noms propres ont au moins une fonction d'étiquette, mais en clamant haut et fort ce manque de sens, il se limite à une conception logique de la signification qui fera florès en philosophie analytique et encore plus en linguistique. G. Guillaume a ainsi décrit le nom propre en tant qu'asémantème et a été depuis repris par divers linguistes, pas nécessairement guillaumiens. On peut également lire dans le Bon usage (1993 : 108) que les « mots ayant une signification deviennent des noms propres lorsqu'on les emploie pour désigner, en faisant abstraction de leur signification », ce qui pourrait laisser penser que la distinction entre le nom propre et les autres catégories serait uniquement sémantique et que tout mot sans signification deviendrait par conséquent un nom propre. M. Noailly (1987 : 71) va, entre autres, ajouter que le nom propre se compose uniquement d'un signifiant et n'a aucun signifié, une option inacceptable d'un point de vue saussurien puisqu'il n'y a pas de signe sans ses deux faces et donc pas de signifiant puisqu'il n'existe que par son union avec le signifié.
+La conséquence immédiate de ce manque supposé de signification, c'est inévitablement l'éviction du système de la langue. Cette idée apparaît au xviiie siècle avec Harris et se perpétue aujourd'hui chez McCawley (1968) ou Moeschler & Reboul qui ajoutent que les noms propres « ne relèvent pas, à proprement parler, de la linguistique » (1994 : 166 - 167). Mais, alors, de quelle discipline relèvent-ils ? Une fois cette sentence assenée, il serait intéressant de les voir traiter linguistiquement un exemple tel que C'est Byzance ! où le nom propre porte le poids sémantique.
+Le manque d'exemples réels est un reproche qui pourrait être adressé à la majorité des auteurs qui estiment que le nom propre n'a aucun sens. Une autre critique pourrait être adressée aux logiciens qui maîtrisent parfois mal les concepts linguistiques. Ainsi, pour montrer que les noms propres n'ont pas de signification, Katz (1977 : 12) affirme que bunny et rabbit sont synonymes et ont la même signification, au contraire de Mark Twain et Samuel Clemens. La synonymie de ces deux mots en anglais est toute relative, mais il est surtout impossible de dire qu'ils ont la même signification au regard du bilingue Collins/Robert qui donne respectivement les traductions Jeannot Lapin et lapin.
+Enfin, il est amusant d'observer les exemples choisis par les partisans du vide de sens des noms propres. À une époque où la guerre froide sévissait encore, le kripkéen Yagisawa (1984 : 202) invente un nom d'espionne : il ne choisit pas un nom américain, norvégien ou malien mais russe avec Natasha Uratov. Comment expliquer ce choix si le nom propre est entièrement vide ?
+En raison de son absolutisme, la thèse de J.S. Mill va faire naître par réaction d'autres conceptions philosophiques du nom propre. Ainsi, pour B. Bosanquet (1999 : 47), un mot ne peut être non-connotatif, ou sans intension pour reprendre le terme le plus courant, puisque le couple intension / extension est indivisible. Puisque l'étymologie ne peut y être intégrée, il ne demeure plus qu'une forme minimale de signification (John est le nom d'un homme et pas d'une montagne ou d'une machine à vapeur [ibid. : 49]) mais suffisante pour ne pas laisser vide une des deux parties du couple intension / extension. Selon cette conception, le nom Natasha Uratov comporterait quelques traits sémantiques liés au fait qu'il s'agit d'une femme, probablement d'origine russe.
+Sans qu'elle apparaisse sous la forme d'une théorie au sens strict, cette idée se retrouvera en linguistique chez des auteurs aussi opposés que Frei ou Chomsky. En effet, dans les courants formalistes tel que le générativisme, il est d'usage de classer Nixon dans les noms de personnes et Amsterdam dans les noms de villes. On pourrait même penser que cette théorie est souvent sous-entendue au sein d'autres : lorsque Jakobson écrit que « Jérôme signifie quelqu'un nommé Jérôme » (1990 : 6), cela implique que Jérôme est un nom de personne (« quelqu'un »).
+Une autre option anti-millienne consiste à juger que c'est l'expérience qui crée la signification du nom propre : d'après Jevons (1920 : 43), John Smith n'a pratiquement pas de signification tant que l'on ne connaît pas le John Smith en question. Ensuite, au fil des années, la signification s'accroît jusqu'au point où le nom propre devient, d'après Joseph (1931 : 151), plus riche sémantiquement que le nom commun. Les linguistes pré-saussuriens ont en majorité choisi cette voie. Ainsi, Sweet (1877 : 470) écrit que John comprend au moins deux attributs, « humain » et « masculin », mais qu'il signifie beaucoup plus pour ceux qui connaissent ce John. La conclusion de cette théorie, donnée par Bréal (1924 : 182), est que les noms propres sont les plus significatifs de tous les mots, étant les plus individuels.
+Cette idée disparut en partie avec le structuralisme, réapparaissant uniquement chez quelques auteurs comme Barthes ou plus récemment les praxématiciens, qui pensent eux aussi que les noms propres sont sans doute plus chargés de sens que les noms communs (Fabre, 1987 : 15). Il est toutefois difficile d'expliquer comment les noms propres dans leur intégralité pourraient être plus significatifs que les noms communs. D'un point de vue linguistique, le principal défaut de cette théorie est de lier presque exclusivement le sens à la connaissance du référent.
+Également en opposition à Mill, Frege affirme que « le nom propre doit avoir un sens (dans l'usage que je fais du mot), sans quoi il serait une suite de sons vide et appelé à tort un nom. » (1994 : 147). Dans une note de bas de page de son article Sinn & Bedeutung, le logicien allemand explique que le sens d'un nom tel qu'Aristote pourrait être l'élève de Platon et le maître d'Alexandre le Grand. Dans sa version vulgarisée, cette théorie revient à dire qu'à chaque nom propre correspond une (ou plusieurs) description(s) définie(s).
+Cette vision descriptive, qui est certainement défendable en philosophie analytique, n'a pas rencontré un grand écho en linguistique, ce qui est compréhensible puisque, entre autres défauts, elle est incompatible avec les usages vocatifs et dénominatifs du nom propre (Jonasson, 1994 : 116).
+Si l'on estime que le nom propre n'est lié à aucun contenu sémantique, une des solutions revient à insister sur le lien direct entre le nom et la personne qui le porte. Dans l'optique atomiste, les noms propres n'ont pas la moindre connotation, Russell va donc rejeter la présentation de l'objet prônée par Frege pour s'en tenir à une référence directe : la signification de Sarkozy est une personne particulière. Dans le Tractatus, Wittgenstein identifie lui aussi la signification du nom avec son référent : « Le nom signifie [bedeutet] l'objet. L'objet est sa signification » (1961 : §3.203).
+Cette vision a été critiquée en philosophie analytique par Strawson (1971 : 9), pour qui Russell a confondu la signification et la référence et en linguistique par Kleiber (1981 : 356) qui a bien noté qu'une phrase telle que « l'Everest est le Chomolungma » n'est pas tautologique, bien que les deux noms propres renvoient au même référent.
+On glisse vite de ce sens référentiel à ce que Schaff (1960 : 337) appelle l'hypostase linguistique, c'est-à-dire l'idée que s'il y a un nom, il doit y avoir un être réel que ce nom désigne : de Reichenbach à Kripke en passant par Lejewski, on a affirmé que Pégase ou Sherlock Holmes ne sont pas des noms propres car ils ne renvoient à aucun référent réel, une conclusion totalement inacceptable pour le linguiste.
+La théorie de la référence directe est encore active en logique à la suite du succès de la théorie de Kripke. En linguistique, elle est évidemment nulle et non avenue : on peut incorporer la notion de « référent reconstruit » à la manière de Hagège (1985 : 216), mais le signe est avant tout une relation entre un signifiant et un signifié.
+Cependant, d'un point de vue linguistique, il est plus aisé de conserver une approche référentialiste tout en distinguant Everest et Chomolungma : il suffit de comparer les deux signifiants pour les discriminer. Puisque les noms propres ont une forme graphique, il est possible de conserver l'idée d'un sens référentiel tout en distinguant les différentes appellations d'un même référent. C'est le point de vue de Funke (1925 : 77), pour qui le nom propre n'est qu'une étiquette, à la manière des cotes des livres dans une bibliothèque. La meilleure étiquette pour un Français serait pourtant son numéro de sécurité sociale, mais même lui a des éléments signifiants tels que le sexe et l'âge.
+La dernière possibilité de sauvegarder le vide sémantique des noms propres est de reléguer tout ce qui peut être signifiant à la pragmatique. On note cette idée chez divers logiciens comme Peirce à la fin de sa carrière, mais c'est principalement en linguistique qu'elle a fait fortune pour être aujourd'hui la théorie dominante. Ainsi, C. Kerbrat-Orecchioni (1977 : 178 - 179) pense que si les noms propres sont informatifs, ce n'est pas grâce au sens, tel que l'on entend d'habitude ce mot, mais grâce aux connotations. On peut enfin expliquer certains phénomènes de discours mais au prix du paradoxe d'un nom dépourvu de sens mais ayant tout de même du sens et d'une séparation nette entre sémantique et pragmatique.
+Arbitraire est un autre terme généralement malmené dans le débat sur les noms propres. Pendlebury (1990 : 519) affirme que si les noms propres sont rigides, c'est parce qu'ils sont arbitraires. Dans sa définition classique en linguistique, l'arbitraire touche toutes les catégories grammaticales, des catégories qui ne sont pourtant pas « rigides » selon la vulgate kripkéenne.
+En linguistique, Cornulier est face à un dilemme : il refuse de considérer que la signification de Jean soit /humain mâle/ et de Médor /chien mâle/ mais leur comportement dans le discours témoigne du contraire. Il va alors affirmer que « les noms propres ne sont pas tous entièrement arbitraires, ils sont partiellement classés ou contraints [...] » (2004 : 32). Certes, arbitraire est polysémique, mais il est difficile de croire que mont Blanc puisse être moins (ou plus) arbitraire que rouge-gorge.
+Pour régler cette question du sens, une autre solution consiste à ajouter un nouveau terme. Celui qui revient le plus souvent, mais sous des aspects différents, est celui de contenu. Ainsi, d'après Ziff (1960 : 94), que le nom propre n'ait pas de sens n'implique pas l'adhésion à la théorie de Mill car, s'il n'a pas de sens, il n'est pas pour autant vide puisqu'il a des connotations. Toutefois, puisque les connotations changent selon les personnes, Ziff suggère de remplacer ce terme par la notion plus précise de « contenu informatif » (information-content) (ibid. : 97), un contenu qui ne dépend pas des croyances des personnes comme les connotations mais de la situation d'énonciation. Si dans le corpus, le nom du chat Witchgren apparaît dans des environnements tels que « ...veut son repas », « ...cherche de la nourriture » ou « ...a faim », le « contenu informatif » de Witchgren nous dira qu'il s'agit d'un chat affamé (ibid. : 100).
+Choisir le terme de contenu revient principalement à mettre en lumière le choix d'insister sur la ligne de fracture entre nom propre et nom commun. Ainsi, pour Nicolaisen (1995 : 387), défenseur de la thèse de l'onomasticon, les noms propres n'ont pas de signification (meaning) comme les autres parties du discours mais un contenu (content). La notion de contenu de M.-N. Gary-Prieur est encore différente, mais s'explique également par le caractère ontologique particulier des noms propres : ce contenu comprend l'ensemble des propriétés liées au référent du nom propre. Un adverbe ou une préposition ne peuvent donc avoir de contenu selon cette définition.
+Ces exemples prouvent que la question du sens des noms propres est problématique et il serait sans doute possible de recenser d'autres types de sens si l'on se penchait sur d'autres parties du discours telles que les verbes ou les interjections. Comme le remarque Rey (1976 : 27), on oppose plus souvent sens (ou signification) à désignation (ou dénotation) que sens à signification. Cette opposition nous semble pourtant plus constructive en insistant sur la notion de contexte. Jespersen (1971 : 77) est le premier à avoir noté que les milliens s'appesantissaient sur la valeur lexicale des noms propres hors contexte et que, dans cette situation, deux noms communs homonymes (jar et jar) n'étaient pas non plus définissables. D'après la distinction signification / sens classique, la signification concernerait le signe pris hors contexte et le sens ce même signe considéré en tant qu'élément d'un texte : la logique s'intéresserait donc en priorité à la signification du nom propre, la linguistique à son sens et l'onomastique à son étymologie en raison de sa méthode diachronique.
+Diverses erreurs sont dues à des confusions entre ces concepts, entre signification et sens mais aussi entre étymologie et signification. Ainsi, des logiciens tels que Stroll (1998 : 528) ou Lauener (1995 : 114) ne font pas la distinction entre les deux, ce qui pousse ce dernier à écrire que, puisqu'il y a des boulangers qui s'appellent Boucher et des bouchers qui s'appellent Boulanger, on hésitera à admettre que les noms propres ont un sens au-delà de leur référence. Cette conclusion naïve démontre la nécessité de bien distinguer les trois notions.
+La notion d'étymologie est essentiellement liée à une approche diachronique telle que celle de l'onomastique. Dans un ouvrage précédent (Vaxelaire, 2005), j'ai séparé physiquement les thèses des onomasticiens de celles des linguistes, alors que les premiers se considèrent pourtant comme des linguistes. Ce choix était uniquement fondé sur la différence de nature des travaux, l'étymologie étant une donnée dont le linguiste peut faire l'économie dans divers cas. Nous verrons toutefois dans le chapitre 3.3. qu'en linguistique synchronique, la motivation, qui est le versant synchronique de l'étymologie, est souvent à prendre en compte.
+La distinction classique entre étymologie savante et étymologie populaire est liée à ce couple étymologie/motivation, puisque l'étymologie populaire consiste à déceler ou à créer une motivation dans un terme opaque. Ainsi, lorsque certains avancent que la Gaule avait ce nom parce que ses habitants allaient à la pêche pour se nourrir, ils transposent une homonymie dans un état de langue en une concordance qui serait valable diachroniquement. L'étymologie populaire a une longue tradition, de la Bible à Brisset en passant par le Cratyle ou Isidore de Séville, et correspond à une recherche souvent mystique de la signification originale ou suprême. L'opacité de certains noms pourrait être comparée à un masque dont il faudrait les débarrasser pour découvrir leur vrai visage.
+Si la distinction entre les deux types d'étymologie est perceptible (l'une serait du côté de la science, l'autre de celui de la superstition), il ne faut pas oublier que la vulgarisation de notions scientifiques provoque régulièrement une perte de précision. La recherche étymologique sur les noms propres s'est développée en raison de l'intérêt grandissant pour la généalogie, mais si l'on observe les sites Internet liés à cette recherche, on y aperçoit une confusion entre étymologie et signification (on lit ainsi que Vincent « signifie celui qui vainc, le vainqueur »). Cette méprise est si répandue qu'elle explique en partie le rejet de l'attribution d'une signification aux noms propres dans le discours philosophique ou linguistique.
+La signification de noms propres tels que Boucher ou Paris est fortement limitée puisque ne peuvent a priori en faire partie ni des éléments liés à l'étymologie (s'appeler Boucher n'entraîne aucune fatalité quant à sa profession), ni d'autres liés aux connaissances encyclopédiques sur le référent (que j'habite ou non à Paris ne modifie pas la signification de ce nom). La position de Frei (cf. note 13) me semble la plus sage puisqu'elle permet de conserver le signifié tout en montrant qu'il ne contient que quelques sèmes.
+L'idée qu'un nom propre puisse contenir des sèmes a déjà été critiquée. Ainsi, Lerat (1983 : 72) estime qu'il n'y a pas de sème /méridionalité/ dans Savignac par rapport à Savigny. Pourtant, lorsque l'on demande à quelques Français de placer Savignac sur une carte, ils choisissent invariablement le Sud-Ouest : le fait de rapprocher les toponymes en -ac de cette région est culturellement partagé en France. Dans un article de Libération (13/01/00), l'auteur décrit un couple de voleuses comme des «Bonnie et Bonnie » à la petite semaine. Bonnie contient donc nécessairement le trait /féminin/ pour ce journaliste. Le nombre de sèmes inhérents d'un anthroponyme est faible : /animé/, /humain/, le genre comme le montre l'exemple de Bonnie, la langue d'origine, dans un cas particulier tel que Saint Thomas, on pourrait rajouter un trait /sacré/, mais guère plus.
+Le sens des lexies dépend de leur contexte, ce qui explique qu'un même nom propre peut avoir un sens riche ou pauvre selon ses emplois. D'autres traits, que l'on peut décrire en tant que connotations ou sèmes afférents selon les écoles, vont en effet s'ajouter aux quelques traits inhérents précédemment cités.
+Plusieurs critiques insistent sur le caractère non-linguistique de ces traits : on affirme généralement qu'ils relèvent de l'encyclopédie et non de la langue ou, à la manière de Brøndal, qu'ils sont liés à la psychologie. Il nous semble évident qu'ils ne sont pas du ressort de la Langue, mais ils interviennent pourtant au niveau de l'interprétation des textes.
+Lorsque le contexte est minime, par exemple dans les insultes comme sale Hitler, ce sont principalement les connaissances encyclopédiques qui permettent de comprendre l'énoncé, même si le mot sale permet de comprendre qu'il s'agit d'une insulte. Cependant, c'est le plus souvent le contexte qui va dicter la lecture :
+Moi qui voue des cultes aux meilleurs Américains, d'Edgar Poe à Robert Crumb (je vous fais grâce pour cette fois de tous les jazzmen imaginables), je dois sans cesse me souvenir que ces États, unis souvent pour le pire, ont nourri dans leur sein des généraux Sheridan et Schwarzkopf, des Walt Disney, des Elvis Presley... (Nabe, Non, Monaco, éditions du Rocher, 1998, p. 231)+
Si les connotations habituelles de Walt Disney et d'Elvis Presley sont plutôt positives, cet extrait, qui les classe dans la catégorie opposée aux « meilleurs Américains », ne laisse pas de doute sur la présence d'un trait négatif dans ces noms. Il n'est d'ailleurs pas forcément nécessaire de connaître le référent des noms pour comprendre ce que veut dire l'auteur. Ainsi, dans une émission de France Inter (26/01/04), Ph. Val dresse une liste des admirateurs de Platon : Staline, Hitler, Pol Pot, l'Ayatollah Khomeiny, Franco, Mao Tsé Toung, Fidel Castro et l'Observatoire des médias français. La présence de sept noms de dictateurs indique que l'Observatoire des médias contient lui aussi un sème commun négatif avec ces personnages. Cette interprétation sera partagée par tous les francophones, même - ou surtout - par ceux qui ne connaissent pas cet Observatoire, car il s'agit d'un phénomène textuel et certainement pas psychologique comme le pense Brøndal.
+Cette approche textuelle du sens réfute donc les théories logiciennes, à l'instar de celle de Kripke, sur la nécessité du vide de sens : ce n'est pas parce que deux personnes ont des visions différentes d'une même personne qu'il doivent nécessairement employer une étiquette vide. Des philosophes ont reproché à d'autres de traiter Walt Disney et d'Elvis Presley comme je le fais puisque ce sens est idiosyncrasique et que Nabe ne parlera pas de « la même personne » avec un admirateur de Presley, mais c'est justement là que se situe la distinction entre la signification, globalement partagée par les locuteurs d'une langue et le sens, exprimé par une personne ou un groupe.
+Il devient inutile d'affirmer que tel ou tel nom propre n'a aucun sens ou, à l'inverse, à plus de sens qu'un nom commun. Dans un programme, le nom Batofar ne déborde pas de sens (par exemple : « Keiji Haino, Batofar, 25/05/99, 60 francs »). Le contexte laisse supposer qu'il s'agit d'une salle de spectacle, mais il est difficile d'aller plus loin (la référence plus ou moins évidente à un bateau pourrait laisser penser qu'il s'agit d'autre chose que d'une salle). Dans cet emploi, Batofar est pratiquement une étiquette, ce qui se perçoit au niveau syntaxique puisqu'il s'utilise sans déterminant, contrairement à son emploi habituel (« Rien de tel qu'une soirée au Batofar. »).
+Un autre avantage de l'approche textuelle est de pouvoir dissocier les jeux sur l'étymologie de la pensée magique. Lorsque le Canard Enchaîné écrit que « Le Crédit Lyonnais s'est pris les pieds dans le Tapie » (05/10/05), il n'est évidemment pas question de créer un lien entre la personne et l'objet, mais simplement de jouer sur une homophonie. La remotivation des noms est courante dans ce journal. Dans l'exemplaire du 25 avril 2007, un journaliste titrait à propos des soucis financiers du Front National : « Le "Paquebot" a été coulé... par la Marine ! ». Le jeu de mot réside dans la présence d'un sème /maritime/ qui n'a initialement aucun lien avec le bâtiment et le prénom, mais qui dans ce contexte devient incontournable par sa dissémination dans les deux noms et le verbe.
+Si l'étymologie n'a pas à être convoquée dans la signification d'un anthroponyme, elle peut devenir une partie intégrante de son sens dans ce type de remotivation. Un exemple de Rastier (1997 : 319) illustre parfaitement comment le défigement a une incidence sur le fonctionnement sémantique du nom : à la suite du déménagement de la DGSE, Le Parisien a titré, dans son édition spéciale du 15/09/93, « La Piscine déménage à Noisy-le-Sec » en jouant réciproquement sur l'étymologie du surnom des services secrets (donné en raison de sa proximité avec la piscine des Tourelles) et d'un élément du nom de la ville de banlieue.
+Les cas officiels de modification de nom en France ont pour la plupart le but d'obscurcir un patronyme ayant des connotations désagréables. On pense ici aux homonymies avec des noms communs (l'acteur Jean-Paul Comart dont le vrai nom était Connart) mais aussi des noms propres (de nombreux Hitler ont changé de patronyme). Bien qu'ils n'aient qu'une signification minime, ces patronymes sont changés pour éviter des défigements non souhaités, donc des effets de sens.
+La déception engendrée par la majorité des théories du sens des noms propres provient principalement de la non prise en compte du contexte (l'observation d'exemples réels offre pourtant de nouvelles pistes, parfois insoupçonnées). De plus, certaines théories insistent uniquement sur la signification des noms propres, qui est très limitée, et d'autres ne différencient pas suffisamment sens et signification et aboutissent à la conclusion que les noms propres ont plus de sens que les noms communs. Le sens d'un nom propre n'est pas son référent (même si des connaissances sur celui-ci peuvent faire partie du sens), pas plus que son étymologie (elle peut, elle aussi, intervenir dans le sens de certains énoncés par le biais de la motivation), mais une construction liée à différents éléments. L'analyse des noms propres doit donc se faire au cas par cas et, d'un point de vue épistémologique, la conscience de cette tripartition entre étymologie, signification et sens demeure valable pour toutes les catégories de mots.
+Contenu soumis à la GFDL
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+L'islam est à la fois un système politique et social, et une religion monothéiste, dont le messager est selon la religion Mahomet en Arabie au viie siècle. Il rassemblerait aujourd'hui entre 1 et 1,8 milliard de fidèles,2 appelés musulmans. C'est, chronologiquement parlant, le troisième grand courant monothéiste de la famille des religions abrahamiques, après le judaïsme et le christianisme avec lesquels il possède un certain nombre d'éléments communs, et avant le bahaïsme.
+Au niveau mondial, l'islam est la seconde religion en nombre de fidèles, après le christianisme et devant l'hindouisme. Il se veut une révélation arabe de la religion d'Adam, de Noé, Jésus et de tous les prophètes. Ainsi il se présente comme un retour à la religion d'Abraham (appelé Ibrahim par les musulmans) du point de vue de la croyance, le Coran le définissant comme étant la voie d'Ibrahim (millata Ibrahim).
+Le livre sacré de l'islam est le Coran. Le dogme islamique assure qu'il contient le recueil de la révélation d'Allah, transmise oralement par son prophète Mahomet. Selon les musulmans, cette révélation se poursuivit durant 23 années, par l'intermédiaire de l'archange Gabriel, par le biais de rêves, comme dans le cas d'Abraham, et par inspiration divine. Le Coran reconnaît l'origine divine de l'ensemble des livres sacrés des monothéismes, bien que les musulmans considèrent communément qu'ils sont, dans leurs écritures actuelles, le résultat d'une falsification : le Suhuf-i-Ibrahim (les Feuillets d'Abraham), la Tawrat (le Pentateuque ou la Torah), le Zabur de David et Salomon (identifié au Livre des Psaumes) et l'Injil (l'Évangile).
+Outre le Coran, la majorité des musulmans se réfère à des transmissions de paroles, actes et approbations de Mahomet, récits appelés hadiths. Cependant, les différentes branches de l'islam ne s'accordent pas sur les compilations de hadiths à retenir comme authentiques. Le Coran et les hadiths dits « recevables » sont deux des quatre sources de la loi islamique, la charia, les deux autres étant l'unanimité (ijma') et l'analogie (qiyas).
+L'islam se répartit en plusieurs courants, notamment le sunnisme, qui représente entre 80 et 85 % des musulmans, et le chiisme rencontré principalement en Irak et en Iran.
+Le mot « islam » est la translittération de l'arabe XXXXXX islâm signifiant : « soumission », « allégeance », sous-entendant « à Dieu ». Il s'agit d'un nom d'action (en arabe XXXXX ism fi'l), dérivé d'une radical sémitique, s.l.m qui désigne l'acte de se soumettre d'une manière volontaire, de faire allégeance.
+Le mot « islam » avec une minuscule désigne la religion dont le prophète est Mahomet. Le terme d'« Islam » avec une majuscule désigne l'ensemble des peuples musulmans, la civilisation islamique dans son ensemble mais ne fait plus partie du langage courant.
+Le nom d'agent (en arabe XXXXX ism fâ'il) dérivé de cette racine est XXXXX muslim « celui qui se soumet », à l'origine du mot français musulman. Le mot « Musulman » avec une majuscule désignait au sein de l'ex-Yougoslavie une des communautés nationales et la désigne encore dans certains des États qui en sont issus.
+Le mot « islamique » renvoie à l'islam en tant que religion et en tant que civilisation. L'islamisme est une doctrine politique qui vise à l'expansion de l'islam.
+L'islam comporte, selon les sources entre 0,9 et 1,4 à 1,8 milliard de croyants, soit entre 14 % et 21 % de la population mondiale en 2007. La diffusion de l'islam, hors du monde arabe, s'explique par les migrations et les conversions.
+L'islam est la seule religion dont le nom figure dans la désignation officielle de plusieurs États, sous la forme de « République islamique ». Toutefois, ces États ne sont pas les seuls où l'imbrication du civil et du religieux est conforme à ce que veut la charia comme en Arabie saoudite.
+Il peut se produire une confusion entre Arabes et musulmans, principalement à cause de deux facteurs : l'origine arabe de l'islam et la place centrale qu'occupe la langue arabe dans cette religion. Il y a environ 300 millions d'Arabes, dont la grande majorité est musulmane. Au final, 20 % des musulmans vivent dans le monde arabe, un cinquième sont situés en Afrique subsaharienne, et la plus grande population musulmane du monde est en Indonésie. D'importantes communautés existent au Nigeria, Bangladesh, Afghanistan, Pakistan, en Iran, en Chine, en Europe, dans l'ancienne Union soviétique, et en Amérique du Sud. Il y a environ sept millions de musulmans aux États-Unis et environ 5 millions en France selon les sources principalement issus de l'immigration auxquels il faut ajouter les conversions, dont le nombre est très difficile à déterminer d'autant qu'il y a des conversions en sens inverse et des apostats.
+ +Les cinq piliers de l'islam sont la foi en un Dieu unique (tawhid), Allah, et la reconnaissance de Mahomet comme étant son prophète ; l'accomplissement de la prière quotidienne, la salat ; la charité envers les nécessiteux, la zakât ; le respect du jeûne lors du mois de ramadan ; et le hajj, le pèlerinage à La Mecque au moins une fois dans sa vie, si on en a les moyens matériels et physiques.
+La chahada (« déclaration de foi »), équivalent du crédo chrétien, consiste en une phrase très brève : « Je témoigne qu'il n'y a de vraie divinité qu'Allah et que Mahomet est Son messager. »
+Mahomet a défini la croyance (ou la foi) par une parole qui signifie : « La foi (Iman) est que tu croies en Dieu, en Ses anges, en Ses livres, en Ses messagers et en la réalité du jour dernier et que tu croies en la réalité de la destinée, qu'elle soit relative au bien ou au mal ».
+Dans la jurisprudence religieuse, l'adhérent à l'islam est nommé mouslim (musulman) et l'adhérant à l'iman est nommé mou'min (croyant), sans pour autant faire de dissociation entre les deux car ces deux termes sont jugés indissociables et complémentaires du point de vue religieux.
+En effet, l'imam Abou Hanifah (mort en 150H/767G) a explicité la position musulmane concernant le rapport entre l'imam et l'islam en ces paroles : « Ils sont comme le revers et le plat de la main », c'est-à-dire qu'ils sont inséparables, et par conséquent tout musulman (mouslim) est considéré comme croyant (mou'min) et vice-versa.
+Les juristes musulmans ont dit que sans une acceptation totale de la foi (iman) par le coeur, l'appartenance de quiconque à l'islam est invalide. De même, toute conversion à l'islam n'est valable que par la foi (iman) dans le coeur et additionnée de la prononciation verbale des deux « témoignages de foi » (Ach-Chahadah) à savoir par exemple « Je témoigne qu'il n'y a de vraie divinité que Dieu et je témoigne que Mouhammad est le Prophète de Dieu ».
+Cependant, il existe plusieurs degrés de croyants (mou'minoun). En effet, les musulmans pratiquant parfaitement les prescriptions religieuses sont considérés comme des « croyants complets » alors que les autres sont dits « croyants incomplets » ou « croyants faibles de foi ».
+Dans l'islam, la croyance et la pratique sont intimement liées. En effet, les versets coraniques décrivent souvent le croyant mou'min comme étant « celui qui croit et pratique de bonnes oeuvres ». Bien évidemment, il est alors question du mou'min complet. Toutefois ce lien met en lumière le fait que la spiritualité et l'action sont donc deux éléments fondamentaux qui participent de l'être du croyant. Les actes sont donc le reflet de la foi.
+Le fondement doctrinal de l'islam est que Dieu (Allah en arabe) est unique. L'unicité de Dieu (tawhid) se décompose en trois branches :
+L'unicité dans l'adoration (tawhid al Oulouhiya) (Ou, la foi en la divinité d'Allah) C'est le fait de vouer tout acte d'adoration à Allah, en toute exclusivité.
+« Je n'ai créé les djinns et les hommes que pour qu'ils M'adorent »(Coran. Sourate 51, verset 56)+
L'adoration telle que la définit Ibn Taymiyya est :
+« Un terme qui englobe tout ce qu'Allah aime et agrée comme oeuvre apparente ou cachée »+
« C'est à ceux qui ne croient pas en l'au-delà que revient le mauvais qualificatif, tandis qu'à Allah Seul est le qualificatif suprême et c'est Lui le Tout Puissant et le Sage »(Coran. Sourate 16, verset 60)+
Ces trois branches de l'unicité sont indissociables et forment à elles trois, le Tawhid, ou le premier pilier de la foi. Les théologiens musulmans affirment que les versets qui donneraient en apparence des organes ou un emplacement à Allah ne doivent pas faire sujet de comparaison avec une créature. Dieu est décrit dans le Coran à plusieurs reprises. A titre d'exemple, les versets suivants :
+« Dis : "Il est Allah, Unique. Allah, Le Seul à être imploré pour ce que nous désirons. Il n'a jamais engendré, n'a pas été engendré non plus. Et nul n'est égal à Lui". »(Coran. Sourate 112)+
« Allah! Point de divinité à part Lui, le Vivant, Celui qui subsiste par lui-même "al-Qayyum". Ni somnolence ni sommeil ne Le saisissent. A lui appartient tout ce qui est dans les cieux et sur la terre. Qui peut intercéder auprès de Lui sans Sa permission? Il connaît leur passé et leur futur. Et, de Sa science, ils n'embrassent que ce qu'Il veut. Son Trône "Kursiy" déborde les cieux et la terre, dont la garde ne Lui coûte aucune peine. Et Il est le Très Haut, le Très Grand. »(Coran. Sourate 2, verset 255)+
Selon un hadith, il est mentionné que Allah a quatre-vingt-dix-neuf noms parfaits (asma'ou l-Lahou l-housna) révélés par Dieu, qui permettent au musulman qui les connaitrait par coeur et les utiliserait, d'entrer au paradis. Le Coran cite des noms/attributs comme al-'ahad (Celui Dont les perfections sont sans rapport avec les caractéristiques des créatures) ou ar-rabb (Celui à Qui nous nous devons d'obéir), Al-Malik (Celui à Qui ce monde appartient en réalité et en totalité et Celui Dont la domination est absolue et exempte de toute imperfection) qui ne sont pas cités dans le hadith précédant. Un autre hadith affirme qu'Allah possède un nom inconnu des gens du commun. Selon une version de ce hadith, ce nom est qualifié de XXXXX "Al-Adham" qui veut dire "le plus grand" ou "le plus noble"14.
+Le Coran affirme l'existence des anges, « messagers » d'Allah, en très grand nombre et remplissant différentes fonctions sur Terre et dans les cieux, leur demeure. L'ange Gabriel joue un rôle d'une importance considérable en islam. Les anges exécutent ou transmettent les ordres d'Allah.
+ +Selon la doctrine musulmane, les écritures révélées sont au nombre de 104, dont les plus connues sont le Coran (qour'ân) révélé à Mahomet, la Torah (tawrât) révélée à Moïse, les Psaumes (zaboûr) révélés à David, l'Évangile (injîl) révélé à Jésus. Selon les musulmans, le Coran est le dernier des livres révélés, car Mahomet est pour eux le dernier prophète et, de toutes ces écritures révélées, seul le texte du Coran demeure intacte. Le texte des autres livres révélés aurait été falsifiés sur Terre et préservés dans les cieux.
+Le Coran (XXXXX al qourân, « lecture ») est le livre le plus sacré des musulmans. C'est le premier livre connu à avoir été écrit en arabe, qu'il a contribué à fixer. Il est censé regrouper une part du message divin qui, selon la croyance musulmane, a été transmis à Mahomet. Les historiens retiennent le fait qu'il a été écrit après la mort de Mahomet par Abou-Bakr et Omar vers 6331.
+Selon le récit religieux musulman, cette transmission de l'archange Gabriel à Mahomet aurait eu lieu de manière fragmentaire par voie auditive, par la voie du rêve prophétique ou par la voie de "l'inspiration divine", durant une période de vingt-trois ans. Après des débats houleux, le calife al-Mamum à Bagdad, vers 820 proclame le Coran, manifestation de l'attribut de Allah appelé "Kalam de Allah", par dogme, incréé, éternel et inimitable. Le débat se prolongera jusqu'au ixe siècle. Ibn Hanbal, aux prises avec une véritable inquisition musulmane, ayant assigné le rôle des autres écrits - hadith, sunna - déclare finalement le Coran incréé de la première à la dernière page. Il ne peut donc pas avoir été écrit, précédé, ni prolongé. Son origine n'est pas humaine. La seule étude du texte se résume à l'apprendre par coeur et à en rechercher le sens transmis, et à le mettre en pratique. Il est au coeur de la pratique religieuse de chaque musulman. Pour celui-ci, le Coran est un livre saint qui n'a pas subi d'altération après sa révélation, car Dieu a promis que ce livre durerait jusqu'à la fin des temps : le texte ainsi que sa signification sont préservés sur Terre, c'est-à-dire qu'ils existent est sont détenus par la majorité selon un hadith de Mahomet, mais cela n'empêche en rien l'existence de mauvaises interprétations chez ceux qui ne sont pas "versés dans la science".
+Le Coran est divisé en cent quatorze chapitres nommés sourates, de longueurs variables. Ces sourates sont elles-mêmes composées de versets nommés âyât (pluriel de l'arabe âyah, « preuve », « révélation »).
+La plupart mémorisent au moins une partie du Coran dans sa langue originale, l'arabe. Cette partie correspond aux versets nécessaires pour faire les prières quotidiennes. Ceux qui ont mémorisé le Coran en entier sont connus sous le nom de hâfiz (pluriel huffâz). Il existe plusieurs traduction du Coran de l'arabe en langues étrangères. Certains musulmans pensent que le Coran n'existe que dans sa version originale en langue arabe et que les traductions étant d'origine humaine sont imparfaites et faillibles et aussi en raison de caractéristiques polysémiques proprement intraduisibles de l'arabe, et enfin parce que le contenu aurait été inspiré juste dans cette langue. Ils considèrent donc les traductions comme des commentaires ou des interprétations de sa signification, et non comme le Coran lui-même. De nombreuses versions modernes présentent le texte arabe sur une page et la traduction sur la page lui faisant face. Selon certains enseignants de l'université Al-'Azhar du Caire, penser à reproduire le Coran dans une langue autre que l'arabe est en soi un péché, mais l'explication et l'explicitation du livre dans toute autre langue que l'arabe ou en arabe (afin de faire comprendre le texte original) est permis s'il est réalisé par quelqu'un comprenant non pas les mots selon la langue mais selon les règles de la religion.
+Les musulmans considèrent que l'envoi des prophètes est une clémence et une grâce d'Allah pour ses créatures, car la raison à elle seule ne permet pas de connaître tout ce qui sauve dans l'au-delà. Leur fonction principale est donc de montrer aux gens le chemin, la voie (la charia) qui mène au bonheur éternel. Et pour prouver leur véracité, Allah les a appuyés par des faits hors du commun, à savoir les miracles qui constituent des défis implacables que personne ne peut contrecarrer ni imiter.
+Tous les prophètes d'Allah ont fait valoir un bon comportement et une conduite exemplaire. Ils sont nécessairement immunisés contre la mécréance, les grands péchés et les petits péchés reflétant une bassesse de caractère, ceci avant et après la mission prophétique. Le premier est Adam et le dernier est Mahomet.
+Les textes expliquent que Adam a inauguré la fonction prophétique, tandis que c'est par Mahomet, le dernier, qu'elle a été clôturée. Leur nombre est très grand, citons quelques-uns : Abraham (Ibrâhîm), David (Dâwoûd), Isaac (Ishâq), Ismaël (Ismâ'îl), Jacob (Ya'qoûb), Jean-Baptiste (Yahyâ), Jethro (Chou'ayb), Job (Ayyoûb), Jonas (Yoûnous), Joseph (Yoûçouf), Loth (Loût), Moïse (Moûçâ), Noé (Noûh), Salomon (Soulaymân), Zacharie (Zakariyyâ), Jésus (Issah).
+ +Selon l'islam tous les prophètes sont musulmans et ont tous appelé les gens à entrer dans sa religion. En effet, sa signification est croire en un Dieu unique sans rien lui associer et de croire au message de Mahomet envoyé pour son époque.
+Le chef religieux, politique et militaire arabe Mahomet (XXXX en arabe), dont le nom est parfois aussi transcrit par Mohammed, Muhammad, etc. en français est le fondateur de l'islam et de la communauté musulmane (oumma). Il est considéré comme le dernier prophète du monothéisme par les musulmans et il n'est reconnu comme prophète que par cette communauté. Ils ne le considèrent pas comme le fondateur d'une nouvelle religion, mais pensent qu'il est le dernier d'une lignée de prophètes de Dieu (du monothéisme) et considèrent que sa mission est de restaurer la foi monothéiste originale d'Adam, Abraham et d'autres prophètes, foi qui avait été corrompue par l'homme au cours du temps 19.
+Selon le Coran, pendant les 23 dernières années de sa vie, Mahomet dicte des versets, qu'il reçoit d'Allah par l'intermédiaire de l'ange Gabriel (Jibril), à des fidèles de plus en plus nombreux convaincus par ce nouveau message. Le contenu de ces révélations sera compilé moins de 20 ans après la mort de Mahomet en un ouvrage, le Coran, livre saint des musulmans.
+Les hadiths sont les paroles ou actes de Mahomet considérés comme des exemples à suivre par la majorité des musulmans. Les écoles de jurisprudence madhhabs considèrent les recueils de hadiths comme des instruments importants permettant de déterminer la sunna, la « tradition » musulmane. Le hadith était à l'origine une tradition orale qui rapportait les actions et coutumes de Mahomet. Cependant, à partir de la première fitna, au viie siècle, ceux qui ont reçu les hadiths ont commencé à questionner les sources des paroles. Leur crédibilité est généralement proportionnelle au crédit des témoins qui les ont rapportés. Cette chaîne de témoins est appelée isnad. Il est généralement admis que c'est pendant le règne du calife Umar II, au viiie siècle, qu'ont commencé les transcriptions par écrit de grands recueils de hadiths, qui se sont stabilisés au siècle suivant. Ces recueils sont, encore aujourd'hui, pris comme références dans les sujets en rapport avec le fiqh ou l'histoire de l'islam. Les authentiques sont admis par l'ensemble des musulmans sunnites.
+Une grande majorité de sunnites considèrent les hadiths comme des suppléments et des clarifications essentielles au Coran. Dans la jurisprudence islamique, le Coran contient le germe de nombreuses règles de comportement attendues d'un musulman. Cependant, de nombreux sujets, religieux ou profanes, ne sont pas encadrés par des règles coraniques. Les musulmans croient donc qu'en examinant le mode de vie, ou sunna, de Mahomet et ses compagnons, ils pourront découvrir les comportements à imiter et ceux à éviter. Les penseurs musulmans trouvent utiles de savoir comment Mahomet ou ses compagnons ont expliqué les révélations, ou à quelle occasion Mahomet les a reçues. Parfois, cela clarifiera un passage qui semblerait obscur autrement. Le contexte pouvant totalement bouleverser le sens que l'on peut donner à un verset. Les hadiths sont aussi une source historique et biographique.
+Ils sont considérés comme une source d'inspiration religieuse, alors que certains musulmans considèrent que le seul Coran est suffisant. Les chiites ont en effet plus de réserves à leur égard car ils montrent que Mahomet n'a pas parlé des choses qui sont fondamentales dans le courant chiite, ce qui fait qu'ils ont élaboré leurs propres ouvrages. Entre autres, ils n'éprouvent pas de gêne à la reproduction de visages humains, comme ceux de personnalités cultes telles Ali et Hussein, alors que plusieurs hadiths laissent penser que cela est proscrit par Mahomet.
+Les musulmans croient qu'un certain nombre d'évènements surviennent après la mort dont les plus importants sont :
+La majorité des musulmans croient à la question, au supplice et à la félicité de la tombe. Ceci n'est pas mentionné dans le Coran mais dans la sunna. Selon cette dernière, après la mort, toute personne sera questionnée dans sa tombe par deux anges du nom de Mounkar et Nakir : « Qui est ton Seigneur ? Qui est ton prophète ? Quelle est ta religion ? ». Les musulmans pieux répondront correctement à ces questions et auront la félicité dans leur tombe, tandis que les non-musulmans et certains musulmans désobéissants n'y répondront pas correctement et seront châtiés.
+La prédestination fait partie des fondements essentiels de l'islam. Elle consiste à croire que tout ce qui se produit dans ce monde - qu'il s'agisse de nos actes volontaires ou involontaires - est prédestiné par Allah. Sa volonté se réalise toujours selon sa sagesse éternelle. Ainsi, toute chose - bonne ou mauvaise - qu'Allah a su qu'elle existera se réalisera en temps voulu. Et celle dont Allah n'a pas voulu l'existence, ne se réalisera pas. Par conséquent, si tous les gens se mobilisent pour nous faire profiter d'un bienfait ou pour nous causer un mal qui ne nous a pas été prescrit, ils n'y parviendront pas.
+Allah a tout prescrit dans le « tableau préservé » (al-lawhou al-mahfoûdh) comme l'apprend le Coran : « C'est Nous (Allah) qui ressuscitons les morts. Nous faisons inscrire ce qu'ils ont fait et les conséquences de leurs oeuvres. Et Nous avons dénombré toute chose dans un Tableau clair.»23
+La loi islamique fournit un ensemble de règles prescrivant ce que les musulmans doivent manger. Ces règles spécifient ce qui est halal (halâl), c'est-à-dire légal. Ces règles se trouvent dans le Coran, qui décrit aussi ce qui est illégal ou haram (harâm). Il existe aussi d'autres règles venant s'ajouter à celles-ci qui ont été émises dans des fatwas par des mujtahids; mais elles ne sont suivies que par leurs propres disciples et non l'ensemble des musulmans.
+La loi islamique interdit aux musulmans de consommer de l'alcool, de boire ou de manger du sang et ses produits dérivés, et de manger la viande d'animaux carnivores ou omnivores comme le porc, le singe, le chien ou le chat (les poissons piscivores ne sont pas considérés comme carnivores). Pour que la viande d'un animal terrestre soit halal, il faut que l'animal soit abattu de manière adéquate par un musulman ou par des « gens du livre » tout en mentionnant le nom de Dieu (Allah en arabe). L'animal ne doit donc pas être tué en l'ébouillantant ou par électrocution et la carcasse doit être saignée avant d'être consommée. Différentes règles s'appliquent aux poissons. En général, les poissons à écaille sont toujours halal, bien que certaines fatwas déclarent les poissons dépourvus d'écailles (comme le poisson-chat) et les coquillages comme haram. Les règles d'interdiction concernant les animaux peuvent être contournées quand un musulman risque de mourir de faim et qu'aucune nourriture halal n'est disponible.
+L'abattage rituel islamique est appelé dhabiha (dhabihah) D'après certaines fatwas, l'animal ne peut être abattu que par un musulman. Cependant, d'autres fatwas considèrent que d'après le verset 5 :5 du Coran, l'abattage peut être fait par des « gens du livre ». La viande kasher est considérée comme halal.
+Les sunnites ne sacralisent pas d'icônes. Selon un hadith de Mahomet, la malédiction de Dieu s'abat sur toute personne produisant (par le dessin, la sculpture...) un être doté d'âme y compris les animaux, car cela est considéré par eux comme allant contre l'esprit du monothéisme. Un certain aniconisme voire un iconoclasme plus ou moins strict existe donc dans l'islam. Ainsi, les musulmans se servent plutôt de versets du Coran calligraphiés comme par exemple dans le palais de l'Alhambra, des formes géométriques (arabesques) ou de représentation de la Ka'ba pour décorer les mosquées, les maisons et les lieux publics.
+On associe souvent le symbole du croissant et de l'étoile à l'islam. Il s'agit à l'origine du symbole de l'Empire byzantin, repris à sa chute par l'Empire ottoman.
+Un des symboles islamiques est la couleur verte. Du temps de Mahomet, les premiers drapeaux brandis par les guerriers musulmans étaient verts. L'attrait de cette couleur est simple : les Arabes étant un peuple du désert, le paradis a pour eux été décrit comme verdoyant, où des sources d'eau couleraient en abondance, où les fidèles y porteront des habits de soie verts (Coran 18 :31). Avant l'islam, la légende d'al-Khadir (celui qui est vert), témoigne de l'importance de cette couleur pour ce peuple. Enfin, Mahomet aurait déclaré que le vert était sa couleur préférée et portait souvent des habits et un turban de cette couleur. Autrefois, seuls les califes étaient autorisés à porter un turban de cette couleur. On retrouve la symbolique du vert comme symbole du panarabisme aujourd'hui.
+Les califes (arabe XXXXX signifiant « successeur » ou « représentant ») ) désignent les successeurs de Mahomet. Le porteur du titre a pour rôle de garder l'unité de l'islam et tout musulman lui doit obéissance, dans le cadre de la charia : c'est le dirigeant de l'oumma, la communauté des musulmans.
+ +Un différend entre sunnites et chiites conduira le califat à se diviser en deux visions très distinctes : les premiers considèrent que le calife doit être élu pour ses qualités morales et islamiques, et cela en dépit de ses origines. Les seconds considèrent que seul un successeur filial de Mahomet peut prétendre à ce titre. Un seul calife aurait donc de grandes difficultés à diriger l'ensemble de l'actuelle communauté musulmane.
+Mahomet est mort sans désigner de successeur et sans laisser un système pour en choisir un, mais plusieurs actes ont poussé l'unanimité des musulmans de l'époque à conclure qu'il préférait Abu Bakr (de son vivant même lorsqu'il était malade, il lui a demandé, et à personne d'autre, de diriger la prière). Par conséquent, le califat a été établi. Le calife a pour rôle de garder l'unité de l'islam et tout musulman lui doit obéissance : c'est le dirigeant de l'oumma, la communauté des musulmans. Le titre khalifat rasul Allah, signifiant « successeur du messager de Dieu » est devenu le titre courant.
+Les chiites ne reconnaissent que le quatrième calife, étant Ali, père de tous les imams. Les chiites estiment que le calife suivant, Yazid Ier a été coupable de la mort d'Hussein, et par là toute succession de califes aurait perdu sa légitimité.
+Certains califes étaient souvent appelés amir al-mu'minin XXXXXXXX « commandeur des croyants ». Le titre a été raccourci et francisé en « émir ».
+Aucun des premiers califes n'a dit avoir reçu des révélations divines, comme ce fut le cas pour Mahomet, soucieux de rester dans le droit chemin et craignant Allah. Mahomet étant le dernier prophète, aucun des califes n'a dit être un nabi, « prophète » ou un rasul « messager divin ». Les révélations faites à travers Mahomet ont rapidement été codifiées et écrites dans le Coran, qui a été accepté comme autorité suprême, limitant ainsi ce que le calife pouvait diriger. Cependant, les premiers califes étaient les chefs spirituels et temporels de l'islam, et insistaient sur le fait que l'obédience au calife en toutes choses était la marque d'un bon musulman. Le rôle est devenu cependant strictement temporel avec l'ascension des oulémas, et l'éloignement de certains califes de la pratique pure de la religion.
+Après les quatre premiers califes (Abou Bakr, Omar, Uthman et Ali ibn Abi Talib), le titre a été revendiqué de manière controversée par les Omeyyades, les Abbassides et les Ottomans, ainsi que par d'autres lignées en Espagne, en Afrique du nord et en Égypte. La plupart des dirigeants musulmans portaient simplement le titre de sultan ou émir, et prétaient allégeance à un calife qui avait souvent peu d'autorité. Le titre n'existe plus depuis que la république de Turquie a aboli le califat ottoman en 1924.
+Alors que le califat a été un sujet de discorde entre dirigeants musulmans, il a été peu évoqué depuis 1924. De nombreux musulmans souhaiteraient le rétablissement du califat, mais des restrictions ainsi que l'activité politique de nombreux pays à majorité musulmane, combinés aux obstacles pratiques à l'unification de plus de cinquante États-nations en une seule institution ont limité les efforts pour le faire revivre.
+La charia est la loi islamique. Le Coran est la source principale de la jurisprudence islamique (fiqh). Pour les Sunnites, la sunna n'est pas un texte en soi comme le Coran, mais signifie l'ensemble des actes et paroles du prophète. La place des hadiths fait l'unanimité dans la loi islamique. Tous les religieux admettent de contredire leurs jugements personnels si un hadith authentique va à l'encontre de ce jugement. Deux ouvrages compilent les hadiths authentiques : le "sahis" de Bukhari et celui de Muslim, mais aussi de récents travaux gigantesques de l'imam AL-Albani. L'Ijma et le qiyas (raisonnement analogique) sont généralement considérés comme les sources tertiaires et quaternaires de la charia, mais ceci est contesté par certains religieux selon qui seuls les hadiths et le coran sont source de loi, comme certains hanbalites.
+La loi islamique couvre tous les aspects de la vie, depuis les sujets très généraux de gouvernement et de relations étrangères jusqu'aux sujets de la vie quotidienne. Les lois islamiques qui ont été inscrites expressément dans le Coran sont appelées hudud et traitent spécifiquement des cinq crimes de vol, attaque, intoxication, adultère et fausse accusation d'adultère, le meurtre étant classé au dessus de ces cinq crimes et juste au-dessous de l'associationisme. Pour chacun de ces crimes, une punition appelée hadd est prévue. Le Coran détaille aussi les lois portant sur l'héritage, le mariage, les compensations pour blessures et meurtres, ainsi que des règles régissant les fêtes, la charité et la prière. Cependant, ces prescriptions et ces prohibitions peuvent être très larges, donc leur application en pratique peut varier. Les penseurs musulmans, oulémas, ont élaboré des systèmes de loi basés sur ces règles larges, s'appuyant aussi pour cela sur les hadiths et leurs interprétations.
+Quand des musulmans sont divisés sur un sujet particulier, ils peuvent demander assistance à un mufti (juge islamique), qui peut leur donner des conseils sur la charia et les hadiths.
+Pour les musulmans le Coran a été révélé par Allah ce qui en fait la première source de législation dans l'islam.
+Les hadiths, l'ensemble des dires et faits du Prophète, est la seconde source de législation. La sunna (« tradition ») a été rassemblée et classée par les savants sunnites dans plusieurs oeuvres comme Mohammed al-Bukhari.
+La troisième source de législation est l'unanimité, al ijmaa. Cela en se référant à une citation de Mahomet qui dit que les musulmans ne font pas l'unanimité sur quelque chose de faux.
+La quatrième source est l'analogie, al-qiyâs (XXXXX littéralement « la mesure ») qui permet de tirer le jugement d'une chose pour laquelle il n'y a pas de législation à partir du jugement d'une chose analogue.
+Il est à noter que certaines de ces sources de législation ont été mises en oeuvre après la mort de Mahomet et sont considérées comme illicites (haram) par d'autres groupes de l'islam organisés en rite ou madhhab.
+Il n'y a pas de clergé dans le sunnisme. L'imam n'est pas un prêtre mais bien un membre de la communauté musulmane qui conduit la prière : il est « celui qui se met devant pour guider la prière » et n'est pas forcément un théologien : en arabe, l'imam veut dire « chef » ou « guide », et dans le sunnisme, il suffit que le chef soit musulman, sage, connaissant les piliers de l'islam et ait appris une grande partie du Coran par coeur pour être à la tête d'une communauté, d'un État. Le muezzin, celui qui fait l'appel à la prière, n'est pas un prêtre non plus.
+L'islam reconnaît divers niveaux de compétences religieuses parmi ses fidèles : L'explication du Coran se nomme tafsîr. Et l'ijtihâd est la recherche de solutions nouvelles à partir des textes de référence pour répondre aux problématiques des populations musulmanes sur leurs affaires religieuses (XXXX [`ibâdât], pratiques cultuelles, pl. de XXXX [ibâda]) ou sociales (XXXX [mu`âmalât], « comportements », pl. de XXXXX [mu`âmala]) dans une condition sociale, politique ou économique inédite.
+Les savants exégètes sont considérés comme les « successeurs » des prophètes.
+ + +Le chiisme orthodoxe de la secte usuli (clergé des ayatollah) reconnaît, a contrario, un clergé à plusieurs niveaux hiérarchiques, tandis que le sunnisme rejette cette idée d'un clergé central jouant le rôle d'intermédiaire obligé. Par bien des aspects, l'islam, pour sa partie sunnite, est une religion décentralisée .
+En Europe et dans certains pays musulmans, les gouvernements réclament un alignement de la formation des imams sur la formation des ministres des autres religions, c'est-à-dire trois ou quatre ans d'étude au minimum.
+L'an 1 de ce calendrier a débuté le premier jour de l'hégire, le 1er Mouharram (le 15 ou le 16 juillet 622 de l'ère chrétienne, selon les auteurs théologiens ; la première époque est dite « astronomique », la seconde « civile »). Ce calendrier a été adopté dix ans après cet événement. On indique qu'une date est donnée dans ce calendrier en ajoutant la mention (calendrier musulman), (calendrier hégirien), (ère musulmane) ou (ère de l'Hégire); ou en abrégé, (H) ou (AH) (du latin anno Hegirae). Ce calendrier est caractérisé par des années de 12 mois lunaires qui sont plus courtes que les années solaires. Une année lunaire compte 11 jours de moins qu'une année solaire. Chaque mois démarre au premier croissant de Lune visible à partir de la nouvelle Lune : selon l'endroit d'où est effectuée l'observation, le mois peut démarrer plus ou moins tôt.
+Les croyants se partagent en trois branches principales : le sunnisme rassemble environ 90 % des musulmans, le chiisme environ 10 %, l'ibadisme moins de 1 %.
+La relation directe de l'homme à Dieu par le Coran et la liberté religieuse va amener une multiplication des tendances religieuses. L'absence de clergé permet l'existence de différentes normes juridiques, et différentes écoles religieuses. À la mort du prophète, des différences religieuses importantes et la conquête arabe fulgurante provoquent des rivalités politiques. Beaucoup de questions sur la liberté de l'homme, le péché, la foi, etc. conduisent à la constitution de théologies musulmanes qui essayent de donner des réponses aux questions et aux problèmes non détaillés par les textes divins, et de faire face aux défis de la vie humaine.
+Le sunnisme (de sunna, « tradition ») est le courant considéré orthodoxe, et de loin le plus répandu. Le sunnisme s'organise lui-même en différentes écoles juridiques. Il y en a aujourd'hui quatre, mais il y en a eu d'autres dans le passé. Ces écoles s'acceptent les unes les autres, organisant ainsi un relatif pluralisme en matière de normes juridiques mais ont une foi commune. Ce sont, dans l'ordre de leur apparition : le hanafisme (de Abû Hanifâ, 700 - 767) ; le malékisme (de Malîk Ibn Anas qui vécu entre 712 et 796) ; le chaféisme de Al-Shafi'i 768 - 820) ; le hanbalisme de Ibn Hanbal (781 - 856). Ces quatre écoles ont donné forme à plusieurs groupes musulmans sunnites. Les sunnites se font appeler ahlou s-sounnah par opposition aux différents groupes considérés égarés.
+ +Le chiisme est divisé en différentes branches, dont les trois principales sont le chiisme duodécimain (90 % des chiites) que l'on peut séparer en deux grands groupes, les « orthodoxes », tels les usuli (clergé d'ayatollah, la plus répandue), akhbari, shayki, et les « hétérodoxes », tels les alaouites ou « Nusayri » de Syrie, les alévis de Turquie, les Ahl-e Haqq d'Iran et Irak, les Shabak, Kakai, Kirklar etc. ; le chiisme septimain (ou ismaélien) ; le chiisme quintimain ou zaydisme du Yémen ; et enfin les druzes de Syrie / Israël / et du Liban.
+Le Kharidjisme se divise à son tour en diverses communautés et tendances (Sufrites, Ibadites, etc). De nos jours la seule tendance kharidjite qui ne s'est pas éteinte ou marginalisée est l'ibadisme. Il se retrouve dans le sultanat d'Oman (qui pratique un ibadisme d'État), et dans quelques régions du maghreb très localisées : en Algérie (chez les Berbères de Ghardaïa) et en Tunisie (île de Djerba).
+Un quatrième courant, qui s'est éteint au moyen-âge, le motazilisme, est une école interprétative rationaliste, en conflit avec le sunnisme naissant, est apparu à la fin du califat Omeyyade, au milieu du viiie siècle, et a été éradiqué au xie siècle par le sunnisme, en particulier par les Acharites (disciples de al-Ach'ari 873 - 935). Cette école, dont des textes ont été redécouverts au xixe siècle, connaît une petite résurgence depuis cette date chez certains intellectuels, mais sans base populaire notable.
+Une théologie populaire s'est aussi développée dans le maraboutisme, lequel pratique le culte des saints, polythéisme expliquant le fait que ce courant soit rejeté par l'unanimité des sunnites. En effet, ce genre de culte est passible de la peine de mort selon la charia. Le mot « marabout » vient de l'arabe murâbit, qui désigne un homme vivant dans un ribât, un couvent fortifié. Ces religieux très mystiques jouent à la fois les rôles de prédicateur, de sorcier, d'éducateur et de chef politique. Ils sont investis de pouvoirs surnaturels ; leur pratique du Coran, dans des civilisations où l'écriture a été apportée par l'islam, les dote en effet d'un pouvoir sacré. Ils ont trouvé un terrain de prédilection en Afrique où, dès le xvie siècle, les souverains convertis réclament des marabouts aux autorités arabes. Vivant des dons de croyants, les marabouts formés à l'école coranique enseignent l'islam classique, non sans lui ajouter des pratiques populaires et supersticieuses, voir magiques, rejoignant parfois des croyances animistes traditionnelles de l'Afrique. La réputation de leurs pouvoirs miraculeux les apparente alors plus à des sorciers qu'à des imams. Le culte des saints qui caractérise désormais le maraboutisme a élargi le sens du mot « marabout », qui a fini par désigner le saint vivant ou mort, le monument qui abrite sa tombe, les successeurs du saint, etc. Ils sont considérés non-musulmans par l'islam orthodoxe.
+Pour compléter la présentation de la religion musulmane, on ne peut éluder les pratiques populaires de l'islam. Souvent issues de syncrétismes avec les religions préislamiques, elles sont encore très présentes dans les sociétés rurales traditionnelles, qui mélangent animisme, culte des ancêtres, et religion révélée, s'exprimant essentiellement, en ce qui concerne l'islam, à travers des « confréries musulmanes ». Ces mouvements ou confréries s'apparentent grossièrement aux ordres religieux chrétiens non cloîtrés. Certains sont condamnés par l'islam qui les trouve hétérodoxes et réinstauratrices des vestiges archaïques de croyances supersticieuses. Il faut également mentionner l'apparition, au xxe siècle, des musulmans réformés ou libéraux qui visent à un aggiornamento général.
+Dans un premier temps, ce terme désigne un emplacement ou un local réservé à l'intérieur d'une structure plus vaste où les soufis (mystiques) pouvaient se retirer comme le laisse entendre le sens de la racine du mot arabe (angle ou recoin).
+Par la suite, le mot désigne un complexe religieux comportant une mosquée, des salles réservées à l'étude et à la méditation ainsi qu'une auberge pour y recevoir les indigents. On y effectue les pratiques spirituelles et on y enterre les saints fondateurs des confréries soufies.
+La communauté soufie (XXXX [râbita]) se regroupe dans un ribat (XXXX [ribât]) parfois fortifié. Au Maghreb, ces communautés se sont développées dans le cadre urbain sous la forme des zaouïas. Les membres de ces confréries se font parfois appeler marabouts (XXXX [marbût] ou XXXX [murâbit]).
+Le terme « soufi » apparaît pour la première fois dans la seconde moitié du viiie siècle de l'hégire pour désigner des ascètes.
+Les soufis sont des mystiques musulmans qui prient, jeûnent, portent des vêtements rugueux (l'arabe sûf, signifie « bure », « laine », car les premiers ascètes musulmans furent ainsi désignés à cause des vêtements de laine qu'il portaient ; (ils peuvent porter le muruga, manteau fait de morceaux rapiécés symbolisant le fagr, c'est-à-dire l'illusion du monde).
+Le soufisme peut être considéré comme une doctrine ésotérique de l'islam et un mouvement mystique et ascétique ayant influencé les dissidences chiites. Elle connait son développement maximum à Bagdad entre 750 et 950. Le soufisme est donc une forme mystique de l'islam, suivi par certains musulmans (ceux qui sont alors appelées soufistes). Les soufis considèrent généralement que suivre la loi ou la jurisprudence islamique (fiqh) n'est que le premier pas sur le chemin de la soumission parfaite. Ils se concentrent sur des aspects internes ou plus spirituels de l'islam, comme la perfectibilité de la foi ou la soumission de l'égo (nafs). La plupart des ordres soufis, ou tariqas, se rapprochent soit du sunnisme, soit du chiisme. On les trouve dans tout le monde islamique, du Sénégal jusqu'à l'Indonésie. Leurs croyances font l'objet de critiques, souvent formulées par les salafistes voire par le reste des sunnites, qui considèrent que certaines de leurs pratiques sont contre la lettre de la loi islamique.
+En Afrique noire, il existe deux grandes confréries, la al-qâdiriyya, fondée en 1166, surtout active du Moyen-Orient à l'Inde, et la al-tidjâniyya, fondée au Maghreb à la fin du xviiie siècle par Ahmed Tiijânî (mort en 1815) et répandue en Afrique subsaharienne. Ces deux tarîqa (doctrines) professent l'adhésion sans restriction aux préceptes coraniques. (prières, aumône, jeun, pèlerinage à la mecque, eviter de faire du tort à son prochain, amour...etc) le tidjanisme.
+La Madaniyya est une confrérie sunnite reliée au patrimoine du prophète Mahomet par une chaîne de transmission traversant quinze siècles. Elle est fondée tout au début du xxe siècle par le Cheick Muhammad b. Kalîfa al-Madanî (1888/1959). Après son retour de Mustaghânim (Algérie) où il a passé trois ans en compagnie de son maître Ahmad al-'Alâwî, il s'installe en Tunisie et débute une vie spirituelle qui allait durer 40 ans, passés dans la diffusion de la voie spirituelle. Il commence ses prêches et discours dans les campagnes et les zones rurales avant de s'attaquer aux grandes villes de la Tunisie. Selon l'étude de S. Khlifa, il laisse entre cinq et sept milles disciples ainsi qu'une dizaine d'ouvrages édités. Toute sa vie durant, il n'a cessé de former les aspirants, de purifier les âmes et d'instruire ses disciples notamment par les sciences religieuses classiques telles que le droit musulman, la théologie musulmane et la langue arabe. Il laisse une littérature abondante axée sur la moralité religieuse, la spiritualité sunnite et l'impératif d'observer les préceptes de l'islam. En outre son exégèse coranique de certaines sourates et versets (Sourate al-Wâqi'a, al-Fâtiha, quelques versets de sourates al-Nûr), il compose un recueil de poésie et un commentaire de rhétorique. Sa doctrine spirituelle se distingue par son insistance sur le caractère indissociable entre la haqîqa (le savoir ésotérique) et la sarî'a (le savoir exotérique). Une attention particulière est accordée à la morale de la conduite spirituelle et en particulier à l'égard du prophète, du cheikh et des autres croyants. Il en va de même pour la solidarité sociale et les oeuvres de charité qui occupent une place de choix dans son enseignement. Les réunions quasi quotidiennes, hebdomadaires et annuelles (à l'occasion de la nativité du prophète) permettent d'exhorter les disciples à accomplir les devoirs religieux, de former un ordre soudé .
+ +Les Druzes (arabe : Darazi XXXX, pl. durûz XXXX), population du proche-Orient professant une religion musulmane hétérodoxe (branche de l'Ismaélisme), sont établis dans le sud du Liban, dans le sud de la Syrie (où ils occupent notamment la zone montagneuse du Hawran, connue sous le nom de djebel Druze) et dans le nord de l'état d'Israël, en Galilée. Le druzisme est une doctrine philosophique basée sur l'initiation et la recherche du côté ésotérique de la religion musulmane.
+Leur interprétation de l'islam est secrète et n'est révélée aux fidèles qu'après divers degrés d'initiation, elle s'appuie sur la croyance en la métempsycose. En effet, certains versets du Coran sont parfois interprétés comme allant dans le sens de la métempsycose. Par exemple au verset 28 de la deuxième sourate, "La Vache" (Al-Baqara), il est dit : « Comment pouvez-vous renier Dieu alors qu'il vous a donné la vie, alors que vous en étiez privé, puis Il vous a fait mourir, puis Il vous a fait revivre et enfin vous retournerez à Lui ». Ils sont estimés a environ 1 million d'individus.
+La naqshbadiya, fondée au xive siècle, est encore bien implantée en République autonome du Daghestan et au Turkménistan. Fondée par Muhammad Baha' al-ddîn Naqshband, elle concerne environ 10% des musulmans pratiquant dans ces régions et 300 000 personnes en ex-Union soviétique. La confrérie a aussi des membres dans les régions telles que la Chine ou l'Afghanistan. Elle s'est illustrée par sa résistance à des années d'athéisme d'État. Lors de l'initiation (talqîn), le disciple s'engage par serment à suivre la voie (al-tarîqa) qui le mènera à Dieu. Un diplôme lui est donné. Une cérémonie rituelle hebdomadaire, des prières supplémentaires, des veilles, des jeûnes, des pèlerinages constituent la pratique. Les membres versent jusqu'à 30% de leur salaire à la communauté.
+Fondée au début du xixe siècle, est active en Libye et dans les régions sahariennes.
+Fondée à Détroit en 1931, sous le nom de Allah Temple of Islam, par Wallace D. Ward (v.1877 - 1934), l'association Nation of Islam, réservée aux Noirs, repose à l'origine sur des croyances parfois éloignées de l'islam orthodoxe, même si elle respecte les cinq prières quotidiennes et l'interdiction de consommer du porc ou de l'alcool. Aujourd'hui, cependant, le mouvement qui a pris le nom de World Community of Islam in the West (W.C.I.W.), puis celui de American Muslim Mission (A.M.M.), avant de se décentraliser complètement, est entré dans le sunnisme. En outre, la plupart des restrictions raciales ont été abolies.
+Mirzâ Ghulâm Ahmad (v. 1839 - 1908), un musulman né à Qâdiyân au Panjâb, fonde la communauté religieuse organisée, l'ahmadiyya. Il fait la paix avec les Anglais et stoppe tout autre prosélytisme en se présentant comme une réapparition du Messie (Jésus pour les chrétiens, Avatâr de Vishnou pour les hindous). À sa mort, ses adeptes élisent un calife et vivent en communauté indépendante. Aujourd'hui encore, très dynamiques, les Ahmadîs sont environ 500 000, dont la moitié au Pakistan et le reste en Inde, au Nigeria, au Surinam, aux États-Unis, etc. Ils ont été déclarés non musulmans et persécutés en Afghanistan, au Pakistan, et en Arabie saoudite.
+Fondé en 1927, en Inde, par Muhammad Ilyas, un érudit musulman. Le Jama'at al-tablîgh est une association cosmopolite dirigée aujourd'hui par des Arabes. Elle se fixe pour objectif de ramener à une pratique stricte de l'islam les musulmans égarés : « l'islam va s'étendre où s'étendent le jour et la nuit, et Dieu ne va pas quitter une maison sans que cette religion n'y entre. »
+Pacifique et apolitique, ce courant prêcheur s'appuie sur des groupes de missionnaires de nationalités différentes pour faire du porte-à-porte (la al-jawla, la « tournée ») et répandre les idées du tablîgh (la « proclamation »). Les principes en sont fort simples : la profession de foi, la prière, la connaissance de Dieu, l'intention sincère et le respect du musulman. Des voyages de plusieurs jours à plusieurs semaines (khouroudj) sont aussi organisés dans le but de répandre la religion musulmane.
+Le groupe des frères musulmans est fondé en 1928 par Hassan el Banna en Égypte. Il est déterminé à lutter contre "l'emprise laïque occidentale" et "l'imitation aveugle du modèle européen" : son but est de passer par la politique pour instaurer un régime fondé sur l'islam dans tout pays où ils seraient implantés.
+La Mecque (Makkah) en Arabie saoudite, abrite la Ka'ba (« le Cube »). Selon la tradition, il est le premier lieu de culte, bâti par Adam (Adam) sur Terre, puis reconstruit par Ibrahim (Abraham). Jusqu'à l'avènement de l'islam, il était dédié au dieu arabe Houbal, qui était vénéré par des rites de circonvolution autour de la pierre noire. Tout musulman se doit d'y faire un pèlerinage au moins une fois dans sa vie s'il en a la capacité physique et financière.
+Médine (Almadinah), est la ville où émigra Mahomet après s'être enfui de La Mecque, est la deuxième ville sainte de l'islam.
+Jérusalem (al-Qods) est la troisième ville sainte. C'est l'endroit vers lequel le prophète Mahomet aurait effectué le voyage nocturne et l'ascension. Le pèlerinage sunnite n'est admis que vers ces trois villes
+Les chiites reconnaissent deux autres lieux saints : Nadjaf, en Irak et Kerbala, lieu du martyre d'Hussein, petit-fils du prophète Mahomet et fils de Ali, troisième imâm, ainsi que ses compagnons, venus à Kerbala pour défendre l'imamât c'est-à-dire la succession par l'imam Ali gendre du prophète et Hussein son fils (Hassan, son frère ainé ayant été tué). Ce martyre est le mythe fondateur du chiisme. Tous les ans, a lieu la commémoration de ce massacre, à Kerbala.
+Les musulmans d'Éthiopie rajoutent à cette liste une quatrième ville sainte, celle d'Harar.
+L'islam reconnaît tous les pères fondateurs du judaïsme (Moïse, David, Salomon) comme des prophètes, sans pour autant s'y limiter, et établit d'une manière générale les prophètes comme moyens pour Dieu de rappeler les hommes vers la foi en Lui et un comportement de droiture.
+Îsâ (Jésus de Nazareth) est un prophète, dont le retour est attendu à la fin des temps. Il y a une controverse parmi les musulmans quant à l'existence de l'Antéchrist. Ce dernier n'est pas mentionné dans le Coran, mais certains hadiths parlent de lui et du fait que Jésus le combattra et détruira les croix à la fin des temps.
+L'attitude de l'islam par rapport à ces deux « religions du Livre » antérieures consiste à la fois à les respecter, leur reconnaître une certaine vérité, et les considérer comme ayant été corrompues au fil du temps par les passions des hommes (manipulations servant des besoins politiques, injustice, excès, etc.) (sourate 17, 30...). Mahomet, considéré comme le dernier prophète par cette religion, étant appelé à rétablir le message dans sa vérité primordiale, c'est-à-dire telle que définie par Ibrahim.
+L'apostasie dans l'islam vers une autre religion, quelle qu'elle soit, est fortement prohibée dans le Coran et dans la pratique religieuse.
+L'islam est apparu en Arabie au viie siècle sous l'impulsion du prophète Mahomet. Un siècle après sa mort, un empire islamique s'est étendu de l'océan Atlantique dans l'ouest vers l'Asie centrale dans l'est. Celui ci n'est pas resté unifié longtemps ; le nouveau régime a rapidement fini en guerre civile (voir Fitna) et plus tard affectée par une deuxième Fitna. Ensuite, il y eut des dynasties rivales réclamant le califat, ou la conduite du monde musulman, et beaucoup d'empires islamiques furent gouvernés par un calife incapable d'unifier le monde islamique.
+En dépit de ce morcellement de l'islam en tant que communauté politique, les empires des califes d'Abbassides, l'empire moghol et les Seldjoukides étaient parmi les plus grands et les plus puissants au monde. Les Arabes produisirent bon nombre de centres islamiques, de scientifiques, d'astronomes, de mathématiciens, médecins et d'illustres philosophes pendant l'âge d'or de l'islam (voir Sciences et techniques islamiques ). La technologie s'épanouit ; un investissement soutenu dans les infrastructures, telles que des systèmes d'irrigation et des canaux; et surtout, l'importance de lire le Coran produisuirent un niveau relativement élevé de l'instruction parmi la population.
+Plus tard, aux xviiie siècle et xixe siècle, plusieurs régions islamiques tombèrent sous les puissances impériales européennes. Après la première guerre mondiale, les restes de l'Empire ottoman furent partagés sous forme de protectorats européens.
+Bien qu'affectée par diverses idéologies, telles que le communisme, pendant une bonne partie du xxe siècle, l'identité islamique et la prépondérance de l'islam sur des questions politiques augmentèrent au cours de la fin du xxe siècle et le début du xxie siècle. La croissance rapide, les intérêts occidentaux dans des régions islamiques, les conflits internationaux et la globalisation influencèrent l'importance de l'islam dans le moulage du monde du xxie siècle.
+Contenu soumis à la GFDL
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+L'affaire Dreyfus a pour origine une erreur judiciaire sur fond d'espionnage et d'antisémitisme, dont la victime est le capitaine Alfred Dreyfus (1859 - 1935), français et alsacien d'origine, et Juif. Cette affaire a bouleversé la société française pendant douze ans, de 1894 à 1906.
+La révélation de ce scandale, dans « J'Accuse...! », un article d'Émile Zola en 1898, provoque une succession de crises politiques et sociales uniques en France. À son paroxysme en 1899, elle révèle les clivages de la France de la Troisième République. Elle divise profondément et durablement les Français en deux camps opposés, dreyfusards et anti-dreyfusards. Cette affaire est le symbole moderne et universel de l'iniquité au nom de la raison d'État. Enfin, elle suscite de très violentes polémiques nationalistes et antisémites diffusées par une presse influente.
+À la fin de l'année 1894, le capitaine de l'armée française Alfred Dreyfus, polytechnicien, Juif d'origine alsacienne, accusé d'avoir livré aux Allemands des documents secrets, est condamné au bagne à perpétuité pour trahison et déporté sur l'île du Diable. À cette date l'opinion comme la classe politique française sont unanimement défavorables à Dreyfus.
+Certaine de l'incohérence de cette condamnation, la famille du capitaine, derrière son frère Mathieu, tente de prouver son innocence, engageant à cette fin le journaliste Bernard Lazare. Parallèlement, le colonel Georges Picquart, chef du contre-espionnage, constate en mars 1896 que le vrai traître avait été le commandant Ferdinand Walsin Esterházy. L'État-Major refuse pourtant de revenir sur son jugement et affecte Picquart en Afrique du Nord.
+Afin d'attirer l'attention sur la fragilité des preuves contre Dreyfus, sa famille contacte en juillet 1897 le respecté président du Sénat Auguste Scheurer-Kestner qui fait savoir, trois mois plus tard, qu'il a acquis la conviction de l'innocence de Dreyfus, et qui en persuade également Georges Clemenceau, ancien député et alors simple journaliste. Le même mois, Mathieu Dreyfus porte plainte auprès du ministère de la Guerre contre Walsin-Esterházy. Alors que le cercle des dreyfusards s'élargit, deux événements quasi simultanés donnent en janvier 1898 une dimension nationale à l'affaire : Esterházy est acquitté, sous les acclamations des conservateurs et des nationalistes ; Émile Zola publie J'Accuse...!, plaidoyer dreyfusard qui entraîne le ralliement de nombreux intellectuels. Un processus de scission en deux de la France est entamé, qui se prolonge jusqu'à la fin du siècle. Des émeutes antisémites éclatent dans plus de vingt villes françaises. On dénombre plusieurs morts à Alger. La République est ébranlée, certains la voient même en péril, ce qui incite à en finir avec l'affaire Dreyfus pour ramener le calme.
+Malgré les menées de l'armée pour étouffer cette affaire, le premier jugement condamnant Dreyfus est cassé par la Cour de cassation au terme d'une enquête minutieuse, et un nouveau conseil de guerre a lieu à Rennes en 1899. Contre toute attente, Dreyfus est condamné une nouvelle fois, à dix ans de travaux forcés, avec, toutefois, circonstances atténuantes. Épuisé par sa déportation de quatre longues années, Dreyfus accepte la grâce présidentielle, accordée par le président Émile Loubet. Ce n'est qu'en 1906 que son innocence est officiellement reconnue au travers d'un arrêt sans renvoi de la Cour de cassation, décision inédite et unique dans l'histoire du droit français. Réhabilité, le capitaine Dreyfus est réintégré dans l'armée au grade de commandant et participe à la Première Guerre mondiale. Il meurt en 1935.
+Les conséquences de cette affaire sont innombrables et touchent tous les aspects de la vie publique française : politique (elle consacre le triomphe de la IIIe République, dont elle devient un mythe fondateur tout en renouvelant le nationalisme), militaire, religieux (elle ralentit la réforme du catholicisme français, ainsi que l'intégration républicaine des catholiques), social, juridique, médiatique, diplomatique et culturel (c'est à l'occasion de l'affaire que le terme d'intellectuel est forgé). L'affaire a également un impact international sur le mouvement sioniste au travers d'un de ses pères fondateurs : Théodore Herzl et de par l'émoi que ses manifestations antisémites vont provoquer au sein des communautés juives d'Europe centrale et occidentale.
+Il ne faut pas confondre dreyfusards, dreyfusiens et dreyfusistes.
+En 1894, la IIIe République est vieille de vingt-quatre ans. Le régime politique de la France vient d'affronter trois crises (le boulangisme en 1889, le scandale de Panamá en 1892, et la menace anarchiste, réduite par les « lois scélérates » de juillet 1894) qui n'ont fait que l'affermir. Les élections de 1893, centrées sur la « question sociale », ont consacré la victoire des républicains de gouvernements (un peu moins de la moitié des sièges) face à la droite conservatrice, ainsi que la force des radicaux (environ 150 sièges) et des socialistes (environ 50 sièges).
+L'opposition des radicaux et des socialistes pousse à gouverner au centre d'où des choix politiques orientés vers le protectionnisme économique, une certaine indifférence à la question sociale, une volonté de briser l'isolement international, avec l'alliance russe et le développement de l'Empire. Cette politique de centre provoque l'instabilité ministérielle, certains républicains de gouvernement rejoignant parfois les radicaux, ou certains orléanistes rejoignant les légitimistes, et cinq gouvernements se succèdent de 1893 à 1896. Cette instabilité gouvernementale se double d'une instabilité présidentielle : au président Sadi Carnot, assassiné le 24 juin 1894, succède le modéré Jean Casimir-Perier qui démissionne le 15 janvier 1895 et est remplacé par Félix Faure.
+Suite à l'échec du gouvernement radical de Léon Bourgeois en 1896, le président nomme Jules Méline, homme du protectionnisme sous Ferry. Son gouvernement prend acte de l'opposition de la gauche et de certains républicains (l'Union progressiste notamment) et fait en sorte de toujours obtenir le soutien de la droite. Très stable, il cherche à apaiser les tensions religieuses (ralentissement de la lutte anticléricale), sociales (vote de la loi sur la responsabilité des accidents du travail) et économiques (maintien du protectionnisme) en conduisant une politique assez conservatrice. C'est sous ce gouvernement stable qu'éclate réellement l'Affaire Dreyfus.
+L'affaire Dreyfus se place dans le cadre de l'annexion de l'Alsace et de la Moselle, déchirure qui alimente tous les nationalismes les plus extrêmes. La défaite traumatisante de 1870 semble loin, mais l'esprit revanchard est toujours présent. De nombreux acteurs de l'affaire Dreyfus sont d'ailleurs alsaciens. Les militaires exigent des moyens considérables pour préparer le prochain conflit, et c'est dans cet esprit que l'alliance franco-russe « contre nature » du 27 août 1892 est signée, sur la base d'une convention militaire. L'armée s'est relevée de la défaite, mais elle est encore en partie constituée d'anciens cadres socialement aristocrates et politiquement monarchistes. Le culte du drapeau et le mépris de la République parlementaire sont deux principes essentiels à l'armée de l'époque. La République a beau célébrer son armée avec régularité, l'armée ignore la République.
+Mais depuis une dizaine d'années, l'armée connaît une mutation importante, dans le double but de la démocratiser et de la moderniser. Des polytechniciens concurrencent efficacement les officiers issus de la voie royale de Saint-Cyr, ce qui amène des dissensions, amertumes et jalousies parmi ceux des sous-officiers qui s'attendaient à des promotions au choix. La période est aussi marquée par une course aux armements qui touche principalement l'artillerie, avec des perfectionnements concernant l'artillerie lourde (canon de 120 court et de 155 court, Modèles 1890 Baquet, à nouveaux freins hydropneumatiques), mais aussi et surtout, la mise au point de l'ultra secret canon de 7510.
+Signalons ici le fonctionnement du contre-espionnage militaire, alias « Section de statistiques ». Le Renseignement, activité organisée et outil de guerre secrète, est une nouveauté de la fin du xixe siècle. La Section de statistiques est créée en 1871 mais ne compte alors qu'une poignée d'officiers et de civils. Son chef en 1894 est le lieutenant-colonel Jean Sandherr, saint-cyrien, alsacien de Mulhouse, antisémite convaincu. Sa mission militaire est claire : récupérer des renseignements sur l'ennemi potentiel de la France, et l'intoxiquer avec de fausses informations. La Section de statistiques est épaulée par les « Affaires réservées » du quai d'Orsay, le ministère des Affaires étrangères, animée par un jeune diplomate, Maurice Paléologue. La course aux armements amène une ambiance d'espionnite aiguë dans le contre-espionnage français à partir de 1890. Aussi, l'une des missions de la section consiste à espionner l'ambassade d'Allemagne, rue de Lille, à Paris, afin de déjouer toute tentative de transmission d'informations importantes à cet adversaire. D'autant que plusieurs affaires d'espionnage avaient déjà défrayé la chronique d'une presse friande de ces histoires mêlant le mystère au sordide. Ainsi en 1890, l'archiviste Boutonnet est condamné pour avoir vendu les plans de l'obus à la mélinite. L'attaché militaire allemand à Paris est en 1894 le comte Maximilien von Schwartzkoppen, qui développe une politique d'infiltration qui semble avoir été efficace.
+Depuis le début 1894, la Section de statistiques enquête sur un trafic de plans directeurs concernant Nice et la Meuse, mené par un agent que les Allemands et les Italiens surnomment Dubois. C'est ce qui l'amène aux origines de l'affaire Dreyfus.
+Le contexte social est marqué par la montée du nationalisme et de l'antisémitisme. Cette croissance de l'antisémitisme, très virulente depuis la publication de La France juive d'Édouard Drumont en 1886 (150 000 exemplaires la première année), va de pair avec une montée du cléricalisme. Les tensions sont fortes dans toutes les couches de la société, attisées par une presse influente et pratiquement libre d'écrire et de diffuser n'importe quelle information, fût-elle injurieuse ou diffamatoire. Les risques juridiques sont limités si la cible est une personne privée. L'antisémitisme n'épargne pas l'institution militaire qui pratique des discriminations occultes. Jusque dans les concours, avec la fameuse « cote d'amour », notation irrationnelle, dont Dreyfus a fait les frais à l'école d'application de Bourges. Témoin des fortes tensions de cette époque, la vogue du duel, à l'épée ou au pistolet, provoquant parfois la mort d'un des deux duellistes. De brillants officiers juifs, atteints par une série d'articles de presse de La Libre Parole, accusés de « trahir par naissance », défient leurs rédacteurs. Ainsi en est-il du capitaine Cremieu-Foa, Juif alsacien et polytechnicien qui se bat sans résultat. Mais le capitaine Mayer, autre officier juif, est tué par le marquis de Morès, ami de Drumont, dans un autre duel ; décès qui déclenche une émotion considérable, très au-delà des milieux israélites. La haine des juifs est désormais publique, violente, alimentée par un brûlot diabolisant la présence juive en France qui ne représente alors que 80 000 personnes au plus en 1895 (dont 40 000 à Paris), très intégrés, plus 45 000 en Algérie. Le lancement de La Libre Parole, dont la diffusion estimée est de 200 000 exemplaires en 1892 permet à Drumont d'élargir encore son audience vers un lectorat plus populaire, déjà tenté par l'aventure boulangiste dans le passé. L'antisémitisme diffusé par La Libre Parole, mais aussi par L'Éclair, Le Petit Journal, La Patrie, L'Intransigeant, La Croix, en puisant dans les racines antisémites des milieux catholiques, atteint des sommets.
+L'origine de l'affaire Dreyfus, bien que totalement éclaircie depuis les années 1960, a suscité de nombreuses controverses pendant près d'un siècle. Il s'agit d'une affaire d'espionnage dont les intentions sont restées obscures jusqu'à nos jours. De nombreux historiens parmi les plus éminents expriment plusieurs hypothèses distinctes sur l'affaire, mais tous arrivent à une conclusion unique : Dreyfus était innocent de tout crime ou délit.
+Les personnels du Service de Renseignements militaire (SR) ont affirmé de manière constante qu'en septembre 1894, la « voie ordinaire », avait apporté au contre-espionnage français une lettre, surnommée par la suite « le bordereau ». Cette lettre-missive, partiellement déchirée en six grands morceaux, écrite sur du papier pelure, non signée et non datée, était adressée à l'attaché militaire allemand en poste à l'ambassade d'Allemagne, Max von Schwarzkoppen. Elle établissait que des documents militaires confidentiels, mais d'importance relative, étaient sur le point d'être transmis à une puissance étrangère.
+Cette prise semble suffisamment importante pour que le chef de la « Section de statistiques », le mulhousien Jean Sandherr, en informe le ministre de la Guerre, le général Auguste Mercier. Le SR soupçonne en effet des fuites depuis le début de l'année 1894, et recherche son auteur. Le ministre, violemment attaqué dans la presse pour son action jugée incompétente, semble vouloir tirer parti de cette affaire pour rehausser son image. Il diligente immédiatement deux enquêtes secrètes, l'une administrative et l'autre judiciaire. Pour trouver le coupable, le raisonnement est simple sinon grossier : le cercle de recherche est arbitrairement restreint à un suspect en poste ou un ancien collaborateur à l'État-Major, nécessairement artilleur, et officier stagiaire.
+Le coupable idéal est identifié : le capitaine Alfred Dreyfus, polytechnicien et artilleur, de confession israélite et alsacien d'origine, issu de la méritocratie républicaine. Au tout début de l'affaire, on insiste plutôt sur les origines alsaciennes de Dreyfus que sur son appartenance religieuse. Celles-ci n'étaient pourtant pas exceptionnelles, puisqu'on privilégiait les officiers de l'est de la France pour leur double connaissance de la langue allemande et de la culture germanique. Mais l'antisémitisme, qui n'épargne pas les bureaux d'État-Major, devient rapidement le centre de l'affaire d'instruction, remplissant les vides d'une enquête préliminaire incroyablement sommaire. D'autant que Dreyfus était à ce moment-là le seul officier juif étant passé récemment par l'État-Major général.
+De fait, la légende du caractère froid et renfermé, voire hautain de l'homme, et de sa « curiosité », jouent fortement contre lui. Ces traits de caractère, les uns faux, les autres naturels, rendent plausibles toutes les accusations en transformant les actes les plus ordinaires de la vie courante dans un ministère, en faits avérés d'espionnage. Ce début d'instruction partial et partiel amène une multiplication d'erreurs qui conduisent au mensonge d'État. Ceci au travers d'une affaire où l'irrationnel l'emporte sur le positivisme pourtant en vogue à cette époque :
+« Dès cette première heure s'opère le phénomène qui va dominer toute l'affaire. Ce ne sont plus les faits contrôlés, les choses examinées avec soin qui forment la conviction ; c'est la conviction souveraine, irrésistible, qui déforme les faits et les choses. » - Joseph Reinach+
Pour confondre Dreyfus, les écritures du bordereau et du capitaine sont comparées. Personne n'est compétent en matière d'analyse d'écritures à l'État-Major. Entre alors en scène le commandant du Paty de Clam, homme original qui se pique d'expertise graphologique. Mis en présence de lettres de Dreyfus et du bordereau le 5 octobre, du Paty conclut d'emblée à l'identité des deux écritures. Après une journée de travail complémentaire, il assure dans un rapport que, malgré quelques dissemblances, les ressemblances sont suffisantes pour justifier une enquête. Dreyfus est donc « l'auteur probable » du bordereau pour l'État-Major.
+Le général Mercier tenant un coupable, il met exagérément en valeur l'affaire, qui prend le statut d'affaire d'État pendant la semaine précédant l'arrestation de Dreyfus. En effet, le ministre consulte et informe toutes les autorités de l'État. Malgré les conseils de prudence et les objections courageusement exprimés par Gabriel Hanotaux lors d'un petit conseil des ministres, il décide de poursuivre. Du Paty de Clam est nommé officier de police judiciaire chargé d'une enquête officielle.
+Pendant ce temps plusieurs informations sont ouvertes parallèlement, les unes sur la personnalité de Dreyfus, les autres consistant à s'assurer de la réalité des identités d'écriture. L'expert Gobert n'est pas convaincu, trouve de nombreuses différences et écrit même que « la nature de l'écriture du bordereau exclut le déguisement graphique ». Déçu, Mercier fait alors appel à Alphonse Bertillon, l'inventeur de l'anthropométrie judiciaire, mais nullement expert en écritures. Il n'est d'abord pas plus affirmatif que Gobert, en n'excluant pas une copie de l'écriture de Dreyfus. Mais par la suite, sous la pression des militaires, il affirme que Dreyfus s'est autocopié et développe sa théorie de l' « auto-forgerie ».
+Le 13 octobre, sans aucune preuve tangible et avec un dossier vide, le général Mercier fait convoquer le capitaine Dreyfus pour une inspection générale, en « tenue bourgeoise », c'est-à-dire en civil. L'objectif de l'État-Major est de gagner la preuve parfaite en droit français : l'aveu. Cet aveu serait obtenu par effet de surprise, en faisant écrire une lettre inspirée du bordereau au coupable sous la dictée.
+Le 15 octobre 1894 au matin, le capitaine Dreyfus subit cette épreuve, mais n'avoue rien. Du Paty tente même de lui suggérer le suicide en plaçant un revolver devant Dreyfus, mais l'accusé refuse d'attenter à ses jours, affirmant qu'il « veut vivre afin d'établir son innocence ». L'espoir des militaires est déçu. Du Paty de Clam fait tout de même arrêter le capitaine et l'inculpe d'intelligence avec l'ennemi afin qu'il soit traduit devant un Conseil de guerre. Dreyfus est incarcéré à la prison du Cherche-midi à Paris.
+Mme Dreyfus est informée de l'arrestation le jour même, par une perquisition de l'appartement du jeune couple. Elle est terrorisée par du Paty qui lui ordonne de garder le secret sur l'arrestation de son mari, et lui affirme même : « Un mot, un seul mot et c'est la guerre européenne ! »54. En toute illégalité, Dreyfus est mis au secret dans sa prison, où Du Paty l'interroge jour et nuit afin d'obtenir des aveux, ce qui échoue. Le capitaine est soutenu moralement par le premier dreyfusard : le commandant Forzinetti, commandant les prisons militaires de Paris.
+Le 29 octobre, l'affaire est révélée par le journal antisémite d'Édouard Drumont, La Libre Parole, dans un article qui marque le début d'une très violente campagne de presse jusqu'au procès. Cet événement place l'Affaire sur le terrain de l'antisémitisme, qu'elle ne quitte plus jusqu'à sa conclusion définitive.
+Le 1er novembre, Mathieu Dreyfus, le frère d'Alfred, appelé d'urgence à Paris, est mis au courant de l'arrestation. Il devient l'artisan du combat difficile pour la libération de son frère. Sans attendre, il se met à la recherche d'un avocat, et retient l'éminent pénaliste Edgar Demange.
+Le 3 novembre, à contre coeur, le général Saussier donne l'ordre d'informer. Il a tous les pouvoirs pour arrêter la machinerie, mais il ne le fait pas, peut-être par confiance exagérée en la justice militaire. Le commandant Besson d'Ormescheville, rapporteur auprès du Conseil de guerre, rédige un rapport à charge dans lequel les « éléments moraux » de l'accusation (qui vont de ragots concernant les moeurs de Dreyfus et sa prétendue fréquentation de « cercles-tripots » à sa connaissance de l'allemand et sa « mémoire remarquable ») sont développés bien plus longuement que les « éléments matériels », dont la rareté même sert à la charge : « c'est une preuve de culpabilité, car Dreyfus a tout fait disparaître ». Le manque complet de neutralité de l'acte d'accusation conduit Émile Zola à le qualifier de « monument de partialité ».
+Le 4 décembre, avec ce dossier vide, Dreyfus est renvoyé devant le premier Conseil de guerre. Le secret est levé et Me Demange peut pour la première fois accéder au dossier. Après sa lecture, la confiance de l'avocat, qui a pu constater le néant du dossier d'instruction, est absolue. L'accusation ne repose en effet que sur l'écriture d'une pièce unique, le bordereau, à propos de laquelle les experts se contredisent, et sur de vagues témoignages indirects.
+Pendant les deux mois précédant le procès, la presse se déchaîne. La Libre Parole, L'Autorité, Le Journal, Le Temps racontent toute la vie supposée de Dreyfus au travers de mensonges et de mauvais romans. C'est aussi l'occasion pour les titres extrémistes comme La Libre Parole ou La Croix, de justifier leurs campagnes préalables contre la présence de Juifs dans l'armée, sur le thème « On vous l'avait bien dit ! »67. Cette période longue est surtout le moyen pour l'État-Major de préparer l'opinion et de faire pression indirectement sur les juges. Ainsi le 8 novembre, le général Mercier va jusqu'à déclarer Dreyfus coupable dans une interview au Figaro. Lui réplique le 29 novembre un article d'Arthur Meyer dans Le Gaulois, dans lequel est condamné le réquisitoire fait contre Dreyfus et demandé : « Quelle liberté restera-t-il au Conseil de Guerre appelé à juger ce prévenu ? ».
+Des joutes d'éditorialistes ont lieu au sein d'un large débat à propos de la question du huis clos. Pour Ranc et Cassagnac qui représentent la majorité de la presse, le huis clos est une manoeuvre basse dans le but de permettre l'acquittement de Dreyfus, « car le ministre est un lâche ». La preuve c'est « qu'il rampe devant les Prussiens » en acceptant de publier des démentis de l'Ambassadeur d'Allemagne à Paris. Mais pour d'autres journaux, comme L'Éclair du 13 décembre, « le huis clos est nécessaire pour éviter un casus belli », alors que pour Judet dans Le Petit Journal du 18, « le huis clos est notre refuge inexpugnable contre l'Allemagne » ou le Chanoine de La Croix du même jour, il faut « le huis clos le plus absolu ».
+Le procès s'ouvre le 19 décembre à treize heures, le huis clos étant presque immédiatement prononcé. Ce huis clos n'est d'ailleurs pas conforme juridiquement puisque le commandant Picquart et le préfet Louis Lépine sont présents à certaines audiences en violation du droit, mesure qui permet néanmoins aux militaires de ne pas divulguer le néant du dossier au grand public et d'étouffer les débats. Conformément aux prévisions, le vide du dossier apparaît nettement pendant les audiences. Les discussions de fond sur le bordereau montrent que le capitaine Dreyfus ne pouvait pas en être l'auteur. D'autre part, l'accusé lui-même clame son innocence, et se défend point par point avec énergie et logique. Au surplus, ses déclarations sont appuyées par une dizaine de témoignages à décharge. Enfin l'absence de mobile pour le crime est une sérieuse épine dans le dossier d'accusation. Dreyfus était en effet un officier très patriote et très bien noté par ses chefs, et surtout très riche, il n'avait donc aucune raison tangible de trahir. La justification par la judéité de Dreyfus, seule retenue par la presse de droite, ne saurait pourtant l'être par un tribunal.
+Alphonse Bertillon, qui n'est pas expert en écritures, est présenté comme un savant de première importance. Il avance la théorie de l'auto-forgerie à l'occasion de ce procès et accuse Dreyfus d'avoir imité sa propre écriture, expliquant les différences graphiques par l'emploi d'extraits de l'écriture de son frère Mathieu et de son épouse Lucie. Cette théorie, bien que considérée plus tard comme farfelue et sidérante semble avoir un certain effet sur les juges. De plus, le commandant Hubert-Joseph Henry fait une déclaration théâtrale en pleine audience. Il affirme qu'une suspicion de fuites existait depuis le mois de février 1894 à propos d'une trahison à l'État-Major et « qu'une personne honorable » accusait le capitaine Dreyfus. Il jure sur l'honneur que le traître est Dreyfus, en désignant le crucifix accroché au mur du tribunal. Dreyfus sort de ses gonds et exige d'être confronté à son accusateur anonyme, ce qui est refusé par l'État-Major. L'incident a un effet incontestable sur la Cour, composée de sept officiers qui sont à la fois juges et jurés. Toutefois, l'issue du procès est incertaine. La conviction des juges a été ébranlée par l'attitude ferme et les réponses logiques de l'accusé. Les juges partent délibérer. Mais l'État-Major a encore une carte en main pour faire pencher la balance définitivement contre Dreyfus.
+Les témoins militaires du procès alertent le commandement sur les risques d'acquittement. Dans cette éventualité, la Section de statistiques avait préparé un dossier, contenant, en principe, quatre preuves « absolues » de la culpabilité du capitaine Dreyfus, accompagnées d'une note explicative. Le contenu de ce dossier secret est incertain encore de nos jours, car aucune archive dressant la liste des pièces ne nous est parvenue. Des recherches récentes indiquent l'existence d'une numérotation induisant la présence d'une dizaine de documents. Parmi ceux-ci, des lettres à caractère érotico-homosexuel (Lettre Davignon entre autres) posent la question des méthodes d'intoxication du Service de statistiques et de l'objet de ce choix documentaire.
+Le dossier secret est remis au début du délibéré, en toute illégalité, au président du Conseil de guerre le colonel Émilien Maurel, sur ordre du ministre de la Guerre, le général Mercier. Plus tard, au procès de Rennes de 1899, le général Mercier a expliqué que la nature même des pièces soumises interdisait leur divulgation dans l'enceinte du tribunal. Ce dossier contenait, outre des lettres sans grand intérêt, dont certaines étaient truquées, une pièce restée célèbre sous le nom de « Canaille de D... ».
+C'était une lettre de l'attaché militaire allemand, Max von Schwarzkoppen à l'attaché militaire italien Alessandro Panizzardi interceptée par le SR. La missive était censée accuser définitivement Dreyfus, puisque d'après ses accusateurs, il était désigné par l'initiale de son nom. En réalité, la Section de statistiques savait que la lettre ne pouvait pas être attribuée à Dreyfus, et si elle le fut, ce fut par intention criminelle. Le colonel Maurel a affirmé au second procès Dreyfus que les pièces secrètes n'avaient pas servi à emporter l'adhésion des juges du Conseil de guerre. Mais il se contredit en affirmant qu'il a lu un seul document, « ce qui fut suffisant ».
+Le 22 décembre, après plusieurs heures de délibération, le verdict tombe. À l'unanimité des sept juges, Alfred Dreyfus est condamné pour trahison « à la destitution de son grade, à la dégradation militaire, et à la déportation perpétuelle dans une enceinte fortifiée », c'est-à-dire au bagne en Guyane. Dreyfus n'est pas condamné à mort car la constitution de 1848 avait aboli la peine capitale pour crime politique. Pour les autorités, la presse et le public, les quelques doutes d'avant procès sont dissipés. La culpabilité est certaine ; à droite comme à gauche, on regrette l'abolition de la peine de mort pour crime de trahison. L'antisémitisme atteint des sommets dans la presse et se manifeste dans des populations jusqu'à présent épargnées. Même Jean Jaurès regrette la douceur de la peine dans une adresse à la Chambre, et écrit : « un troupier vient d'être condamné à mort et exécuté pour avoir lancé un bouton au visage de son caporal. Alors pourquoi laisser ce misérable traître en vie ? »
+Le 5 janvier 1895, la cérémonie de la dégradation se déroule dans une cour de l'École militaire à Paris. Les témoins signalent la dignité de Dreyfus, qui continue de clamer son innocence. Ici vient se greffer ce que l'on surnomme « la légende des aveux ». Avant la dégradation, dans le fourgon qui l'amenait à l'École militaire, Dreyfus aurait confié sa traîtrise au capitaine Lebrun-Renault. Il apparaît qu'en réalité, le capitaine de la Garde républicaine s'était vanté et que Dreyfus n'avait fait aucun aveu. Du fait de la nature de l'affaire, touchant à la sécurité nationale, le prisonnier est mis au secret dans une cellule en attendant son transfert. Le 17 janvier, il est transféré au bagne de l'île de Ré, où il est maintenu plus d'un mois. Il a le droit de voir sa femme deux fois par semaine, dans une salle allongée, chacun à un bout, le directeur de la prison au milieu. Le 21 février, il embarque sur le vaisseau Ville-de-Saint-Nazaire. Le lendemain, le navire fait cap vers la Guyane.
+Le 12 mars, après une traversée pénible de quinze jours, le navire mouille au large des îles du Salut. Dreyfus reste un mois au bagne de l'île Royale, puis il est transféré à l'île du Diable le 14 avril. Avec ses gardiens, il est le seul habitant de l'île, logeant dans une case de pierre de quatre mètres sur quatre. Hanté par le risque de l'évasion, le commandant du bagne fait vivre un enfer au condamné alors que les conditions de vie sont déjà très pénibles. Dreyfus tombe malade, secoué par les fièvres qui s'aggraveront d'année en année.
+Dreyfus est autorisé à écrire sur un papier numéroté et paraphé. Il subit la censure du commandement de même que lorsqu'il reçoit du courrier de sa femme Lucie, par lequel ils s'encouragent mutuellement. Le 6 septembre 1896, les conditions de vie d'Alfred Dreyfus s'aggravent encore : il est mis à la double boucle, supplice obligeant le forçat à rester sur son lit, immobile, les chevilles entravées. Cette mesure est la conséquence de la fausse information de son évasion, révélée par un journal anglais. Pendant deux longs mois, elle plonge Dreyfus dans un profond désespoir. À ce moment, il est persuadé que sa vie s'achèvera sur cette île lointaine.
+Mathieu Dreyfus, le frère aîné d'Alfred Dreyfus, est convaincu de l'innocence du condamné. Il est le premier artisan de la réhabilitation de son frère, et passe tout son temps, toute son énergie et sa fortune à rassembler autour de lui un mouvement de plus en plus puissant en vue de la révision du procès de décembre 1894, malgré les difficultés de la tâche : « Après la dégradation, le vide se fit autour de nous. Il nous semblait que nous n'étions plus des êtres comme les autres, que nous étions comme retranchés du monde des vivants. »
+Mathieu essaie toutes les pistes, y compris les plus étonnantes. Ainsi, grâce au docteur Gibert, ami du président Félix Faure, il rencontre au Havre une femme qui, sous hypnose, lui parle pour la première fois d'un « dossier secret ». Le fait est confirmé par le président de la République au docteur Gibert dans une conversation privée.
+Petit à petit, malgré les menaces d'arrestation pour complicité, les filatures, les pièges tendus par les militaires, il réussit à convaincre divers modérés. Ainsi, le journaliste de gauche Bernard Lazare se penche sur les zones d'ombre de la procédure. En 1896, Lazare publie à Bruxelles le premier opuscule dreyfusard. Cette publication n'a que peu d'influence sur le monde politique et intellectuel, mais elle contient tant de détails que l'État-Major suspecte le nouveau chef du SR, Picquart, d'en être responsable.
+La campagne en faveur de la révision, relayée petit à petit dans la presse de gauche antimilitariste, déclenche en retour une vague d'antisémitisme très violente dans l'opinion. La France reste alors très majoritairement antidreyfusarde. Le commandant Henry, à la Section de statistiques, est de son côté conscient de la fragilité du dossier d'accusation. À la demande de sa hiérarchie, le général de Boisdeffre, chef d'État-Major général, et le général Gonse, il est chargé de faire grossir le dossier afin d'éviter toute tentative de révision. Incapable de trouver la moindre preuve, il décide d'en fabriquer une a posteriori.
+Le vrai coupable de la trahison est découvert par hasard de deux manières distinctes ; par Mathieu Dreyfus d'une part, en recueillant la dénonciation du banquier Castro, et par le SR d'autre part, à la suite d'une enquête. Le colonel Sandherr étant tombé malade, le lieutenant-colonel Georges Picquart est affecté à la tête du SR en juillet 1895. En mars 1896, Picquart, qui avait suivi l'affaire Dreyfus dès son origine, exige désormais de recevoir directement les documents volés à l'ambassade d'Allemagne, sans intermédiaire. Il y découvre un document surnommé le « petit bleu » : une carte télégramme, jamais envoyée, écrite par von Schwartzkoppen et interceptée à l'ambassade d'Allemagne début mars 1896. Celle-ci est adressée à un officier français, au commandant Walsin-Esterházy, 27 rue de la Bienfaisance - Paris. Par ailleurs, une autre lettre au crayon noir de von Schwartzkoppen démontre les mêmes relations d'espionnage avec Esterhazy. Mis en présence de lettres de cet officier, Picquart s'aperçoit avec stupéfaction que son écriture est exactement la même que celle du « bordereau » qui a servi à incriminer Dreyfus. Il se procure le « dossier secret » remis aux juges en 1894, et devant sa vacuité, acquiert la certitude de l'innocence de Dreyfus. Très ému par sa découverte, Picquart diligente une enquête en secret, sans l'accord de ses supérieurs. Elle démontre qu'Esterházy avait connaissance des éléments décrits par le « bordereau » et qu'il était bien en contact avec l'ambassade d'Allemagne. Il est établi que l'officier vendait aux Prussiens de nombreux documents secrets dont la valeur était cependant assez faible.
+Walsin-Esterházy est un ancien membre du contre-espionnage français où il avait servi après la Guerre de 1870. Il avait travaillé dans le même bureau que le commandant Henry de 1877 à 1880118. Homme à la personnalité trouble, à la réputation sulfureuse, criblé de dettes, il est pour Picquart, un traître probable animé par un mobile certain : l'argent. Picquart communique alors les résultats de son enquête à l'État-Major, qui lui oppose : « l'autorité de la chose jugée ». Désormais, tout est fait pour l'évincer de son poste, avec l'aide de son propre adjoint le commandant Henry. Il s'agit avant tout, dans les hautes sphères de l'Armée, de ne pas admettre que la condamnation de Dreyfus puisse être une grave erreur judiciaire. Pour Mercier, puis Zurlinden, et l'État-Major, ce qui est fait est fait, on ne revient jamais en arrière. Il convenait alors de séparer les affaires Dreyfus et Esterházy.
+La presse nationaliste lance une violente campagne contre le noyau dur naissant des dreyfusards. En contre-attaquant, l'État-Major se découvre et révèle des informations, ignorées jusque-là, sur le « dossier secret ». Le doute commence à s'installer et des figures des milieux artistiques et politiques s'interrogent. Picquart tente de convaincre ses chefs de réagir en faveur de Dreyfus, mais l'État-Major semble sourd. Une enquête est instruite contre lui, il est surveillé, éloigné dans l'Est, puis muté en Tunisie « dans l'intérêt du service ».
+C'est le moment que choisit le commandant Henry pour passer à l'action. Le 1er novembre 1896, il fabrique un faux, le « faux Henry », en conservant l'entête et la signature d'une lettre quelconque de Panizzardi, en rédigeant lui-même le texte central :
+« J'ai lu qu'un député va interpeller sur Dreyfus. Si on demande à Rome nouvelles explications, je dirai que jamais j'avais les relations avec ce Juif. C'est entendu. Si on vous demande, dites comme ça, car il ne faut pas que on sache jamais personne ce qui est arrivé avec lui. »+
C'est un faux assez grossier. Les généraux Gonse et Boisdeffre, sans se poser de questions, amènent cependant la lettre à leur ministre le général Billot. Les doutes de l'État-Major concernant l'innocence de Dreyfus s'envolent. Fort de cette trouvaille, l'État-Major décide de protéger Esterházy et de persécuter le colonel Picquart, « qui n'a rien compris ». Picquart, qui ignore tout du faux Henry, se sent rapidement isolé de ses collègues militaires. Littéralement accusé de malversations par le commandant Henry, il proteste par écrit et rentre à Paris.
+Picquart se confie à son ami, l'avocat Louis Leblois, à qui il fait promettre le secret. Ce dernier en parle pourtant au vice-président du Sénat, l'alsacien Auguste Scheurer-Kestner, lequel est à son tour touché par le doute. Sans citer Picquart, le sénateur révèle l'affaire aux plus hautes personnalités du pays. Mais l'État-Major soupçonne quand même Picquart d'être à l'origine des fuites. C'est le début de l'affaire Picquart, une nouvelle conspiration de l'État-Major contre l'officier.
+Le commandant Henry, pourtant adjoint de Picquart, mais jaloux, mène de son propre chef, une opération d'intoxication afin de compromettre son supérieur. Il se livre à diverses malversations (fabrication d'une lettre le désignant comme l'instrument du « syndicat juif » voulant faire évader Dreyfus, truquage du « petit bleu » pour faire croire que Picquart a effacé le nom du réel destinataire, rédaction d'un courrier nommant Dreyfus en toutes lettres).
+Parallèlement aux investigations du colonel Picquart, les défenseurs de Dreyfus sont informés de l'identité de l'écriture du « bordereau » avec celle d'Esterházy en novembre 1897. Mathieu Dreyfus avait fait afficher la reproduction du bordereau, publiée par Le Figaro. Un banquier, Castro, identifie formellement cette écriture comme celle du commandant Walsin-Esterházy, son débiteur, et prévient Mathieu. Le 11 novembre 1897, les deux pistes se rejoignent, à l'occasion d'une rencontre entre Scheurer-Kestner et Mathieu Dreyfus. Ce dernier obtient enfin la confirmation du fait qu'Esterházy est bien l'auteur du bordereau. Le 15 novembre, sur ces bases, Mathieu Dreyfus porte plainte auprès du ministère de la Guerre contre Walsin-Esterházy. La polémique étant publique, l'armée n'a plus d'autre choix que d'ouvrir une enquête. Fin 1897, Picquart, revenu à Paris, fait connaître publiquement ses doutes sur la culpabilité de Dreyfus, du fait de ses découvertes. La collusion destinée à éliminer Picquart semble avoir échoué. La contestation est très forte et vire à l'affrontement. Afin de discréditer Picquart, Esterházy envoie sans effet des lettres de plainte au Président de la République.
+Le mouvement dit dreyfusard, animé par Bernard Lazare, Mathieu Dreyfus, Joseph Reinach et Auguste Scheurer-Kestner s'élargit. Émile Zola, informé mi-novembre 1897 par Scheurer-Kestner du dossier, est convaincu de l'innocence de Dreyfus et s'engage officiellement. Le 25 novembre, le romancier publie M. Scheurer-Kestner dans Le Figaro, premier article d'une série qui en compte trois. Devant les menaces de désabonnements massifs de ses lecteurs, le directeur du journal cesse de soutenir Zola. De proche en proche, fin novembre-début décembre 1897, les écrivains Octave Mirbeau, dont le premier article paraît trois jours après celui de Zola, et Anatole France, l'universitaire Lucien Lévy-Bruhl, le bibliothécaire de l'École normale supérieure Lucien Herr, qui convainc Léon Blum et Jean Jaurès, les auteurs de La Revue blanche, dont Lazare connaît bien le directeur Thadée Natanson, les frères Clemenceau Albert et Georges s'investissent dans le combat pour la révision du procès. Blum tente fin novembre de faire signer à son ami Maurice Barrès une pétition demandant la révision du procès, mais ce dernier refuse, rompt avec Zola et Blum début décembre, et commence à populariser le terme d' « intellectuels ». Cette première rupture est le prélude à une division des élites cultivées, après le 13 janvier.
+Si l'Affaire Dreyfus occupe de plus en plus les discussions, le monde politique ne le reconnaît toujours pas, et Jules Méline déclare en ouverture de séance de l'Assemblée nationale, le 7 décembre : « il n'y a pas d'affaire Dreyfus. Il n'y a pas en ce moment et il ne peut pas y avoir d'affaire Dreyfus. »
+Le général de Pellieux est chargé d'effectuer une enquête. Celle-ci tourne court, l'enquêteur étant adroitement manipulé par l'État-Major. Le vrai coupable, lui dit-on, est le lieutenant-colonel Picquart. L'enquête s'achemine vers un non-lieu, quand l'ex-maîtresse d'Esterházy, Mme de Boulancy, fait publier dans Le Figaro des lettres dans lesquelles il exprimait violemment, une dizaine d'années plus tôt, toute sa haine de la France et son mépris de l'Armée française. La presse militariste vole au secours du traître au travers d'une campagne antisémite sans précédent. La presse dreyfusarde réplique, forte des nouveaux éléments en sa possession. Georges Clemenceau, dans le journal L'Aurore, se demande :
+« Qui protège le commandant Esterházy ? La loi s'arrête, impuissante devant cet aspirant prussien déguisé en officier français. Pourquoi ? Qui donc tremble devant Esterházy ? Quel pouvoir occulte, quelles raisons inavouables s'opposent à l'action de la justice ? Qui lui barre le chemin ? Pourquoi Esterházy, personnage dépravé à la moralité plus que douteuse, est-il protégé alors que tout l'accuse ? Pourquoi un honnête soldat comme le lieutenant-colonel Picquart est-il discrédité, accablé, déshonoré ? S'il le faut nous le dirons ! »+
Bien que protégé par l'État-Major et donc par le gouvernement, Esterházy est obligé d'avouer la paternité des lettres francophobes publiées par Le Figaro. Ceci décide le bureau de l'État-Major à agir : une solution pour faire cesser les questions, les doutes et les débuts de demande de justification doit être trouvée. L'idée est d'exiger d'Esterházy qu'il demande lui-même à passer en jugement et être acquitté afin de faire cesser les bruits et de permettre le retour de l'ordre. C'est donc pour le disculper définitivement, selon la vieille règle « Res judicata pro veritate habetur », qu'Esterházy est présenté le 10 janvier 1898 devant un Conseil de guerre. Le huis clos « retardé » est prononcé. Esterházy est prévenu des sujets du lendemain avec des indications sur la ligne de défense à tenir. Le procès est peu régulier : les constitutions de parties civiles demandées par Mathieu et Lucie Dreyfus leur sont refusées, les trois experts en écritures ne reconnaissent pas l'écriture d'Esterházy dans le bordereau et concluent à la contrefaçon. L'accusé lui-même est applaudi, les témoins à charge, hués et conspués, Pellieux intervenant pour défendre l'État-Major sans qualité légale. Le véritable accusé est le colonel Picquart, sali par tous les protagonistes militaires de l'Affaire. Esterházy, est acquitté à l'unanimité dès le lendemain, après trois minutes de délibéré. Sous les vivats, il a du mal à se frayer un chemin vers la sortie où l'attendent 1 500 personnes.
+Par erreur, un innocent a été condamné, mais par ordre, le coupable est acquitté. Pour beaucoup de républicains modérés, c'est une atteinte insupportable aux valeurs fondamentales qu'ils défendent. L'acquittement d'Esterházy amène donc un changement de la stratégie dreyfusarde. Au libéralisme respectueux de Scheurer-Kestner et Reinach, succède une action plus combative et contestataire. En réaction à l'acquittement, d'importantes et violentes émeutes antidreyfusardes et antisémites ont lieu dans toute la France. On attente aux biens et aux personnes.
+Fort de sa victoire, l'État-Major arrête le lieutenant-colonel Picquart sous l'accusation de violation du secret professionnel, suite à la divulgation de son enquête à son avocat qui l'aurait révélée au sénateur Scheurer-Kestner. Le colonel, bien qu'il soit mis aux arrêts au fort du Mont-Valérien, n'abdique pas et s'engage de plus en plus dans l'Affaire. À Mathieu qui le remercie, il réplique sèchement qu'il ne « fait que son devoir ». Le commandant Esterházy, est mis rapidement à la réforme, et devant les risques qui pèsent à son égard, s'exile en Angleterre où il termine ses jours confortablement dans les années 1920151. Esterházy a bénéficié, au moment de « L'Affaire », d'un traitement de faveur de la part des hautes sphères de l'Armée qui s'explique assez mal, sinon par le désir de l'État-Major de vouloir étouffer toute velléité de remise en cause du verdict du Conseil de guerre qui avait condamné le capitaine Dreyfus en 1894.
+Zola donne le 13 janvier 1898 une nouvelle dimension à l'affaire Dreyfus, qui devient l'Affaire. Premier grand intellectuel dreyfusard, il est alors au sommet de sa gloire : les vingt volumes des Rougon-Macquart ont été diffusés dans des dizaines de pays. C'est une sommité du monde littéraire, et en a pleinement conscience. Au général de Pellieux, il affirme pendant son procès :
+« Je demande au général de Pellieux s'il n'y a pas différentes façons de servir la France ? On peut la servir par l'épée ou par la plume. M. le général de Pellieux a sans doute gagné de grandes victoires ! J'ai gagné les miennes. Par mes oeuvres, la langue française a été portée dans le monde entier. J'ai mes victoires ! Je lègue à la postérité le nom du général de Pellieux et celui d'Émile Zola : elle choisira ! »
+Scandalisé par l'acquittement d'Esterházy, Zola décide de frapper un coup. Il publie en première page de L'Aurore, un article de 4 500 mots sur six colonnes à la une, en forme de lettre ouverte au président Félix Faure. Clemenceau trouve le titre : « J'Accuse...! ». Vendu habituellement à trente mille exemplaires, le journal diffuse ce jour là près de trois cent mille copies. Cet article fait l'effet d'une bombe. Le papier est une attaque directe, explicite et nominale. Tout ceux qui ont comploté contre Dreyfus sont dénoncés, y compris le ministre de la Guerre, l'État-Major. L'article comporte de nombreuses erreurs, majorant ou minorant les rôles de tel ou tel acteur, mais Zola n'a pas prétendu faire oeuvre d'historien.
+« J'Accuse...! » apporte pour la première fois la réunion de toutes les données existantes sur l'Affaire. Le but de Zola est de s'exposer volontairement afin de forcer les autorités à le traduire en justice. Son procès servirait d'occasion pour un nouvel examen public des cas Dreyfus et Esterházy. Il va ici à l'encontre de la stratégie de Scheurer-Kestner et Lazare, qui prônaient la patience et la réflexion. Devant le succès national et international de ce coup d'éclat, le procès est inévitable. À partir de ce moment critique, l'Affaire suit deux voies parallèles. D'une part, l'État utilise son appareil pour imposer la limitation du procès à une simple affaire de diffamation, afin de le dissocier des cas Dreyfus et Esterházy, déjà jugés. D'autre part, les conflits d'opinion tentent de peser sur les juges ou le gouvernement, pour obtenir les uns la révision et les autres la condamnation de Zola. Mais l'objectif du romancier est atteint : l'ouverture d'un débat public aux assises.
+Le 15 janvier, Le Temps publie une pétition réclamant la révision du procès. Y figurent les noms d'Émile Zola, Anatole France, Émile Duclaux, le directeur de l'Institut Pasteur, Daniel Halévy, Fernand Gregh, Félix Fénéon, Marcel Proust, Lucien Herr, Charles Andler, Victor Bérard, François Simiand, Georges Sorel, puis le peintre Claude Monet, l'écrivain Jules Renard, le philosophe Émile Durkheim, l'historien Gabriel Monod, etc. Dans L'Aurore du 23 janvier, Clemenceau, au nom d'une « pacifique révolte de l'esprit français », reprend positivement le terme d' « intellectuels ». Le 1er février, Barrès fustige ceux-ci dans le Journal. L'anti-intellectualisme devient un thème majeur des intellectuels de droite, qui reprochent aux dreyfusards de réfléchir au-delà des intérêts de la nation, argument qui se retrouve tout au long des années qui suivent, et qui constitue le fond du débat public : la préférence entre Justice et Vérité ou défense de la nation, préservation sociale et raison supérieure de l'État. Cette mobilisation des intellectuels ne se double pas dans un premier temps de celle de la gauche politique : le 19 janvier, les députés socialistes prennent leurs distances face aux « deux factions bourgeoises rivales ».
+Le général Billot, ministre de la Guerre, porte plainte contre Zola et Alexandre Perrenx, le gérant de L'Aurore, qui passent devant les Assises de la Seine du 7 au 23 février 1898. La diffamation envers une autorité publique est alors passible des Assises, alors que l'injure publique proférée par la presse nationaliste et antisémite n'amène que très peu de poursuites, et surtout quasiment aucune condamnation. Le ministre ne retient que trois passages de l'article, soit dix-huit lignes sur plusieurs centaines. Il est reproché à Zola d'avoir écrit que le Conseil de guerre avait commis une « illégalité [...] par ordre ». Le procès s'ouvre dans une ambiance de grande violence : Zola fait l'objet « des attaques les plus ignominieuses », tout comme d'importants soutiens et félicitations
+Fernand Labori, l'avocat de Zola, fait citer environ deux cents témoins. La réalité de l'Affaire Dreyfus, inconnue du grand public, est diffusée dans la presse. Plusieurs journaux publient les notes sténographiques in extenso des débats au jour le jour, ce qui édifie la population. Celles-ci constituent pour les dreyfusards un outil primordial pour les débats postérieurs. Cependant, les nationalistes, derrière Henri Rochefort, sont alors les plus visibles et organisent des émeutes, forçant le préfet de police à intervenir afin de protéger les sorties de Zola à chaque audience.
+Ce procès est aussi le lieu d'une véritable bataille juridique, dans laquelle les droits de la défense sont sans cesse bafoués. De nombreux observateurs prennent conscience de la collusion entre le monde politique et les militaires. À l'évidence, la Cour a reçu des instructions pour que la substance même de l'erreur judiciaire ne soit pas évoquée. Le président Delegorgue prétextant l'allongement de durée des audiences, jongle sans cesse avec le droit pour que le procès ne traite que de la diffamation reprochée à Zola. Sa phrase « la question ne sera pas posée », répétée des dizaines de fois, devient célèbre.
+Zola est condamné à un an de prison et à 3 000 francs d'amende, la peine maximale. Cette dureté est imputable à l'atmosphère de violence entourant le procès : « La surexcitation de l'auditoire, l'exaspération de la foule massée devant le palais de Justice étaient si violentes qu'on pouvait redouter les excès les plus graves si le jury avait acquitté M. Zola. » Cependant, le procès Zola est plutôt une victoire pour les dreyfusards. En effet, l'Affaire et ses contradictions ont pu être largement évoquées tout au long du procès, en particulier par des militaires. De plus, la violence des attaques contre Zola, et l'injustice de sa condamnation renforcent l'engagement des dreyfusards : Stéphane Mallarmé se déclare « pénétré par la sublimité de [l']Acte [de Zola]172 » et Jules Renard écrit dans son journal : « À partir de ce soir, je tiens à la République, qui m'inspire un respect, une tendresse que je ne me connaissais pas. Je déclare que le mot Justice est le plus beau de la langue des hommes, et qu'il faut pleurer si les hommes ne le comprennent plus. » Le sénateur Ludovic Trarieux et le juriste catholique Paul Viollet fondent la Ligue pour la défense des droits de l'homme. Plus encore que l'affaire Dreyfus, l'affaire Zola opère un regroupement des forces intellectuelles en deux camps opposés.
+Le 2 avril, une demande de pourvoi en cassation reçoit une réponse favorable. Il s'agit de la première intervention de la Cour dans cette affaire judiciaire. La plainte aurait en effet dû être portée par le Conseil de guerre et non par le ministre. Le procureur général Manau est favorable à la révision du procès Dreyfus et s'oppose fermement aux antisémites. Les juges du Conseil de guerre, mis en cause par Zola, portent plainte pour diffamation. L'affaire est déférée devant les assises de Seine-et-Oise à Versailles où le public passe pour être plus favorable à l'Armée, plus nationaliste. Le 23 mai 1898, dès la première audience, Me Labori se pourvoit en cassation en raison du changement de juridiction. Le procès est ajourné et les débats sont repoussés au 18 juillet. Labori conseille à Zola de quitter la France pour l'Angleterre avant la fin du procès, ce que fait l'écrivain, accompagné de sa femme. Les accusés sont de nouveau condamnés. Quant au colonel Picquart, il se retrouve à nouveau en prison.
+L'acquittement d'Esterházy, les condamnations d'Émile Zola et de Georges Picquart, et la présence continue d'un innocent au bagne, ont un retentissement national et international considérables. La France expose un arbitraire étatique contredisant les principes républicains fondateurs. L'antisémitisme fait des progrès considérable, et les émeutes sont courantes pendant toute l'année 1898. Cependant, les hommes politiques en restent encore au déni de l'Affaire. En avril et mai 1898, ils sont surtout préoccupés par les élections législatives, après lesquelles Jaurès perd son siège de député de Carmaux. La majorité reste modérée, et un groupe parlementaire antisémite apparaît à la Chambre. Cependant, la cause dreyfusarde est relancée.
+En effet, Godefroy Cavaignac, nouveau ministre de la Guerre et anti-révisionniste farouche, veut démontrer définitivement la culpabilité de Dreyfus, en « tordant le cou » au passage à Esterházy, qu'il tient pour « un mythomane et un maître chanteur ». Il est absolument convaincu de la culpabilité de Dreyfus, renforcé dans cette idée par la légende des aveux, après avoir rencontré le principal témoin, le capitaine Lebrun-Renault. Cavaignac a l'honnêteté d'un doctrinaire intransigeant, mais ne connaît absolument pas les dessous de l'Affaire, que l'État-Major s'est gardé de lui enseigner. Il avait eu la surprise d'apprendre que l'ensemble des pièces sur lesquelles l'accusation se basait n'avaient pas été expertisées, Boisdeffre ayant « une confiance absolue » en Henry. Il décide d'enquêter lui-même, dans son bureau avec ses adjoints, et rapatrie le dossier secret qui compte alors 365 pièces.
+Le 7 juillet 1898, lors d'une interpellation à la Chambre, Cavaignac fait état de trois pièces « accablantes, entre mille », dont deux n'ont aucun rapport avec l'Affaire, et l'autre est le faux d'Henry. Le discours de Cavaignac est efficace : les députés l'ovationnent et votent l'affichage du discours avec la reproduction des trois preuves dans les 36 000 communes de France à 572 voix. Les antidreyfusards triomphent, mais Cavaignac a reconnu implicitement que la défense de Dreyfus n'avait pas eu accès à toutes les preuves : la demande en annulation formulée par Lucie Dreyfus devient recevable. Le lendemain, le colonel Picquart déclare dans Le Temps au président du Conseil : « Je suis en état d'établir devant toute juridiction compétente que les deux pièces portant la date de 1894 ne sauraient s'appliquer à Dreyfus et que celle qui portait la date de 1896 avait tous les caractères d'un faux. », ce qui lui vaut onze mois de prison.
+Le 13 août au soir, le capitaine Cuignet, attaché au cabinet de Cavaignac, qui travaille à la lumière d'une lampe, observe que la couleur du léger quadrillage du papier de l'entête et du bas de page ne correspondent pas avec la partie centrale. Cavaignac tente encore de trouver des raisons logiques à la culpabilité et la condamnation de Dreyfus mais ne tait pas sa découverte. Un conseil d'enquête est formé pour enquêter sur Esterházy, devant lequel celui-ci panique et avoue ses rapports secrets avec le commandant du Paty de Clam. La collusion entre l'État-Major et le traître est révélée. Le 30 août, Cavaignac se résigne à demander des explications au colonel Henry, en présence de Boisdeffre et Gonse. Après une heure d'interrogatoire mené par le ministre lui-même, Henry s'effondre et fait des aveux complets. Il est placé aux arrêts de forteresse au Mont-Valérien et se suicide le lendemain en se tranchant la gorge avec un rasoir. La demande de révision déposée par Lucie Dreyfus ne peut plus être repoussée. Pourtant, Cavaignac affirme : « moins que jamais ! »187, mais le président du Conseil, Henri Brisson, le force à démissionner. Malgré son rôle, apparemment totalement involontaire, dans la révision du procès de 1894, il reste un antidreyfusard convaincu et fait une intervention méprisante et blessante envers Dreyfus au procès de Rennes.
+Les antirévisionnistes ne se considèrent pas battus. Le 6 septembre, Charles Maurras publie un éloge d'Henry dans La Gazette de France, qu'il qualifie de « serviteur héroïque des grands intérêts de l'État ». La Libre Parole, journal antisémite de Drumont, propage la notion de « faux patriotique ». Le même journal lance en décembre une souscription au profit de sa veuve, afin d'ériger un monument à la gloire d'Henry. Chaque donation est accompagnée de remarques lapidaires sur Dreyfus et les dreyfusards, souvent injurieuses. 14 000 souscripteurs, dont 53 députés, envoient 131 000 francs. Le 3 septembre 1898, le président du Conseil, Brisson, incite Mathieu Dreyfus à déposer une demande en révision du Conseil de guerre de 1894. Le gouvernement transfère le dossier à la Cour de cassation, pour avis sur les quatre années de procédures passées.
+La France est réellement divisée en deux, mais aucune généralisation n'est possible : la communauté juive s'engage peu, les intellectuels ne sont pas tous dreyfusards, les protestants sont partagés, des marxistes refusent de soutenir Dreyfus. Le clivage transcende les religions et milieux sociaux, comme l'illustre la célèbre caricature de Caran d'Ache « Un dîner en famille ».
+Henry est mort, Boisdeffre a démissionné, Gonse n'a plus aucune autorité et du Paty a été très gravement compromis par Esterházy : pour les conjurés, c'est la débâcle. Le gouvernement est désormais pris entre deux feux : la loi et le droit contre la pression nationaliste de la rue et du commandement supérieur qui se reprend. Cavaignac, démissionné pour avoir continué à répandre sa vision antidreyfusarde de l'Affaire, se pose en chef de file antirévisionniste. Le général Zurlinden qui lui succède, influencé par l'État-Major, rend un avis négatif à la révision le 10 septembre, conforté par la presse extrémiste pour laquelle, « la révision, c'est la guerre ». L'obstination du gouvernement, qui vote le recours à la Cour de cassation le 26 septembre, amène la démission de Zurlinden, remplacé aussitôt par le général Chanoine. Celui-ci, lors d'une interpellation à la Chambre, donne sa démission, la confiance étant refusée à Brisson, contraint lui aussi à la démission. L'instabilité ministérielle entraîne une certaine instabilité gouvernementale.
+Le 1er novembre, le progressiste Charles Dupuy est nommé à la place de Brisson. En 1894, il avait couvert les agissements du général Mercier aux débuts de l'affaire Dreyfus ; quatre ans plus tard, il annonce qu'il suivra les arrêts de la Cour de cassation, barrant la route à ceux qui veulent étouffer la révision et dessaisir la Cour. Le 5 décembre, à la faveur d'un débat à la Chambre sur la transmission du « dossier secret » à la Cour de cassation, la tension monte encore d'un cran. Les injures, invectives et autres violences nationalistes font place aux menaces de soulèvement. Paul Déroulède déclare : « S'il faut faire la guerre civile, nous la ferons. »198
+Une nouvelle crise survient au sein même de la Cour de cassation, dès lors que Quesnay de Beaurepaire, président de la chambre civile, accuse la chambre criminelle de dreyfusisme par voie de presse. Il démissionne le 8 janvier 1899 en héros de la cause nationaliste. Cette crise aboutit au dessaisissement de la chambre criminelle au profit des chambres réunies. C'est le blocage de la révision.
+En 1899, l'Affaire occupe de plus en plus la scène politique. Le 16 février 1899, le président de la République Félix Faure meurt. Émile Loubet est élu, une avancée pour la cause de la révision, le précédent président en étant un farouche opposant. Le 23 février, à la faveur des funérailles de Félix Faure, Déroulède tente un coup de force sur l'Élysée. C'est un échec, les militaires ne se ralliant pas. Le 4 juin, Loubet est agressé sur le champ de course de Longchamp. Ces provocations, auxquelles s'ajoutent les manifestations permanentes de l'extrême-droite, bien qu'elle ne mettent jamais réellement la République en danger, créent un sursaut républicain qui conduit à la formation d'un « gouvernement de défense républicaine » autour de Waldeck-Rousseau le 22 juin. Les républicains progressistes antidreyfusards, tel Méline, sont rejetés à droite. L'affaire Dreyfus a conduit à une recomposition claire du paysage politique français.
+La Cour de cassation examine l'affaire, dans un contexte de campagnes de presse à l'encontre de la chambre criminelle, les magistrats étant constamment traînés dans la boue dans les journaux nationalistes depuis le scandale de Panamá. Le 26 septembre 1898, après un vote du Cabinet, le garde des Sceaux saisit la Cour de cassation. Le 29 octobre, à l'issue de la communication du rapport du rapporteur Alphonse Bard, la chambre criminelle de la Cour déclare « la demande recevable et dit qu'il sera procédé par elle à une instruction supplémentaire ».
+Le rapporteur Louis Loew préside. Il est l'objet d'une très violente campagne d'injures antisémites, alors qu'il est protestant alsacien, accusé d'être un déserteur, un vendu aux Prussiens. Malgré les silences complaisants de Mercier, Billot, Zurlinden et Roget qui se retranchent derrière l'autorité de la chose jugée et le secret d'État, la compréhension de l'Affaire augmente. Cavaignac fait une déposition de deux jours, mais ne parvient pas à démontrer la culpabilité de Dreyfus. Au contraire il le disculpe involontairement par une démonstration de la datation exacte du bordereau (août 1894)203.
+Puis Picquart démontre l'ensemble des rouages de l'erreur puis de la conspiration. Dans une décision du 8 décembre 1898 en représailles au dessaisissement qui s'annonce, Picquart est écarté du Conseil de guerre par la chambre criminelle. C'est un nouvel obstacle aux volontés de l'État-Major. Une nouvelle campagne de presse furieusement antisémite éclate à l'occasion de cet événement, alors que L'Aurore du 29 octobre titre « Victoire » dans les mêmes caractères que « J'Accuse...! »206. Le travail d'enquête est tout de même repris par la chambre criminelle. Le « dossier secret » est analysé à partir du 30 décembre, et la chambre demande la communication du dossier diplomatique, ce qui est accordé.
+Le 9 février, la chambre criminelle rend son rapport en mettant en exergue deux faits majeurs : il est certain qu'Esterházy a utilisé le même papier pelure que le bordereau et le dossier secret est totalement vide. Ces deux faits majeurs anéantissent à eux seuls toutes les procédures à l'encontre d'Alfred Dreyfus. Mais parallèlement, pour faire suite à l'incident de Beaurepaire, le président Mazeau instruit une enquête sur la chambre criminelle, qui aboutit au dessaisissement de celle-ci « afin de ne pas la laisser porter seule toute la responsabilité de la sentence définitive », ce qui prive la chambre criminelle de la poursuite des actions qui découleraient de son rapport.
+Le 28 février, Waldeck-Rousseau s'exprime au Sénat sur le fond et dénonce la « conspiration morale » au sein du gouvernement et dans la rue. La révision n'est plus évitable. Le 1er mars 1899, le nouveau président de la chambre civile de la Cour de cassation, Alexis Ballot-Beaupré est nommé rapporteur pour l'examen de la demande de révision. Il aborde le dossier en juriste et décide d'un supplément d'enquête. Dix témoins complémentaires sont interrogés, lesquels affaiblissent encore la version de l'État-Major. Dans le débat final et par un modèle d'objectivité, le président Ballot-Beaupré démontre l'inanité du bordereau, la seule charge contre Dreyfus. Le procureur Manau abonde dans le sens du président. Me Mornard qui représente Lucie Dreyfus plaide sans aucune difficulté ni opposition du parquet.
+Le 3 juin 1899, les chambres réunies de la Cour de cassation cassent le jugement de 1894 en audience solennelle. L'affaire est renvoyée devant le Conseil de guerre de Rennes. Les conséquences sont immédiates : Zola, exilé en Angleterre, revient en France, Picquart est libéré, Mercier est accusé de communication illégale de pièces. Par cet arrêt, la Cour de cassation s'impose comme une véritable autorité, capable de tenir tête à l'armée et au pouvoir politique. Pour de nombreux Dreyfusards cette décision de justice est l'antichambre de l'acquittement du capitaine ; ils oublient de considérer que c'est de nouveau l'armée qui le juge. La Cour, en cassant avec renvoi, a cru en l'autonomie juridique du Conseil de guerre sans prendre en compte les lois de l'esprit de corps.
+Le prisonnier n'est en rien au courant des événements qui se déroulent à des milliers de kilomètres de lui. Ni des complots ourdis pour que jamais il ne puisse revenir, ni de l'engagement d'innombrables honnêtes hommes et femmes à sa cause. L'administration pénitentiaire filtre les informations qu'elle jugeait confidentielles. À la fin de l'année 1898, il apprend avec stupéfaction la dimension réelle de l'Affaire, dont il ne sait rien : l'accusation de son frère contre Esterházy, l'acquittement du traître, l'aveu et le suicide d'Henry, ceci à la lecture du dossier d'enquêtes de la Cour de cassation qu'il reçoit deux mois après sa publication. Le 5 juin 1899, Alfred Dreyfus est prévenu de la décision de cassation du jugement de 1894. Le 9 juin, il quitte l'île du Diable, cap vers la France, enfermé dans une cabine comme un coupable qu'il n'est pourtant plus. Il débarque le 30 juin à Port Haliguen, sur la presqu'île de Quiberon, dans le plus grand secret, « par une rentrée clandestine et nocturne ». Après cinq années de martyre, il retrouve le sol natal, mais il est immédiatement enfermé dès le 1er juillet à la prison militaire de Rennes. Il est déféré le 7 août devant le Conseil de guerre de la capitale bretonne.
+Le général Mercier, champion des antidreyfusards, intervient constamment dans la presse, pour réaffirmer l'exactitude du premier jugement : Dreyfus est bien le coupable. Mais immédiatement, des dissensions se font jour dans la défense de Dreyfus. Ses deux avocats sont en effet sur des stratégies opposées. Me Demange souhaite se tenir sur la défensive et obtenir simplement l'acquittement de Dreyfus. Me Labori, brillant avocat de 35 ans, offensif, cherche à frapper plus haut ; il veut la défaite de l'État-Major, son humiliation publique. Mathieu Dreyfus a imaginé une complémentarité entre les deux avocats. Le déroulement du procès montre l'erreur, dont va se servir l'accusation, devant une défense si affaiblie.
+Le procès s'ouvre le 7 août 1899 dans un climat de violence inouïe. Rennes est en état de siège. Les juges du Conseil de guerre sont sous pression. Esterházy, qui a avoué la paternité du bordereau, en exil en Angleterre, et du Paty, se sont faits excuser. Dreyfus apparaît, l'émotion est forte. Son apparence physique bouleverse ses partisans et certains de ses adversaires. Malgré sa condition physique dégradée, il a une maîtrise complète du dossier, acquise en seulement quelques semaines. Tout l'État-Major témoigne contre Dreyfus sans apporter aucune preuve. On ne fait que s'entêter et on considère comme nuls les aveux d'Henry et d'Esterházy. Le procès tend même à déraper, dans la mesure où les décisions de la Cour de cassation ne sont pas prises en compte. On discute notamment du bordereau, alors que la preuve a été apportée de la culpabilité d'Esterházy. Pourtant, Mercier se fait huer à la sortie de l'audience. La presse nationaliste et antidreyfusarde se perd en conjectures sur son silence à propos de la « preuve décisive » (le pseudo bordereau annoté par le Kaiser, dont personne ne verra jamais aucune preuve), dont il n'avait cessé de faire état avant le procès.
+Le 14 août, Me Labori est victime d'un attentat sur son parcours vers le tribunal. Il se fait tirer dans le dos par un extrémiste qui s'enfuit et ne sera jamais retrouvé. L'avocat est écarté des débats pendant plus d'une semaine, au moment décisif de l'interrogatoire des témoins. Le 22 août, son état s'étant amélioré, il est de retour. Les incidents entre les deux avocats de Dreyfus se multiplient, Labori reprochant à Demange sa trop grande prudence. Le gouvernement, devant le raidissement militaire du procès, pouvait agir encore de deux manières pour infléchir les événements ; en faisant appel à un témoignage de l'Allemagne ou par l'abandon de l'accusation. Mais ces tractations en arrière-plan sont sans résultats. L'ambassade d'Allemagne adresse un refus poli au gouvernement. Le ministre de la guerre, le général Gaston de Galliffet, fait envoyer un mot respectueux au commandant Louis Carrière, commissaire du gouvernement. Il lui demande de rester dans l'esprit de l'arrêt de révision de la Cour de cassation. L'officier feint de ne pas comprendre l'allusion et aidé de l'avocat nationaliste Auffray, âme véritable de l'accusation, il fait un réquisitoire contre Dreyfus. Du côté de la défense, il faut prendre une décision, car l'issue du procès s'annonce mal, malgré l'évidence de l'absence de charges contre l'accusé. Au nom du président du Conseil, Waldeck-Rousseau, aidé de Jaurès et Zola, Me Labori est convaincu de renoncer à sa plaidoirie pour ne pas heurter l'armée. On décide de jouer la conciliation en échange de l'acquittement que semble promettre le gouvernement. Mais c'est un nouveau jeu de dupes. Me Demange, seul et sans illusions, assure la défense de Dreyfus, dans une atmosphère de guerre civile.
+À Paris, les agitateurs antisémites et nationalistes d'Auteuil sont arrêtés. Jules Guérin et ceux qui se sont enfuis et retranchés dans le Fort Chabrol sont assaillis par la police.
+Le 9 septembre 1899, la Cour rend son verdict : Dreyfus est reconnu coupable de trahison mais « avec circonstances atténuantes » (par 5 voix contre 2), condamné à dix ans de réclusion et à une nouvelle dégradation. Contrairement aux apparences, ce verdict est au bord de l'acquittement à une voix près. Le code de justice militaire prévoyait en effet le principe de minorité de faveur à trois voix contre quatre.
+Ce verdict absurde a les apparences d'un aveu coupable des membres du Conseil de guerre. Ils semblent ne pas vouloir renier la décision de 1894, et savent bien que le dossier ne repose que sur du vent. Mais on peut aussi interpréter cette décision comme un verdict habile, car les juges, tout en ménageant leurs pairs ainsi que les modérés angoissés par les risques de guerre civile, reconnaissent implicitement l'innocence de Dreyfus (peut-on trahir avec des circonstances atténuantes ?)222.
+Le lendemain du verdict, Alfred Dreyfus, après avoir beaucoup hésité, dépose un pourvoi en révision. Waldeck-Rousseau, dans une position difficile, aborde pour la première fois la grâce. Pour Dreyfus, c'est accepter la culpabilité. Mais à bout de force, éloigné des siens depuis trop longtemps, il accepte. Le décret est signé le 19 septembre et il est libéré le 21 septembre 1899. Nombreux sont les dreyfusards frustrés par cet acte final. L'opinion publique accueille cette conclusion de manière indifférente. La France aspire à la paix civile et à la concorde à la veille de l'exposition universelle de 1900 et avant le grand combat que la République s'apprête à mener pour la liberté des associations et la laïcité.
+C'est dans cet esprit que le 17 novembre 1899, Waldeck-Rousseau dépose une loi d'amnistie couvrant « tous les faits criminels ou délictueux connexes à l'Affaire Dreyfus ou ayant été compris dans une poursuite relative à l'un de ces faits ». Les dreyfusards s'insurgent, ils ne peuvent accepter que les véritables coupables soient absous de leurs crimes d'État, alors même que Zola et Picquart doivent toujours passer en jugement. Malgré d'immenses protestations, la loi est adoptée. Il n'existe alors plus aucun recours possible pour obtenir que l'innocence de Dreyfus soit reconnue ; il faut désormais trouver un fait nouveau pouvant entraîner la révision.
+Les réactions en France sont vives, faites de « stupeur et de tristesse » dans le camp révisionniste. Pourtant d'autres réactions tendent à montrer que le « verdict d'apaisement » rendu par les juges est compris et accepté par la population. Les Républicains cherchent avant tout la paix sociale, pour tourner la page de cette longue affaire extrêmement polémique. Aussi, les manifestations sont très peu nombreuses en province, alors que l'agitation persiste quelque peu à Paris. Dans le monde militaire, l'apaisement est aussi de rigueur. Deux des sept juges ont voté l'acquittement. Ils ont refusé de céder à l'ordre militaire implicite. Ceci est aussi clairement perçu. Dans une apostrophe à l'armée, Galliffet annonce : « l'incident est clos ».
+Des manifestations anti-françaises ont lieu dans vingt capitales étrangères ; la presse est scandalisée. Les réactions sont de deux ordres. Les Anglo-saxons, légalistes, se focalisent sur l'affaire d'espionnage et contestent assez violemment ce verdict de culpabilité sans arguments positifs à son édification. À ce titre, le rapport du Lord Chief Justice d'Angleterre, Lord Russell of Killowen, à la reine Victoria le 16 septembre 1899, est un symbole de la répercussion mondiale de l'Affaire en Grande-Bretagne. Le magistrat anglais, qui s'était rendu en observateur à Rennes, critique les faiblesses du Conseil de Guerre :
+« Les juges militaires « n'étaient pas familiers de la loi » [...]. Ils manquaient de l'expérience et de l'aptitude qui permettent de voir la preuve derrière le témoignage. [...] Ils agirent en fonction de ce qu'ils considéraient comme l'honneur de l'armée. [...] ils accordèrent trop d'importance aux fragiles allégations qui furent seules présentées contre l'accusé. Ainsi conclut-il : Il parait certain que si le procès de révision avait eu lieu devant la Cour de cassation, Dreyfus serait maintenant un homme libre. »+
En Allemagne et en Italie, les deux pays largement mis en cause par les procès contre Dreyfus, c'est le soulagement. Même si l'Empereur d'Allemagne regrette que l'innocence de Dreyfus n'ait pas été reconnue, la normalisation des relations franco-prussiennes qui s'annonce est vue comme une détente bienvenue. Aucune des nations n'a intérêt à une tension permanente. La diplomatie des trois puissances, avec l'aide de l'Angleterre, va s'employer à détendre une atmosphère qui ne se dégradera à nouveau qu'à la veille de la Première Guerre mondiale.
+Cette conclusion judiciaire a aussi une conséquence funeste sur les relations entre la famille Dreyfus et la branche ultra des dreyfusistes. Fernand Labori, Jaurès et Clemenceau, avec le consentement du général Picquart, reprochent ouvertement à Alfred Dreyfus d'avoir accepté la grâce et d'avoir mollement protesté à la loi d'amnistie. En deux ans après cette conclusion, leur amitié se finissait ainsi, avec de sordides calculs.
+Préférant éviter un troisième procès, le gouvernement décide de gracier Dreyfus, décret que signe le président Loubet le 19 septembre 1899, après de multiples tergiversations. Dreyfus n'est pas pour autant innocenté. Le processus de réhabilitation ne sera achevé que six années plus tard, sans éclat ni passion. De nombreux ouvrages paraissent pendant cette période. Outre les mémoires d'Alfred Dreyfus, Reinach fait paraître son Histoire de l'Affaire Dreyfus, et Jaurès publie Les Preuves. Quant à Zola, il écrit le troisième de ses Évangiles : Vérité. Même Esterházy en profite par des confidences et vend plusieurs versions différentes des textes de sa déposition au consul de France.
+Le 29 septembre 1902, Zola, l'initiateur de l'Affaire, le premier des intellectuels dreyfusards, meurt asphyxié par la fumée de sa cheminée. Son épouse, Alexandrine, en réchappe de justesse. C'est le choc dans le clan des dreyfusards.
+Anatole France, qui a exigé que Dreyfus soit présent aux obsèques, alors que le Préfet de police souhaitait son absence « pour éviter les troubles », lit sa célèbre oraison funèbre à l'auteur de J'Accuse...! :
+« Devant rappeler la lutte entreprise par Zola pour la justice et la vérité, m'est-il possible de garder le silence sur ces hommes acharnés à la ruine d'un innocent et qui, se sentant perdus s'il était sauvé, l'accablaient avec l'audace désespérée de la peur ? Comment les écarter de votre vue, alors que je dois vous montrer Zola se dressant, faible et désarmé devant eux ? Puis-je taire leurs mensonges ? Ce serait taire sa droiture héroïque. Puis-je taire leurs crimes ? Ce serait taire sa vertu. Puis-je taire les outrages et les calomnies dont ils l'ont poursuivi ? Ce serait taire sa récompense et ses honneurs. Puis-je taire leur honte ? Ce serait taire sa gloire. Non, je parlerai. Envions-le : il a honoré sa patrie et le monde par une oeuvre immense et un grand acte. Envions-le, sa destinée et son coeur lui firent le sort le plus grand. Il fut un moment de la conscience humaine. »+
Les élections de 1902 avaient vu la victoire des gauches. C'est Jean Jaurès, réélu, qui relance l'Affaire le 7 avril 1903 alors que la France la pensait enterrée à jamais. Dans un discours, Jaurès évoque la longue liste des faux qui parsèment le dossier Dreyfus, et insiste particulièrement sur deux pièces saillantes :
+Devant ces faits nouveaux, le général André, nouveau ministre de la Guerre, mène une enquête à l'instigation d'Émile Combes, assisté de magistrats. L'enquête est menée par le capitaine Targe, officier d'ordonnance du ministre. À l'occasion de perquisitions à la Section de statistiques, il découvre de très nombreuses pièces dont la majorité sont visiblement fabriquées. En novembre 1903, un rapport est remis au garde des Sceaux par le ministre de la Guerre. C'était le respect des règles, dès lors que le ministre constate une erreur commise en Conseil de guerre. C'est le début d'une nouvelle révision, avec une enquête minutieuse qui s'étend sur deux ans.
+Les années 1904 et 1905 sont consacrées aux différentes phases judiciaires devant la Cour de cassation. La cour emploie trois moyens (causes) à la révision :
+Concernant l'écriture du bordereau, la cour est particulièrement sévère à l'encontre de Bertillon qui a « raisonné mal sur des documents faux ». Le rapport démontre que l'écriture est bien d'Esterházy, ce que ce dernier a d'ailleurs avoué entre-temps. Enfin, la Cour démontre par une analyse complète et subtile du bordereau l'inanité de cette construction purement intellectuelle, et une commission de quatre généraux dirigée par un spécialiste de l'artillerie, le général Sebert, affirme « qu'il est fortement improbable qu'un officier d'artillerie ait pu écrire cette missive ».
+Le 9 mars 1905, le procureur général Baudouin rend un rapport de 800 pages dans lequel il réclame la cassation sans renvoi et fustige l'armée. Il amorce un dessaisissement de la justice militaire qui trouve sa conclusion seulement en 1982237. Il faut attendre le 12 juillet 1906 pour que la Cour de cassation, toutes chambres réunies, annule sans renvoi le jugement rendu à Rennes en 1899 et prononce « l'arrêt de réhabilitation du capitaine Dreyfus ». Les antidreyfusards crient à la réhabilitation à la sauvette. Mais le but est évidemment politique : il s'agit d'en finir et de tourner la page définitivement. Rien ne peut entamer la conviction des adversaires de Dreyfus. Cette forme est donc la plus directe et la plus définitive. Ce qui est annulé est non seulement l'arrêt de Rennes, mais toute la chaîne des actes antérieurs, à commencer par l'ordre de mise en jugement donné par le général Saussier en 1894. La Cour s'est focalisée sur les aspects juridiques uniquement et constate que Dreyfus ne doit pas être renvoyé devant un Conseil de guerre pour la simple raison qu'il n'aurait jamais dû y passer, devant l'absence totale de charges.
+« Attendu, en dernière analyse, que de l'accusation portée contre Dreyfus, rien ne reste debout ; et que l'annulation du jugement du Conseil de guerre ne laisse rien subsister qui puisse à sa charge être qualifié crime ou délit ; dès lors, par application du paragraphe final de l'article 445 aucun renvoi ne doit être prononcé. »+
Dreyfus est réintégré partiellement dans l'armée, au grade de chef d'escadron (commandant), par la loi du 13 juillet 1906. Ses cinq années d'incarcération ne sont pas prises en compte pour la reconstitution de sa carrière, et il ne peut plus prétendre à un grade d'officier général. Cette décision brise tout espoir d'une carrière digne de ses réussites antérieures à son arrestation de 1894. Il est donc contraint à une douloureuse démission en juin 1907. Les magistrats ne pouvaient rien contre cette ultime injustice volontairement commise. Le droit et l'égalité avaient été encore une fois bafoués. Dreyfus n'a jamais demandé aucun dédommagement à l'État, ni dommages-intérêts à qui que ce soit. La seule chose qui lui importait, c'était la reconnaissance de son innocence.
+Le 4 juin 1908, à l'occasion du transfert des cendres d'Émile Zola au Panthéon, Alfred Dreyfus est la cible d'un attentat. Louis-Anthelme Grégori, journaliste d'extrême droite, adjoint de Drumont, tire deux coups de revolver et blesse Dreyfus légèrement au bras. Il s'agissait, pour l'Action française, de perturber au mieux cette cérémonie en visant « les deux traîtres » : Zola et Dreyfus. Mais aussi de refaire le procès Dreyfus au travers d'un nouveau procès, une revanche en quelque sorte. Le procès aux Assises de la Seine, d'où Grégori sort acquitté, dernière d'une longue série de fautes judiciaires, est l'occasion de nouvelles émeutes antisémites que le gouvernement réprime mollement.
+Officier de réserve, Dreyfus participe à la guerre de 1914 - 1918 au camp retranché de Paris, comme chef d'un parc d'artillerie, puis affecté au Chemin des Dames et à Verdun. Il termine sa carrière militaire au grade de colonel. Il meurt le 12 juillet 1935 à l'âge de soixante-seize ans dans l'indifférence générale. Le colonel Picquart est lui aussi réhabilité officiellement et réintégré dans l'armée au grade de général de brigade. Il est même ministre de la Guerre de 1906 à 1909 dans le premier gouvernement Clemenceau. Il meurt en 1914 d'un accident de cheval.
+L'affaire Dreyfus a-t-elle laissé une trace ? Quel héritage la société française peut-elle retirer de ces douze années ? Pour certains, l'affaire Dreyfus a marqué la société française au fer rouge. Tous les compartiments de la société sont touchés, certains sont bouleversés.
+L'affaire fait revivre l'affrontement des deux France. Toutefois, cette opposition a servi l'ordre républicain, selon tous les historiens. On assiste en effet à un renforcement de la démocratie parlementaire et à un échec des forces monarchistes et réactionnaires. L'excessive violence des partis nationalistes a rassemblé les républicains en un front uni, qui met en échec les tentatives de retour à l'ordre ancien. À court terme, les forces politiques progressistes, issues des élections de 1893, confirmées en 1898, en pleine affaire Dreyfus, disparaissent en 1899. Le choc des procès Esterházy et Zola amène une politique dreyfusienne dont le but est de développer une conscience républicaine et de lutter contre le nationalisme autoritaire qui s'exprime lors de l'Affaire. Car la progression désinhibée d'un nationalisme de type populiste est une autre grande conséquence de l'événement dans le monde politique français, et ce même s'il n'est pas né avec l'affaire Dreyfus, puisque le nationalisme est théorisé par Maurice Barrès dès 1892. Le nationalisme connaît des hauts et des bas, mais parvient à se maintenir en tant que force politique, sous le nom d'Action française, jusqu'à la défaite de 1940, lorsque après cinquante ans de combat, elle accède au pouvoir et peut, vieux rêve de Drumont, « purifier » l'État avec les conséquences que chacun sait. On note à cette occasion le ralliement de nombreux républicains à Vichy, sans qui le fonctionnement de l'État eût été précaire, montrant en cela la fragilité de l'institution républicaine dans des circonstances extrêmes. À la libération, Charles Maurras, condamné le 25 janvier 1945 pour faits de collaboration, s'écrie au verdict : « C'est la revanche de Dreyfus ! »
+Elle amène par effet de réaction, l'autre conséquence, une mutation intellectuelle du socialisme. Jaurès est un dreyfusard tardif (janvier 1898), convaincu par les socialistes révolutionnaires. Mais son engagement devient résolu, aux côtés de Georges Clemenceau à partir de 1899, sous l'influence de Lucien Herr. L'année 1902 voit la naissance de deux partis : le Parti socialiste français, qui rassemble les jaurésiens, et le Parti socialiste de France, sous influence de Guesde et Vaillant. Les deux partis fusionnent en 1905 en une Section française de l'Internationale ouvrière (SFIO).
+Par ailleurs, 1901 voit la naissance du Parti républicain radical-socialiste, premier parti politique moderne conçu comme une machine électorale de rassemblement républicain. Il a une structure permanente et s'appuie sur les réseaux dreyfusards. La création de la Ligue française pour la défense des droits de l'homme et du citoyen est contemporaine de l'affaire. C'est le creuset d'une gauche intellectuelle extrêmement active au début du siècle, conscience de la gauche humaniste.
+Conséquence finale sur le plan politique, le tournant du siècle voit un renouvellement profond du personnel politique, avec la disparition de grandes figures républicaines, à commencer par Auguste Scheurer-Kestner. Ceux qui à la fin du siècle ont pu peser fortement sur les événements de l'affaire ont désormais disparu, laissant la place à des hommes nouveaux dont l'ambition est de réformer et de corriger les erreurs et défauts.
+Socialement, l'antisémitisme est au devant de la scène. Préexistant à l'affaire Dreyfus, il s'était exprimé lors des affaires du Boulangisme et du canal de Panamá. Mais il était restreint à une élite intellectuelle. L'affaire Dreyfus répand la haine raciale dans toutes les couches de la société, mouvement certes initié par le succès de La France juive de Drumont en 1886, mais énormément amplifié par les divers épisodes judiciaires et les campagnes de presse pendant près de quinze ans. L'antisémitisme est donc dès lors officiel et exposé dans de nombreux milieux, y compris ouvriers. Des candidats à l'élection législative se prévalent de l'antisémitisme comme mot d'ordre aux élections législatives. Cet antisémitisme est renforcé par la crise de la séparation des églises et de l'État à partir de 1905, l'amenant probablement à son paroxysme en France. Le passage à l'acte est permis par l'avènement du régime de Vichy, qui laisse libre cours à l'expression débridée et complète de la haine raciale. Au sortir de la guerre, la monstruosité de la solution finale s'impose à tous, muselant jusqu'à nos jours l'expression d'un antisémitisme qui peut s'exprimer de temps à autres au travers de déclarations des partis nationalistes, d'autant plus fracassantes qu'elles sont devenues rarissimes. La persistance d'un sentiment antisémite résiduel en France, paraît toujours d'actualité à en juger par certains crimes et délits qui, de temps à autre, peuvent défrayer la chronique.
+Autre conséquence sociale, le rôle renforcé de la presse. Pour la première fois, elle a exercé une importante influence sur la vie politique française. On peut parler d'un quatrième pouvoir, dès lors qu'elle se substitue à tous les organes de l'État. Surtout que la haute tenue rédactionnelle de cette presse est principalement issue du travail d'écrivains et de romanciers, qui utilisent les journaux comme un moyen révolutionnaire d'expression. La puissance de cette presse a très certainement porté les hommes politiques à l'action, à l'exemple d'un Mercier qui paraît avoir poussé au procès Dreyfus en 1894 pour plaire à La Libre Parole qui l'attaquait férocement. Cela dit, le rôle de la presse est limité par la diffusion des titres, à la fois importante à Paris et faible à l'échelle nationale. L'ensemble du tirage de la presse nationale paraît tourner autour de quatre millions et demi d'exemplaires, ce qui relativise fortement son influence réelle. On assiste par ailleurs en 1899 à la parution d'une presse spécifique destinée à coordonner la lutte (dans le camp dreyfusiste), avec le Journal du Peuple de Sébastien Faure.
+Le choc de l'affaire Dreyfus a un impact également sur le mouvement sioniste « qui y trouve un terrain propice à son éclosion ».
+Le journaliste austro-hongrois Théodore Herzl ressort profondément marqué de l'affaire Dreyfus dont il suit les débuts comme correspondant de la Neue freie Presse de Vienne et assiste à la dégradation d'Alfred Dreyfus en 1895. « L'affaire [...] agit comme un catalyseur dans la conversion de Herzl ». Devant la vague d'antisémitisme qui l'accompagne, Herzl se « convainc de la nécessité de résoudre la question juive », qui devient « une obsession pour lui ». Dans Der Judenstaat (l'État des Juifs), il considère que « si la France - bastion de l'émancipation, du progrès et du socialisme universaliste - p[eut] se laisser emporter dans un maelström d'antisémitisme et laisser la foule parisienne scander « À mort les Juifs ! », où ces derniers peuvent-ils encore être en sécurité - si ce n'est dans leur propre pays ? L'assimilation ne résoudra pas le problème parce que le monde des gentils ne le permettra pas, comme l'affaire Dreyfus l'a si clairement démontré ». Le choc est d'autant plus fort qu'ayant vécu toute sa jeunesse en Autriche, pays antisémite, Herzl a choisi d'aller vivre en France pour l'image humaniste dont se prévaut le pays de Voltaire, à l'abri des excès extrémistes.
+Il organise dès 1897, le 1er congrès sioniste à Bâle et est considéré comme l'« inventeur du sionisme en tant que véritable mouvement politique »257. L'affaire Dreyfus marque aussi un grand tournant dans la vie de nombreux Juifs d'Europe centrale et occidentale, tout comme les pogroms de 1881 - 1882 l'avaient fait pour les Juifs d'Europe orientale.
+L'affaire Dreyfus se distingue par le nombre important d'ouvrages publiés à son sujet. Une partie importante de ces publications relève de la simple polémique et ne sont pas des livres historiques. Mais ces ouvrages sont consultés dans le cadre d'études psycho-sociales de l'affaire.
+Le grand intérêt de l'étude de l'affaire Dreyfus réside dans le fait que toutes les archives sont aisément disponibles. Bien que les débats du Conseil de guerre de 1894 n'aient pas été pris en sténographie, les comptes-rendus de toutes les audiences publiques des nombreux procès de l'affaire peuvent être consultés. Par ailleurs, un grand nombre d'archives sont facilement accessibles aux Archives nationales et aux Archives militaires du fort de Vincennes.
+Une littérature contemporaine de l'affaire a été publiée entre 1894 et 1906. À commencer par l'opuscule de Bernard Lazare, premier intellectuel dreyfusard : malgré des erreurs factuelles, il reste un témoignage des étapes vers la révision.
+L'ouvrage de Joseph Reinach, l'Histoire de l'affaire Dreyfus en sept volumes, qui commence à paraître en 1901 et se termine avec l'index en 1911, a été la référence jusqu'à la publication des travaux d'histoire scientifique livrés à partir des années 1960. Il contient de très nombreuses informations exactes, malgré quelques interprétations généralement contestées sur le pourquoi de l'affaire.
+D'autre part, il existe des « mémoires instantanés » de témoins directs, comme le livre antisémite et mensonger d'Esterházy, ou celles d'Alfred Dreyfus lui-même dans Cinq années de ma vie. Il s'agit de témoignages de nature à compléter le panorama de l'affaire.
+Le précis de l'affaire Dreyfus par « Henri Dutrait-Crozon », pseudonyme du colonel Larpent est la base de toute la littérature antidreyfusarde postérieure à l'affaire, jusqu'à nos jours. L'auteur y développe la théorie du complot, alimenté par la finance juive, pour pousser Esterházy à s'accuser du crime. Sous des dehors scientifiques, on y retrouve un échafaudage de théories qu'aucune preuve ne soutient.
+La publication des carnets de Schwartzkoppen, en 1930, amène un éclairage sur le rôle coupable d'Esterházy dans l'affaire et disculpe du même coup Alfred Dreyfus, s'il en était besoin. La droite nationale conteste la valeur de ce témoignage ambigu et imprécis, mais la plupart des historiens le retient comme source valide.
+La période de l'Occupation jette un voile sur l'affaire. La Libération et la révélation de la Shoah amènent une réflexion de fond sur l'ensemble de l'affaire Dreyfus. Jacques Kayser (1946), puis Maurice Paléologue (1955) et Henri Giscard d'Estaing (1960) relancent l'affaire sans grandes révélations, avec une démarche généralement jugée insuffisante sur le plan historique.
+C'est Marcel Thomas, archiviste paléographe, conservateur en chef aux Archives nationales, qui en 1961, apporte, par son Affaire sans Dreyfus en deux volumes, un renouvellement complet de l'histoire de l'affaire, appuyée sur toutes les archives publiques et privées disponibles. Son ouvrage est le socle de l'ensemble des études historiques ultérieures.
+Henri Guillemin, la même année, avec son Enigme Esterházy, semble trouver la clef de « l'énigme » dans l'existence d'un troisième homme (en plus de Dreyfus et Esterházy), explication qu'il partage momentanément avec Michel de Lombarès, puis l'abandonne quelques années plus tard.
+Jean Doise, normalien et spécialiste des armées, malgré de solides réflexions et descriptions, tente d'expliquer l'affaire par la genèse du canon de 75 mm dans Un secret bien gardé, mais ses hypothèses conclusives sont regardées de manière très critique.
+Jean-Denis Bredin, avocat et historien, livre L'Affaire en 1983, reconnue comme la meilleure somme sur l'affaire Dreyfus. L'intérêt de l'ouvrage porte sur une relation strictement factuelle et documentée des faits et une réflexion polyforme sur les différents aspects de cet événement.
+Il revient enfin à Vincent Duclert d'avoir livré en 2005 la première Biographie d'Alfred Dreyfus, en 1 300 pages, parmi une dizaine d'autres publications sur l'affaire Dreyfus, incluant la correspondance complète d'Alfred et Lucie Dreyfus de 1894 à 1899.
+Enfin, l'affaire Dreyfus a fourni le prétexte à de nombreux romans. La dernière oeuvre d'Émile Zola (1902), Vérité, transpose l'affaire Dreyfus dans le monde de l'école. Anatole France publie L'Île des pingouins (1907) qui relate l'affaire au livre VI : « L'Affaire des quatre-vingt mille bottes de foin. »265 D'autres auteurs y contribueront, comme Roger Martin du Gard, Marcel Proust ou Maurice Barrès.
+Contenu soumis à la GFDL
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Albert Einstein, né le 14 mars 1879, Ulm (Wurtemberg) et décédé le 18 avril 1955 Princeton (New Jersey) est un physicien qui fut successivement allemand, puis apatride (1896), suisse (1901), et enfin helvéto-américain (1940)1. Il publie sa théorie de la relativité restreinte en 1905, et une théorie de la gravitation dite relativité générale en 1915. Il contribue largement au développement de la mécanique quantique et de la cosmologie, et reçoit le prix Nobel de physique en 1921 pour son explication de l'effet photoélectrique. Son travail est notamment connu pour l'équation E=mc², qui établit une équivalence entre la matière et l'énergie d'un système.
+Son père, Hermann Einstein, est né le 30 août 1847 à Buchaun, et meurt le 10 octobre 1902 à Milan. Il épouse Pauline Koch le 8 août 1876. Trois ans plus tard, le 14 mars 1879, Albert Einstein naît dans leur appartement à Ulm en Allemagne ; c'est leur premier enfant. Son intérêt pour la science est éveillé dans son enfance par une boussole à l'âge de cinq ans, et le livre La Petite Bible de la géométrie, à treize ans.
+Il fait ses études primaires et secondaires à la Hochschule d'Aargau en Suisse, où il obtient son diplôme le 30 septembre 1896. Il a d'excellents résultats en mathématiques, mais refuse de s'instruire en biologie et en sciences humaines, car il ne perçoit pas l'intérêt d'apprendre des disciplines qu'il estime déjà largement explorées. Il considère alors la science comme le fruit de la raison humaine et de la réflexion. Il demande à son père de lui donner la nationalité suisse afin de rejoindre sa famille émigrée à Milan en Italie.
+Il entre à l'École polytechnique fédérale de Zurich (ETH) en 1896 après y avoir cependant raté son premier examen d'entrée. Il s'y lie d'amitié avec le mathématicien Marcel Grossmann, qui l'aide plus tard en géométrie non euclidienne. Il y rencontre aussi Mileva Maric, sa première épouse. Il obtient avec justesse son diplôme en 1900 s'avouant lui-même dans son autobiographie, « incapable de suivre les cours, de prendre des notes et de les travailler de façon scolaire ».
+Au cours de cette période, il approfondit ses connaissances en autodidacte par la lecture de livres de référence, comme ceux de Boltzmann, de Helmholtz et de Nernst. Son ami Michele Besso l'initie aux idées de la Mécanique de Ernst Mach. Selon plusieurs biographies, cette période de 1900 à 1902 est marquée par la précarité de sa situation : il postule à de nombreux emplois sans être accepté. La misère d'Albert Einstein préoccupe son père qui tente en vain de lui trouver un poste. Albert se résigne alors à s'éloigner du milieu universitaire pour trouver un emploi dans l'administration. En 1901, il publie son premier article scientifique dans les Annalen der Physik, et cet article est dédié à ses recherches sur la capillarité.
+Le premier enfant d'Albert Einstein, Lieserl, naît à la fin de l'année 1902. Son existence fut longtemps ignorée des historiens, et il n'existe aucune information connue sur son devenir. Albert et Mileva se marient en 1903, son père lui ayant finalement donné sa permission sur son lit de mort. En 1904, le couple donne naissance à Hans-Albert, puis Eduard Einstein en 1910.
+En 1902, il est embauché à l'Office des brevets de Berne, ce qui lui permet de vivre correctement tout en poursuivant ses travaux. Durant cette période, il fonde l'Académie Olympia avec Conrad Habicht et Maurice Solovine, qui traduisit plus tard ses oeuvres en français. Ce cercle de discussion se réunit au 49 de la rue Kramgasse, et organise des balades en montagne. Einstein partage le résultat de ses travaux avec Conrad Habicht et lui envoie les articles qu'il publie pendant l'année 1905 concernant les fondements de la relativité restreinte, l'hypothèse des quanta de lumière et la théorie du mouvement brownien, et qui ouvrent de nouvelles voies dans la recherche en physique nucléaire, mécanique céleste, etc. L'article portant sur le mouvement brownien prend appui sur des travaux qu'Einstein développe plus tard et qui aboutissent à sa thèse, intitulée Eine neue Bestimmung der Moleküldimensionen (« Une nouvelle détermination des dimensions moléculaires » en allemand), et à son diplôme de doctorat le 15 janvier 19062.
+En 1909, Albert Einstein est reconnu par ses pairs, en particulier Planck et Nernst qui souhaitent l'inviter à l'Université de Berlin. Le 9 juillet 1909, il est distingué docteur honoris causa par l'université de Genève. Les offres d'emplois se multiplient. En 1911, il est invité au premier Congrès Solvay, en Belgique, qui rassemble les scientifiques les plus connus. Il y rencontre entre autres Marie Curie, Max Planck et Paul Langevin. En 1913, Albert est nommé à l'Académie des sciences de Prusse.
+En 1914, il déménage en Allemagne et habite à Berlin de nombreuses années. Les propositions d'emploi qu'il reçoit lui permettent de se consacrer tout entier à ses travaux de recherche. Mileva et Albert se séparent, et ce dernier commence à fréquenter une cousine berlinoise, Elsa. À l'ouverture du conflit de la Première Guerre mondiale, il déclare ses opinions pacifistes. La ville de Berlin s'était engagée à lui fournir une maison, mais Albert Einstein obtient finalement un terrain sur lequel il fait construire une maison à ses frais. Situé à Caputh, près du lac de Havelsee, l'endroit est calme et lui permet de faire fréquemment de la voile.
+En 1916, il publie un livre présentant sa théorie de la gravitation, connue aujourd'hui sous le nom de la relativité générale. En 1919, Arthur Eddington réalise la mesure de la déviation que la lumière d'une étoile subit à proximité du Soleil, cette déviation étant une des prévisions découlant de cette théorie. Cet évènement est médiatisé, et Einstein entreprend à partir de 1920 de nombreux voyages à travers le monde. En 1925, il est lauréat de la médaille Copley, et en 1928, il est nommé président de la Ligue des Droits de l'homme. En 1935, il devient lauréat de la Médaille Franklin.
+La situation s'assombrit en Allemagne dans les années 1920, et il subit des attaques visant ses origines juives et ses opinions pacifistes. Sa sécurité est menacée par la montée des mouvements nationalistes dont celle du parti nazi. Peu après l'arrivée d'Hitler au pouvoir, au début 1933, il apprend que sa maison de Caputh a été pillée par les nazis, et il décide de ne plus revenir en Allemagne. Après un court séjour sur la côte belge, il s'installe aux États-Unis, où il travaille à l'Institute for Advanced Study de Princeton. Ses recherches visent à élaborer une théorie unifiant la gravitation et l'électromagnétisme, mais sans succès, ce qui le détourne peut être d'autres recherches dans des domaines plus fructueux.
+Le 2 août 1939, il rédige une lettre à Roosevelt qui contribue à enclencher le projet Manhattan.
+Einstein meurt le 18 avril 1955 d'une rupture d'anévrisme, et l'autopsie révèle que son cerveau est marqué d'une hypertrophie de l'hémisphère gauche. Ses cendres sont éparpillées dans un lieu tenu secret, conformément à son testament. Mais en dépit de ses dernières volontés, son cerveau et ses yeux sont préservés par le médecin légiste ayant effectué son autopsie.
+Son fils Eduard, atteint d'une possible schizophrénie, passe la majeure partie de sa vie dans une clinique en Suisse, et son autre fils Hans-Albert devient ingénieur en Californie.
+L'année 1905 est une année fructueuse pour Einstein, quatre de ses articles étant publiés dans la revue Annalen der Physik :
+Le premier article, publié en mars, expose un point de vue révolutionnaire sur la nature corpusculaire de la lumière, par l'étude de l'effet photoélectrique. Einstein l'intitule : Sur un point de vue heuristique concernant la production et la transformation de la lumière. Il y relate ses recherches sur l'origine des émissions de particules, en se basant sur les travaux de Planck qui avait, en 1900, établi une formule d'un rayonnement quantifié, c'est-à-dire discontinu. Planck avait été contraint d'aborder le rayonnement lumineux émis par un corps chaud d'une manière qui le déconcertait : pour mettre en adéquation sa formule et les résultats expérimentaux, il lui avait fallu supposer que le courant de particules se divisait en blocs d'énergie, qu'il appela quanta. Bien qu'il pensât que ces quanta n'avaient pas de véritable existence, sa théorie semblait prometteuse et plusieurs physiciens y travaillèrent. Einstein réinvestit les résultats de Planck pour étudier l'effet photoélectrique, et il conclut en énonçant que la lumière se comportait à la fois comme une onde et à la fois comme un flux de particules. L'effet photoélectrique a donc fourni une confirmation simple de l'hypothèse des quanta de Max Planck. En 1920, les quanta furent appelés les photons.
+Deux mois plus tard, en mai, Einstein fait publier un deuxième article sur le mouvement brownien. Il explique ce mouvement par une entorse complète au principe d'entropie tel qu'énoncé à la suite des travaux de Newton sur les forces mécaniques : selon lui, les molécules tireraient leur énergie cinétique de la chaleur. Cet article fournit une preuve théorique (vérifiée expérimentalement par Jean Perrin en 1912) de l'existence des atomes et des molécules. Le mouvement brownien a été expliqué au même moment qu'Einstein par Marian Smoluchowski, et par Louis Bachelier en 1900.
+Le troisième article est plus important, car il représente la rupture intuitive d'Einstein avec la physique newtonienne. Dans celui Sur l'électrodynamique des corps en mouvement, le physicien s'attaque au postulat d'un espace et d'un temps absolus, tels que définis par la mécanique de Newton, et à l'existence de l'éther, milieu interstellaire inerte qui devait soutenir la lumière comme l'eau ou l'air soutiennent les ondes sonores dans leurs déplacements. Cet article, publié en juin, amène à deux conclusions : l'éther n'existe pas, et le temps et l'espace sont relatifs. Le nouvel absolu qu'Einstein édifie est détaché de la nature quantitative de ces deux notions que sont l'espace et le temps, mais sont liés par la conservation de leur relation à travers les différents référentiels d'études. Les conséquences de cette vision révolutionnaire de la physique, qui découle de l'idée qu'Einstein avait de la manière dont les lois physiques devaient contraindre l'univers, ont bousculé tant la physique théorique que ses applications pratiques. L'apport exact d'Einstein par rapport à Henri Poincaré et quelques autres physiciens est aujourd'hui assez disputé (voir Controverse sur la paternité de la relativité).
+Le dernier article, publié en septembre, donne au titre L'inertie d'un corps dépend-elle de son contenu en énergie ? une réponse célèbre : la formule d'équivalence masse-énergie, E=mc². C'est un résultat de la toute nouvelle relativité restreinte, dont découlent un vaste champ d'études et d'applications : physique nucléaire, mécanique céleste, et armes et centrales nucléaires, par exemple.
+En 1916, Einstein publie sa théorie dite de la relativité générale. Son ancien condisciple Marcel Grossmann l'aide dans ses travaux en lui apportant ses connaissances en géométrie différentielle : ils publient un article sur les tenseurs de Ricci et de Riemann-Christoffel en 1913. En octobre 1914, Einstein publie un article sur la géométrie différentielle, et en juin 1915, il donne des conférences à l'université Göttingen devant Hilbert et Klein.
+Les « équations du champ » sont la clé de voûte de cette théorie. Elles décrivent le comportement du champ de gravitation (la métrique de l'espace-temps) en fonction du contenu énergétique et matériel. La théorie de la relativité ainsi que ses ouvrages de 1905 et 1916 forment la base de la physique moderne.
+La relation entre Einstein et la physique quantique est remarquable : d'un côté, certaines de ses théories sont la base de la physique quantique, en particulier son explication de l'effet photoélectrique ; d'un autre côté, il refuse beaucoup d'idées et d'interprétations de la mécanique quantique plus tard. L'opposition entre le groupe d'Einstein et Erwin Schrödinger et celui de Niels Bohr et Werner Heisenberg se situait à la frontière de la physique et de la philosophie.
+En 1927, invité au cinquième congrès Solvay, il a de nombreuses conversations avec Niels Bohr à ce sujet. Il dit alors : « Gott würfelt nicht » (« Dieu ne joue pas aux dés ») pour marquer son opposition à l'interprétation probabiliste de la physique quantique, ce à quoi Niels Bohr répondit : « Qui êtes-vous Albert Einstein pour dire à Dieu ce qu'il doit faire ? ». Le paradoxe quantique qu'il précise plus tard avec Podolsky et Rosen à Princeton reste aujourd'hui très important.
+Pour vérifier la relativité générale, une mesure de la déviation des rayons lumineux aux alentours d'une masse, lors d'une éclipse solaire est envisagée. La première expédition est programmée en 1915, mais est rendue impossible par la Première Guerre mondiale. En 1919, Arthur Eddington réalise la fameuse mesure. Il annonce que les résultats sont conformes à la théorie d'Einstein. Il apparaît bien plus tard qu'en raison du temps nuageux, la marge d'erreur était bien supérieure au phénomène à mesurer. Stephen Hawking explique dans Une Brève histoire du temps que ce genre de faux bon résultat est courant quand on sait à quoi s'attendre. Comme entre-temps, d'autres mesures avaient confirmé la déviation de la lumière, le prestige de la relativité générale n'en fut pas ébranlé.
+Les positions politiques prises par Einstein sont marquées par ses opinions pacifistes, qu'il relativise parfois, par exemple en déconseillant l'objection de conscience à un jeune Européen lui ayant écrit pendant les années 1930, « pour la sauvegarde de son pays et de la civilisation ». En 1913, il est cosignataire d'une pétition pour la paix que trois autres savants allemands acceptent de signer. Einstein éprouve une forte antipathie vis à vis des institutions militaires : « Si un homme peut éprouver quelque plaisir à défiler en rang aux sons d'une musique, je méprise cet homme... Il ne mérite pas un cerveau humain puisqu'une moelle épinière le satisfait. » Einstein est lié à de nombreuses causes pacifistes, car il se montre ouvert aux propositions multiples de soutien qu'il reçoit, et accepte souvent de s'engager pour les causes qu'il juge juste.
+Pendant la guerre froide, il s'exprime contre la course aux armements et appelle, par exemple avec Bertrand Russell et Joseph Rotblat, les scientifiques à plus de responsabilités, les gouvernements à un renoncement commun à la prolifération des armes atomiques et à leur utilisation, et les peuples à chercher d'autres moyens d'obtenir la paix (création du Comité d'urgence des scientifiques atomistes en 1946, Manifeste Russell-Einstein en 1954). Il s'est plusieurs fois exprimé sur sa conviction de la nécessité de créer un État mondial.
+Le 2 août 1939, il rédige une lettre à Roosevelt qui contribue à enclencher le projet Manhattan. En 1945, lorsqu'il comprend que les États-Unis vont réaliser la première bombe atomique de l'histoire, il prend l'initiative d'écrire une nouvelle fois à Roosevelt pour le prier de renoncer à cette arme. Après la guerre, Einstein milite pour un désarmement atomique mondial, jusqu'au seuil de sa mort en 1955, où il confesse à Linus Pauling : « j'ai fait une grande erreur dans ma vie, quand j'ai signé cette lettre [de 1939]. »
+Einstein apporte un soutien marqué aux mouvements sionistes. En 1920, il accompagne ainsi le chef de file sioniste Chaim Weizmann aux États-Unis au cours d'une campagne de récolte de fonds. Il se rend également en Palestine mandataire dans le cadre de l'inauguration de l'université hébraïque de Jérusalem à laquelle il lègue plus tard ses archives personnelles. Ses apparitions donnent un prestige politique à la cause sioniste. Suite à une invitation à s'établir à Jérusalem, il écrit dans son carnet de voyage que « le coeur dit oui (...) mais la raison dit non ». Selon Tom Segev, Einstein apprécie son voyage en Palestine et les honneurs qui lui sont faits. Il marque néanmoins sa désapprobation en voyant des Juifs prier devant le mur des lamentations ; Einstein commente qu'il s'agit de personnes collées au passé et faisant abstraction du présent.
+Il a une vision clairvoyante de l'évolution de la situation entre les deux guerres en Allemagne : « Pour l'instant, je suis un savant allemand, mais si je viens à devenir une bête noire, je serai un juif suisse ». Il reçoit des menaces de mort dès 1922. De violentes attaques ont lieu contre sa théorie de la relativité en Allemagne et en Russie. Philipp Lenard, « chef de la physique aryenne ou allemande » attribue à Friedrich Hasenöhrl la formule E=mc² pour en faire une création aryenne. Einstein démissionne - juste à temps - de l'académie de Prusse en 1933, et il est exclu de celle de Bavière. Cette année-là, Einstein est en voyage à l'étranger, et il choisit de ne pas revenir en Allemagne, où Hitler a pris le pouvoir en janvier. Après un séjour en Belgique, il décline une proposition de la France de l'accueillir comme professeur au Collège de France, et part pour les États-Unis, à Princeton.
+Après la Seconde Guerre mondiale, son engagement vis à vis des communautés juives et Israël, est nuancée par ses opinions pacifistes. Il préface le Livre Noir, recueil de témoignages sur l'extermination des juifs en Russie par les nazis pendant la guerre. Et en décembre 1948, il co-signe une lettre condamnant le massacre de Deir Yassin commis par des combattants israéliens de l'Irgoun et du Lehi pendant la Guerre de Palestine de 1948.
+Ben Gourion lui propose en 1952 la présidence de l'État d'Israël, qu'il refuse : « D'abord, si je connais les lois de l'univers, je ne connais presque rien aux êtres humains. De plus, il semble qu'un président d'Israël doit parfois signer des choses qu'il désapprouve, et personne ne peut imaginer que je puisse faire cela. »
+Einstein s'est exprimé sur ses convictions socialistes en 1949, en pleine période du maccarthysme, dans un essai intitulé Pourquoi le Socialisme, publié dans la Monthly Review. Il lui semble que le principe du gouvernement des peuples par eux-mêmes, le fait de travailler pour eux-mêmes, est plus propice à l'épanouissement individuel que celui de l'exploitation du grand nombre par une minorité. Mais il est déçu par ce qu'il peut apprendre de l'Union soviétique, et il considère que les peuples doivent s'engager d'abord dans le pacifisme, afin de mettre en place des conditions favorables à une évolution vers le socialisme. Sa correspondance révèle qu'il voit un rapprochement entre le maccarthysme et les évènements des années 1930 en Allemagne. Il écrit au juge chargé de l'affaire Rosenberg pour demander leur grâce, et il aide de nombreuses personnes qui souhaitent immigrer aux États-Unis. Contacté par William Frauenglass, un professeur d'anglais de lycée suspecté de sympathies communistes, il rédige un texte dénonçant ouvertement le maccarthysme et encourageant les intellectuels à résister à ce qu'il qualifie de « mal ». Le FBI ouvre un dossier sur lui, disponible aujourd'hui sur leur site internet. Joseph McCarthy lui-même attaque Einstein au Congrès en le traitant « d'ennemi de l'Amérique ». Sa secrétaire, Helen Dukas, est soupçonnée d'espionnage au service de l'URSS. Les médias américains se montrent virulents dans leur traitement de l'affaire, et seules quelques personnalités, comme Bertrand Russell, prennent sa défense. L'affaire est finalement classée en 1954, aucune preuve concluante n'ayant été apporté pour étayer ces accusations.
+Einstein a rencontré un grand nombre de personnalités majeures de son époque, dans les domaines scientifique, politique et artistique, et il a laissé une correspondance très riche. Il entretient par exemple longtemps une relation amicale avec la reine Élisabeth de Belgique, avec qui il joue du violon. Il s'est toujours étonné de sa célébrité et de ses effets.
+Sa première épouse, Mileva Maric est atteinte de coxalgie, qui la rend boiteuse. C'est aussi une jeune femme brillante, élève du Polytechnicum. Elle tombe enceinte alors qu'ils ne sont pas encore mariés, et elle accouche chez ses parents en Serbie d'une fille, Lieserl. Einstein se montra très dur avec sa compagne suivante, Elsa. Ils faisaient chambre à part et il lui arrivait de lui interdire son bureau, se faisant presque servir : « Je traitais ma femme comme une employée, mais une employée que je ne pouvais pas congédier[réf. nécessaire]. »
+Il voit peu son fils Hans-Albert qui, à l'âge adulte, travaille en Californie. La santé mentale de son autre fils, Eduard, se détériore brutalement alors qu'il est âgé de vingt ans, et il doit être interné une première fois à Zurich en 1930. Son père lui rend une dernière visite en 1933. D'abord critique envers la psychanalyse, il refuse que son fils Eduard suive un nouveau traitement psychanalytique[réf. nécessaire], mais il finit par accepter l'essentiel des idées de Sigmund Freud. En 1933, il choisit Sigmund Freud pour publier un échange de lettres intitulé Pourquoi la guerre ?
+Einstein écrit plusieurs textes traitant des relations entre science et religion. Dans son article paru en 1930, Einstein distingue trois formes de religion : la première est due à la crainte et à une incompréhension de la causalité des phénomènes naturels, d'où l'invention d'êtres surnaturels. La deuxième est sociale et morale. La troisième qu'Einstein appelle "religiosité cosmique" est une contemplation de la structure de l'univers. Elle est compatible avec la science et n'est associée à aucun dogme, ni croyance. Einstein déclare être religieux, mais seulement dans ce troisième sens qu'il voit dans le mot religion.
+Lorsqu'en 1929, le Rabbin Herbert S. Goldstein lui demande "Croyez-vous en Dieu ?", Einstein répond "Je crois au Dieu de Spinoza qui se révèle lui-même dans l'ordre harmonieux de ce qui existe, et non en un Dieu qui se soucie du destin et des actions des êtres humains". Einstein a souvent utilisé le mot Dieu, cependant le sens qu'il donnait à ce mot fait l'objet de diverses interprétations. Une partie du clergé a considéré que les vues d'Einstein étaient compatibles avec la foi. À l'inverse, le Vatican dénonce alors « un authentique athéisme même si il est dissimulé derrière un panthéisme cosmique ». Si Einstein rejette les croyances traditionnelles, il se distingue personnellement des athées et répète qu'il est « un non-croyant profondément religieux. » Dans une lettre adressée au philosophe Eric Gutkind, Einstein écrit : « Le mot Dieu n'est pour moi rien de plus que l'expression et le produit des faiblesses humaines, la Bible un recueil de légendes, certes honorables mais primitives qui sont néanmoins assez puériles. Aucune interprétation, aussi subtile soit-elle peut selon moi changer cela ». Einstein répondra d'ailleurs à un journaliste lui demandant s'il croit en Dieu : « Définissez-moi d'abord ce que vous entendez par Dieu et je vous dirai si j'y crois. »16.
+Un militant de l'athéisme comme Richard Dawkins considère également que la position d'Einstein était seulement de l'athéisme poétiquement embelli. Lors de la campagne d'affichage de slogans en faveur de l'athéisme sur les bus de Londres en 2008 (soutenue par Dawkins), une citation d'Einstein fut utilisée. Cela provoqua des protestations, car cette utilisation a tendance à assimiler Einstein à un athée.
+La philosophie n'est pas l'un de ses domaines de prédilection, mais Albert Einstein marque son intérêt pour la vision de l'humanité que propose Friedrich Nietzsche, et certaines idées présentes dans les réflexions de Spinoza. Néanmoins, il apporte une nouvelle vision du monde moderne par ses travaux scientifiques comme par ses ouvrages non scientifiques. Ainsi, dans son ouvrage Comment je vois le monde publié en 1934, un an après son installation aux États-Unis, Albert Einstein présente sa vision de l'humanité, et pose la question de la place de la science vis-à-vis de l'humanité. Ces travaux ont pu avoir une certaine influence sur des philosophes comme Martin Heidegger ou Jean-Paul Sartre.
+Contrairement à la citation qui lui est attachée par de nombreuses publications, en particulier celle de l'astrologue Élizabeth Teissier, Einstein ne croyait pas en l'astrologie.
+La citation apocryphe qui lui est attribuée est : « L'astrologie est une science en soi, illuminatrice. J'ai beaucoup appris grâce à elle et je lui dois beaucoup. Les connaissances géophysiques mettent en relief le pouvoir des étoiles et des planètes sur le destin terrestre. À son tour, en un certain sens, l'astrologie le renforce. C'est pourquoi c'est une espèce d'élixir de vie pour l'humanité. »
+Ce faux a pour origine le Huters astrologischer Kalender de 1960, publié en 1959. La phrase a donc été forgée environ cinq ans après la mort d'Einstein 19.
+Son opinion négative sur l'astrologie est exprimée dans une introduction écrite en 1951 pour l'ouvrage de Carola Baumgardt 20. Einstein rappelle que Kepler avait su accepter l'idée que l'expérience seule pouvait décider de la validité d'une théorie mathématique, aussi belle soit-elle. Il cite alors l'astrologie comme illustration, dans la pensée keplérienne, d'un reste de manière de penser animiste et téléologiquement orientée omniprésente dans les recherches "scientifiques" de l'époque.
+Albert Einstein soutient la cause végétarienne. Il considére le végétarisme comme un idéal sans pourtant le pratiquer lui-même malgré quelques problèmes de conscience. Ses arguments se basent principalement sur des raisons de santé, mais il croit également à l'effet bénéfique du régime végétarien sur le tempérament des hommes. Un an avant sa mort, il décide de mettre en pratique ses idées et entame un régime végétarien.
+En 1978, le journaliste Steven Levy apprend par son employeur le journal New Jersey Monthly que le cerveau du savant aurait été conservé et lui demande de le récupérer.
+Levy est accompagné par un caméraman durant sa quête et le film est diffusé dans les années 1990 à la télévision en France. Après une longue enquête, il le retrouve en effet à Wichita, Kansas, chez le pathologiste qui avait procédé à son extraction, le Dr Thomas Harvey. Cette information souleva l'intérêt des médias.
+Le Dr Harvey déclara qu'il n'avait rien trouvé de particulier dans la structure physique du cerveau d'Einstein pouvant expliquer son génie. Mais de plus récentes études, parues notamment dans Science et Vie, concluent que le cerveau d'Einstein possédait un nombre élevé d'astrocytes. Les chercheurs à qui l'on doit cette découverte ignorent si cela est responsable de son intelligence étant donné que les astrocytes auraient été négligées dans les recherches neurologiques s'intéressant avant tout aux neurones.
+Une étude approfondie de la structure du cerveau révèle également que la scissure de Sylvius présente une inclinaison particulière, augmentant la taille de la zone du raisonnement abstrait au détriment de la zone du langage, ce qui pourrait expliquer qu'Einstein n'ait su parler que très tard.
+Einstein a aussi inventé des appareils et déposé de nombreux brevets en collaboration avec des amis :
+Un einstein est une unité de mesure égale au nombre d'Avogadro fois l'énergie d'un photon (lumière). Il existe un élément chimique : l'einsteinium.
+2005 fut l'année mondiale de la physique, mais aussi l'année d'Einstein, en commémoration du centenaire de l'annus mirabilis.
+Contenu soumis à la GFDL
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+L'Art (du latin Ars, artis « habileté, métier, connaissance technique »note 1) est une activité humaine, ou le produit de cette activité, consistant à arranger entre eux divers éléments en s'adressant délibérément aux sens, aux émotions et à l'intellect.
+Les définitions de ce concept varient selon les époques et les lieux, et aucune d'entre elles n'est universellement acceptée. C'est pourquoi les produits et pratiques artistiques ont toujours été classés diversement selon les cultures, les auteurs et les institutions. Selon l'usage le plus courant du mot au xxie siècle, l'art englobe principalement les produits de « beaux arts » tels que l'architecture, la sculpture, la peinture, la musique, la danse et la poésie, auxquels on ajoute fréquemment le cinéma, la gravure, le théâtre, la photographie, la bande dessinée, la télévision, voire l'art numérique. La classification des arts n'est pas universelle et à part pour le 7e art (le cinéma) qui a eu un succès particulier, une classification unanime semble impossible, voire sans intérêt.
+En Europe, la conception de l'art comme production par des artistes d'objets que l'on s'accorde à trouver beaux, ou du moins stimulants pour les sens, date du xviiie siècle. De nos jours, le relativisme l'emporte et on abandonne le notion de beau pour ne voir dans l'art qu'une création de l'homme. L'art contemporain ayant pour simple objectif d'être une création, il ne cherche pas à être beau mais existe par le simple acte de la création artistique qui s'oppose à la simple nature.
+De tout temps, la philosophie s'est interrogée sur la nature de l'art.
+Platon dans l'Ion et l'Hippias majeur ou Aristote dans XXX s'interrogent sur l'art en tant que beau. Toutefois, l'esthétique antique diffère parfois notablement des esthétiques postérieures et le mot grec XXXXX (technè), qui est l'équivalent le plus proche du français art, désigne dans la Grèce antique l'ensemble des activités soumises à certaines règles. Il englobe donc à la fois des savoirs, des arts et des métiers. Les muses grecques ne sont pas toutes associées aux arts tels qu'ils seront définis par la suite et la poésie, par exemple, n'est pas une « technè ».
+La civilisation romaine ne distingue pas non plus clairement le domaine de l'art de celui des savoirs et des métiers bien que Cicéron et Quintilien y aient contribué par leurs réflexions. Ainsi, chez Galien, le terme d'« art » désigne un ensemble de procédés servant à produire un certain résultat :
+« Ars est systema præceptorum universalium, verorum, utilium, consentientium, ad unum eumdemque finem tendentium.2 »+
« L'art est le système des enseignements universels, vrais, utiles, partagés par tous, tendant vers une seule et même finnote 2. »+
Dans cette acception du mot, qui a prévalu jusqu'à la fin du Moyen Âge, l'art s'oppose à la fois à la science conçue comme pure connaissance, indépendante des applications, et à la nature qui produit sans réfléchir. À l'idée de règle de production s'ajoute la considération de l'effort requis dans cette activité. Lorsque le mot est employé, il lui est généralement attaché une épithète que le précise pour former des expressions telles que « arts libéraux », « arts mécaniques », « art militaire », etc.2 Et s'il arrive parfois que les arts libéraux soient visés par l'emploi du mot non qualifié « ars », on est encore bien loin du sens contemporain ; l'astronomie était un « art libéral » tandis que le spectacle de « theatrica » restait un « art mécanique ».
+Jusqu'à la Renaissance, il n'y a pas de différence précise entre l'artiste et l'artisan : on appelle « artiste » un artisan dont la production est d'une qualité exceptionnelle. La différence ne commencera à devenir plus précise que lorsque les artistes commenceront à s'émanciper des corporations pour faire allégeance aux académies et à la commande nobiliaire. C'est alors que le sens maintenant familier du mot « art » commence à se dégager : Non seulement de nombreuses techniques s'en séparent, mais de plus, après la découverte des règles de la perspective, l'aspect visuel y prendra une importance croissante.
+C'est du siècle des Lumières que date la notion d'art aujourd'hui communément admise. Partant d'une réflexion sur les sens et le goût, une conception basée sur l'idée de beauté finit par s'établir. Avec Emmanuel Kant, l'esthétique acquiert son sens propre d'une théorie l'art dont le mouvement romantique donnera les exemples paradigmatiques. L'importance de l'observation de règles passe alors au second plan tandis que l'intention de l'artiste, qui vise nos sens et nos émotions, devient primordiale.
+Mais le xxe siècle, par ses pratiques et ses idéologies, remet en question tout ce qui avait pu être retenu au siècle précédent. Il conteste en particulier l'existence d'une essence de l'art qui se retrouverait à travers les âges et les civilisations, et donc le rêve d'une définition universelle. Il souligne également le caractère parfois ambigu du rapport entre « beauté » et « art », par exemple lorsque l'oeuvre d'art représente la nature de manière effrayante, voire repoussante.
+C'est pourquoi le discours européen contemporain sur l'art comporte un risque d'anachronisme dans la mesure où, selon ce discours, l'art impliquerait une intention qui n'existe pas forcément en d'autres époques ou en d'autres lieux. L'Art préhistorique par exemple, se réfère à des éléments artistiques comme des peintures ou des sculptures, mais aucun texte ne précise si ces éléments étaient destinés à la contemplation, à des célébrations rituelles ou à d'autres usages. Dans certaines cultures (par exemple indienne ou chinoise), de tels textes existent, mais il est difficile de déterminer dans quelle mesure les concepts utilisés, notamment ceux traduits en français par les mots « juste » ou « beau », sont identifiables à ceux utilisés en Occident. L'introduction d'une hypothèse d'art inconscient ou involontaire pourrait permettre de contourner ce type de difficultés.
+On donne souvent des listes plus ou moins complètes de domaines constitutifs de l'art, en notant ce qu'à la suite de Wittgenstein on appelle des « ressemblances familiales » : l'art devient alors un ensemble de pratiques et de résultats qui partagent un certain nombre de traits, bien qu'aucun d'entre eux ne soit universel.
+La liste classique des arts, telle que proposée au xixe siècle par Hegel dans Esthétique ou philosophie de l'art, continue cependant de servir de référence : Elle indique que les principaux arts sont au nombre de cinq : architecture, sculpture, peinture, littérature, musique. À partir d'eux, par combinaison ou par prolongement, on parvient à une liste plus exhaustive qui peut inclure par exemple la danse, le cinéma (souvent nommé « septième art »), la bande dessinée, l'opéra, la photographie, etc.
+Les différentes conceptions de l'art et les difficultés de l'aborder dans sa globalité se répercutent sur les conceptions de son histoire.
+Dans sa conception la plus classique, l'histoire de l'art s'est constituée au xixe siècle en adoptant sans questionnement le progressisme et les valorisations de son temps. Dans cette optique naturaliste, qui considère l'art comme une constante de l'humain, elle décrit les instances qui dévoilent l'« essence » de l'art à travers les différentes époques.
+L'anthropologie de l'art est par exemple une science sociale qui s'attache à étudier les productions plastiques et picturales des sociétés humaines dites « traditionnelles », « sans écriture » ou « primitives ».
+Mais cette hypothèse d'une autonomie des phénomènes artistiques et de leur développement intelligible a été progressivement délaissée au profit d'une vision beaucoup plus contextualiste et sociale. Comme le note Antoine Hennion, « La méthode de la sociologie de l'art et celle de l'histoire de l'art s'opposent l'une à l'autre », la première tend à éliminer ce que la seconde essaie au contraire d'épaissir. Dans ce cadre, l'histoire de l'art ne peut évidemment se construire qu'en tenant compte des évolutions de la notion d'art et elle est par conséquent sans cesse à reconstruire.
+Une autre difficulté est liée au fait que relater les évolutions de l'art nécessite de procéder à des regroupements, le plus souvent par aires géographiques et par périodes historiques. Or la pertinence de telles délimitations est toujours à relativiser : à quel moment, par exemple, séparer l'Antiquité tardive du Moyen Âge ? Faut-il présenter l'art de l'Égypte ptolémaïque aux côtés de celui de l'antiquité grecque ? Ou encore, si l'on convient de considérer la poésie comme un art, faut-il ou non présenter les poèmes de Léopold Sédar Senghor du côté des arts africains ?
+Conséquences de ces divergences de vues, les querelles sur la classification des arts sont nombreuses dans l'histoire de l'art et dans l'esthétique. Claude Roy résume ainsi ce pluralisme de la notion d'art, dont pourtant la dimension religieuse et symbolique est toujours centrale :
+« La notion d'art, qu'il s'agisse de l'art nègre, de l'art crétois ou de l'art impressionniste, reste à la fois imprécise, ineffable et irritante. L'art, c'est ce qui maintient vivante l'idole morte en tant qu'idole. L'art c'est ce qui dans un objet continue à servir quand il ne sert plus à rien11. »+
Si l'on considère que l'art consiste à bâtir, à sculpter, à réaliser des motifs ornementaux, l'existence d'un art préhistorique semble indiscutable. En revanche, si l'on voit dans l'art une sorte de luxe destiné aux musées et aux expositions, il est probable que les premiers peuples n'y aient jamais songé. Enfin, si l'on considère, plus généralement, que l'art consiste à s'adresser aux sens et aux émotions de ceux qui en sont les spectateurs, il est difficile de ne pas qualifier d'artistes les auteurs d'un certain nombre de productions préhistoriques, comme les célèbres fresques de la grotte de Lascaux.
+Quelle était la fonction exacte des sculptures et des peintures réalisés par ces artistes ? Nous ne le savons pas avec certitude, même si les hypothèses de fonctions rituelles, magiques, symboliques ou d'enseignement ont souvent été envisagées. Le travail de l'artiste aurait alors probablement eu comme visée première une efficacité « pratique », sans exclure pour autant une certaine recherche esthétique.12.
+L'Afrique recèle d'innombrables arts locaux qui reflètent une grande variété de cultures qui ne cessent d'évoluer au fil du temps. Ces créations ont été considérées comme de véritables objets d'art surtout à partir du début du xxe siècle, notamment sous l'influence des peintres cubistes. La découverte de cet art a alors notablement influencé l'art moderne occidental.
+De nos jours, la plupart des oeuvres africaines appartiennent à des collectionneurs privés car, dans le passé, les musées ont négligé cet art. Depuis, les cotes pour des objets anciens authentiques se sont envoléesnote 3, et l'UNESCO en est venu à interdire depuis le début des années 1990 l'exportation de masques et de statues en dehors du continent africain.
+Le masque en bois, qui représente le plus souvent un esprit a longtemps été considéré comme l'objet typique qui symbolisait le mieux l'art africain. Mais progressivement d'autres formes sont venues au jour et en 1966 eut lieu le premier festival mondial des Arts nègres de Dakar, présentant au monde la richesse de l'art africain, avec des artistes comme Ousman Sow, Assane N'Noye, Paul Ahyi ou Ashira Olatunde.
+Depuis 1989, une biennale d'art africain contemporain se tient régulièrement à Dakar.
+L'exemple du continent asiatique montre bien la difficulté d'établir des classifications d'histoire de l'art basées sur des continents et des périodes historiques.
+Comment présenter avec une certaine cohérence un ensemble aussi large et aussi hétérogène que celui qui réunit :
+et bien d'autres...
+Et d'ailleurs, les Arts d'Islam ne sont-ils pas aussi africains ? L'Art bouddhique n'est-il pas de nos jours également produit en Europe ?
+La culture olmèque, entre 1200 av. J.-C. et 500 av. J.-C., première des grandes civilisations de la Mésoamérique, est particulièrement connue pour la richesse iconographique et la qualité technique de son art, qui fut une référence et un héritage pour toutes les cultures postérieures. L'art olmèque se manifeste par une grande maîtrise de la sculpture et de la ciselure. Les artistes olmèques élaboraient leur art dans l'argile, la pierre et le bois ainsi que sur quelques peintures rupestres.
+L'art maya se développe durant la période préclassique (1500 avant J.-C. à 250 après J.-.C), lors de l'Époque I et II. Il reçut les influences de la civilisation olmèque. D'autres civilisations mésoaméricaines, incluant Teotihuacan et les Toltèques, l'affectèrent et il atteignit son apogée durant la période de la civilisation classique ou Époque III (environ 200 à 900 après J.-C.). Les Mayas sont célèbres pour leur utilisation du jade, de l'obsidienne et du stuc.
+Les artisans aztèques (1300 - 1519) excellaient dans l'art du masque en pierre, hérité des Toltèques, dont on faisait un usage funéraire ou religieux. Ils revêtaient de peintures les parois de leurs temples et de leurs palais.
+L'Art amérindien est la forme d'art originaire d'Amérique du Nord. Aucune des langues autochtones d'Amérique du Nord n'a, semble-t-il, de mot correspondant au concept occidental d'art. Pourtant, les objets conçus par ses artisans sont aujourd'hui considérés comme des oeuvres d'art à part entière.
+Bien que celle-ci soit géographiquement située en Afrique, l'Art de l'Égypte antique, né il y a environ cinq mille ans, est l'une des principales sources de l'art en Europe. Il combine des règles strictes de régularité géométrique et une observation aiguë de la nature. Ses oeuvres n'étaient pas destinées à être admirées par les vivants. On les plaçait dans les tombes des rois, puis progressivement dans celles de personnages de moindre importance sociale, afin d'aider l'âme des défunts à rester vivante.
+Mais l'art européen doit aussi beaucoup à l'Art de la Grèce antique. Dans ses premiers temps, aux alentours du xe siècle av. J.-C., il est extrêmement sobre et géométrique. Par la suite, il s'inspire consérablement des règles établies par l'art égyptien, notamment en peinture et en sculpture.
+Aux alentours du vie siècle av. J.-C. se produisit une véritable révolution artistique : Les artistes commencent à s'affranchir des règles de l'art égyptien, qui imposaient de représenter chaque partie d'un ensemble (d'un corps humain par exemple) sous son angle le plus reconnaissable, au prix parfois de positions peu vraisemblables de l'ensemble. S'affranchissant de ces règles, ils se permettent de représenter un pied de face ou de cacher un bras sur un personnage représenté de profil : leurs peintures et leurs sculptures deviennent ainsi moins stéréotypées, plus naturelles.
+Vers la fin du vie siècle av. J.-C., les artistes grecs sont toujours de simples artisans, mais un public de plus en plus nombreux s'intéresse à leurs oeuvres. On compare les mérites des différentes écoles d'art, des maîtres des différentes cités. Certains d'entre eux, comme Praxitèle deviennent extrêmement célèbres. Un peu plus tard survient une autre évolution : alors que jusqu'ici les artistes s'efforçaient d'éviter de donner à leurs visages une expression trop précise, on commence alors à leur faire exprimer des sentiments et le règne d'Alexandre le Grand voit l'apparition d'un art du portrait que l'Art de la Rome antique reprendra et développera plus encore.
+L'art médiéval couvre un ensemble large de temps et de lieux, sur plus de mille ans d'histoire de l'art en Europe, au Moyen-Orient et en Afrique du Nord. Cela inclut de nombreux mouvements de l'art et périodes, art régional ou national, genres, renaissances, métiers d'artistes, et les artistes eux-mêmes.
+Les historiens de l'Art classifient l'art médiéval en périodes et mouvements principaux, les relations entre ces périodes sont parfois plus subtiles. Ceux-ci sont l'Art celtique, l'Art paléochrétien, l'Art des migrations, l'Art préroman et l'Art roman, l'Art gothique, l'Art byzantin et l'Art islamique. En plus de cela, chaque « nation » ou culture au Moyen Âge avait son propre style artistique et ceux-ci ont une existence individuelle, comme l'Art anglo-saxon ou l'Art viking.
+L'art médiéval comporte de nombreuses techniques, comme la mosaïque et la sculpture.
+L'immense majorité de l'art qui nous est parvenu de cette période relève du domaine du religieux et renvoie à un cadre qui incorpore à la fois une pensée théologique ou cosmogonique et des fonctions proprement liturgiques. À cet aspect strictement religieux, il convient encore d'ajouter une dimension sociale ou civique. Ainsi, une oeuvre pourra être étudiée et comprise sous ces différents aspects : un contenu proprement théologique qui s'exprimera souvent par des choix iconologiques de la part du ou des créateurs ; une fonction liturgique ou cérémonielle concrète qui sera une contrainte matérielle de l'oeuvre, définissant parfois sa forme, sa structure ou ses dimensions ; une fonction publique d'exaltation du commanditaire, du donateur ou du récipiendaire.
+Pour les historiens, l'époque moderne - on dit parfois les « Temps modernes » - couvre la période historique qui commence avec la fin du Moyen Âge. Les historiens français la font se terminer avec la Révolution française. Cette convention spécifiquement française ne sera pas utilisée dans ce chapitre, dans lequel on a préféré utiliser la convention internationale qui fait se terminer l'époque moderne 75 ans avant le présent.
+On fait habituellement commencer la Renaissance artistique en Italie au xve siècle. Les Italiens nomment cette période le quattrocento. Elle se prolonge au xvie siècle où elle atteint alors, dans de nombreux pays d'Europe, son apogée. Si elle redécouvre la mythologie et l'art antique, elle ne constitue pourtant pas un retour en arrière : les techniques nouvelles, le nouveau contexte politique, social et scientifique permettent aux artistes d'innover. On redécouvre et on perfectionne considérablement la perspective. On développe la technique de la peinture à l'huile. Alors qu'au Moyen Âge la création artistique était essentiellement tournée vers Dieu et la religion chrétienne, c'est l'homme que la Renaissance artistique place au centre de ses préoccupations. Pour la première fois, l'art pénètre dans la sphère du privé : Les oeuvres ne sont plus seulement commandées par le pouvoir religieux ou séculier ; elles entrent dans les maisons bourgeoises.
+On appelle habituellement « baroque » le style qui a succédé à la Renaissance au début du xviie siècle, mais ce mot n'a été employé que bien plus tard, par des auteurs qui trouvaient ce style grotesque et qui estimaient que les éléments de l'art antique n'auraient jamais du être employés autrement qu'à la manière des Grecs et des Romains. L'architecture baroque utilise plus de courbes et de volutes, elle se lance dans le grandiose, comme dans le cas du palais de Versaillesnote 4 qui sera imité dans toute l'Europe. La peinture utilise plus de couleurs et de lumière. La musique de cette époque voit apparaître l'opéra. Ce mouvement atteint son apogée dans l'Europe catholique des années 170020.
+Dans le courant du xviiie siècle, d'abord en Angleterre, on commence à remettre en question les habitudes du classicisme. Certains connaisseurs, souhaitant se distinguer des autres, sont en recherche d'originalité, notamment dans le domaine de l'architecture qui cherche une nouvelle inspiration jusque vers la Chine et l'art gothique. À la fin du siècle et au début du suivant, le romantisme s'efforcera de réhabiliter le sentiment face à la raison : Des artistes comme Turner évoquent, à travers leur représentations de la nature, les émotions de l'homme face aux puissances qui le dépassent.
+Ce rejet des traditions donne naissance a de nombreux mouvements, dont chacun se pare comme d'un étendard d'un nouveau nom en « -isme » (réalisme, naturalisme, impressionnisme, symbolisme, ...). Il a aussi pour conséquence une complexité plus grande des rapports entre les artistes et les acheteurs d'oeuvres d'art : L'artiste ne souhaite plus nécessairement s'adapter aux goûts de ses clients. S'il le fait, il a parfois le sentiment de faire des concessions humiliantes. Mais s'il préfère travailler dans un splendide isolement, il risque d'être réduit à la misère. Bientôt certains artistes en viennent à se considérer comme appartenant à une espèce différente et à afficher avec vigueur leur mépris des conventions et de la respectabilité. Au xixe siècle, le gouffre se creuse entre les artistes à succès et les non-conformistes, qui furent surtout appréciés après leur mort.
+L'Art moderne naît à la fin du xixe siècle et au début xxe siècle. Il voit apparaître en peinture les figures de Picasso, Matisse, Miro, Max Ernst et de nombreux mouvements comme le surréalisme, l'Oulipo, la Nouvelle vague. Des architectes comme Frank Lloyd Wright osent privilégier l'organisation des pièces à l'ornement des façades et abandonnent le dogme de la symétrie.
+En France, avec la modernité, les peintres se détachent peu à peu du système des salons et de l'emprise de la bourgeoisie. Les grands collectionneurs contemporains, les galeries et les critiques jouent un rôle important. Le marché de l'art s'internationalise.
+Marcel Duchamp représente l'objecteur fondateur de l'art conceptuel. Il ne se rattache pas plus à ses précurseurs que son intention n'est d'établir un art de l'objet. Ce qu'il cherche au contraire c'est sortir de l'art. Pourtant les ready-made de Duchamp (dont il est le concepteur) et ses objets cinétiques apportent une nouvelle dimension à la conscience esthétique, ainsi qu'une immense contribution à l'historiographie de la sculpture moderne, bien contre sa volonté.
+Dans le domaine de la peinture, un pas décisif est franchi dans les années 1910 lorsque Kandinsky ose l'art abstrait, qui ne représente pas des sujets ou des objets du monde naturel, réel ou imaginaire, mais seulement des formes et des couleurs pour elles-mêmes.
+À cette époque, même lorsqu'ils ne renoncent pas aussi radicalement à la représentation d'un sujet, de nombreux artistes estiment que ce qui compte en art, c'est d'abord la forme, le sujet ne venant qu'en second. Ils sont en recherche perpétuelle de nouveauté. Avec le surréalisme, ils cherchent même à créer quelque chose de plus vrai que la réalité elle-même, à tenter d'atteindre une « réalité supérieure ».
+Plus on se rapproche de notre époque et plus il devient difficile, au milieu des modes éphémères, de distinguer les réalisations qui, par leur influence, relèvent de l'histoire de l'art 29. Quelques grandes lignes de l'art de l'époque contemporainenote 5 semblent cependant pouvoir être tracées.
+En peinture, à partir des années 1950, certains artistes concentrent leur recherches sur l'acte physique de peindre et réalisent des oeuvres abstraites en peignant, égouttant ou projetant de la couleur sur la toile. La structure du tableau résulte alors de l'intuition de l'artiste mais aussi des divers comportements de la couleur (coulures...). Peindre apparait alors comme un moment d'existence irréfléchi et pulsionnel et l'oeuvre est un témoignage du corps vivant, en action et en mouvement dans l'instant. Ce mouvement sera dénommé tachisme, expressionnisme abstrait ou encore action painting aux États-Unis. L'américain Jackson Pollock se fera particulièrement remarquer par cette technique. Il n'est pas sans évoquer la calligraphie chinoise dans sa recherche d'un jaillissement rapide et spontané.
+Beaucoup d'artistes contemporains sont fascinés par les effets de « texture » et renoncent à l'emploi de la peinture pour d'autres matières, dans des productions qui se situent parfois à mi-chemin de la peinture et de la sculpture. Le Op Art, notamment avec Vasarely, accorde un intérêt particulier à l'interaction des formes et des couleurs visant à produire des sensations de relief ou de mouvement. Plus près de nous encore, dans les années 1960, le pop art utilise des symboles populaires et prend en compte l'influence de la publicité, des magazines, des bandes dessinées et de la télévision dans les sociétés de consommation. Par des techniques industrielles, il remet en cause le principe d'unicité d'une oeuvre d'art. Ainsi Andy Warhol reproduit les siennes par centaines, parfois même par milliers.
+Plus généralement, l'art contemporain est traversé par les concepts et les thèmes qui agitent la société contemporaine : la dématérialisation de l'oeuvre (Yves Klein), l'écologie profonde (Hundertwasser), la propagande visuelle et la publicité (Warhol), l'entreprise oeuvre d'art ou vice-versa (Hybert), la fascination pour la révolution technique et les bio-technologies (Eduardo Kac), la chirurgie esthétique et la re-création corporelle de soi (Orlan), le graffiti, le slam, le piercing, le rap, etc.
+Toutefois, la course effrénée à la nouveauté et le triomphe du modernisme conduisait les non-conformistes à une contradiction : « Fallait-il être non-conformiste comme tout le monde? »30 Ceci explique peut-être qu'on assiste depuis la fin des années 1970 à un retour du figuratif et à l'apparition d'une autre attitude, plus que d'un (encore) nouveau style, parfois dénommée post-modernisme.
+L'art d'Océanie comprend les productions, anciennes ou contemporaines, des peuples de Mélanésie, de Micronésie, de Polynésie, ainsi que celles des peuples traditionnels d'Australie et de Nouvelle-Zélande et d'autres îles du Pacifique. En revanche, on ne classe pas dans cette catégorie les productions des artistes australiens et néo-zélandais d'origine occidentale.31
+Son histoire débute lorsque la première vague de migrants, venus d'Asie du Sud-Est, s'installe en Australie et en Nouvelle-Guinée, il y a probablement environ 50 000 ans. Les plus anciennes oeuvres d'art qu'on ait retrouvé d'eux sont des figures de pierre, des mortiers et des pilons ornés de motifs zoomorphes mêlés à des figures anthropomorphes.31.
+Vers 1500 avant J.-C. apparaît la civilisation Lapita (du nom d'un site archéologique de Nouvelle-Calédonie). Il s'agit d'une civilisation originale, notamment pour ses décors à poterie, qui semble être apparue sur les îles Bismarck, au nord-est de la Nouvelle-Guinée. Elle est associée aux peuples austronésiens qui allaient conquérir l'Océanie éloignée à partir de l'Océanie proche, à l'origine du groupe linguistique océanien. Plusieurs centaines de sites archéologiques lapita ont été retrouvés dans une aire allant de la Nouvelle-Guinée jusqu'aux îles Samoa (archipel de Bismarck, îles Salomon, Vanuatu, Nouvelle-Calédonie, Fidji, Tonga, Samoa, Wallis et Futuna).
+Dans chaque archipel, cette culture s'est adaptée à son milieu particulier et a connu son évolution propre, mais elle n'a pas perdu pour autant son unité. L'ensemble des îles du Pacifique a ainsi conservé une certaine homogénéité culturelle.
+ +La philosophie de l'art désigne à la fois l'intérêt presque constant des philosophes pour l'art depuis l'Antiquité et une discipline plus ou moins conçue comme autonome depuis la fin du xviiie siècle. Pour l'historien de la philosophie Michel Blay, il convient de distinguer deux approches de la philosophie de l'Art. D'une part elle recouvre tout le corpus des textes philosophiques qui, depuis l'Antiquité grecque, abordent la question de l'esthétique (de Platon à Kant en somme) ; d'autre part il s'agit de la discipline née avec Schelling au début du xixe siècle.
+L'apport de l'antiquité tourne autour de la notion de « mimésis », avec Platon dans Sophiste, et surtout avec Aristote, dans sa Poétique. La mimésis est selon lui l'art de représenter la réalité; l'Art serait donc représentation du réel et du Beau. Cependant, c'est avec la mise à l'écart du concept de mimésis que « la première théorie de l'art comme activité du génie émerge chez Kant ». En plus de distinguer les différents arts, Kant permet de déplacer le principe intime du caractère artistique vers le pôle de la réception, l'assimilant à l'idée esthétique en tant qu'expression de l'entendement et de l'imagination.
+Dans son cours intitulé Philosophie de l'art (1802 - 1803), Schelling rejette le nom d'esthétique et annonce que seule la philosophie est à même de développer une « vraie science de l'art ». Un autre grand nom concernant la philosophie de l'art est celui d'Hegel, qui, dans son Esthétique (1828 - 1829) montre que le but de cette discipline est le Beau et l'Art, entendus comme distincts de la religion et de la philosophie. La période moderne est dominée par deux courants majeurs. Le premier, représenté par Adorno pose la question de l'autonomie de l'art, notamment vis-à-vis du social. Theodor W. Adorno, héritier de la pensée de Karl Marx, conclut que sans le social l'art ne peut exister. Le second courant est celui de l'esthétique analytique. Il pose le problème de la définition de l'art. Les usages du mot sont analysés par Ludwig Wittgenstein alors que son fonctionnement comme pratique est étudié par Nelson Goodman.
+Le xviiie siècle voit l'émergence d'une conscience de l'art, comme le siècle précédent avait révélé la conscience du sujet. Née de la modernité philosophique, l'esthétique reste une discipline philosophique qui malgré ses tentatives ne s'est pas émancipée en science de l'art. Ce n'est que par simplification qu'on s'accorde à dire que l'esthétique (philosophie des sens et de l'art) est une réflexion sur l'art, car l'objet de cette réflexion n'est pas donné d'avance. De fait ce sont les pratiques artistiques elles-mêmes qui sont devenues réflexives et de nos jours il n'est guère possible de séparer l'oeuvre d'art du discours qui la fonde : « esthétique » et « artistique » sont deux adjectifs pratiquement interchangeables.
+Cependant à l'origine Alexandre Baumgarten, l'auteur à qui l'esthétique doit son nom, avait considéré « l'art esthétique ». Selon son idée, la beauté fournissait l'occasion à la connaissance perceptible de parvenir à son accomplissement parfait : un art du beau était l'équivalant de la théorie bâtie sur la causalité. Une médiation s'effectuait par ce troisième terme, « la beauté », introduit entre art et esthétique.
+Tout comme le regard moderne s'est exercé à découvrir un certain art primitif, l'esthétique a découvert des précurseurs chez des auteurs anciens. Par exemple le dialogue de Platon Hippias majeur porte traditionnellement le sous-titre De la beauté et il est devenu un texte canonique de l'esthétique. Alors il n'est guère étonnant de trouver qu'il anticipe certaines questions dont on débat encore de nos jours. Les textes issus des civilisation non européennes peuvent aussi être soumis à une pareille lecture et de cette manière on reconstruit aussi, par exemple, une esthétique chinoise ou indienne.
+Tant qu'on concevait l'art comme une activité réglée, le besoin d'un système pour juger de ses résultats ne se faisait pas sentir. Ce n'est que rétrospectivement que les divers Arts poétiques écrits depuis l'antiquité sont devenus représentatifs d'une esthétique normative. La Querelle des Anciens et des Modernes montre qu'en fait le caractère conventionnel des normes ou règles était bien perçu. La première ébauche de l'esthétique a été une tentative de naturaliser l'art et cette tentation reste toujours vivace.
+C'est à Emmanuel Kant que l'on doit la solution de compromis qui, sous une forme ou une autre, est actuellement en cours. Selon son idée originale, « le génie est la disposition innée de l'esprit par laquelle la nature donne les règles à l'art. »35. Si la beauté, ou plutôt l'idée de beauté, intemporelle et universellement valable, liait l'art au discours qui le concerne, l'innovation (artistique ou esthétique) fait problème. Accepter l'apparition de génies, définis par leur « talent naturel », ouvre la voie au changement ; l'art reste une activité soumise à certaines règles, mais celles-ci peuvent changer. L'esthétique qui était réduite par Baumgarten à la perception se développe en jugement sur le perçu.
+Ce jugement ne s'appuie cependant pas sur des concepts définis. Le « Beau » est universel sans concept. C'est dire au fond que c'est l'oeuvre géniale qui donne un nouvel aperçu sur le « Beau ». L'oeuvre belle n'est pas réductible à un concept, mais constitue une Idée esthétique, qui donne à penser, mais est inexponible, transcende l'entendement. Kant interprète le sentiment esthétique comme le fruit d'un rapport inconceptualisable entre nos facultés, l'intuition, l'imagination et la raison. C'est dire que le « Beau » s'enracine dans l'unité profonde de la personne humaine, à laquelle l'expérience n'a pas accès. De plus, et Hegel le critiquera, Kant accorde un primat du « Beau » naturel sur le Beau artistique. Ou plutôt, le génie humain fait partie de la nature.
+De l'approche kantienne on peut dériver une bonne partie des vues et pratiques artistiques ultérieures. On notera plus particulièrement l'idiosyncrasie de ceux qu'une partie de la société accepte comme grands artistes, la transgression conçue comme acte esthétique ou les manifestes et autres programmes par lesquels les mouvements artistiques modernes s'affirmentnote 6.
+Cette façon de procéder en instaurant un troisième terme, beauté, génie, culture ou autre, entre ce que l'on nomme « art » et ce que l'on appelle « esthétique » parvient tout au plus à différer le problème car à chaque fois revient la question ; qu'est ce que la beauté, le génie ou la culture ? Comment s'accorde-t-on sur la validité de la réponse ? Que l'art propose ses oeuvres à une esthétique ou que l'esthétique circonscrive le domaine de l'art, il y a là une circularité que l'on évite difficilement sans faire appel aux dimensions historiques et sociales de ces phénomènes.
+Sans que la distinction soit claire, on peut soutenir que les théories de l'art traitent ce sujet d'une manière plus générale que l'esthétique. Par exemple une théorie sociologique de l'art a été proposée par Pierre Bourdieu, une théorie sémiologique par Nelson Goodman, etc. Un même auteur présente parfois les deux approches comme par exemple Hegel qui considère l'esthétique dans un cours spécial tandis que sa philosophie affirme que l'art est une forme en déperdition.
+Le projet inachevé de Theodor W. Adorno est paru sous le titre Théorie esthétique. Un point de distinction utile est de noter qu'une esthétique peut être normative, ce qu'une théorie ne saurait être. L'énigme de l'art, qui est son propre, est ainsi devenue aussi son objet d'étude à l'époque contemporaine :
+« Toutes les oeuvres d'art, et l'art en général sont des énigmes. Le fait que les oeuvres disent quelque chose et en même temps le cachent, place le caractère énigmatique sous l'aspect du langage. (...) L'exemple typique de cela c'est celui, avant tous les autres arts, de la musique, qui est à la fois énigme et chose très évidente. Il n'y a pas à résoudre, il s'agit seulement de déchiffrer sa structure. Mais le caractère énigmatique ne constitue pas le dernier mots des oeuvres; au contraire, toute oeuvre authentique propose également la solution de son énigme insoluble.39 »
+Le seul point sur lequel les théories de l'art s'accordent est qu'il s'agit d'un fait humain, et d'une pratique sociale. Deux grandes alternatives sont possibles selon qu'on accorde à cette pratique un rôle subordonné ou autonome. Envisager la subordination est une approche réductionniste; elle propose généralement une vue de l'art comme communication - représentation ou expression. Dans l'autonomie, que l'on compare à celle des jeux, l'art se propose comme « activité autotélique », c'est-à-dire sans autre but que lui-même, ce que résume la célèbre formule de « l'art pour l'art ». Les artistes et ceux qui gravitent autour de l'art ont de bonnes raisons pour défendre des conceptions de ce type et leur stratégies théoriques ont souvent recours à une des deux options opposées : renvoyer à une ontologie propre - l'art serait lié à l'aspect spécifique de l'être - ou, paradoxalement, se faire nominaliste en insistant qu'il y a des oeuvres d'art mais non « de l'art ». Les réductionnismes, issus principalement d'autres milieux, tiennent généralement que c'est par exagération qu'on arrive à ces vues-limites.
+Aujourd'hui, l'art établit une relation qui permet d'englober dans une même interaction, dans un même échange, une oeuvre, son créateur et le récepteur, le destinataire de cette oeuvre (spectateur, auditeur, etc.)41. Les différentes formes que peuvent revêtir cette médiation concrétisent certaines relations entre l'homme et la nature, c'est-à-dire entre un esprit humain et son environnement. Une pensée à la fois consciente et inconsciente, individuelle et collective, un esprit libre et imaginatif communique avec le monde extérieur. Hegel, dans ses Leçons sur l'esthétique, a tenté de définir la transcendance de cette relation en posant a priori, que : « Le beau artistique est plus élevé que le beau dans la nature [puisqu'il] dégage des formes illusoires et mensongères de ce monde imparfait et instable la vérité contenue dans les apparences, pour la doter d'une réalité plus haute créée par l'esprit lui-même. »
+Chercher la vérité derrière l'apparence. Peut-on envisager finalité plus captivante ? L'art devient alors le prolongement de l'action. Cette philosophie de l'action, développée notamment par Hannah Arendt, émerge quand le geste artistique devient l'expérience d'une relation particulière. Aussi l'art ne cherche-t-il pas à imiter ou à reproduire, mais à traduire une réalité métasensible. Il peut alors faire poindre le spirituel dans le champ de l'expérience commune.
+En art du moins, la forme n'est donc pas un principe étranger au contenu, et qui y serait imprimé du dehors, mais la loi de son développement, devenue transparente. Elle n'est pas pensée par le spectateur, ce qui voudrait dire qu'elle est de l'ordre du concept, et donc étrangère à la perception proprement dite, qu'elle ne se donne pas à voir.
+Paul Valéry pouvait écrire que « la belle architecture tient de la plante. La loi de croissance doit se sentir. De même la loi de ménagement des ouvertures. - Une fenêtre ne doit pas être un trou percé comme par un vilebrequin dans une planche, mais être comme l'aboutissement de lois internes, comme la muqueuse et les modelés des orifices naturels. »
+Avant d'être transcrite dans la notation, la mélodie existe comme déploiement même du son, exploitation de certaines possibilités insoupçonnées de ce matériau. La couleur ne remplit pas l'espace impressionniste, mais en est la vibration. La poésie ne consiste pas à imposer à la langue une signification préétablie, ni à produire des bouts rimés. Elle laisse plutôt la parole aux mots eux-mêmes, comme si elle n'était le discours de personne. Il s'agit de révéler un mouvement inhérent à une dimension sensible du monde. L'art donne à voir comment le sensible s'engendre : le regard du peintre demande à la lumière, aux ombres, à la couleur « Comment ils s'y prennent pour faire qu'il y ait soudain quelque chose, et cette chose ? » (L'oeil et l'esprit, Merleau-Ponty).
+L'art ne se contente donc pas de copier la nature. Pour autant, il ne se détourne pas d'elle, mais remonte jusqu'à la source. Dans la peinture de Cézanne, rappelle Merleau-Ponty, il ne s'agit jamais de la couleur en tant que simulacre des couleurs de la nature, mais de la dimension de couleur, où notre cerveau et l'univers se rejoignent. L'artiste est sensuel, il aime saisir la personnalité propre, le visage des choses et des matières, comme le petit morceau de mur jaune dont parle Proust à propos de Vermeer.
+C'est justement parce que la nature morte n'est pas la pomme, mais la représentation de la pomme, que pour la première fois je puis la voir au lieu de la penser ou de la croquer, considérer son aspect, et non son essence ou son utilité. C'est en ce sens que l'art déréalise son objet, comme le souligne Sartre, à la suite de Kant. La mer est pour le peintre impressionniste une surface colorée, une apparence, et non le milieu de vie des organismes marins. Dans Qu'est-ce que la littérature ?, le même Sartre peut, sans contradiction, montrer que c'est la poésie qui constitue pour la première fois le mot en objet, en chose, quand il n'était auparavant qu'un organe d'exploration du monde, comme les antennes des insectes.
+C'est que « l'art de voir (au sens dessin et peinture) est opposé au voir qui reconnaît les objets » (Paul Valéry). Le visible est sensuel, lui aussi : tenu ainsi à distance, il brille pourtant des feux de nos propres désirs.
+Être attentif au sensible, c'est encore, comme nous y invite Henri Focillon dans sa Vie des formes (1934), étudier les possibilités propres d'un matériau, comme le bois, la pierre, le fil d'encre du calligraphe. Prenons pourtant ici le mot « matériau » en un sens plus large : l'architecture gothique est tout autant faite de lumière, ou de verticalité, que de pierre. D'un point de vue esthétique, le temps et l'espace eux-mêmes sont l'étoffe de l'expérience, comme une langue celle de la pensée. Ce ne sont pas seulement des formes abstraites. Et, certes, l'art ne se contente pas d'explorer les soubassements de l'expérience sensible, il tire de la connaissance intime de cette logique, ou de cette géométrie, des structures et des effets insoupçonnés d'abord.
+La notion de « représentation » dépend de la question que l'on se pose au début de la problématique et au commencement de l'art lui-même avant la préhistoire pendant le Cretacé prend un sens tout particulier si l'on veut saisir le sens de l'oeuvre d'art, et son rapport à la beauté. L'oeuvre de l'art est une forme de « re-présentation », c'est-à-dire qu'elle présente autrement la réalité de l'univers. L'oeuvre d'art ne vit pas de son rapport plus ou moins adéquat au réel, mais des affects qu'elle produit ; par exemple, les toiles de Munch ne représentent pas une forme de tristesse, mais produisent un sentiment, une émotion, qui pour certains s'appelle la tristesse, pour d'autres l'abomination. C'est peut-être parce qu'elle est productrice d'affects, et qu'elle est à elle seule un « univers », que l'oeuvre d'art est belle (l'art contemporain est beau quand on a accroché à l'initiation que l'artiste cherche à nous procurer). Ou alors, comme le fait Danto, il faut écarter la beauté qui, pour les anciens n'était qu'un critère de conformité de l'oeuvre aux jugements esthétique. C'est ce qu'il explique, à travers l'analyse de certaines oeuvres contemporaines.
+C'est la grande difficulté des arts de notre époque : ils sont souvent liés par des directions intellectuelles et des expérimentations qui ne peuvent pas être lisibles directement et sans connaissance de leur genèse : ce sont des friches de découvertes qui deviendront peut-être de vraies oeuvres aux yeux des machines humanisées (post-futurisme).
+Jamais une oeuvre jeune n'est comprise sans avoir assimilé sa généalogie. Cependant on remarquera que le terme d' "art" est trop couramment appliqué à toute médiatisation spectaculaire, et cela à son détriment.
+Les médiations artistiques dépassent et transcendent tous les problèmes de la connaissance du monde. L'étude des phénomènes physiques et l'évolution des technologies y jouent un rôle important, puisqu'elles influencent souvent les outils de création. Une expérimentation artistique, parallèle à l'expérimentation scientifique, vient ainsi fonder l'élaboration d'une nouvelle esthétique, soutenue par la place croissante des techniques dans la vie quotidienne.
+L'art pourrait donc servir à reproduire des concepts éternels conçus ou imaginés par la seule contemplation. L'origine de l'art provient bien de la connaissance des idées et des choses, mais transcende cette connaissance pour la présenter autrement, devenant de ce fait représentation. Si tant est que l'art se fixe des objectifs (ce qui va bien sûr contre sa nature), un des buts marquants de l'art serait donc de communiquer la connaissance profonde acquise non seulement par les sens, mais aussi par l'esprit. L'art de pure imitation sera toujours très loin du vrai : l'oeuvre ne peut être aussi belle que la chose réelle ; elle est d'un autre ordre, et n'en saisira jamais qu'une toute petite partie. L'imitation de la nature ne traduit jamais son niveau de beauté, cependant que la représentation artistique dévoile un absolu propre à l'artiste, une vérité de notre espace naturel et inimitable puisque personnel.
+Mais cette production n'est pas obligatoirement de nature volontaire. Contrairement aux autres productions humaines, l'acte de création se situe le plus souvent hors du champ de la conscience. Il nous permet d'accéder à une communication du spirituel, de l'intemporel, de l'universel. Nietzsche pense également que l'art doit servir à masquer ou à embellir tout ce qui est laid dans la nature humaine. Pourtant, aujourd'hui, certains arts nés de la modernité, tel le cinéma, cherchent autant à embellir la nature humaine, qu'à mettre en évidence toute sa noirceur dans l'espoir peut être d'en extraire les germes de l'incompréhension et de l'intolérance.
+Le cinéma, en limite de l'art, donne à voir des crédibilités quotidiennes, qui mettent à jour, comme le roman, mais en plus restreint, une expérience humaine que nous ne saurions découvrir autrement.
+Cette logique conduit l'art vers une nécessité, vécue de l'intérieur par l'artiste. La musique, plus que « l'art d'organiser les sons » reflète l'expression d'une entité sonore « autre », d'une forme irréelle et non conceptualisable de la communication ; elle est une imagination totale, qui réunit à la fois de nouvelles représentations et une conception neuve de leur construction. Comme les autres arts, elle exprime le rationnel et l'irrationnel, mais en s'écartant du mythe ou de la magie.
+Tous les processus créatifs opèrent, par l'esprit même qui les guide, une catharsis qui garantit un dépassement des limites posées à la connaissance du monde. La symbiose sensorielle qui nourrit l'action créatrice n'est que la forme élémentaire de la représentation qui infère l'imaginaire.
+En tant qu'approche différente, plus tournée vers l'esprit que vers la pensée, l'art doit inéluctablement déboucher sur le prolongement de l'oeuvre d'une nature dominatrice et confinée à des transformations évolutionnistes. Tentant de s'affranchir de ces limites de la pensée humaine, l'art retrouve la substance spirituelle, quasi mystique, quasi magique, de la création. Cette volonté d'apaiser notre soif de connaissance n'est pas obligatoirement malsaine. Mythe et magie ne sont pas foncièrement des échappatoires aux manques de rationalité des événements qui nous entourent, même s'ils sont, pour certains, des aveux de faiblesse, des limitations transfigurées.
+Ils peuvent parfois marquer aussi la recherche d'une spiritualité absente. L'art en revanche est lui toujours une nécessité d'exprimer le monde de cette façon-là. Il ne cherche pas à remplacer la réalité par une autre entité de meilleure consistance ; il ne cherche pas non plus à transgresser des limites inhérentes à notre nature, mais il cherche à les transcender. L'art cherche à utiliser le monde des sens pour pénétrer dans un monde de l'esprit, ou peut-être même dans celui de l'âme. Ce faisant, l'art cherche l'immanent derrière le permanent. Il essaye de prouver que le potentiel humain ne se réduit pas à la transformation, mais qu'il a conquis la dimension de la création.
+Contenu soumis à la GFDL
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Les attentats du 11 septembre 2001 (abréviations : 11/9, 11-Septembre et, en anglais, 9/11) sont une série d'attentats-suicides commis par le réseau terroriste Al-Qaida dans le nord-est des États-Unis le mardi 11 septembre 2001. Quatre avions de ligne sont détournés, trois d'entre eux sont projetés contre des immeubles hautement symboliques : les tours jumelles du World Trade Center à Manhattan, à New York, et le Pentagone, siège du département de la Défense des États-Unis, à Washington. Les tours se sont effondrées moins de deux heures plus tard entraînant l'immeuble du Marriott World Trade Center dans leur chute. La tour 7 du WTC s'est effondrée dans l'après-midi en raison d'incendies et des dégâts occasionnés par la chute des Twin Towers. Le quatrième avion s'est écrasé en rase campagne à Shanksville, en Pennsylvanie.
+La Commission nationale sur les attaques terroristes contre les États-Unis a été créée en 2002 pour expliquer comment ces attentats ont pu se produire et pour éviter que cela ne se reproduise[1]. Dans son rapport[2] publié fin août 2004, elle établit la responsabilité du réseau Al-Qaida, en affirmant que les dix-neuf pirates de l'air impliqués dans ces attentats-suicides en étaient membres et que le commanditaire en était Oussama Ben Laden. Ce dernier s'est félicité de ces attaques dans des vidéos diffusées en novembre et décembre 2001[3]. Oussama Ben Laden avait été désigné comme responsable le plus probable par les autorités américaines dès le soir du 11 septembre.
+Ces attentats ont été vécus presque en temps réel par des centaines de millions de téléspectateurs à travers le monde, les images de l'avion heurtant la deuxième tour du World Trade Center ayant été diffusées en direct, ainsi que l'effondrement complet en quelques secondes des trois tours du WTC à Manhattan. Le choc psychologique a été considérable au plan international. Ces attentats ont généré des effets puissants et persistants, notamment politiques et économiques. Le gouvernement américain a institué une législation sécuritaire et, en dénonçant un nouvel « Axe du Mal », s'est lancé dans une « guerre contre le terrorisme ».
+Les victimes directes de ces événements ont été chiffrées à 2 973 morts et 24 disparus. Plusieurs milliers de personnes blessées et des milliers d'autres, notamment parmi les secouristes, sont atteintes de maladies engendrées par l'inhalation de poussières toxiques.
+Avec leur charge (partielle) en carburant estimée à 46 000 litres chacun, les avions, deux Boeing 757 et deux Boeing 767 ont été utilisés comme bombes incendiaires volantes. Des quatre avions détournés, seul le vol UA93 ne put atteindre sa cible, s'étant écrasé dans une mine à ciel ouvert désaffectée de la Pennsylvanie alors qu'il se dirigeait vers la capitale.
+Quelques passagers et membres d'équipage ont pu passer des appels téléphoniques, principalement du vol UA93, mentionnant la présence de pirates de l'air armés de couteaux à lame rétractable (Box cutter en anglais), qu'ils ont utilisés pour menacer ou tuer du personnel naviguant et des passagers lors de la prise de contrôle de l'avion . Un témoin rapporte aussi l'utilisation d'un produit chimique de type gaz lacrymogène utilisé dans le vol American 11 pour tenir les passagers à l'écart de la première classe. La commission nationale sur les attaques terroristes contre les États-Unis, a pu établir que deux des pirates de l'air avaient récemment acheté des couteaux multifonction Leatherman. Des menaces de bombe ont été faites sur trois des avions (pas sur l'American 77).
+Selon l'étude du NTSB de l'hiver 2001 - 2002, rendue publique en août 2006, les vols UA175 et AA11 étaient programmés pour décoller à une minute d'intervalle, mais le premier quitta le sol avec 16 minutes de retard et atteignit sa cible très exactement 16 minutes après que l'AA11 a frappé la tour Nord, la durée de vol ayant été de 49 minutes (48 minutes pour AA11).
+Ces parcours ne correspondent pas à un souci de minimiser le temps d'exposition à la réaction de la défense aérienne : après la prise de contrôle par les kamikazes, le vol 11 fut maintenu 13 minutes durant dans une direction (le Nord-Ouest) qui l'éloignait de son objectif. Ce choix se retrouve pour le vol 175 avec son large détour au-dessus du New Jersey pour revenir sur Manhattan par le Sud.
+Ce trait est également partagé par les vols AA77 et UA93 : le caractère tardif de la prise de contrôle des avions (après 26 et 45 minutes) résultait en un éloignement important de leur cible.
+Les procédures réglant la coordination entre l'aviation civile et le Commandement de la défense aérospatiale de l'Amérique du Nord (NORAD), en place depuis les années 1960. Au matin du 11 septembre, seul 14 avions de chasse étaient disponible pour protéger l'espace aérien des États-Unis contigus 8.
+Les espaces de temps offerts par les détournements furent conséquents : prenant comme signal d'alarme le radio-mutisme du vol AA11 (8 h 14), à l'instant des impacts successifs, 33, 49, 83 et 112 minutes se sont écoulées. Aucun des avions de chasse ayant été mis en oeuvre n'a été capable d'interférer avec les vols piratés.
+Le NORAD a soutenu que cette faillite majeure du système de protection de l'espace aérien était due aux délais pris pour transmettre les incidents de vol (24 et 39 minutes pour les vols AA11 et AA77) ou leur non transmission . Reprenant les données du NORAD, la Commission Kean exposa que les militaires auraient été avertis quelques minutes seulement avant les impacts des vols AA11 et AA77, et après les impacts pour les autres. Cependant, les choix opérés par le NORAD suscitèrent des interrogations. Selon la déposition du 13 septembre du général Myers, confirmée par la conférence de presse du vice-président Dick Cheney du 16, aucun avion de chasse n'aurait été mis en oeuvre avant l'impact du vol AA77 contre le Pentagone (9 h 37). La chronologie du NORAD, publiée le 18, indiquait que des chasseurs avaient décollé à 8 h 44 et 9 h 30. Selon la Commission Kean, les premiers chasseurs, des F-15 du 101st Figther Squadron du Massachusetts ANG décollèrent à 8 h 52, 38 minutes après le détournement du vol AA11 d'Otis, proche de Boston, éloignée de 240 km.
+Après qu'ils eurent grimpé en altitude et volé au quart de leur vitesse maximale en attendant de savoir où se trouvaient le ou les avions de lignes qu'ils devaient intercepter, car ceux-ci, transpondeurs débranchés, avaient disparu des écrans utilisés pour le contrôle du trafic aérien, ils se trouvaient à 114 km de New-York lorsque le vol UA175 percutait la tour Sud. Après avoir atteint New-York à 9 h 11, ils furent affectés à patrouiller l'espace aérien new-yorkais. Pendant ce temps, le NORAD faisait décoller trois chasseurs F-16 de la base de Langley, située 210 km au sud de Washington. Celle d'Andrews, à 15 km de la capitale, dont trois chasseurs F-16 n'emportant que des munitions d'entrainement participaient à un exercice en Caroline du Nord ce matin-là reçut de son côté l'ordre par les services secrets de préparer une patrouille armée. Mais une demi-heure plus tard, à la réception de l'ordre de la Présidence de faire décoller ces chasseurs suite à l'attentat contre le Pentagone, ils n'étaient toujours pas prêts. Volant à 35 % de leur capacité, les chasseurs de Langley arrivèrent au Pentagone 12 minutes après l'impact du vol AA77 au moment où trois F-16 non armés décollaient d'Andrews, quarante cinq minutes après la mise en alerte .
+Bien que le non respect des procédures d'alerte fût ainsi pointé du doigt, il n'y eut aucune enquête publique et aucune sanction à l'encontre des responsables de la FAA. L'échec du NORAD n'empêcha pas non plus les hauts responsables, tels les généraux Eberhard et Myers, d'être confirmés dans leurs fonctions, voire promus. Cet échec était aggravé par le fait que le WTC avait été reconnu comme cible privilégiée dès l'explosion du camion chargé d'explosifs de 1993. En 1994, un expert commandité par le Pentagone soulignait la valeur symbolique des tours et envisageait qu'une attaque terroriste consisterait certainement en « des actions multiples et simultanées ». Durant les deux années précédant les attentats, le NORAD effectua des exercices dans lesquels des avions de ligne détournés étaient utilisés contre divers objectifs, dont le WTC. Par ailleurs, les services de renseignements de plusieurs pays, européens entre autres, avaient plusieurs mois auparavant prévenu leurs homologues américains d'une préparation de détournements d'avions civils sur le territoire des USA.
+À partir de 9 h 49, tous les vols commerciaux aux États-Unis sont annulés (et tous les vols internationaux volant en leur direction détournés sur le Canada), et les aéroports de Los Angeles et San Francisco fermés. Les 4 500 avions civils alors en vol sont forcés d'atterrir en urgence et l'aviation civile reste clouée au sol jusqu'au 14 septembre.
+L'US Navy annonce à 14 h 51 le déploiement de deux porte-avions et d'autres navires venant de la base navale de Norfolk au large de New-York et de Washington et d'un groupe aéronaval au large de Los Angeles.
+Environ deux heures après le dernier crash, une centaine de chasseurs patrouillaient dans l'espace aérien américain et, depuis le 14 septembre, une opération baptisé Noble Eagle doit assurer la couverture aérienne 24 h sur 24 des États-Unis. Celle-ci a coûté 40 milliards d'Euro pour ses sept premières années et use sérieusement personnels et matériel
+Parmi les unités militaires déployées en renfort sur le lieu du désastre, une unité de guerre bactériologique de la garde nationale des États-Unis fut chargée d'analyser l'air afin de déterminer si des germes pathogènes avaient été répandus. Mise en alerte quelques minutes après le second impact, elle confirma à 20 h 30 l'absence de risques en ce domaine.
+Environ dix-sept mille quatre cents personnes se trouvaient dans les deux tours au moment des collisions et la plus grande partie d'entre elles a eu la possibilité d'évacuer les lieux avant leur destruction.
+Il s'agissait du deuxième attentat touchant le complexe depuis sa mise en service, le premier attentat datant de 1993.
+À 8 h 46 (heure locale) (soit 13 h 46 en UTC), le vol AA11 percutait quasi perpendiculairement en son centre la face nord-est de la tour jumelle Nord, son inclinaison (25°) résultant en une emprise sur cinq étages (93 à 97). Animé d'une vitesse estimée à 710 km/h, l'avion laissait dans la façade son empreinte partielle (35 mètres pour 48 mètres d'envergure), les extrémités des ailes n'occasionnant que des dégâts superficiels. Les dommages occasionnés à la structure externe ont été chiffrés à trente-six poteaux sectionnés (douze en moyenne par étage atteint, soit 5 % des deux cent quarante du pourtour). Les dommages sur la structure centrale restent inconnus et non établis (à eux seuls, les quarante-sept poteaux centraux supportaient 60 % de la charge statique). Selon le rapport de la FEMA qui reprend à son compte l'opinion d'experts exprimée le 11 septembre lors d'interviews, le sommet des tours se serait déplacé de six à huit mètres au moment des impacts. Mais, d'après l'étude qui fit suite des ingénieurs commandités par le NIST, le déplacement maximal de la tour Sud (au niveau de l'impact), obtenu par simulation, n'aurait été que de quarante centimètres, résultat que confirment les calculs du professeur Bazant du MIT (quarante-cinq centimètres).
+Seule une petite partie de train d'atterrissage ressortit par la face opposée, après avoir perdu environ 95 % de son énergie, et sera retrouvée à un coin de rue, quelques 385 mètres plus loin. Le FBI affirmera avoir retrouvé à proximité le passeport intact de l'un des kamikazes (Satam Al Suqami). Avec tous les ascenseurs en panne et les escaliers rendus impraticables, les personnes situées au-dessus des étages atteints furent piégées et enfumées.
+Les dégâts constatés dans le hall du rez-de-chaussée, rapportés notamment par les pompiers (vitres et portes d'ascenseurs soufflées, plaques de marbre murales décollées) et secouristes (personnes brûlées) sont habituellement attribués au kérosène pulvérisé autour du 95e étage, lequel aurait alors parcouru les quelque quatre cents mètres d'une cage d'ascenseur, accordant à sa combustion en atmosphère libre la capacité de produire une puissante onde de choc. Selon ces témoins, les ascenseurs concernés étaient ceux du centre, dits locaux, qui desservaient les étages inférieurs et les sous-sols.
+À 9 h 03, le vol UA175 pénétrait de biais (15° environ) la face sud-ouest de la tour Sud, à quelque sept mètres de son centre. L'événement a pu être largement enregistré par les télédiffuseurs qui couvraient l'attentat contre la tour Nord.
+Selon le rapport publié par la FEMA, la vitesse de l'avion était estimée à 870 km/h, ce qui lui accordait 50 % de plus d'énergie que le vol AA11. Mais, frappant la tour entre les étages 78 et 83, il laissait une empreinte plus courte (26 mètres d'envergure) malgré un angle de gîte plus important (38°) car à ce niveau la structure extérieure était (deux fois) plus résistante qu'au niveau de l'étage 95. L'angulation de la direction de vol a fait que la moitié tribord de l'appareil ne pouvait pas rencontrer la structure interne des poteaux porteurs, permettant ainsi à des parties de moteur, de train d'atterrissage et de carlingue de ressortir par l'angle est du bâtiment et d'être retrouvés jusqu'à quatre cents mètres de distance. L'avion sectionna vingt-cinq colonnes de la structure externe (onze par étage en moyenne, soit 5 % du pourtour), dommages auxquels il faut ajouter ceux réalisés dans l'angle oriental par la sortie des morceaux de moteur et de train droits. L'empreinte laissée par l'avion avait une surface tout à fait comparable à celle de WTC. Les dommages subis par la structure centrale sont tout aussi inconnus que ceux de la tour Nord, au moins un escalier resta praticable.
+À 9 h 3821, Le vol AA77 a pénétré la partie centrale de l'aile occidentale du Pentagone, l'avion filant à la vitesse estimée de 850 km/h. L'avion pénétra au centre d'une section en achèvement de rénovation, la façade extérieure venant d'être renforcée pour résister à une attaque terroriste (poteaux d'acier, couverture de kevlar). La rangée de colonnes d'acier fut détruite sur une largeur d'une dizaine de mètres à hauteur du rez-de-chaussée. Tout un ensemble de colonnes de soutien des étages en béton fut également détruit immédiatement en arrière de l'impact, mais aussi à une distance conséquente, sectionnées à la base. D'où l'effondrement de la section d'étages une demi-heure plus tard. À cent mètres de l'impact, exactement dans l'axe de vol, une perforation circulaire de 2,3 mètres de diamètre avait été faite par l'un des réacteurs dans le mur interne de l'anneau C du bâtiment, marqué au-dessus de l'orifice d'un important dépôt de résidus gazeux de combustion et de traces d'une onde de choc (vitres brisées). L'impact et le feu initié par le carburant qui s'est rapidement répandu dans la structure ont tué les 64 personnes de l'avion ainsi que 125 occupants du Pentagone.
+Instantanément libéré par l'éclatement des ailes contre les façades des tours, le kérosène (autour de trente-cinq mille litres par avion) se répandit largement avec les débris dans la direction donnée par les impacts jusqu'à ressortir en partie par la façade d'entrée et celles opposées, s'enflamma suite à de nombreux court-circuits électriques au sein des immeubles et des réacteurs eux-mêmes, formant d'énormes boules de feu (brûlant ainsi 20 % du combustible) allant du jaune à l'orangé, (du à la combustion des particules de l'élément carbone engendrant des feux qui allaient se déplacer au fur et à mesure de l'épuisement des combustibles (selon le NIST, le maximum d'échauffement résultant de la combustion d'une partie du kérosène - 40 % - et de l'ameublement était atteint vingt minutes après l'impact)), et de l'embrasement de nouveaux matériaux. Cette combustion rapide provoqua une pénurie d'oxygène, les fumées, grises et légères suite aux boules de feu, virant au noir au bout d'un quart d'heure. Nulle part ne fut constaté de rougissement de parties en acier (à partir de 700 °C), ni même d'éclatement de vitres (au-dessus de 600 °C), même à proximité des brèches de sortie des pièces d'avions où devaient s'être accumulés les débris de toutes sortes (meubles, équipement...), témoignant de la relative faiblesse des incendies. Analysés par le NIST, les échantillons de poutres externes des étages impactés indiquent pour la plupart une exposition à une température maximale de 250 °C, une faisant exception avec une température supérieure, mais en dessous de 600 °C. Les calculs réalisés par cet organisme ont indiqué des températures maximales d'environ 500 °C23. Ces résultats sont cohérents avec les données d'expérimentations réalisées par l'industrie métallurgique où des feux d'hydrocarbures dans des parkings n'ont pas été capables d'échauffer les poutres d'acier non protégées à plus de 360 °C.
+La puissance de ces feux reste par ailleurs très inférieure à celle d'incendies de tours répertoriés, tel celui du One Meridian Plaza (sur huit étages, pendant dix-huit heures) ou de la First Interstate Bank (sur cinq étages, durant trois heures et demie). Quant aux effets de ces feux, il faut souligner que le rôle des protections passives anti-incendies est apprécié dans la perspective d'une « résistance au feu » qui n'indique pas le temps durant lequel un immeuble doit rester debout, mais celui durant lequel l'incendie doit être contenu dans l'espace où il a pris naissance .
+Malgré l'épuisement immédiat de l'essentiel du kérosène, la médiocrité des feux à l'effondrement et l'aspersion d'eau sur les gravats accumulés, des zones de hautes températures (au-dessus de 700 °C) ont persisté des jours durant d'après une étude de la US Geological Survey. Cent jours après, ces foyers étaient encore actifs.
+Les feux restèrent contenus dans les espaces opposés à l'impact, à l'exception d'un surgissement au 105e étage qui exhiba l'unique émergence de flammes du bâtiment. L'effondrement de la tour Sud induit une réactivation des feux à l'intérieur du bâtiment (fumée plus volumineuse et plus grise). La béance laissée par l'impact, mettant « à vue » le coeur du bâtiment, resta en permanence un trou noir, signalant ainsi l'absence d'incendie au niveau de la cage des services.
+L'inclinaison de l'impact fit que le kérosène de l'aile droite ressortit par les façades en trois énormes boules de feu. Il s'ensuivit que l'incendie consécutif fut bien moindre que pour la tour Nord et resta très localisé au coin est avec cependant un phénomène inhabituel mentionné par le NIST : peu avant l'effondrement fut enregistré un flash lumineux intense suivi, plusieurs minutes durant, d'un écoulement de métal en fusion.
+Au moment de l'effondrement, les feux donnaient des indications d'étouffement, seule une fumée noire étant visible, qui s'échappait du bâtiment. L'équipe de pompiers qui était arrivée au 78e étage avait signalé la présence de deux feux résiduels et demandé l'envoi de lances pour les éteindre. Quelques minutes plus tard, la tour s'effondrait avant que put être transmis l'ordre d'évacuation émis par le poste de commandement des urgences situé dans le WTC. Au moins dix-huit personnes qui étaient situées dans les étages supérieurs avaient pu entre temps traverser sans difficulté la zone sinistrée par l'un des trois escaliers du noyau de services (où sont groupées les colonnes de la structure interne de soutien).
+Atteinte par des débris métalliques chauds projetés sur sa face sud (en son tiers oriental) lors de l'effondrement de la tour Nord, ce gratte-ciel de quarante-sept étages abritait quelques incendies, avec des flammes sporadiquement et partiellement visibles (niveaux 11 à 13 et 28 à 30)27. En août 2008, le NIST a publié un rapport concernant l'effondrement de WTC, concluant que le feu en était la cause principale.
+L'incendie consécutif à l'impact fut relativement violent mais circonscrit à la partie nord de l'aile frappée (dans le sens de l'axe de vol). Les pompiers ne purent jusqu'à 13 h 00 approcher la zone d'impact en raison de son intensité et il était encore actif dix-huit heures plus tard. Il a été constaté que des vitres ont été liquéfiées, du béton fendu et que l'arrière d'un camion pompier, à poste face à l'héliport au moment de l'impact, eut l'arrière partiellement fondu, témoignages d'une température élevée (proche de 1 500 °C).
+À 9 h 58, cinquante-six minutes après avoir été atteinte, la tour Sud s'effondrait. C'est la perplexité qu'exprimait le visage du chef de bataillon Joseph Pfeffer dans son poste de commandement, au rez-de-chaussée de la tour Nord, filmé par les frères Naudet. Cette incrédulité est également exprimée dans le recueil de témoignages de la Mairie. Étant déjà intervenus à l'occasion d'un incendie et d'un attentat aux explosifs, les pompiers new-yorkais possédaient une parfaite connaissance des immeubles et croyaient qu'ils étaient aptes à soutenir de tels impacts. D'ailleurs, John Skilling, chef de l'équipe d'ingénieurs concepteurs du World Trade Center, avait déclaré en 1993 que les tours avaient été calculées pour résister à la collision d'un Boeing 707 ou d'un DC-8, en pleine charge et volant à 950 km/h (la vitesse de croisière maximale). Il avait ajouté que l'impact résulterait « seulement en dommages locaux qui ne pouvaient causer l'effondrement ni de dégâts conséquents à l'immeuble ». Frank Demartini, superviseur du chantier de construction, qui avait ses bureaux au 88e étage de la tour Nord et y périt suite à sa décision d'aider à l'évacuation des occupants piégés, avait précisé, lors d'un entretien du 25 janvier 2001, que les tours pouvaient probablement soutenir plusieurs impacts d'avions de ligne grâce à leur conception. Selon ces ingénieurs, toutes les colonnes extérieures d'un côté de l'immeuble, ainsi que celles proches des coins adjacents, pouvaient même être sectionnées que cela n'empêcherait pas la structure en « tube » de continuer à remplir parfaitement sa fonction.
+À 10 h 28, trente minutes après la tour Sud, c'était sa jumelle qui s'effondrait détruisant le Marriott World Trade Center fortement endommagé par la chute de la tour Sud et, à 17 h 25, la tour WTC.
+Une caractéristique commune aux trois effondrements est qu'ils se firent, selon les indications données par la FAQ no 6 du NIST, le rapport de la FEMA ou les calculs du professeur Bazant (11 - 12 s, 9 - 10 s et 6,3 - 6,5 s respectivement pour les tours WTC, WTC et WTC), en un temps légèrement supérieur à celui d'une chute dans le vide (8 - 9 s, 7,5 - 9 s et 6 s), indiquant une absence de résistance des structures porteuses centrales, ce que l'ingénieur expert en structures béton Bazant exprime en parlant de la chute des étages supérieurs dans un tube vide . Une autre est la production de jets de gaz et poussières jaillissant des façades, au moins dix étages au-dessous du front de destruction pour les jumelles, dans les étages pour WTC. Une troisième est la symétrie à peu près parfaite de ces destructions.
+Dans un rayon de cent trente mètres environ, quantité de vitres des immeubles furent détruites par l'onde de choc générée par la destruction des tours jumelles.
+Quelques minutes après la dernière communication avec l'équipe de pompiers qui, ayant atteint le 78e étage, portait secours aux blessés et s'apprêtait à éteindre deux foyers résiduels, le chef pompier Ganci, recevait le messager du bureau des urgences (OEM), Steve Moscillo. Il fut stupéfait d'entendre que « les immeubles allaient s'effondrer et qu'il fallait les évacuer » (interrogé par ABC News, le maire Giuliani, membre de l'OEM, reconnaissait qu'il n'avait fait que transmettre cette information et l'origine de cette prévision reste inconnue). Quelques minutes plus tard, la section au-dessus de l'impact s'inclinait vers le Sud, une rotation qui traduisait la perte totale du soutien de la structure interne, la résistance de la partie intacte de la structure externe (le « tube »), mais moindre du secteur endommagé. Puis, après une accélération jusqu'à un angle d'environ 25°, cette rotation cessa brusquement, laissant la place au développement d'un énorme nuage « éruptif » qui progressa à l'identique au long de la tour jusqu'à son pied, des éléments lourds (plusieurs dizaines de tonnes) étant projetés à cent vingt mètres de distance, les plus légers à plus de quatre cents mètres, le contenu des étages (ciment des sols, plâtre des cloisons, meubles, équipement, êtres humains) étant réduits en poussière ou fragments. La plupart des vestiges se sont ainsi trouvés répartis autour du pied de la tour et sur les immeubles environnants.
+La destruction de la tour Nord s'est produite avec les mêmes caractéristiques que celle de sa jumelle, mis à part le fait que la partie sommitale s'est effondrée immédiatement - sans résistance - et de manière à peu près verticale, après que l'antenne - soutenue par la structure centrale - a oscillé sur sa base et précédé le mouvement de chute globale. La propulsion continue des vestiges pulvérisés ou fragmentés vers l'extérieur (au minimum 300 000 tonnes), c'est-à-dire leur non accumulation en tas dans l'empreinte de la tour, est le phénomène qui a permis la survie de rares rescapés (20 personnes) surpris dans les étages inférieurs qui se sont retrouvés soit à la surface des débris, soit enfouis à quelques mètres de profondeur, permettant à la plupart d'entre eux (16 personnes) de s'échapper des lieux immédiatement ou après quelques dizaines de minutes d'effort.
+Plus d'une vingtaine de témoignages - essentiellement de pompiers - exposent que, vers 16 heures, l'évacuation du bâtiment fut ordonnée pour la raison qu'il allait s'effondrer. Les déclarations du propriétaire, Larry Silverstein, indiquent que, en accord avec les chefs des pompiers, la lutte contre les feux devait être abandonnée, en raison du risque d'embrasement des réserves d'hydrocarbures situées dans les étages inférieurs. Pour qualifier la décision qu'il venait de prendre, il utilisa l'expression « pull it » (littéralement : « tirez-le » ; en raccourci : « tirons-le » pour let's pull it ou « on le tirera » pour we'll pull it). L'alerte est donnée comme quoi cet immeuble allait s'effondrer, vers 17 heures, la chaîne de télévision BBC annonce que cette tour vient de s'effondrer et appelle en direct sa journaliste sur place pour en parler alors que l'on peut voir derrière elle cette tour toujours debout. Ce n'est qu'à 17 h 25 que les pompiers assistèrent à la chute verticale de l'immeuble, le bloc central qui en surplombait le sommet disparaissant d'abord. Un nuage de poussières se développa à partir de la base, le bâtiment descendant tel quel, comme s'il s'enfonçait dans le sol, l'effondrement créant un puits d'aspiration rendu visible par l'entraînement de la fumée des feux. Contrairement à ce qui fut constaté pour les tours jumelles, les vestiges se retrouvèrent en tas, dans l'empreinte de l'immeuble, les murs de la partie basse couchés vers l'intérieur. La médiatisation de cet effondrement fut très faible, et le rapport de la commission Kean ne fait pas mention de la tour WTC.
+Entre octobre 2001 et janvier 2002 ont été recueillis les récits de cinq cent trois pompiers et sauveteurs grâce à Thomas Von Essen, responsable du secteur incendies à la mairie de New York. Pendant trois ans, ces enregistrements sont restés inaccessibles malgré les demandes des familles de victimes. Traîné en justice par le New York Times, le maire de la ville, Michael Bloomberg, a été finalement contraint de les rendre publiques en août 2005.
+Au moins 2 986 personnes ont donc été tuées.
+Près de 1 360 personnes dans la tour Nord et 600 dans la tour Sud ont été bloquées au-dessus et au niveau des impacts. Confrontées à une situation désespérée due à la fumée, environ deux cents d'entre elles ont préféré sauter dans le vide, s'écrasant dans les rues et sur les toits des bâtiments adjacents. D'autres encore ont tenté d'atteindre le toit dans l'espoir d'un sauvetage par hélicoptère et se sont heurtées à des portes d'accès verrouillées. Seules dix-huit purent s'échapper de la tour Sud.
+Sur les 2 780 personnes ayant perdu la vie dans les tours jumelles, seuls 293 corps ont été retrouvés. Près du quart des 20 000 fragments d'os et de tissus récupérés a pu être attribué, laissant sans trace quelque 1 151 disparus, rapportait l'agence Associated Press. Ce travail d'identification était achevé au début 2005. En avril 2006, trois cents fragments osseux (de longueur inférieure à 2 cm) étaient découverts dans les débris accumulés sur le toit de l'immeuble de la Deutsche Bank, situé à quelque cent trente mètres au sud de WTC. L'institution qui réalisa cette identification en utilisant les marqueurs ADN, le National Criminal Justice Reference Service, avait rapporté « le degré incroyable de fragmentation [des corps], avec une moyenne de seulement sept fragments récupérés par victime ».
+Avec l'effondrement des tours jumelles du World Trade Center, quatre autres bâtiments sur le site du WTC et quatre stations de métro ont été détruits ou très endommagés. Au total, vingt-cinq bâtiments ont été endommagés.
+Les gigantesques nuages de poussière générés par ces destructions ont induit les plus grands mouvements de panique que la ville de New York ait connue. Ils ont en effet envahi tout le sud de la péninsule de Manhattan et même traversé le East River pour atteindre Brooklyn. Il y a eu de nombreux blessés et un certain nombre de disparus, peut-être même des morts (jamais confirmé). Dans un autre domaine, la police de New York a enregistré beaucoup de vols des boutiques et magasins du quartier des affaires ainsi que des dégradations volontaires.
+Parmi les milliers de personnes affectés depuis de problèmes pulmonaires, déficience respiratoire, cancers (environ 30042), quelques centaines se sont adressées aux tribunaux pour obtenir réparation, estimant les institutions responsables de leur état par dissimulation de la pollution atmosphérique.
+Une étude conduite en 2002 en partie par le State department of health's office of managed care a montré qu'à l'ouest de Brooklyn les asthmatiques se plaignaient 2,4 fois plus d'asthme aggravé que dans le reste de la ville après le 11 septembre . Et 1,5 fois plus se sont rendus à l'hôpital pour ce type de problèmes .
+En 2006, un seul décès par fibrose pulmonaire a été officiellement attribué à Ground Zero après autopsie (60 personnes seraient mortes suite à ce type d'infection selon le Dr Levin du World Trade Center Medical Monitoring Programs au Mt Sinai Hospital 44). A ce jour beaucoup de nouveaux cas de mésotélyomes (affection due à l'amiante), ou asbestose sont détectés. Ils sont consécutifs à ce qu'on appelle localement « le syndrome du World Trade Center » .
+L'effondrement des tours a dispersé dans l'atmosphère de Manhattan de nombreux polluants dangereux : de la dioxine, du plomb (dans les 50 000 ordinateurs de chaque tour), de l'amiante, du mercure (dans les dizaines de milliers de tubes fluorescents), de l'américium 241 (radioactif présent dans les milliers de détecteurs de fumée) et de la fibre de verre dans des quantités importantes. Ainsi que des polycarbonates dans une concentration 75 000 fois celle qui ait jamais été mesurée auparavant (dans un atelier du port) et des poussières ultra fines à un taux encore jamais constaté.
+L'EPA a enregistré des pics de concentration anormalement élevés d'autres composés organiques volatiles comme l'éthylbenzène, le propylène, le styrène, et le toluène, ainsi que du 1,3-diphenylpropane 45. Des produits aérosols sous forme de particules inhabituellement fines, probablement associées à des hautes températures sous les débris, furent détectés par l'équipe de Thomas Cahill de l'Université de Californias Davis comme le soufre, le silicone, l'aluminium, le cuivre, le nickel, le fer, le baryum, et le vanadium. Le niveau moyen de concentration de benzène dans l'air enregistré par l'EPA d'octobre à novembre 2001 était de 18 000 ppb avec un pic à 180 000 ppb début novembre 48.
+L'Agence de Protection de l'Environnement était en charge d'évaluer les risques et la dangerosité de l'air. Plusieurs mois après, l'EPA enregistrait encore des taux élevés de dioxine. Christine Todd Whitman, administrateur de cet organisme, avait alors, avec cinq communiqués dans les dix jours qui suivirent, garanti le caractère sain de l'atmosphère de Manhattan, ainsi que de l'eau de la ville. Le 21 août 2003 cependant, l'Agence rendait public un rapport signé par l'Inspecteur Général Nikki Tinsley exposant les modifications imposées par l'administration Bush aux énoncés de prudence rédigés pour prévenir du danger représenté par les poussières, complété par une étude de 2004 des documents par le Sierra Club où l'Agence se voit reprocher de n'avoir pas d'office mis en garde le public, avant toute mesure de pollution, en raison de la connaissance qu'elle avait du danger présenté par certains matériaux constituant les immeubles. L'EPA envisagea même de classer 'secret'les documents relatifs à cette pollution. Les plaintes de malades ont été acceptées par les juges Deborah Batts et Alvin Hellerstein en février et octobre 2006.
+Le 8 mars 2007, à la demande de Jerrold L. Nadler, le «9/11 Heroes Health Improvement Act of 2007» devrait apporter 1,9 milliard de dollars (1,4 milliard d'euros) pour financer l'évaluation et des solutions aux problèmes de santé induits par le 11 septembre.
+Par ailleurs, L'association de la santé mentale de New York indique début 2006 que 12 000 personnes ont sollicité une aide psychologique depuis 2002 suite à ce drame .
+Dès le 11 septembre, les médias présentaient les explications d'experts, la plupart des ingénieurs de structures, professeurs d'université, tels que Hyman Brown ou Richerd Ebeltoft pour qui les incendies, ayant dégagé une chaleur intense (proche de 1 500 °C), avaient fait fondre l'acier des structures. Le lendemain, un article du New Scientist soutenait une thèse identique. Cette explication par le « feu infernal », reprise un mois plus tard dans le Scientific American, bien qu'ayant bénéficié de ces cautions, disparut du débat avec la publication d'études ultérieures.
+Le 12 septembre, dans une revue technique de référence, le Journal of Engineering Mechanics ASCE paraissait un article du Pr Bazant, sommité mondiale des structures en béton, intitulé : « Pourquoi le WTC s'est-il effondré ? Une première analyse », dans lequel il exposait que « les tours furent vouées à l'effondrement lorsque la majorité des colonnes de soutien au niveau d'un même étage se trouvèrent chauffées à 800 °C, perdant alors leur capacité à tenir leur charge » . Cet article est à l'origine de la théorie de l'effondrement progressif des étages, détruits en cascade par la chute des blocs d'étages situés au-dessus des impacts. Puis, le magazine Scientific American a fait paraître le 9 octobre un article exploitant les résultats d'une simulation effectuée par des ingénieurs des structures du MIT, « Quand les tours jumelles s'effondrèrent ». Le paramètre essentiel qui sous-tend les interventions de plusieurs experts en structures aurait été l'intensité des incendies qui, avec leur durée (hypothèse de l'accumulation de la chaleur dans les masses métalliques), aurait fini par faire perdre sa résistance à la structure centrale de soutien. Le modèle de simulation utilisé n'a cependant pas été publié, empêchant ainsi son évaluation.
+La thèse peut être résumée comme l'a fait Jon Magnusson, directeur d'une firme oeuvrant dans le génie civil : « C'est la force de la gravitation qui a finalement vaincu la résistance de la structure. Lorsque les derniers niveaux ont commencé à s'effondrer, ils ont brutalement pesé sur les niveaux directement inférieurs, ajoutant la force de l'impact à leur propre poids. Il s'en est suivi une véritable réaction en chaîne, dans laquelle non seulement le poids, mais aussi la vitesse augmentait rapidement. Aucune structure ne pouvait résister à cela, aussi robuste soit-elle. Mais c'est le feu qui a permis à la gravité de finalement l'emporter contre la résistance intrinsèque des deux tours »,59.
+Le rapport commandé par la FEMA à l'Équipe d'évaluation du comportement des immeubles (BPAT), intitulé WTC building Performance Study, était publié en mai 2002. Il présente une explication de l'effondrement des tours jumelles par l'intensité des incendies, lesquels avaient fini par affaiblir et déformer la structure métallique d'un étage au point qu'il rompit ses attaches aux structures porteuses, entraînant sa chute, laquelle provoqua successivement celle des étages inférieurs (« pancake theory »). Quant aux structures porteuses, elles auraient été incapables de se maintenir, privées du support apporté par les étages.
+Pour ce qui est de la tour WTC, le rapport concluait, après huit mois d'étude, à la nécessité d'un effort de recherche, d'analyse et d'enquête au vu du résultat provisoire selon lequel « la meilleure hypothèse [celle des dégâts suite aux incendies] ne représente qu'une faible probabilité d'occurrence » (ch.5 - 7, p.5 - 31). Pourtant, une analyse microstructurale d'un échantillon de poutre montra une « détérioration rapide et inattendue », résultante de trois phénomènes : une oxydation, une sulfuration et une température proche de 1 000 °C61.
+Cependant, ces théories des feux comme origine des trois effondrements se heurtaient au fait qu'il n'existe pas d'exemple d'effondrement de gratte-ciel à structure métallique suite à un incendie, aussi intense et durable qu'il ait été, l'exemple le plus probant étant celui du One Meridian Plaza de Philadelphie, en 1991. Par ailleurs, le travail du BPAT avait été réalisé sans les plans pertinents, aboutissant à une représentation erronée des structures porteuses centrales. Le gouvernement, sous la pression exercée par les associations de familles de victimes, se résolut à commanditer une seconde étude, qu'il confia au NIST.
+Durant trois années, cet organisme étatique fit effectuer (par les mêmes firmes expertes en structures que la FEMA avait chargées de sous-traitance) un travail de modélisation des étages atteints, des avions, de leur approche et des structures extérieure et interne des tours, utilisé dans une série de simulations des impacts et incendies, et délivra un rapport définitif concernant les tours jumelles en octobre 2005. Deux ans plus tard, le travail concernant la tour WTC, qui a été confié en sous-traitance à la société ARA avec l'instruction de limiter l'étude aux étages 8 à 46, n'a toujours pas abouti.
+Son étude a été restreinte à la séquence des événements qui ont enclenché la chute des blocs d'étages situés au-dessus des impacts. La théorie présentée attribue l'effondrement à une combinaison de destruction de colonnes centrales par les avions, d'affaissement important des planchers (1 m) et de perte de résistance des colonnes intactes, ce par échauffement (une température atteignant 700 °C), échauffement rendu possible par la défaillance de l'isolation anti-incendie de toutes les colonnes, constituée d'un flocage fibreux (remplaçant l'amiante) qui n'aurait pas résisté aux impacts. Le processus étant le suivant : avec la tenue de leurs attaches aux structures porteuses (conclusion inverse de celles de la FEMA), l'affaissement des planchers tire les colonnes externes vers l'intérieur, les faisant plier et, éventuellement, se briser. L'évaluation de ce travail est rendu impossible par le refus du NIST de publier les simulations des effondrements que demandent des ingénieurs civils indépendants. Cependant, la modélisation des structures internes est affectée des mêmes insuffisances que celles qui avaient été constatées pour les travaux du BPAT (ainsi, le modèle montre les 47 colonnes centrales comme identiques alors que 16 d'entre elles étaient doubles des autres) et les simulations des impacts utilisent pour les deux tours le même modèle de structure interne, conduisant à l'obtention de dégâts plus importants pour WTC (niveau 80) que pour WTC (niveau 95). Mais surtout, le NIST n'a pas cherché à rattacher ces simulations aux résultats des tests qu'il avait fait réaliser sur la tenue des planchers (qui n'ont manifesté qu'une flèche de 10 cm), sur la résistance au feu de la structure centrale sous charge maximale par le laboratoire Underwriters (quatre essais durant 2 heures sans effet notable), sur la tenue de l'isolant thermique sous l'impact de balles d'armes à feu (pas de décrochage), ni des analyses et calculs relatifs aux températures atteintes, au plus de 500 °C)64. Enfin, la faiblesse intrinsèque de la méthode choisie par le NIST reste la prise en compte de la seule section atteinte par les impacts, évitant ainsi la problématique de la non résistance des structures porteuses, notamment interne, au-dessous des étages frappés par les avions. Cette problématique est écartée avec le postulat selon lequel « une fois engagée, la chute des étages supérieurs ne pouvait plus être interrompue »(p.144 - 145).
+L'attentat ayant causé la mort du commandant Massoud le 9 septembre 2001 est perçu par nombre d'observateurs comme un préambule à ces attaques. Celles-ci furent attribuées le jour même par les autorités américaines, l'ensemble des mass médias et la quasi totalité des gouvernements étrangers au réseau terroriste Al-Qaida dirigé et financé par Oussama Ben Laden, lequel avait, pour le compte de la CIA, été recruté avec d'autres par les services secrets d'Arabie saoudite pour exacerber la résistance moudjahiddin contre les troupes de l'Union soviétique durant la première guerre d'Afghanistan avant de se retourner contre les occidentaux en 1991. Les enquêteurs estiment que l'opération a été imaginé par Khalid Cheikh Mohammed, en s'inspirant de l'Opération Bojinka. Dans les jours qui ont suivi les attentats, le régime taliban au pouvoir en Afghanistan a démenti l'implication de Ben Laden, de même que l'intéressé qui suggère que les juifs ou les services secrets américains sont responsables des attentats.
+L'enquête de police sur ce crime fédéral fut confiée par l'Exécutif au Bureau Fédéral d'Enquête (FBI). Il reçut l'entière maitrise des divers aspects de ces événements : des lieux, des vestiges, des témoignages des personnes et de toute communication d'informations vers le public.
+Après que le vol 77 s'est écrasé contre le Pentagone, des agents du FBI confisquent les enregistrements des caméras de surveillance de l'hôtel Sheraton, de la station service CITGO, ainsi que de l'organisme de régulation de la circulation automobile. Le FBI a rendu publique les vidéos de la station service, qui n'ont pas filmé les attaques. Alors que l'incendie faisait rage, ils passèrent au peigne fin les alentours pour récupérer les débris projetés par l'explosion, les vestiges à l'intérieur (pour certains évacués sous bâche), et les boîtes noires.
+En Pennsylvanie, c'est le responsable local du FBI qui organisa le bouclage et l'investigation du site où finit le vol 93. Les boîtes noires qui avaient été remises au NTSB pour leur déchiffrage furent récupérées par les services du FBI. Ce sont eux qui interdirent aux contrôleurs aériens de Cleveland de révéler quoi que ce soit de ce qu'ils avaient pu voir sur leurs écrans. Ils contraignirent également au silence les employés des compagnies aériennes et confisquèrent les enregistrements des communications entre les vols détournés et le sol .
+À l'étranger, l'Intelligence Community américaine et les services de police et de renseignement de plusieurs nations participent à l'enquête.
+Dès novembre 2001, plusieurs personnes sont arrêtées à travers le monde dans le cadre de cette enquête dont Imad Eddin Barakat Yar en Espagne et Khalid Cheikh Mohammed, considéré comme l'organisateur des attaques qui est interpelé au Pakistan en 2003.
+Concernant le site du WTC à Manhattan, 750 agents du FBI et plus de 400 autres policiers ont utilisé l'USS Intrépid (CV-11), un ancien porte-avions transformé en navire-musée comme quartier-général pour débuter leurs investigations 72.
+L'enquête du FBI, appelée PENTTBOM 73, a été, selon les dires de l'Agence, la plus importante et la plus complexe de l'histoire du FBI, mettant en jeu plus de 7 000 agents. Dans les 72 heures après les attaques, le FBI proposait les noms des 19 pirates de l'air décédés.
+Après six mois de travail, Robert Mueller, directeur du Bureau, indiquait que « les pirates n'ont laissé derrière eux aucun document. Nos recherches n'ont abouti à la découverte d'aucun document, ni ici aux États-Unis, ni parmi le trésor de données mis au jour en Afghanistan ou ailleurs, mentionnant de quelque manière le complot du 11 septembre ». Les pirates de l'air ont en effet exploité les vulnérabilités du système pour ne pas être repérés : cabines téléphoniques, téléphones portables, cartes prépayées, financement des frais en plusieurs fois, par des sommes faibles, à travers les réseaux immatériels. Mueller indique que l'enquête a établi « la preuve, claire et définitive, que Al-Quaida était derrière ces attentats ». D'autres responsables du FBI, tel que Dale L. Watson, ont fait ce même type de déclaration. Concernant Ben Laden, Rex Tomb, chef de l'Investigation Publicity, lors d'une interview de 2006, a avancé que le FBI ne disposait pas de preuve tangible - « hard evidence » - pour le relier au 11 Septembre.
+Si la responsabilité d'Al-Qaida dans ces attentats est confirmée par la plupart des médias occidentaux, des gouvernements et des spécialistes, la polémique sur la nature de ces évènements, ses causes, et les responsabilités en jeu n'a pas manqué d'apparaître rapidement. Dès le début de l'année 2002, le livre L'Effroyable Imposture du Français Thierry Meyssan, remettant en cause l'explication institutionnelle des attentats, a connu une diffusion internationale. Depuis, d'autres auteurs comme Jimmy Walter, Webster G. Tarpley ou David Ray Griffin ont également publié des livres sur ce sujet. Internet est le lieu privilégié d'exposition de ces thèses divergentes via de nombreux sites qui proposent des documents sous forme d'images d'archives, de vidéos et d'entretiens. Des documentaires, dont le plus connu est Loose Change, ont également été consacrés à ces questions. Tous ont en commun de présenter des réfutations de certains aspects de la version - qualifiée d'« officielle » par leurs soins - des événements du 11 Septembre. Certains affirment ou supposent l'implication - passive ou active et à un degré plus ou moins grand - du gouvernement américain, affirmant que certains faits observés ou rapportés ne sont pas pris en compte par ladite version ou ne sont pas expliqués par elle. Pour ces auteurs, les attentats auraient fourni le prétexte à l'administration Bush de modifier radicalement les politiques intérieure et extérieure des États-Unis, notamment avec les dispositions législatives du Homeland Security Act et des Patriot Act 1 et 2, et justifié les invasions militaires de l'Afghanistan et de l'Irak qui ont suivi, projets qui nécessitaient, selon les principes de la guerre psychologique, un évènement déclencheur pour être mis en place.
+Quelques hommes politiques soutiennent ouvertement cette hypothèse comme l'ancien chef d'État italien Francesco Cossiga, qui affirme que les « attaques » sur les tours du World Trade Center ont été mises en scène par les services secrets américains et du Proche-Orient, ou encore l'ancien ministre allemand Andreas von Bülow, qui a consacré un livre à cette question, et le député européen italien Giulietto Chiesa. En janvier 2008, le député japonais Yukihisa Fujita a exposé ses doutes devant les commissions de la défense et des affaires étrangères de son pays.
+Les promoteurs de ces théories les disent de plus en plus présentes dans l'opinion publique américaine suite aux manifestations répétées des familles de victimes et aux conférences organisées par ces auteurs marginaux, avec parfois l'aide des médias locaux ou régionaux.
+Ces théories sont dénoncées par leurs adversaires comme « conspirationnistes », néologisme utilisé pour désigner en particulier les partisans d'une théorie du complot intérieur. De nombreux sites, en anglais, en français ainsi que dans d'autres langues, dénoncent ce qui leur semble être des arguments fallacieux des conspirationnistes.
+Pour l'historien Jean-Michel Lacroix, « la stratégie de George Bush consiste [après le 11 Septembre] à capitaliser sur l'émotion collective et la psychose sécuritaire en se posant en "défenseur du monde libre" au risque de prendre une posture impériale et d'alimenter une vision manichéenne du bien et du mal ».
+« 1. Condamne catégoriquement dans les termes les plus forts les épouvantables attaques terroristes qui ont eu lieu le 11 septembre 2001 à New York, Washington (DC) et en Pennsylvanie et considère de tels actes, comme tout acte de terrorisme international, comme une menace à la paix et à la sécurité internationales ;+
2. Exprime ses plus profondes sympathies et condoléances aux victimes et à leurs familles ainsi qu'au peuple et au gouvernement des États-Unis d'Amérique. »+
Jacques Chirac, président de la République Française au moment de ces événements, a tenu un discours télévisé sur TF1 à 21 h 30 le 11 septembre 2001 dans lequel il déclarait :
+« La France, plus que jamais unie à l'Amérique, s'associe à la douleur de toutes les familles après ces attentats monstrueux, il n'y a pas d'autre mot pour qualifier et pour condamner de tels actes de terrorisme. »+
L'émoi provoqué par les attentats a produit des réactions de tous ordres :
+L'impact militaire le plus direct est l'invasion de l'Afghanistan, désigné comme le siège opérationnel d'Al-Quaïda, dès le mois d'octobre 2001 et le renversement du régime des Talibans quelques mois plus tard par les forces armées américaines, britanniques, canadienne, françaises, et autres.
+Ce renversement et l'établissement d'un gouvernement de transition s'accompagne de l'arrestation de nombreux musulmans présumés terroristes, internés dans des camps disséminés autour de la planète, ce qui provoquera les vives réactions de nombreuses ONG, dont Amnesty International. La création de la prison de Guantanamo s'explique en partie par cet afflux important de prisonniers.
+Un second impact militaire d'importance est l'invasion de l'Irak et le renversement du régime de Saddam Hussein en 2003 par les forces armées américaines et britanniques. Bien que l'Iraq de Saddam Hussein n'ait pas participé aux attentats du 11 septembre, le régime baasiste a été désigné par l'administration américaine comme un soutien actif du terrorisme international et un détenteur d'armes de destruction massive, malgré l'absence de preuves sur le terrain. Le régime de Saddam Hussein a été remplacé par un régime plus démocratique, notamment par la tenue d'élections et une représentation de la majorité chiites par rapport aux sunnites. L'invasion de l'Irak provoquera de houleux débats à l'ONU et des manifestations à travers le monde, protestant contre les véritables raisons qui seraient d'ordre économique et stratégique (indépendance énergétique vis-à-vis de l'Arabie saoudite notamment).
+Il est à remarquer que le candidat George W. Bush s'était engagé pendant sa campagne sur le fait que les États-Unis ne prendraient pas l'initiative d'opérations militaires nouvelles hors de leur territoire national. Les événements du 11 septembre lui donnaient donc à nouveau les coudées franches dans ce domaine.
+Plusieurs plaintes ont été déposées par des victimes des attentats contre plusieurs personnes, États, sociétés et organismes aux États-Unis et à l'étranger.
+Le 5 novembre 2001, une plainte avec constitution de partie civile a été déposée auprès du Parquet de Paris par la famille de Thierry Saada, une des cinq victimes françaises des attentats.
+Le 15 août 2002, environ 600 proches des victimes déposent une plainte devant le tribunal fédéral de Washington contre sept banques étrangères, huit fondations islamiques, huit particuliers dont trois membres de la famille royale saoudienne (Prince Sultan Ben Abd el-Aziz, ministre de la Défense, Prince Turki al-Fayçal al-Saoud, ancien chef du renseignement et Prince Mohammad al-Fayçal al-Saoud, directeur de la Faisal Islamic Bank), deux entreprises et contre le gouvernement soudanais, accusés d'avoir financé Al Qaïda90.
+Une autre le 3 septembre 2002 à la cour du district sud de New-York.
+Des actions judiciaires ont été autorisées en septembre 2002 par le juge Alvin Hellerstein contre les compagnies aériennes dont les avions ont été détournés, Boeing ainsi que les propriétaires du World Trade Center pour n'avoir pu prévenir les attentats ainsi que contre le Port Authority of New York and New Jersey qui n'a pu fournir de plans d'évacuation appropriés.
+Le juge fédéral Harold Baer a déclaré l'Irak co-responsable avec Al-Qaida des attentats du 11 septembre dans son arrêté du 7 mai 2003 et a accordé 104 millions de dollars (92 millions d'euros) de dommages et intérêts aux familles de victimes des attaques du 11 Septembre et le 22 septembre 2005, un juge fédéral new-yorkais, Richard Casey, a reçu la plainte déposée contre l'International Islamic Relief Organization, une organisation caritative impliquée dans le financement de réseaux islamistes.
+Aux États-Unis, la seule personne à avoir été jugée jusqu'à présent pour son implication directe avec les attentats du 11 Septembre est le Français Zacarias Moussaoui. Arrêté moins d'un mois avant les attaques, il a été accusé par les autorités fédérales américaines d'avoir eu connaissance des attentats à venir mais de n'avoir pas communiqué ses informations. Le 3 mai 2006, au terme de deux mois de procès, il a été reconnu coupable par le jury du tribunal fédéral d'Alexandria en Virginie de six chefs d'accusation de complot en liaison avec les attentats terroristes du 11 Septembre et condamné à la prison à perpétuité, sans possibilité de remise de peine.
+En Allemagne, le marocain Mounir al-Motassadeq arrêté le 28 novembre 2001, est condamné une première fois à quinze ans de prison en 2003 pour complicité dans ces attaques. Remis en liberté en février 2006 après que sa condamnation a été cassée, il voit sa première peine confirmée par le tribunal de Hambourg le 8 janvier 2007.
+En Espagne, le Syrien Imad Eddin Barakat Yarkas, chef de la cellule locale d'Al-Qaida est arrêté le 13 novembre 2001, inculpé de conspiration en vue des attentats de septembre 2001. Il est condamné le 26 septembre 2005 à vingt-sept ans de prison.
+Khalid Cheikh Mohammed et Ramzi ben Al-Shaiba, soupçonnés d'être les organisateurs des attentats, sont en détention à Guantanamo depuis septembre 2006. Ils avaient revendiqué l'organisation logistique des attentats dans un entretien accordé en mai 2002 et diffusé à la télévision qatarie Al-Jazira les jeudi 5 et dimanche 8 septembre 2002. En mars 2007, ils passent devant une commission militaire chargée de déterminer leur statut. Leur procès devant un tribunal militaire américain installé dans la base navale américaine de Guantanamo avec trois autre coaccusés s'est ouvert le 5 juin 2008. Le Monde souligne que « les audiences se tiennent dans le cadre d'une justice militaire d'exception ». Khaled Cheikh Mohammed, Ali Abd al-Aziz Ali et Wallid ben Attash ont plaidé coupable le 8 décembre 2008.
+La plupart des analystes économiques considèrent que les attentats du 11 septembre ont été à l'origine d'un ralentissement économique significatif (ou de l'amplification du freinage important qui avait été amorcé par l'éclatement de la bulle Internet en l'an 2000).
+L'effet durable sur le monde ne peut pas être encore mesuré pour savoir si ce fut un catalyseur (du sens de l'Histoire) ou un changement. Les médias de masse maintiennent une pression vers l'inquiétude et la paranoïa.
+Selon le « WorldEconomic Report » du Fonds monétaire international de décembre 2001, l'US National Income and Products Accounts évalue les destructions et les dépenses qui leur sont directement liées, après le 11 septembre, à 24,1 milliards de dollars américain.
+Le 23 mai 2007, sept assureurs des tours du World Trade Center ont trouvé un accord extra-judiciaire avec le promoteur du complexe du World Trade Center, Larry Silverstein. Les compagnies Swiss Re, Travelers Companies, Zurich American Insurance Company, Allianz Global Risks Insurance Company, Employers Insurance Company of Wausau, et Royal Indemnity Company paieront au total 2,1 milliards de dollars au lieu des 7 milliards réclamés après les attentats. 103,104
+Plus de 40 000 employés se sont retrouvés au chômage et des milliers d'entreprises (particulièrement dans le secteur tertiaire) ont disparu ou subi des pertes considérables suite à la destruction de ce centre d'affaires, qui était l'un des plus actifs de la planète. De nombreuses compagnies ont quitté Downtown pour s'installer à Brooklyn, Midtown, ou dans le Connecticut.
+Les compagnies aériennes mondiales, surtout celles des États-Unis, déjà en difficulté depuis quelques années, ont largement souffert de la chute de fréquentation de leurs lignes et des travaux de sécurité entrepris après ce quadruple détournement, malgré les aides des pouvoirs publics. Les primes d'assurance des immeubles et celles des avions de ligne ont fortement augmenté.
+Les mesures législatives votées dans la foulée des attentats du 11 septembre ont apporté un surcroît de puissance à l'exécutif américain, aux services secrets (dont la CIA) et la police fédérale (Federal Bureau of Investigation), ainsi qu'aux militaires (budget du Pentagone notamment).
+L'USA PATRIOT Act a été soumis aux parlementaires dès le 24 septembre et voté le 26 octobre. Deux sénateurs qui se sont employés à freiner l'adoption de ce projet, Patrick Leahy, président de la Commission judiciaire du Sénat, et Tom Daschle, chef de la majorité sénatoriale, furent les cibles d'envois d'enveloppes chargées d'anthrax militaire. Sous la simple affirmation de participation à la lutte anti-terroriste, le FBI se voit attribuer le pouvoir d'espionner les associations politiques et religieuses sans que celles-ci soient suspectées d'activités criminelles. Le gouvernement peut trainer en justice les possesseurs de fichiers et de données qui révèleraient qu'ils ont dû procéder à des réquisitions d'informations. Il peut faire procéder à des perquisitions et saisir les documents et effets possédés par des citoyens. Sans devoir se justifier, il peut faire emprisonner quiconque, y compris des citoyens, ce indéfiniment et sans procès, sans que ces personnes soient accusées, ni qu'elles puissent être confrontées à celles qui auraient déposé contre elles. Le FBI ni la CIA ne sont contraints de répondre de leurs actions devant les élus. Cette liberté d'action ainsi accordée aux services secrets et à la police est toujours l'objet de débats sur la scène politique et dans l'opinion, car perçue comme opposée aux droits civiques.
+Le Homeland Security Act a été présenté au Congrès dans les mois qui ont suivi et a été voté le 25 novembre 2002. Il regroupe en une seule structure (le Homeland Security Department) une vingtaine d'agences fédérales comme la FEMA, les Douanes, les Services Secrets... Il met en avant une définition du « terrorisme interne » tellement vague [réf. insuffisante] qu'elle permettrait d'y inclure les militants politiques radicaux. Cette loi reprend le contenu d'un rapport de la commission dite Hart-Rudman (US Commission on National Security for the 21st Century) créée en 1998 sous la présidence de Bill Clinton, intitulé Road Map for national Security : Imperative for Change. Le Total information Awarness office (TIA), qui matérialise un projet de la Defense Advanced Research Projects Agency (une structure du Pentagone), se proposait de constituer une banque de 300 millions de fiches, regroupant les informations de sources publiques et privées sur chaque Américain. Il autorise les réunions secrètes des Conseils présidentiels, la dispense de justification intervenant en opposition avec la loi 92 - 463 sur la transparence des réunions de l'exécutif. Il garantie l'immunité à quiconque fournit à une agence fédérale des informations relatives à des failles ou faillites, même suite à négligence ou faute. Il permet, par transaction commerciale, l'accès par l'administration à des fichiers constitués par des firmes privées sur des citoyens, contournant ainsi la protection donnée par le IVe amendement.
+Enfin, le military commissions Act, signé le 18 octobre 2006 par le président Bush, abroge, et avec effet rétroactif, le droit des personnes, jusqu'alors reconnu dans les traités internationaux signés par les États-Unis, en définissant une nouvelle classe d'individus, les « combattants illégaux ». Ceux-là peuvent être indéfiniment détenus, sans l'obligation de fournir un acte d'accusation, sont exclus de la protection accordée par les Conventions de Genève, peuvent être soumis à des tortures psychologiques et physiques. Plusieurs rapports d'Amnesty International ont dénoncé cette violation des droits de la défense et ces pratiques de détention arbitraire.
+Fin 2007, une loi spécifique était en cours d'examen par le Congrès (loi sur la radicalisation violente et la prévention du terrorisme intérieur), loi destinée à lutter contre les idéologies et « croyances extrémistes qui ont pour but de faciliter la violence visant à promouvoir des changements politiques, religieux ou sociaux ». Est spécifiquement visé Internet qui « a aidé à faciliter [sic] une radicalisation violente (...) en procurant aux citoyens américains un accès aux larges et continuels courants de propagande en relation avec le terrorisme ». Cette législation paraît largement inspirée des travaux de Brian Michael Jenkins (de la RAND Corporation) sur le terrorisme : « dans leur campagne internationale, les Jihadistes vont rechercher des terrains communs avec les forces gauchistes, anti-américaines et anti-mondialisation, qui, à leur tour, verront dans les Islamistes radicaux des camarades face au même adversaire ». Une note de l'étude de la RAND Corporation intitulée « Tendances du terrorisme » (ch.4) attire l'attention sur les écologistes, anti-mondialistes et anarchistes, les désignant comme terreaux de terroristes potentiels.
+Plus d'1,8 million de tonnes de débris et gravats ont été enlevées du site du World Trade Center. En 2004, l'ancien site du World Trade Center, rebaptisé ground zero, est déblayé et prêt à accueillir une nouvelle construction, la Freedom Tower, pour laquelle un concours architectural a été ouvert pour un mémorial, un lieu de vie et d'activités.
+Un nouveau 7 World Trade Center a été inauguré en 2006 mais en 2008,« malgré le vacarme des grues et des pelleteuses, pas un seul des ambitieux projets de reconstruction n'a émergé à quatre ans de la date officielle de finalisation »110.
+
Vingt-quatre tonnes d'acier récupéré sur le site du WTC sont utilisées pour la construction du USS New York (LPD-21), un navire de guerre de la classe San Antonio, rebaptisé ainsi en la mémoire des victimes.
+Contenu soumis à la GFDL
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Une bicyclette, aussi appelée un vélo en langage courant, est un véhicule terrestre composé de deux roues alignées - d'où elle tire son nom. La force motrice est fournie par son conducteur (le cycliste) en position assise ou couchée, parfois debout, par l'intermédiaire de pédales faisant office de paliers de vilebrequin. La bicyclette est l'un des principaux moyens de transport dans de nombreuses parties du monde. Sa pratique, le cyclisme, constitue à la fois un usage quotidien, un loisir populaire et un sport.
+L'ordre de grandeur habituel des vitesses de déplacement à bicyclette est de 16 à 32 km/h environ. Sur un vélo de course rapide, un cycliste raisonnablement entraîné peut atteindre environ 70 km/h sur un parcours horizontal, durant de courtes périodes (sprints). La plus grande vitesse jamais atteinte sur du plat, sans utiliser d'écran aérodynamique, a été atteinte par le Canadien Sam Whittingham en 2008, constituant le record du monde avec 132,5 km/h, sur son vélo couché hautement aérodynamique. Ceci constitue le record toutes catégories pour les véhicules à propulsion humaine.
+Par rapport à la marche à pied, le vélo est trois fois plus efficace à effort égal et entre trois et quatre fois plus rapide. On a également calculé qu'en termes de conversion en mouvement de l'énergie issue de la nourriture, il s'agit d'une forme de locomotion plus efficace que celle de n'importe quel organisme biologique (l'organisme biologique le plus efficace au kilomètre est le martinet et le second est le saumon).
+L'histoire de la bicyclette pourrait remonter au mythique Comte Mede de Sivrac supposé inventeur du célérifère en 1790. La genèse de ce mythe a été racontée par Jacques Seray.
+L'histoire commence en 1817, année où le baron allemand Karl Drais von Sauerbronn invente sa Laufmaschine ou « machine à courir » qui sera présentée à Paris la même année (Brevet d'importation français déposé par Louis-Joseph Dineur au nom du Baron Drais le 17 février 1818 : « Machine dite vélocipède. »). La draisienne de 1817 possédait deux roues alignées, reliées à un cadre en bois par des fourches, la roue avant pouvant pivoter latéralement. Cet engin connut un certain succès, en particulier au Royaume-Uni et aux États-Unis. La draisienne et les engins qui lui ressemblaient furent connus sous divers noms, comme hobby horse, dandy horse, biciped ou trottinette. Ils tenaient plus de cette dernière, dans la mesure où le seul moyen de propulsion était de prendre appui au sol pour fournir une poussée.
+On pourrait considérer que la draisienne fait partie de la préhistoire de la bicyclette et que son histoire proprement dite commence avec les vélocipèdes à pédale. Les historiens retiennent la date de 1861 pour l'apparition des pédales, année où Pierre Michaux, serrurier en voiture à façon, commence la fabrication des premiers vélocipèdes à pédale. Il appelle cette pédale « pédivelle » (brevet français n° 80 637 déposé par Pierre Michaux le 24 avril 1868 : « Perfectionnement dans la construction des vélocipèdes. ») et en généralise la fabrication en créant son entreprise en 1865, la « Maison Michaux » qui devient « La Compagnie parisienne » en 1869. On peut parler, à partir de 1867, de succès populaire. Apparaissent les courses de vélocipèdes, les clubs, les journaux... Des engins similaires au vélocipède Michaux eurent beaucoup de succès aux États-Unis après 1866, lorsque Pierre Lallement, ancien associé de Pierre Michaux, obtint un brevet américain pour une machine qu'il appela « bicycle ». Quelques-uns surnommèrent la machine boneshaker (« secoueuse d'os »), en raison de la conception des roues, en bois cerclées de fer. Les garnitures de roues en caoutchouc dur apparurent en 1869 et améliorèrent sensiblement le confort de l'engin.
+Après la guerre de 1870, le perfectionnement des vélocipèdes va se poursuivre surtout en Angleterre. La roue avant devint plus grande, et la roue arrière diminua de taille. Ce genre de bicyclette connut un succès foudroyant. Le premier grand-bi, appelé Ordinary apparut en 1872. En Angleterre, il fut surnommé Penny Farthing (d'après la taille respective de ces deux pièces de monnaie).
+Un inventeur français eut l'idée d'utiliser les fourreaux de sabre devenus inutiles pour remplacer les profilés pleins par ces tubes. Cela permit d'alléger considérablement l'ensemble.
+En 1884, John K. Starley de la société the Coventry Sewing Machine Company (« société des machines à coudre de Coventry »), qui deviendra Rover, inventa la « bicyclette de sécurité » avec des roues de taille raisonnable et une transmission par chaîne. Le cycliste y est installé à l'arrière, ce qui rend presque impossible la chute de type « soleil » où le cycliste est catapulté par-dessus la roue avant (brevet anglais n° 1 341 déposé par John K. Starley le 30 janvier 1885 Improvements in roller bearings for velocipedes, carriages, or like light vehicles or light machinery).
+Un engrenage plus grand à l'avant (le plateau) qu'à l'arrière (le pignon) fait tourner la roue arrière plus vite que les pédales ne tournent, ce qui permet à ce type d'engin d'aller vite même sans une roue géante.
+John Boyd Dunlop inventa le pneumatique en 1888 (brevet français n° 193 281 déposé par John Boyd Dunlop le 1er octobre 1888 : « Garniture de jante applicable aux roues de véhicules. »). Cela contribua à améliorer encore le confort du cycliste.
+Les bicyclettes de sécurité de 1890 ressemblaient déjà beaucoup aux bicyclettes actuelles. Elles avaient des pneumatiques de taille comparable à ceux d'un vélo moderne, des roues à rayons, un cadre en tubes d'acier et une transmission par chaîne. La seule chose qui leur manquait était un système de changement de vitesses.
+Dans les années 1890 ce nouveau modèle de bicyclette a élargi la cible des utilisateurs potentiels. De plus, les bicyclettes devinrent un produit industriel, réduisant leur prix à un point qui les rendait abordables aux ouvriers. Cela conduisit à une « folie de la bicyclette », qui fut à l'origine d'une évolution sociale importante (voir ci-dessous).
+En 1903 naît le tour de France. Le premier gagnant de cette grande épreuve est Maurice Garin.
+Les systèmes à plusieurs vitesses commencèrent à être utilisés dans les compétitions de vélo dans les années 1930.
+Le vélocar apparaît dans les années 1930, vélo couché et ancêtre de la vélomobile.
+Les dérailleurs se développent durant les années 1950.
+Enfin, les vélomobiles renaissent à la fin des années 1980.
+Les bicyclettes courantes sont constituées d'un ensemble de pièces facilement identifiables.
+Le cadre en est la partie principale, il consiste généralement en un triangle sur lequel le poids du cycliste est réparti à partir du point d'appui de la selle, associé à un second triangle plus petit sur lequel est monté la roue arrière : ce second triangle se compose de haubans (arrête extérieure du triangle arrière) et de bases (base du triangle arrière). La roue avant est fixée au cadre par une fourche, la partie haute de celle-ci est montée sur des roulements à billes au travers d'un tube presque vertical à l'avant du cadre. Ces roulements à billes constituent le jeu de direction. Le sommet de la fourche constitue une potence à laquelle est fixé le guidon. La fourche peut être suspendue. De nombreux modèles de vélos modernes sont par ailleurs conçus sans haubans fixes, remplacés par un système suspendu. Ce système peut prendre des formes diverses et variées, de l'utilisation d'articulations basées sur des roulements, jusqu'à l'emploi de matériaux flexibles (titane notamment) qui autorisent une déformation progressive. De tels vélos « tout-suspendus » sont conçus pour la pratique en terrain inégal comme le VTT pour apporter un confort supplémentaire.
+L'énergie est fournie par le cycliste par l'intermédiaire de ses pieds, avec lesquels il appuie sur les pédales, reliées à un ou plusieurs engrenages au niveau du pédalier : le ou les plateaux. L'engrenage arrière, le pignon (mais il y a souvent plusieurs pignons de tailles différentes fixés ensemble, on parle alors de cassette) est monté sur la roue arrière par un mécanisme à cliquet anti-retour : la roue-libre. La transmission du mouvement entre un plateau et un pignon est assurée par la chaîne. En fonction du type de pratique pour laquelle le vélo est conçu, la cassette peut être « plate » comme sur un vélo de route, ce qui veut dire qu'entre deux pignons successifs, il n'y a qu'une dent de plus sur le plus grand ; sur d'autres types de vélos comme les VTT, le nombre de dents peut augmenter bien plus vite entre les pignons successifs. L'ensemble des éléments compris entre les pédales et la roue arrière est désigné par le terme de transmission. Les roues elles-mêmes sont munies de pneumatiques, ou pneus, afin d'accroître le confort du cycliste, et de diminuer les contraintes subies par la mécanique.
+La possibilité de changer de vitesses constitue l'une des avancées majeures de la technique cycliste. Le travail des jambes est plus efficace à certaines vitesses de rotation (ou cadences) du pédalier. Disposer d'une possibilité de sélection plus étendue des rapports de vitesses entre plateaux et pignons permet au cycliste de conserver sa cadence de pédalage la plus proche d'une valeur désirée. C'est pourquoi les vélos de route sont équipés de pignons « plats », de manière à permettre au cycliste de bien contrôler sa cadence en fonction du petit nombre de configurations de terrain qu'il pourra usuellement rencontrer. C'est un dispositif simple qui pousse la chaîne latéralement de manière à l'obliger à changer de pignon (ou de plateau pour le dérailleur avant). Les côtés des pignons eux-mêmes ont une forme spécifique avec des indentations aux dimensions des maillons de la chaîne, pour « attraper » la chaîne lorsqu'elle est poussée contre le pignon, l'engageant ainsi sur les dents de ce pignon. Le système est considérablement plus simple que les systèmes plus anciens comme la bicyclette à trois vitesses, mais tarda à conquérir le marché, en raison de la différence fondamentale avec tous les systèmes de changement de vitesses utilisés auparavant.
+L'un des plus importants organes d'un vélo est le système de freinage. Il est composé de deux poignées de frein indépendantes, commandant chacune une mâchoire venant appliquer des tampons en caoutchouc sur la jante par l'intermédiaire de câbles de frein. Les câbles sont la plupart du temps protégés dans des gaines. Certains systèmes de freinage, pour plus de performance, sont basés sur le principe du frein à disque, ou du frein à tambour, intégré dans le moyeu.
+Depuis les années 1950, la plupart des systèmes de freinage sont dérivés de la conception des mâchoires à tirage latéral inventée par Campagnolo. Les deux bras de la mâchoire se resserrent lorsque le câble, fixé à l'extrémité d'un des bras et passant par l'extrémité de l'autre est tendu. La pression des tampons appliqués par la jante s'équilibre grâce à un ressort qui répartit l'effort entre les deux bras de mâchoires.
+L'usage de plus en plus fréquent de pneumatiques plus gros sur les VTT a fini par poser un problème : la jante et son pneumatique devenaient trop larges pour passer entre les mâchoires de freins. Dans un premier temps, le système cantilever a apporté une réponse à ce problème. Les bras de la mâchoire devenaient indépendants, tout en étant reliés par un câble court de répartition de l'effort de freinage. Le câble de commande vient alors se fixer au milieu du câble de répartition. Cependant ce système présente quelques faiblesses : si la fixation du câble de commande n'est pas centrée, l'effort est mal réparti entre les bras, et si le connecteur se décroche, le câble de répartition peut bloquer la roue brutalement en se coinçant dans les dessins du pneumatique, ce qui peut entraîner un accident si cela se produit sur la roue avant.
+Une solution plus adaptée au problème de la largeur des pneumatiques est le v-brake. Le câble est fixé de manière à être dirigé vers le haut de manière à ne pas pouvoir retomber sur le pneumatique, et transmet en outre de bien meilleure façon la puissance de freinage impulsée par la poignée de frein, tout en étant un peu plus facile à centrer lors du montage.
+Les pneumatiques peuvent être fixés de deux manières sur les jantes : soit collés (on parle alors de boyaux), soit montés sur une encoche qui fait le tour de chaque côté de la jante (pneumatiques classiques). La largeur et les sculptures des pneumatiques sont adaptées en fonction de l'usage du vélo : fins et lisses pour la course, plus épais et avec de nombreux crampons pour le VTT, etc.
+En Amérique du Nord et dans les autres régions où le sol gèle pendant l'hiver, il est possible d'installer des pneus dotés de pointes métalliques. Ceux-ci assurent une plus grande adhérence sur des surfaces glacées et les adeptes de ce moyen de déplacement peuvent ainsi circuler pendant
+Les matériaux utilisés pour la fabrication des bicyclettes sont proches de ceux utilisés en aéronautique, l'objectif dans les deux cas étant d'obtenir une structure légère et résistante. Presque tous les vélos d'avant les années 1970 étaient faits d'un alliage d'acier et de chrome : le chromaloy (ou chromoloy). Au début des années 1980 l'aluminium connut un certain succès, notamment en raison de la baisse de son coût.
+À ce jour, ce métal est probablement le plus utilisé pour des vélos de milieu de gamme. Dans le haut de gamme on utilise la fibre de carbone et le titane, mais ces matériaux sont onéreux. Chaque type de matériau utilisé pour le cadre a ses avantages et ses inconvénients, bien que pour une géométrie de cadre donnée, l'ensemble des bicyclettes possèdent des qualités similaires dans leur comportement général.
+Les différences les plus flagrantes entre matériaux apparaissent lorsqu'on compare leur tenue dans le temps, leur esthétique, leur capacité à être réparés et leur poids. Comme la rigidité du cadre dans le plan vertical, même pour un matériau très élastique, est d'un ordre de grandeur supérieur à celui de la rigidité des pneumatiques et de la selle, le confort du vélo se résume plutôt à un problème de choix de la selle, de la géométrie du cadre, des pneumatiques et de réglage général du vélo.
+Il faut signaler une composante importante des vélos : c'est l'équipement de signalisation, constitué par une lampe blanche vers l'avant, une rouge vers l'arrière, le plus souvent alimentées par un alternateur, et de réflecteurs orangés destinés à compléter la visibilité du cycliste, notamment par le côté, parfois fixés sur les rayons des roues pour augmenter leur visibilité par le mouvement. Enfin, les vélos disposent en général d'une sonnette actionnée au guidon, et qui les distingue clairement des avertisseurs de véhicules automobiles.
+L'aérodynamique est redécouverte pour réaliser des vélos encore beaucoup plus rapides : les vélos couchés et les vélomobiles, qui permettront de battre les records de vitesse et d'augmenter le confort.
+Bien que réparer un vélo soit simple dans son principe, nombre de pièces sont relativement complexes et certains préfèrent déléguer la maintenance de leur engin à des professionnels. Toutefois, beaucoup de personnes préfèrent entretenir leur vélo autant que possible, que ce soit pour économiser de l'argent, ou tout simplement pour le plaisir de bricoler, par passion pour le vélo.
+La vélodiversité a toujours été présente depuis l'histoire des cycles. Elle réapparaît plus clairement encore depuis la renaissance des vélos couchés.
+Quelques bicyclettes sont emblématiques de leur histoire telles :
+De nombreuses innovations ont transformé la bicyclette. On voit ainsi l'apparition de machines :
+De ces différentes innovations découlent un certain nombre de pratiques cyclistes :
+Il existe des bicyclettes de forme insolite 3. Comme par exemple des vélos style Harley Davidson pour Biker en manque de pétrole.
+Avec plus d'un milliard et demi de bicyclettes circulant sur la planète, le vélo est toujours le moyen de transport le plus utilisé au monde. L'apparition du vélo aurait provoqué ou accéléré plusieurs évolutions de société.
+Néanmoins, le nombre moyen de kilomètre parcouru par personne et par an varie fortement selon les régions et les pays. En Europe (voir graphique)
+Sous sa forme à deux roues avec un cadre composé de deux triangles dos à dos, la bicyclette (quasiment identique à celle que nous utilisons maintenant) a procuré aux femmes une mobilité sans précédent, facilitant ainsi leur émancipation. Dans les années 1890 l'engouement pour le cyclisme chez les femmes a été à l'origine de la création d'une mode de vêtements comme les jupes-pantalons qui ont aidé les femmes à se libérer du corset et d'autres vêtements contraignants.
+La bicyclette a été utilisée par différentes armées dans des régiments d'infanterie cycliste.
+En ville, en Europe, mais surtout en Chine et dans certains pays d'Asie du Sud-Est, les bicyclettes ont réduit la concentration de population du centre-ville en donnant aux travailleurs un moyen d'effectuer des déplacements pendulaires entre des habitations individuelles en banlieue proche et les lieux de travail de la ville. Le recours aux chevaux a également diminué dans la même période. La bicyclette, combinée aux congés, permit aux gens de voyager dans leur pays d'origine, avec une grande autonomie, à une époque où l'automobile restait un moyen de transport onéreux accessible seulement aux classes supérieures.
+Une proportion croissante de la population l'utilise comme un moyen de transport pour de courtes distances[réf. nécessaire], surtout dans des villes densément peuplées où la circulation est congestionnée, et où les coûts d'usage et de stationnement de l'automobile comme la demande en qualité environnementale ont rendu l'usage de l'automobile moins intéressant. Cette tendance s'est accélérée avec le processus de vieillissement de la population des banlieues proches de nombreuses villes. De plus en plus de villes construisent maintenant des aménagements cyclables comme des pistes ou des bandes cyclables le long des rues, pour faciliter et favoriser l'usage du vélo tant comme moyen de locomotion au quotidien que comme loisir.
+La bicyclette est toujours l'un des véhicules individuels les plus utilisés dans de nombreux pays en voie de développement. L'image de la ville asiatique fourmillant de vélos est un cliché fréquemment rencontré, bien qu'en réalité la bicyclette ait tendance à y avoir de moins en moins de succès.
+Selon le magazine The Economist, l'une des raisons principales de la prolifération de bicyclettes fabriquées en Chine sur les marchés extérieurs à ce pays serait la tendance des Chinois à préférer de plus en plus l'automobile et les deux-roues motorisés.
+En France, notamment dans les grandes villes, et comme dans les pays qui utilisent beaucoup le vélo, le vol est assez fréquent, ce qui a conduit à la mise en place de meilleurs moyens d'anti-vols. Ainsi aux Pays-Bas (comme en France, en Scandinavie et en Allemagne) une institution vérifie la fiabilité des anti-vols 4.
+D'autres moyens de transport tentent de s'adapter à la cohabitation avec la bicyclette en fournissant des moyens favorisant la complémentarité des modes : système de transport de vélos sur les bus, dans les trains, etc. Pour réduire les risques de vol, de nombreux parcs à vélos s'équipent d'arceaux ou de mini-garages à vélos (consignes à vélo).
+Premièrement, la fabrication industrielle des bicyclettes avec cadre en double triangle dos à dos a nécessité la mise au point de techniques avancées de travail du métal pour la production des cadres, et de composants comme le roulement à billes et les engrenages. Ces techniques ont permis plus tard de développer des pièces mécaniques qui furent utilisées dans les premières automobiles et en aéronautique. Un exemple d'une telle évolution est celui des frères Wright, qui ont fait leurs débuts en tant que fabricants de bicyclettes.
+L'usage du vélo a entraîné l'organisation sur le plan politique des cyclistes et des amateurs de bicyclette, sous forme de groupes de pression, pour promouvoir auprès des institutions la création d'un réseau routier revêtu, bien entretenu et cartographié.
+Tant le modèle d'organisation de ces groupes de pression que celui des routes elles-mêmes facilita plus tard le développement de l'usage d'un autre véhicule à roues : l'automobile. Dans certaines sociétés occidentales, la bicyclette fut reléguée après la Seconde Guerre mondiale au rang de jouet pour les enfants, et il en fut ainsi durant plusieurs années, notamment aux États-Unis. Dans certains pays occidentaux, en particulier aux Pays-Bas et en Allemagne, la bicyclette continua d'être utilisée couramment comme moyen de transport.
+Le vélo est un moyen de déplacement économe en énergie, peu dangereux et occupant peu d'espace. Il a une faible empreinte écologique (s'il est utilisé). En milieu urbain, pour les déplacements courts il est une bonne alternative à l'automobile. Pour les déplacement plus longs ou pour se rendre à son travail, toujours en milieu urbain, il constitue un excellent complément aux transports en commun, car il démultiplie l'aire desservie.
+Un réseau dit véloroutes et voies vertes, paneuropéen est en cours de constitution pour que les cyclistes puissent se déplacer sans danger au travers de toute l'Europe, tout en ayant un accès facilité à des lieux de restaurations. Au Québec, un projet similaire appelé la route verte a été inauguré en 2007, et couvre le territoire habité d'est en ouest de la province. En Europe, de nombreuses régions sont aménagées à l'intention des cyclistes, mais les différences nord-sud et ville-campagne restent très importantes. Ce sont surtout les Pays-Bas et le Danemark qui se distinguent : les villes de Groningue et de Copenhague sont souvent citées en exemple. Et pourtant, selon certaines sources, c'est la ville de Ferrare, dans le Nord de l'Italie, qui aurait la proportion de cyclistes la plus élevée au monde.
+La pratique du vélo apporte des bienfaits en termes de santé publique, parce qu'il s'agit d'un exercice physique d'intensité moyenne : c'est précisément ce qu'il faut pour réduire les risques de maladies cardiovasculaires. La pratique quotidienne du vélo est également recommandée par l'OMS ou la Commission européenne dans la lutte contre l'obésité. Aux Pays-Bas, une étude commandée par le ministère néerlandais des Transport montre que dans ce pays un travailleur sur trois va régulièrement au travail à vélo. Ceux qui utilisent un vélo tous les jours ouvrés sont statistiquement moins souvent malades et donc plus rentables pour leurs employeurs. Si l'on considérait que les deux autres tiers rassemblaient des personnes en moins bonne santé, celles-ci se porteraient mieux en pratiquant le vélo. Le ministre a suite à cette étude prévu 70 millions d'euros en 2009 pour aménager des pistes cyclables facilitant les trajets domicile travail et pour des mesures d'accompagnement des cyclistes (augmentation des parcs à vélos sécurisés dans les gares).
+Le cycliste est aussi moins exposé aux polluants de l'air que les autres usagers de la route. Même sur une route circulante, il aspire moins de gaz que les automobilistes parce qu'il roule sur le côté de la chaussée et parce que la prise d'air des véhicules est généralement plus proche des pots d'échappement que le nez du cycliste - où les taux de pollution sont plus faibles. Sa position surélevée lui permet d'échapper à certains polluants qui sont plus lourds que l'air. Sans compter que les cyclistes peuvent profiter de leur flexibilité pour explorer des parcours qui évitent les grands axes de circulation.
+Ce gain en termes de santé est toutefois contrebalancé - dans certains pays plus que dans d'autres - par le risque d'accident.
+Les pays comptant le plus de cyclistes sont les moins dangereux pour les amateurs de la petite reine. Dans un article publié en 2007 dans la revue Injury Prevention, des chercheurs anglais ont comparé les risques subis par des cyclistes âgés de 10 à 14 ans dans huit pays. Résultat : les Pays-Bas et la Norvège sont les pays les plus sûrs, suivis de la Suisse et de l'Allemagne. En queue de classement, on trouve la Grande-Bretagne et la Nouvelle-Zélande. Les usagers de la route sont disciplinés dans ces pays, mais le cyclisme y est peu répandu. Le surcroît d'accidents proviendrait du fait que les automobilistes n'ont pas suffisamment l'habitude de côtoyer des cyclistes.
+Ces résultats confirment ce que d'autres chercheurs, notamment suédois et américains, postulent depuis le début des années 2000 : si on multiplie le nombre de cyclistes par dix, le nombre d'accidents n'est multiplié "que" par quatre. Il serait donc souhaitable que le nombre de cyclistes augmente, pour des raisons de sécurité.
+En Suisse, pays au relief accidenté, chaque année, deux fois moins de personnes meurent à vélo qu'à moto[réf. nécessaire], alors que les cyclistes effectuent davantage de déplacements que les motards (la statistique inclut les scooters dès 125 cm³ parmi les motos). Par kilomètre parcouru, les motards et scootéristes sont 18 fois plus exposés à un accident mortel que les automobilistes, les cyclistes 7 fois plus, et les piétons 6 fois plus. Si l'on calcule le risque de décès par heure, se déplacer à vélo reste plus risqué que de rouler en voiture, mais l'heure de vélo est 7 à 8 fois moins dangereuse que l'heure de moto ou de scooter.
+Ce qui réunit cyclistes et motards, c'est que dans la plupart des accidents les concernant, une automobile est impliquée et c'est l'automobiliste qui est fautif (refus de priorité, heurt par l'arrière). Les cyclistes sont moins exposés que les motards car ils roulent moins vite, ils entendent mieux les bruits de leur environnement, et leur véhicule est plus léger. Dans la plupart des pays des guides sont disponibles, qui rappellent les consignes de prudences et bonnes pratiques 13.
+Au Danemark, une étude tenant compte de tous les points positifs et négatifs liés à la pratique du vélo a montré que le risque de mourir dans l'année est réduit d'un tiers chez les personnes qui se rendent au travail à vélo, comparé à celles qui utilisent un autre moyen de transport. L'activité physique quotidienne apporte donc un gain plus important que le risque d'accident.
+En France, le décret no95 - 93715 d'août 1995 relatif à la prévention des risques résultant de l'usage des bicyclettes précise la nature d'un vélo : « On entend par bicyclette tout produit comportant deux roues et une selle, et propulsé principalement par l'énergie musculaire de la personne montée sur ce véhicule, en particulier au moyen de pédales ». Conseils et réglementation concernant le cycliste sur le site du ministère de l'Intérieur [3]
+Contenu soumis à la GFDL
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+On appelle « Cathares » (du grec ancien XXXXXX / katharós, « pur ») les adeptes d'un mouvement religieux chrétien médiéval. Le nom a été donné par les ennemis de ce mouvement, jugé hérétique par l'Église catholique et adopté tardivement par les historiens. D'autres sources rappellent que ce nom, proposé pour la première fois par le moine Eckbert de Schönau (en Rhénanie), serait un jeu de mot associant ces hérétiques avec des adorateurs du diable (catus), représenté sous la forme d'un chat blanc ailé. Enfin, Michel Roquebert, propose dans son ouvrage 2, l'hypothèse d'une erreur de Alain de Lille qui aurait confondu le terme catharos (pur) et kataroos (écoulement) qui a donné en français le mot catarrhe, pris dans le sens d'un « suintement de la doctrine hérétique ». « Communauté à deux niveaux », les adeptes de ce mouvement se nommaient eux-mêmes « Bons Hommes », « Bonnes Dames » ou « Bons Chrétiens », mais étaient appelés « Parfaits » par l'Inquisition, qui désignait ainsi les « parfaits hérétiques », c'est-à-dire ceux qui avaient reçu le « consolament », c'est-à-dire l'imposition des mains et faisaient la prédication, par opposition aux simples « fidèles » hérétiques.
+Principalement concentré en Occitanie, dans les comtés de Toulouse et de Béziers-Albi-Carcassonne le catharisme subit une violente répression armée à partir de 1208 lors de la croisade contre les Albigeois puis, condamné au IVe concile de Latran en 1215, durant un siècle, la répression judiciaire de l'Inquisition.
+On a longtemps hésité sur les liens entre le catharisme et le bogomilisme. Ces deux doctrines furent considérées alors comme proches du manichéisme, car le clergé romain disposait d'ouvrages de réfutation, notamment ceux d'Augustin, ancien manichéen lui-même. Le bogomilisme subsistera en Bosnie, où il aurait été la religion officielle jusqu'à la conquête turque, à la fin du xve siècle. La thèse de filiation directe est aujourd'hui contestée, même si les historiens admettent l'existence d'échanges et de convergences des doctrines. Le dernier colloque de Mazamet (2009) vient de confirmer les liens entre cathares et bogomiles, ainsi que les origines doctrinales des deux, qui remontent aux premiers siècles du christianisme (Paul, Marcion, Valentin). Même si le développement du catharisme semble appuyer l'idée d'une expansion depuis l'Europe centrale, il n'est pas prouvé à ce jour qu'il s'agisse bien de la réalité.
+Des communautés hérétiques sont apparues en Europe occidentale vers l'an Mil, sous différents noms selon les régions : manichéens, origénistes, piphles, publicains, tisserands, bougres, patarins, albigeois, en Allemagne, en Flandre, en Champagne, en Bourgogne. Le fait que les relevés doctrinaux soient conformes à la base de la doctrine cathare (au sens large du terme) permet de relier ces différentes émergences, même si la répression les a fait disparaître de ces régions. La présence de l'évêque de France à Saint Félix Caraman, cité dans la Charte de Ninquinta (aujourd'hui largement authentifiée), prouve les liens entre ces communautés du nord et celles d'Occitanie.
+Les réactions des autorités civiles ou ecclésiastiques et des populations expliquent cette géographie du catharisme et sa persistance dans le Midi. Selon Michel Roquebert, cette tolérance religieuse est peut être due à une longue cohabitation avec d'autres confessions : arianisme de la période wisigothe, proximité de l'Espagne islamique, présence de nombreux juifs. Pour ce qui est de l'Italie du Nord, l'implantation du catharisme, très différent de celui qui se développa en France, profite du conflit entre le pape et l'empereur.
+C'est dans ces régions que les Bons Hommes se sont organisés en communautés d'hommes ou de femmes dirigées par des anciens, des diacres et des évêques. Ces communautés étaient constituées de plusieurs «maisons». On y aurait souvent pratiqué des métiers liés à l'artisanat local, et fréquemment le tissage, en référence aux premières communautés chrétiennes. Plusieurs communautés constituaient une Église, ou diocèse cathare, à la tête duquel se trouvaient des évêques.
+Au milieu du xiie siècle (1167), les Églises cathares étaient au nombre de huit cents en France. Au xiiie siècle, en 1226, un nouvel évêché fut créé, celui du Razès, dans la région de Limoux. Ces Églises étaient indépendantes. Elles ne reconnaissent pas d'autorité supérieure à celle des citoyens, comme celle du pape pour l'Église romaine. Les maisons de «parfaits» étaient réunies sous l'autorité d'un diacre, et chacune était dirigée par un ancien ou une prieure. L'évêque était lui-même assisté par un «fils majeur» et un «fils mineur», qui étaient choisis parmi les diacres, et qui prenaient sa succession, le fils mineur remplaçant le fils majeur, qui devenait évêque, à sa mort; cela se produisit fréquemment lorsque la persécution commença. Les femmes pouvaient obtenir le consolament, et accéder ainsi à la vie de parfait. Même si elles n'étaient pas habituellement chargées de la prédication, comme les hommes, quelques exemples montrent qu'elles pouvaient assurer toutes les missions dévolues aux bons hommes : prédication, notamment aux femmes, ou en association avec un homme, participation aux disputes (Esclarmonde) et consolament, notamment pendant la répression inquisitoriale. Par contre, nous n'avons pas trace de bonne femme diacre ou évêque.
+Par cette organisation, les Cathares ont voulu reproduire fidèlement celle de l'Église primitive, telle qu'elle est décrite dans le Nouveau Testament, dans les épîtres de Saint-Paul, et dans les Actes des apôtres, principalement.
+Le catharisme ne s'appuie pas sur une théologie puisqu'il considère que Dieu, inconnaissable et non accessible, est absent de ce monde. Cette doctrine est le fruit d'un travail de recherche scripturaire, prenant en compte le Nouveau Testament, notamment l'Évangile selon saint Jean et celui selon saint Luc, dont au moins la moitié est aujourd'hui considérée comme le reliquat de l'Évangélion de Marcion de Sinope, lui-même écrit selon la prédication de Paul de Tarse. C'est une interprétation très différente des évangiles de celle de qu'en fait l'Église catholique. Les cathares s'appuient aussi sur de nombreux écrits (Paul, Marcion, Livre des deux principes, rituels, etc.) et s'inspirent de courants de pensée plus anciens (paulinisme, gnosticisme), tout en gardant, sur bien des points, de notables distances avec ces philosophies ou religions, auxquelles le catharisme ne peut être assimilé d'un bloc. En effet, les cathares n'ont jamais parlé de Mani, de Sophia ou des Éons, et se différencient réellement des écrits de Paul et de Marcion, représentant une évolution doctrinale, de celle de ces deux pères de l'église.
+Les cathares recherchent le sens originel du message du Christ. Leur foi se base sur les principes suivants :
+Cette vision de la constitution de l'univers visible constitue le mythe de la chute du tiers des anges ou, selon les interprétations, de la troisième partie de leur composition : être, âme, et corps subtil. Introduits dans des corps charnels fabriqués par Lucifer, ces êtres sont différents de l'âme qui est de création maléfique, et qui assure la survie du corps charnel;
+Cette création, issue d'un créateur imparfait et non éternel, est imparfaite et corruptible. Elle a eu un commencement et elle aura une fin.
+Cette fin surviendra quand le Mal s'étendra sur la création et que les esprits auront réussi à s'extraire de leur prison charnelle pour retourner à Dieu. Alors, le Mal ayant perdu les avantages du mélange, redeviendra Néant. Le Mal est donc vainqueur dans le temps mais, son accomplissement constitue sa perte. Il est donc vaincu dans l'éternité.
+Les deux principes ne sont donc pas de même nature et de même puissance. Il ne s'agit donc pas d'un dualisme manichéen, ni d'un dithéisme, mais d'un dualisme comparable à celui de l'église de Rome, sauf qu'au lieu d'être eschatologique, centré sur la fin des temps et la division du monde entre paradis et enfer, il est originel, centré sur la bonne création, qui seule subsistera à la fin des temps.
+Le Christ, fils de Dieu, et envoyé par Lui, est venu pour leur révéler leur origine céleste et pour leur montrer le moyen de retourner aux cieux. Ainsi, le Christ est uniquement l'envoyé du Père (aggelos : ange, messager) venu apporter le message du salut aux hommes. Il ne s'est pas soumis au Mal par l'incarnation, et est demeuré un pur esprit (docétisme). Marie ne l'a jamais enfanté.
+La différence fondamentale entre catharisme et catholicisme porte sur le fait que, pour les premiers, Dieu subit le mal en ne punissant personne, alors que pour les seconds, Dieu subit le mal et sauve les pécheurs qui le veulent, mais pas ceux qui rejettent son pardon.
+Les cathares du Moyen Âge sont en accord sur l'essentiel de leurs croyances, et les légères variantes observées (absolus ou dyarchiques, et mitigés ou monarchiques) n'avaient pas de répercussion.
+Les cathares, se considérant alors comme les seuls vrais disciples des apôtres, adoptent le modèle de vie, les rites et les sacrements, des premières communautés chrétiennes. Ils s'appuient principalement sur les enseignements du Nouveau Testament, leur unique prière étant le Notre Père. Ils considèrent que toutes les pratiques et sacrements instaurés par l'Église catholique romaine tout au long du Haut Moyen Âge, n'ont aucune valeur :
+De même que dans certains courants de l'Église chrétienne primitive, l'idéal cathare est basé sur une vie ascétique, alors que le sacrement du mariage aurait été créé tardivement afin de permettre aux fidèles d'être chrétiens dans le mariage, leur donnant la possibilité d'accéder au salut sans suivre la voie monastique.
+Ils n'attachent pas d'importance aux églises bâties qui ne sont pas pour eux les seuls lieux du culte car la parole du Christ peut être enseignée partout où se réunissent les fidèles.
+Leur seul sacrement est le baptême, ou consolament.
+Le sacrement du consolament (consolation, en occitan du latin consolamentum) ou « baptême d'esprit et du feu » par imposition des mains, comme pratiqué par le Christ, est le seul à apporter le salut en assurant le retour au ciel de la seule partie divine de l'homme : l'esprit. Il est le point de départ d'un choix de vie en accord avec la doctrine (justice et vérité), permettant à la nature divine de l'impétrant de se détacher partiellement de la nature mondaine et d'accéder au salut. Le consolament officialise donc le choix du novice ou du mourant à mener une vie chrétienne. Il n'est que la reconnaissance d'un état et non un apport d'une qualité extérieure. Ce sacrement joue un rôle fondamental dans les communautés cathares car il est à la fois sacrement d'ordination et de viatique (extrême-onction), alors appelé « consolament des mourants ».
+Le consolament est conféré par un membre de la hiérarchie et engage celui qui le reçoit dans une vie religieuse qui, comme toute ordination, suppose la prononciation de voeux et le respect d'une Règle : pratique de l'ascèse, engagement à ne pas manger de la viande, la pratique de la morale évangélique : interdiction de jurer, de mentir, de tuer. Il fait d'un croyant cathare un Bon Homme ou une Bonne Dame, membre du clergé, prédicateur, capable d'apporter lui-même le consolament aux mourants.
+Il était donc aussi administré aux mourants qui en faisaient la demande, c'est-à-dire aux simples croyants qui n'avaient pas franchi le pas de l'ordination durant leur vie, mais souhaitaient rencontrer le Saint-Esprit, leur donnant une chance d'accéder au salut, avant de mourir. Les prières des parfaits après la mort du consolé pouvaient durer encore quatre jours, et si le mourant survivait, il devait alors embrasser la vie de parfait avec les contraintes associées.
+Étant ordonnés, les parfaits entrent dans un ordre religieux, mais sans sortir du siècle. Ils sont en effet astreints au travail manuel pour vivre, ce qui leur donne un avantage considérable pour leur prédication, en les maintenant au contact de la population qu'ils vont instruire directement, via des traductions en langue vernaculaire, contrairement au clergé catholique qui refuse tout contact direct du peuple avec les textes sacrés. Cela leur rapportera également, tout simplement, l'argent du produit de leur travail, argent qui leur permettra par exemple de se déplacer et, avec les dons et les legs, de créer les conditions de l'existence d'une hiérarchie. Par contre la pauvreté personnelle était prescrite.
+Les cathares vivaient dans des « maisons de parfaits », intégrées aux villes et aux villages, qui leur permettaient de rencontrer la population et de prêcher, et leur servaient d'atelier. Des jeunes y étaient envoyés par leurs parents simples fidèles ou déjà ordonnés, pour leur formation en vue de leur propre ordination.
+Tout parfait rejoignait une maison de parfaits, et y travaillait de ses mains, y compris par exemple les nombreuses épouses nobles et leur progéniture qui firent partie des rangs des cathares. Le sacrement de mariage n'étant pas reconnu, elles se séparaient simplement de leur mari, généralement lui-même simple croyant.
+Le consolament des mourants pouvait être conféré dans les maisons des parfaits, dans laquelle le consolé était transporté et mourait.
+Lorsque vint le temps des persécutions, les parfaits durent se cacher chez des fidèles, mais ils y payèrent toujours leur nourriture par le travail manuel, plus le prêche et l'enseignement.
+Se rapprochant des premiers chrétiens, les cathares croyaient que le salut passait par une vie de religion. Afin de ne pas procréer, c'est à dire créer un nouveau corps - d'essence mauvaise - ils étaient astreints à la chasteté et refusaient la procréation, ils devaient constamment aller par deux personnes du même sexe : chacun avait son sòci, ou compagnon, ou sa sòcia, pour les femmes. Cette prédication au coin du feu de deux personnes de même sexe conduira à l'accusation de bougrerie (homosexualité) fréquemment enregistrée dans les registres de l'Inquisition. En réalité, cette façon de vivre toujours au moins à deux tenait à la conviction que l'esprit seul ne peut éviter de se fourvoyer alors qu'avec - au moins - un compagnon ou une compagne, les errements sont plus faciles à combattre.
+Ils ne devaient pas mentir, s'abstenir de tout vice, de toute méchanceté, être simplement de Bons Chrétiens selon les Évangiles, ce qui conduisit inévitablement à l'édification des chrétiens, bien que le catharisme touchât essentiellement une population bourgeoise ou noble, sauf dans la dernière période. Les parfaits ne devaient évidemment pas tuer, mais cela s'appliquait également aux animaux.
+L'interdiction de mentir, ainsi que l'interdiction de jurer, fut largement utilisée par les inquisiteurs pour identifier et pourchasser les bons chrétiens.
+Ils devaient s'abstenir de toute consommation de produits de la fornication. En cela ils s'interdisaient toutes viandes ainsi que le lait et les produits dérivés.
+Le jeûne était de pratique courante mais, le jeûne le plus strict prévoyait du pain et de l'eau. L'endura, qui conduisit des "bons hommes" à la mort, est un jeûne suivant le consolament et qui a pu conduire certains "bons chrétiens" à la mort pendant l'inquisition en raison de situation particulières (mourants ou blessés consolés in extremis).
+Dernière obligation faite surtout aux hommes : la prédication. Les parfaits devaient prêcher le salut par l'ordination du consolament et la morale évangélique. Cette prédication se faisait dans les maisons ateliers, mais également étant invités par des fidèles ou sur la place publique.
+Finalement, trois carêmes annuels étaient pratiqués.
+Leur obstination, leur anticléricalisme intransigeant, leur opposition à la hiérarchie catholique, à laquelle ils reprochent sa richesse ostentatoire et ses abus de pouvoir, valent aux cathares de s'attirer les foudres de l'Église romaine, d'autant plus que leur mépris pour le corps et leur conception nihiliste de l'existence étaient perçus comme éminemment dangereuse. Ils sont condamnés comme hérétiques. Ainsi que beaucoup d'autres mouvements dissidents ou contestataires, les cathares deviennent l'objet d'une lutte permanente. L'Église romaine tente d'en « purifier » la chrétienté occidentale en excluant systématiquement tout individu ou groupe mettant en péril le projet de société chrétienne qu'elle construit depuis le début du xe siècle. Un critère qui sera souvent utilisé est leur refus du mariage, qui permettra de les nommer orgiaques et impies. Une prière des confréries corses porte toujours une mention de cette réputation de « satanales », lorsqu'elle dit, « chandeliers triangulaires aux cierges éteints », écho des vices qui se pratiquaient prétendument dans les églises, une fois les cierges soufflés, et qui renvoie à toutes les peurs de la sorcellerie, des messes noires, etc.
+L'Église catholique confie aux cisterciens, au xiie siècle, puis, avec plus de succès, au xiiie siècle, aux ordres mendiants (aux franciscains et au nouvel ordre des dominicains, ayant reçu leur constitution en 1216) le soin de combattre ce danger de l'hérésie. Les cathares sont difficiles à convaincre. La prédication ou le débat doctrinal instaurés à cette fin dans le Midi de la France par l'Église tourne court pour le moment, malgré la prédication de Saint Dominique, qui fut par la suite mise en valeur par l'Église.
+Prétexte : expliquer l'assassinat du légat du pape
+Face à cet échec de faire disparaître cette hérésie, le pape Innocent III lance en 1208 contre les « Albigeois », ou cathares, la première croisade qui se déroulera sur le territoire de la chrétienté occidentale. Avec la Croisade contre les Albigeois, il s'agit pour l'Église de mater une hérésie, mais aussi en partie, pour le pouvoir central de la royauté française, de soumettre les seigneurs du Sud, ses vassaux trop indépendants. Néanmoins Philippe Auguste, le roi de France, ne voudra jamais participer personnellement à cette croisade, mais il laissera ses vassaux libres de toutes actions. La guerre durera vingt ans (1209 - 1229). Il faut savoir que les domaines que tenaient le comte de Toulouse étaient d'une richesse enviable. Simon de Montfort, un seigneur ambitieux, prit la tête des troupes levées par le pape et réussit à mettre à son nom tous les titres et possessions du comte de Toulouse, Raymond VI, comme le lui permettait la croisade.
+La lutte armée pour pacifier le Languedoc se poursuivit dans le Midi tout au long du xiiie siècle. Elle est relayée sur un plan spirituel par l'institution de l'Inquisition, créée en 1231 pour traquer la « dépravation hérétique », et convaincre les cathares de revenir vers la foi chrétienne. Ajouter ici le sort de la première croisade, la reprise du pouvoir par le comte de Toulouse, la remise des titres de propriété au roi de France par le successeur de Guillaume de Monfort, la deuxième croisade à laquelle participe le roi de France, et l'annexion des territoire du Sud-Ouest à la couronne de France.
+La tâche de l'Inquisition fut facilitée par le refus du serment que pratiquaient les cathares. Ainsi, lorsqu'un inquisiteur interrogeait un parfait, les plus convaincus étaient faciles à détecter. Les inquisiteurs (surtout les Dominicains) notaient soigneusement tous les interrogatoires et ainsi tous les Bons Hommes furent l'un après l'autre arrêtés suite, souvent, aux révélations de leurs pairs. De plus, un cathare ne pouvait être sacré que par un parfait et les mourants ne pouvaient recevoir l'Absolution (consolamentum des mourants) que des mains d'un parfait. Que ce soit une tactique déterminée ou pas, l'Inquisition, en faisant disparaître le clergé cathare, fit disparaître le culte avec lui, ce qui était le but recherché.
+Le sac de Béziers La ville de Béziers abritait des cathares ; elle était tenue par les Trencavel, vassaux des comtes de Toulouse - excommuniés par le pape en raison de leur trop grande tolérance envers les Cathares. La mémoire Biterroise conserve une place particulière à une date pendant cette période : le 22 juillet 1209. Ce jour-là, la Croisade des Albigeois, contre les Cathares, se traduisit par le sac, l'incendie de Béziers et le massacre une partie de sa population (cathares comme chrétiens, ici il n'est plus question de lutte religieuse mais de combattre les hommes de seigneurs excommuniés et rebelles) en l'église de La Madeleine. On l'a baptisé « Lo gran mazel » (« la grande boucherie »)
+Le moine allemand Césaire de Heisterbach (dont Régine Pernoud précise qu'il est un auteur « peu soucieux d'authenticité ») relate dans son Livre des Miracles qu'il écrit dix ans après les faits, qu'Arnaud Amaury, le légat du pape, à qui on demandait comment différencier les cathares des bons catholiques de Béziers pour les épargner, déclara « Tuez-les tous, Dieu reconnaîtra les Siens. » Ne figurant dans aucune autre source, la phrase est certainement apocryphe.
+C'est davantage dans la menace politique qu'ils représentaient qu'il faut trouver la véritable explication. D'autres chercheurs estiment que les Giovannali sont une branche de la dissidence franciscaine sans lien avec le catharisme.
+Contenu soumis à la GFDL
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Au niveau théorique, le communisme est une conception de société sans classe, une organisation sociale sans État, fondée sur la possession commune des moyens de production et qui peut être classée comme une branche du socialisme ou plutôt « comme but » du socialisme.
+Au niveau politique, le communisme désigne une variété de mouvements qui affirment chercher à établir à terme une telle société. Parmi les communistes, on trouve une considérable variété d'interprétations, principalement portées par les courants marxistes, mais aussi anarchistes et chrétiens. La première division s'est opérée entre anarchisme et marxisme au sein de la Première Internationale. Néanmoins, les courants communistes qui se sont le plus distingués par leur influence sur l'ordre politique mondial depuis le début du xxe siècle sont d'influence marxiste, directement (Manifeste du Parti communiste) ou indirectement (léninisme). La lutte des classes joue un rôle central dans la théorie marxiste (et également dans d'autres tendances communistes). L'établissement du communisme correspond dans cette théorie à la fin de toute lutte des classes, la division des êtres humains en classes sociales ayant disparu.
+Karl Marx, défendant la nécessité de l'autonomie du mouvement ouvrier et de l'internationalisme, soutenait que la société ne pouvait d'un coup être transformée depuis le mode de production capitaliste vers le mode de production communiste. Elle nécessitait une période de transition que Marx a parfois décrit comme la période révolutionnaire de dictature du prolétariat. Dans le Manifeste du Parti communiste, il définit le communisme comme « une association où le libre développement de chacun est la condition du libre développement de tous ». La société communiste imaginée par Marx, émergeant d'un capitalisme largement développé, n'a jamais été établie, et demeure théorique.
+Au niveau historique, le mot « communisme » est souvent utilisé pour désigner les régimes politiques et économiques gouvernés par des partis se réclamant du communisme. Certains de ces régimes se revendiquaient comme des « dictatures du prolétariat ».
+La notion de communisme est très controversée et désigne souvent des réalités différentes selon les personnes qui l'utilisent. Le concept de communisme est l'objet d'un débat sémantique, selon deux axes qui interfèrent :
+Le terme communisme vient du terme latin communis, ce qui est commun à un groupe, auquel s'adjoint le suffixe « -isme » désignant une doctrine. La commune serait également un des termes définissant le cadre du groupe (de ce qui lui serait commun) dans lequel se définit le communisme.
+Divers usages existent autour du terme « communisme ». Ainsi, il est nécessaire de reprendre l'historique du mot et de séparer les différents courants ainsi que les différents concepts utilisés.
+En 1845, dans L'idéologie allemande, pour Marx et Engels, « le communisme n'est pas un état de choses qu'il convient d'établir, un idéal auquel la réalité devra se conformer. » Ils appellent « communisme le mouvement réel qui abolit l'état actuel des choses. Les conditions de ce mouvement résultent des données préalables telles qu'elles existent actuellement. »3
+En 1847, Friedrich Engels définit ce mouvement réel dans les « Principes du communisme ». Ainsi, « le communisme est l'enseignement des conditions de la libération du prolétariat. »4.
+On désigne parmi les premiers « marxistes » en France les Guesdistes comme Jules Guesde et Paul Lafargue qui ne se sont jamais d'ailleurs revendiqués comme marxistes ; contrairement et probablement aux Broussistes dans les années 1870 et à certains Hégéliens dans les années 1890 5 et « autres amis de ce genre » dont Marx a dit : « je ne suis pas marxiste. ».
+Marx critiqua ainsi les visions encore utopique de ces mouvements dont leur sentiment vont historiquement en France au socialiste Joseph Proudhon et au révolutionnaire Auguste Blanqui même parmi les Guesdistes ("marxistes français"). Par ailleurs, vers la fin de sa vie, n'a-t-il pas dit de ces gendres que Longuet était le dernier des proudhonniens et de Lafargue le dernier des boukaninistes ? De plus, les guesdistes, trop enthousiastes de cette nouvelle pensée, prévoient contrairement à Karl Marx une victoire rapide et facile contre les méfaits du capitalisme. Ainsi, pour les autres socialistes, les guesdistes font preuve d'un messianisme parce qu'ils citent constamment Marx soit d'une manière trop simpliste, soit comme un prêtre citant la Bible.
+Cependant, dans son Introduction de la Guerre Civil, Engels écrit que la Commune de Paris a sonné le glas des écoles prudhonniennes et du blanquisme puisque ces élus, majoritaires, ont fait le contraire de leur pensée, c'est-à-dire essayer de construire selon Marx le Communisme ; et qu'à partir de 1891, « c'est maintenant la théorie de Marx qui y règne chez les « possibilistes » non moins que chez les « marxistes ». Ce n'est que chez les bourgeois « radical » qu'on trouve encore des prouddhonniens. ».
+Ainsi, tandis que le proudhommisme eût perdu de l'influence, est-ce cependant la pensée marxiste qui prédomine dans les milieux ouvriers français ? Même avec la diffusion du marxisme par Guesde et Lafargue dans le prolétariat, c'est le sentiment anarchiste par "l'action directe" et la Propagande par le fait qui prédominent. Les événements de Fourmies en 1891 exalté par l'anarchiste Renard, les lois scélérates en 1893, la formation de la CGT en 1895 (dominé par des syndicalistes révolutionnaires libertaires) l'attestent.
+Et, comme le dira, en 1896, Wilhelm Liebknecht dans ces Souvenirs sur Marx : « Il n'y avait alors au sein de la classe ouvrière elle-même qu'une infime minorité qui se fût haussée jusqu'au socialisme ; et parmi les socialistes eux-mêmes, les socialistes dans l'esprit scientifique de Marx - dans l'esprit du manifeste communiste - n'étaient qu'une minorité. Le gros des ouvriers, dans la mesure où ils s'étaient éveillés à la vie politique en général, étaient encore plongés dans la brume des aspirations et des formules démocratiques sentimentales qui caractérisaient le mouvement de 1848 aussi que ses levers et baissers de rideau. ».
+Le communisme est souvent assimilé au mouvement marxiste.
+Cependant, le marxisme n'est qu'une composante du communisme tout comme l'arnarchisme. Selon Jules Guesde, les marxistes se posent en « double qualité de communiste - comme but - et de collectiviste - comme moyen - »6.
+Ces derniers se font appeler les collectivistes. En effet, dans son sens ancien, le communisme prescrivait la mise en commun de tous les biens. C'est par « collectivisme » qu'on désignait les doctrines de mise en commun des seuls moyens de production.
+Cependant, « Le collectivisme ne se distingue pas du communisme scientifique, tel qui est sorti de la critique maîtresse de Karl Marx. Si cette appellation a prévalu en France, c'est que, pour les besoins de notre propagande, il y avait lieu de nous distinguer des divers systèmes communistes qui, forgés de toutes pièces par des hommes de plus ou moins de bonne volonté ou de génie, versaient tous dans l'utopie. »7
+Ainsi, peu après la commune de Paris en 1871, et jusqu'en 1917, les marxistes se sont désignés comme « collectivistes » et la majorité des anarchistes comme « communistes », du fait que le premier courant voulait utiliser un État dirigé par les travailleurs et la collectivisation comme outil de transition, au contraire du second qui voulait utiliser directement des moyens libres et autonomes pour atteindre le but recherché.
+Cependant, selon le français Paul Lafargue le terme de « Collectivisme est un mauvais synonyme belge pour communisme. Le communisme a un passé historique et a eu pour représentants au début du siècle Owen et Fourier. En 1847, Marx et Engels ont publié le Manifeste communiste, document incomparable au XIXème siècle... Enfin, le mot ne fait rien l'affaire si nous propageons les idées du communisme. »8
+Les régimes politiques qui étaient en place dans l'Union soviétique et dans le « bloc communiste » sont communément désignés aujourd'hui sous le nom de « régimes communistes ». En URSS, on désigne du nom de « communiste » les membres du parti et seulement eux. La qualification « communiste » de ces régimes est contestée principalement par des communistes ou sympathisants. Des marxistes et des anarchistes, ont analysé dès leur apparition ces pays comme des régimes « capitalistes d'État ». Les trotskystes estiment qu'il s'agit d'une monstrueuse dégénérescence d'un « État ouvrier » issu de la Révolution russe. La majorité des communistes (staliniens) reconnurent longtemps ces régimes comme découlant de leurs idées. Les adversaires du communisme considèrent que la nature autoritaire ou totalitaire de ces régimes découle logiquement de l'idéologie communiste.
+Les dirigeants de ces pays les déclaraient « socialistes ». Ce terme fut le plus communément utilisé dans ces pays, où était pratiquée une planification économique. Le « socialisme » fut défini par des théoriciens léninistes comme l'étape préliminaire et nécessaire vers le communisme, la société idéale sans classes ni propriété. Ce régime fut appelé aussi au départ la dictature du prolétariat, terme abandonné vers 1936 pour le « socialisme triomphant » et ensuite, vers les années 1970, le « socialisme développé ».
+Une société communiste se définit au plan théorique comme une société sans classes, sans salariat et sans État. L'URSS, ses républiques composites et satellites et tous les pays socialistes n'ont jamais réalisé l'idéal communiste, même selon les théories staliniennes : ils se disaient « en route vers » le communisme.
+Les bases du communisme sont beaucoup plus complexes que l'on pourrait le penser. Ainsi Marx lui-même n'est pas le créateur du socialisme ou communisme. Bien d'autres auteurs y avaient pensé avant lui, Rousseau avance déjà l'idéologie comme dans son Discours sur l'origine et les fondements de l'inégalité, où il explique que l'invention de la propriété est nuisible "Gardez-vous d'écouter cette imposteur; vous êtes perdus, si vous oubliez que les fruits sont à tous, et que la terre n'est à personne". On peut aussi citer Gracchus Babeuf. Le communisme s'appuie aussi sur le philosophe allemand Kant.
+Sur le plan de l'organisation sociale et économique, le mot communisme conjecture l'organisation d'une société :
+Des difficultés théoriques et pratiques se posent pour l'instauration du communisme :
+En URSS, les individus parvenant à maîtriser le système politique chargé de gérer l'appareil de production ont formé spontanément ce que Léon Trotski a appelé la "bureaucratie", et Mikhaïl Voslenski la "nomenklatura". Poursuivant des fins propres (intérêt personnel et/ou intérêt de classe) et non l'intérêt général, ce groupe a utilisé le régime à son profit. Pour prévenir de tels dangers (que les léninistes estiment présents surtout peu de temps après l'instauration de « l'État ouvrier ») il faudrait un contrôle de l'ensemble de la population sur les différents responsables, à tous les niveaux, et leur révocabilité (c'était la revendication des ouvriers et soldats des années 1920 en Russie soviétique : « Tout le pouvoir aux Soviets ! »).
+Le passage d'une société non communiste à une société communiste constitue un moment délicat : les moyens divergent selon les tendances existantes au sein du mouvement communiste, néanmoins la période révolutionnaire (avec toutes les conséquences d'une révolution) est une base commune, même si les moyens pour la réaliser ne le sont pas.
+Dans la théorie marxiste, le communisme est l'aboutissement ultime de l'évolution des sociétés humaines de la commune primitive à l'esclavagisme, de l'esclavagisme au féodalisme, du féodalisme au capitalisme, du capitalisme au socialisme par la révolution, et du socialisme (qui n'a pas fini de s'affranchir de toutes les traces du capitalisme ni la propriété privée de biens meubles ou immeubles familiaux) au communisme (où il n'y a plus ni propriété privée, ni classes). Celui-ci ne pourrait alors en fin de processus qu'embrasser l'humanité entière.
+Des expériences, notamment en Espagne en 1936 dans une période révolutionnaire, dans des collectivités (il existera aux alentours de 3000 collectivités dans toute l'Espagne) aragonaises ou catalanes (et dans d'autres régions), ont effectué des réalisations partiellement communistes (en laissant, et de manières diverses selon la situation de chaque collectivité, aux petits propriétaires, lorsque cela ne gênait en rien les moyens de réaliser la subsistance des collectivités, la liberté de garder leurs biens ou de s'associer ou non aux collectivités).
+Par ailleurs, dans les pays à régime dit « marxiste-léniniste » d'inspiration soviétique, l'étape dite « révolutionnaire » a donné naissance à des républiques dites « populaires » ou « démocraties populaires », l'évolution ultérieure, après « liquidation des classes exploiteuses » devant aboutir à des « républiques socialistes » (certains de ces états estimèrent y être parvenus), et finalement à une seule « république communiste » mondiale. Les intitulés officiels de ces États étaient censés refléter l'état d'avancement de leurs sociétés vers l'objectif communiste. Les appellations de courtoisie officielles reflétaient elles aussi la situation de chaque interlocuteur par rapport à cet objectif : quiconque était censé le poursuivre était un « camarade » ; quiconque y consentait passivement était un « citoyen » ; quiconque ne le poursuivait pas était un « monsieur » ou une « madame » (interlocuteurs étrangers issus des pays non-communistes) et quiconque s'y opposait était un « ennemi de classe » ou « du peuple ».
+C'est sur la façon d'organiser ce passage progressif à une société communiste que les courants se séparent en plusieurs approches :
+Selon Marx, la Commune de Paris, malgré toutes les imperfections qu'elle comportait, a été l'expérience historique la plus proche du communisme, par la mise en place d'un début de démocratie véritable.
+Des anarchistes appelleront les associations de travailleurs à se fédérer de manière autonome. Errico Malatesta développe dans le gradualisme révolutionnaire la nécessité de l'autonomie du mouvement ouvrier, afin d'éviter toute avant-garde éclairée, ou de futurs gouvernements « ouvriers ». L'entraide (pour réaliser les moyens à l'émancipation sociale) et la lutte révolutionnaire directe (pour se libérer de l'exploiteur et de ses soutiens) afin de mener à des conditions favorables à la réalisation du communisme. Le communisme est considéré par les anarchistes, selon la situation, comme une économie réalisable aussitôt la révolution entreprise ; des auteurs comme Pierre Kropotkine exposeront des possibilités d'économies communistes, dont la prise au tas, organisée de manière communale.
+On doit également citer des valeurs ou idées inventées ou reprises à son compte par le communisme :
+Le mot communisme désigne une idée mais aussi des mouvements politiques, divers et contradictoires, qui militent pour l'avènement d'une société sans classe sociale, sans salariat, sans propriété privée de moyens de production, sans État et sans capitalisme. L'objectif proclamé est la liberté et l'égalité de l'homme.
+On trouve parmi les mouvements politiques qui se revendiquent du communisme aussi bien des anarchistes que des marxistes ou des mouvements de lutte ouvrière.
+Les régimes s'étant déclarés « socialistes » ou « en route vers le communisme » : l'Union soviétique, les pays autodésignés comme "démocraties populaires" d'Europe centrale et orientale, la République démocratique allemande (RDA), la Chine, Cuba, le Cambodge, le Vietnam, l'Afghanistan, l'Angola, la Corée du Nord se revendiquaient du « marxisme-léninisme », courant qualifié par les autres communistes de Stalinisme, y compris après la « déstalinisation » de 1956 (qui n'a concerné ni la Chine de Mao, ni la Corée du Nord, ni l'Albanie). Ces États se sont livrés au bâillonnement de l'opposition, pouvant aller jusqu'à l'élimination physique, à un contrôle pratiquement absolu de la société et à la destruction de toute liberté d'expression. Toutefois, à plusieurs reprises, il y a eu dans ces régimes des dirigeants qui tentèrent de réaliser un "socialisme à visage humain" dans le but de s'approcher de l'idéal communiste par la démocratie et en répondant aux aspirations des peuples : ce fut par exemple le cas de d'Imre Nagy en Hongrie, d'Alexandre Dubcek en Tchécoslovaquie ou de Mikhaïl Gorbatchev en URSS. Tous échouèrent, « pris entre l'enclume stalinienne et le marteau capitaliste » selon l'expression de Dubcek en 1989.
+Le mouvement politique anticapitaliste naît dans les années 1840. Porté par une classe ouvrière démographiquement croissante et pauvre, il se développe plus tard au sein de l'AIT, dont il est l'un des principaux courants. Au lendemain de la défaite de la Commune de Paris en 1871, c'est la scission entre marxistes et anarchistes autour de la question de la méthode pour éliminer la propriété individuelle caractéristique du capitalisme : les marxistes estiment nécessaire une période de transition avec collectivisation des propriétés, sous le contrôle d'État « socialiste » devant dépérir progressivement ; alors que les anarchistes prônent une abolition directe de la propriété, tout en organisant la fédération économique des moyens de production et de consommation. Le mouvement communiste est donc composé à l'origine de deux branches politiques principales : anarchistes communistes et marxistes.
+Sur les différents mouvements historiques et/ou politiques ayant appliqué le communisme ou s'étant référencés au communisme (en tant que théorie économique et sociale), et proposant différents moyens (République, étatisme, fédéralisme, préceptes de la Bible, conseillisme, communalisme, syndicalisme, révolutions, spontanéisme, etc.), plus ou moins complémentaires, pour réaliser ce communisme :
+La famille est, selon certains communistes chrétiens, un groupement ayant des aspects communistes (bien qu'une majorité des communistes refusent la famille comme réalité communiste, du fait entre autres de l'héritage).
+Les critiques du communisme visent à la fois les fondements théoriques du communisme et les politiques menées dans les faits par les régimes communistes.
+Lors d'un séjours à la Prison Sainte-Pélagie le 10 août 1883, Jules Guesde en réponse à la vision caricaturale de l'économiste libéral Paul Leroy-Beaulieu envers le socialisme sort trois brochures, le Collectivisme au Collège de France dans lequel il réédite des articles de son journal L'Égalité datant de 1881 et 1882. Ces articles sont regroupés sous le titre ironique de "Leçon à un professeur". Dans son avertissement, il explique pourquoi il ressort ces articles : c'est en effet « à seul fin d'établir que, contre nos conclusions collectivistes ou communistes, il est plus facile de trouver des juges et des géôliers que des argumentations ».
+Sur les fondements théoriques, il est reproché au communisme de prôner la « révolution ouverte » ou le « renversement violent » de la société par la révolution et de mettre en place une société fondée sur la contrainte, bien que pour les hommes et femmes de la société, ils existent déjà des contraintes.
+ +Ainsi, Yves Guyot qualifie-t-il le collectivisme de « tyrannique » en 1893 tandis que le communisme en rejetant la propriété privée s'oppose à la déclaration des droits de l'homme et du citoyen de 1789 : « Le but de toute association politique est la conservation des droits naturels et imprescriptibles de l'homme. Ces droits sont la liberté, la propriété, la sûreté, et la résistance à l'oppression. » Max Stirner, un des fondateurs de l'anarcho-individualisme, écrivait ainsi qu'« en abolissant la propriété personnelle, le communisme ne fait que me rejeter plus profondément sous la dépendance d'autrui, autrui s'appelant désormais la généralité ou la communauté ».
+En 1876, dans une brochure du Parti ouvrier, Jules Guesde leur répond : « Pas de spoilation, mais au contraire, maintien de la propriété réellement personnelle existante, ou création pour les sans-propriété d'aujourd'hui, de la copropriété de demain. Nous sommes aujourd'hui le seul parti plus que défenseurs, créateur de la propriété pour tous. »17.
+Les économistes libéraux Ludwig von Mises et Friedrich Hayek ont également développé une critique du communisme en tant qu'économie planifiée, estimant qu'une « économie communiste » ne pouvait pas exister, en particulier à cause du rejet du mécanisme des prix et de la loi de l'offre et de la demande. Mises écrivit ainsi dans Socialisme en 1922 : « Du fait de la destruction du système des prix, le paradoxe de la « planification » tient à ce qu'il est impossible d'y faire un plan, faute de calcul économique. Ce que l'on dénomme économie planifiée n'est pas une économie du tout. C'est tout juste un système de tâtonnements dans le noir. » L'économiste hongrois János Kornai poursuivit la critique économique du communisme et de l'économie planifiée, condamnée à être une « économie de la pénurie » selon lui, non à cause de défauts temporaires mais à cause des problèmes fondamentaux de la théorie.
+Le communisme est critiqué pour les conséquences humaines, économiques, politiques ou environnementales entrainées par les régimes communistes. Un collectif d'historiens s'est livré à un recensement des victimes des régimes marxistes-léninistes dans Le Livre noir du communisme et Stéphane Courtois qui en dirigea les travaux écrit dans la préface que « [l]e total approche la barre des cent millions de morts. »18 (chiffre contesté par plusieurs historiens dont une partie des co-auteurs de l'ouvrage). Sont également critiquées les conséquences économiques avec la moindre progression de la prospérité des peuples sous un régime communiste, en particulier à partir de la comparaison entre RDA et RFA ou Corée du Nord et Corée du Sud. Par ailleurs, la remise en cause des libertés fondamentales et le culte de la personnalité des dirigeants ont été soulignés.
+Enfin, les conséquences environnementales comme l'assèchement de la mer d'Aral à la suite des décisions prises par le gouvernement soviétique ont pu être soulignées par certains auteurs.
+cf les oeuvres d'Alexandre Zinoviev.
+L'originalité de Alexandre Zinoviev est « d'avoir observé la réalité soviétique, d'avoir perçu comment le communiste idéaliste était vaincu par le communisme réel et d'en avoir conclu que la société soviétique excluait tout possibilité de créer le communisme idéal » (in Les confessions d'un homme en trop).
+Bien que les phénomènes communalistes selon Alexandre Zinoviev soient visibles dans toutes les sociétés aussi bien communistes et qu'occidentalistes, c'est en Union Soviétiques et probablement dans tous les pays avec un système social communiste (communiste réel) que ces phénomènes suivant les lois sociales et de la nature humaine jaillissent aux quotidiens dans la vie de millions de gens d'une façon extrême et poussée à outrance.
+« Le stalinisme historique (ou simplement stalinisme) est la forme sous laquelle la société communiste s'est créé en Union Soviétique sous l'impulsion de Staline, de ces lieutenants et de tous ceux qui exécutaient leurs volontés et agissaient conformément à leurs idées et directives (ces derniers peuvent être qualifiés de « staliniens historiques ». La société communiste n'est pas le produit de la volonté d'un homme. Elle surgi en obéissant à des lois sociales objectives, qui se sont révélées à travers l'activité de certains individus, de sorte qu'elles ont prise porte la marque de Staline et des staliniens »19+
Et, « Contrairement à une opinion répandue, la société communiste ne s'est pas formée sur la base d'un projet marxiste, mais en fonction de lois régissant l'organisation des masses humaines en une communauté unique. »20+
« De chacun selon ses moyens, à chacun selon ses besoins » est l'adage de groupes politiques ou encore certains syndicats comme la CGT qui l'ont inclut dans la Charte d'Amiens depuis 1912. Il provient de La critique du programme socialiste allemand de Gotha de 1875, écrite par Karl Marx.
+La formule exacte est « De chacun selon ses capacités, à chacun selon ses besoins ! »21 entre guillemets. D'après cette critique, elle doit-être portée ou pourrait-être portée « dans une phase supérieure de la société communiste. » une fois le communisme achevé. Et, Selon Lénine, dans L'État et la Révolution de 1917, « L'État pourra s'éteindre complètement quand la société aura réalisé le principe ».
+Cependant, Lénine pose le problème de « Par quelles étapes, par quelles mesures pratiques l'humanité s'acheminera-t-elle vers ce but suprême, nous ne le savons ni ne pouvons le savoir. »25
+En, 1936, Léon Trotsky va s'en servir comme levier contre le constitution soviétique et plus particulièrement contre le premier titre, « dit De la structure sociale en URSS, qui se termine par ces mots : "Le principe du socialisme : De chacun selon ses capacités, à chacun selon son travail, est appliqué en URSS" ». 26. Staline aurait, donc, trouvé une solution à la réalisation concrète de l'adage par « De chacun selon ses capacités, à chacun selon son travail ». Pour Trotsky, ce système mise en place est La Révolution trahie et « À tous ces égards, l'État soviétique est bien plus prés du capitalisme arriéré que du communisme. »26.
+En 1882, pour Jules Guesde, « de chacun selon ses forces, à chacun selon ses besoins » est un « vieux cliché - prétendu communiste ».
+Dans un article de son journal L'Égalité, il y écrit que cet adage a été détourné « en vain » par « un de ces pères » (de l'adage) qu'est Louis Blanc. Or, Louis Blanc est le créateur des Ateliers nationaux, bien qu'il prônait pour la créations des ateliers sociaux. Ces idées associatives sous l'égide de l'Église ont été dépassées par les idées de Karl Marx et de Proudhon. C'est de Louis Blanc selon l'article, que l'adage a été repris à leur compte par certains socialistes du Parti ouvrier français. Cependant, aujourd'hui, on pense que ces partisans l'aurait reprise de la Gloses marginales au programme du Parti Ouvrier allemand datant de 1875, mais d'une façon changée.
+La formule collectiviste qu'il faut employer pour Jules Guesde est : « De chacun selon les nécessités de la production, à chacun selon son temps de travail. »31. Certains du parti ouvrier de son époque l'opposent donc à leur formule, selon Guesde, "associative" : « de chacun selon ses forces, à chacun selon ses besoins ».
+Pour Jules Guesde : « ce n'est donc pas les intentions qu'il incrimine. Il ne l 'en prends comme toujours -qu'à la conclusion, qui n'est pas seulement fausse, mais pleine de péril. »32. Et « Quant à la société communiste, qui ne deviendra une réalité vivante ... et qui sortira de l'ordre collectiviste avec des producteurs ou des hommes transformés par les conditions nouvelles du travail, elle n'aura pas d'autre devise que celle inscrite par Rabelais à la porte de son abbaye de Thélème : fais ce que vouldras. »32
+D'après ce que rapporte Alexandre Zinoviev dans Les Confessions d'un homme en trop, cet adage ou une parti de celle-ci, « à chacun selon ces besoins » est souvent discuté à son école de Moscou des années 1930. En effet, puisque le communisme (dit le communisme réel par Zinoviev) a été réalisé pleinement dans la vision politique russe, l'étape suivante est d'aller vers « De chacun selon ses capacités, à chacun selon ses besoins ! » ou plutôt vers sa forme soviétique.
+Dans les années 1930, des questions d'Alexandre Zinoviev, à 12 ou 13 ans telle que « Fallait-il entendre par là n'importe quel besoin ou bien seulement les besoins minimaux? Comment les besoins seraient-ils définis, qui les fixerait et qui contrôlerait leur satisfaction? »34 étaient en effet trop déroutantes et gênantes aux adultes dans cette ambiance que le système a construit.
+Ainsi, Zinoviev ayant vécu dans l'atmosphère en cette Russie de l'époque, rapporte que certaines questions et problèmes ne doivent pas être mis en évidence puisque le communisme réel en URSS est supposé parfait et donc non sujette à la critique ou aux soulèvements. Et, mêmes si les élèves apprennent les histoires des révoltes et révolutions de l'histoire de l'humanité, il faut être esclave pour avoir l'honneur de se soulever. Cependant, dans un monde martelé de perfection, on ne le doit pas, sinon sans être pris, dans ce cas, pour un contre-révolutionnaire ou un renégat. De ce fait et entre autres, ce communisme réel va à l'encontre du communisme idéal.. Ainsi, Zinoviev adulte, remarque que « dans le collectivisme soviétique réel, le principe "à chacun selon son travail" était violé plus souvent qu'il n'était observé »
+A travers l'histoire de Jules Guesde en 1885 et dans les années 1930 par le témoignage de Alexandre Zinoviev, l'expression qui au départ a été définie selon des valeurs du communisme par Karl Marx peut-être détournée dans sa forme, sa signification et son application.
+En effet, « Marx usait, pour définir la société communiste, de la formule célèbre : "De chacun selon ses forces, à chacun selon ses besoins." Les deux propositions sont indissolublement liées. "De chacun selon ses forces", cela signifie, dans l'interprétation communiste et non capitaliste, que le travail a cessé d'être une corvée, pour devenir un besoin de l'individu ; que la société n'a plus à recourir à la contrainte; que les malades et les anormaux peuvent seuls se dérober au travail. Travaillant selon leurs forces, c'est-à-dire selon leurs moyens physiques et psychiques, sans se faire violence, les membres de la communauté, bénéficiant d'une haute technique, rempliront suffisamment les magasins de la société pour que chacun puisse y puiser largement "selon ses besoins" sans contrôle humiliant. La formule du communisme, bipartite mais indivisible, suppose donc l'abondance, l'égalité, l'épanouissement de la personnalité et une discipline très élevée. »26
+Contenu soumis à la GFDL
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Les fourmis (famille des formicidés - Formicidae - ) sont des insectes sociaux + formant des colonies, appelées fourmilières, parfois extrêmement complexes, + contenant de quelques dizaines à plusieurs millions d'individus. Certaines + espèces forment des « colonies de colonies » ou supercolonies. Les fourmis sont + classées dans l'ordre des hyménoptères, comme les guêpes et les abeilles. Les + termites, parfois appelés fourmis blanches, sont de l'ordre des dictyoptères + (sous-ordre des isoptères). Ils ne sont donc pas des fourmis, bien qu'ils leur + ressemblent.
+Les premières fourmis connues seraient apparues à la fin du Crétacé et seraient + une évolution des guêpes du jurassique. Morphologiquement, elles se distinguent + des autres insectes principalement par des antennes avec un coude marqué et par + un pédoncule en forme de perle formé des premiers segments abdominaux (qui sont + joints au thorax chez les guêpes). Ce pétiole intercalé donne à l'abdomen une + plus grande mobilité par rapport au reste du corps (c'est la forme du pétiole + qui permet de déterminer l'espèce de la fourmi à coup sûr). À l'exception des + individus reproducteurs, la plupart des fourmis sont aptères (sans ailes). Elles + se sont adaptées à presque tous les milieux terrestres et souterrains (on en a + trouvé jusqu'au fond d'une grotte de 22 km de long en Asie du Sud-est), sans + toutefois avoir colonisé les milieux aquatiques et les zones polaires et + glaciaires permanentes.
+Les oeufs sont pondus par une ou parfois plusieurs reines (les espèces de fourmis + possédant une seule reine sont appelées monogynes et celles possédant plusieurs + reines sont dites polygynes). Certaines espèces peuvent tolérer, lorsque la + colonie est conséquente, deux reines tellement éloignées qu'elles ne se + rencontrent jamais (on parle alors d'espèce olygynes). La plupart des individus + grandissent pour devenir des femelles aptères et stériles appelées ouvrières. + Périodiquement, des essaims de nouvelles reines et de mâles, généralement + pourvus d'ailes, quittent la colonie pour se reproduire. Les mâles meurent + ensuite rapidement, tandis que les reines survivantes, fécondées, fondent de + nouvelles colonies ou, parfois, retournent dans leur fourmilière natale.
+Elle varie fortement selon l'espèce et l'environnement, étant notamment liée + à la disponibilité en nourriture.
+La Formica yessensis, une espèce de fourmi des bois, a construit une colonie + de 45 000 nids sur 1250 ha à Hokkaido (Japon), abritant plus d'un million de + reines et 306 millions d'ouvrières.
+Les fourmis se développent par métamorphose complète, en passant par trois + stades successifs : oeuf, larve, nymphe (parfois pupe ou cocon, + principalement chez les Formicinae) puis adulte (sans croissance à l'état + adulte). La larve, privée de pattes, est particulièrement dépendante des + adultes. Les larves et les pupes doivent être maintenues à température + constante pour assurer leur développement et sont souvent déplacées parmi + les diverses chambres de couvée de la fourmilière. Les différences + morphologiques majeures entre les reines et les ouvrières, et entre les + différentes castes d'ouvrières quand elles existent, sont induites par le + régime alimentaire au stade larvaire. Quant au sexe des individus, il est + génétiquement déterminé : si l'oeuf est fécondé, l'individu est alors + diploïde et l'oeuf donnera une femelle (ouvrière ou reine); s'il ne l'est + pas, l'individu est haploïde et forme un mâle
+Une nouvelle ouvrière passe les premiers jours de sa vie adulte à s'occuper + de la reine et des jeunes. Ensuite, elle participe à la construction et au + maintien du nid, puis à son approvisionnement et à sa défense. Ces + changements sont assez brusques et définissent des castes temporelles[réf. + nécessaire]. C'est-à-dire que les ouvrières se regroupent selon l'activité + commune qu'elles auront à un stade de leur vie.
+Chez certaines fourmis, il existe également des castes physiques. Selon leur + taille, les ouvrières sont mineures, moyennes ou majeures, ces dernières + participant plutôt à l'approvisionnement. Souvent les fourmis les plus + grandes sont disproportionnées : tête plus grande et mandibules plus fortes. + Chez quelques espèces, les ouvrières moyennes ont disparu, et il existe une + grande différence physique entre les petites et les géantes, appelées + parfois soldats bien que leur rôle défensif ne soit pas nécessairement + prépondérant.
+Parmi les 11 800 espèces connues environ (on estime à plus de 20 000 le + nombre total d'espèces), la plus grande (30 mm de long) est Dinoponera + quadriceps chez laquelle la reproduction d'une ouvrière aboutit, + invariablement, à la mort en pleine action de son soupirant : encore + accouplée, elle lui sectionne l'abdomen. Puis retourne au nid, toujours + munie des pièces génitales de sa brève rencontre, ce qui la rend non + réceptive aux avances des autres mâles.
+Toutes sortes de comportements sont observés chez les fourmis, le nomadisme + en est l'un des plus remarquable. Les fourmis légionnaires d'Amérique du Sud + et d'Afrique notamment ne forment pas de nid permanent, mais alternent + plutôt entre des étapes de vie nomade et des étapes où les ouvrières forment + un nid provisoire (le bivouac) à partir de leurs propres corps. La plupart + des fourmis forment des colonies stationnaires, creusant d'habitude dans le + sol ou une cavité. Les colonies se reproduisent par des vols nuptiaux comme + décrit plus haut, ou par la fission (un groupe d'ouvrières creuse simplement + un nouveau trou et élève de nouvelles reines). Les membres de différentes + colonies sont identifiés par l'odeur et habituellement les intrus sont + attaqués, avec des exceptions notables. D'autres méthodes de développement + de nouvelles colonies ont été observées :
+Concernant la reproduction, la Wasmannia auropunctata a la possibilité assez + exceptionnelle d'avoir deux modes de multiplication : la reproduction ou la + multiplication asexuée par clonage.
+Un pour cent des espèces de fourmis recensées dans le monde sont des + fourmis sans reine. Elles vivent dans des colonies très réduites où des + ouvrières se reproduisent de temps à autre. On peut citer Streblognathus + peetersi, une fourmi vivant en Afrique.
+Citons :
+Le privilège de la reproduction est le fruit d'une organisation + hiérarchique, où la gamergate, individu dominant de la colonie, occupe + cette place centrale. Son privilège reproductif pourra être remis en + cause par des rivales au cours de joutes phéromonales et d'agressions + ritualisées.
+Chez les Ponérinés, les reines ne se distinguent généralement que + difficilement des ouvrières ; le passage d'une caste à l'autre se + fait plutôt par des formes de transition. Elles diffèrent des autres + fourmis par la base de l'abdomen : le pétiole se compose d'un + segment avec un noeud, et l'anneau abdominal qui suit est séparé du + gastre par une encoche très nette. Reines et ouvrières possèdent un + aiguillon. Les nymphes sont toujours enveloppées par un cocon. Cette + sous-famille habite surtout les pays chauds. En France, elle est + représentée par 7 espèces.
+Espèces particulièrement connues en France : Ponera coarctata (fait + partie des "Fourmis sans reine" citées plus haut).
+Les Myrmicinés se distinguent facilement des autres fourmis par leur + pétiole abdominal. Il se compose toujours de deux segments en forme + de noeuds qui correspondent aux 1er et 2nd segments abdominaux. + Reines et ouvrières possèdent un aiguillon, et certaines espèces + peuvent infliger des piqûres très douloureuses. Les nymphes ne sont + pas enveloppées d'un cocon comme chez la plupart des fourmis à + écaille (myrmicinés, dolichodérinés, formicinés). En France, on + trouve 106 espèces de Myrmicinés.
+Espèces particulièrement connues en France : Myrmica scabrinodis, + Myrmica Rubra, Tetramorium caespitum, Leptothorax Tuberum, + Diplorhoptrum fugax ( ou Solenopsis fugax), Crematogaster + scutellaris, Pheidole pallidula, Messor sp.
+Les représentants de cette sous-famille peu nombreuse (9 espèces en + France) possèdent un pétiole à écaille, mais celle-ci est basse et + inclinée vers l'avant, contrairement à celui des Formicinés, que + nous verrons par la suite. Le gastre, ou abdomen, n'est composé que + de 4 segments chez les reines et ouvrières. Aiguillon atrophié, + nymphes nues.
+Espèces particulièrement connues en France : Tapinoma erraticum.
+Chez les Formicinés, le pétiole entre thorax et abdomen forme une + écaille plate et dressée. Le gastre, derrière le pétiole, se compose + de 5 segments chez les ouvrières et les reines, contraiment aux + dolichodérinés. L'aiguillon est atrophié mais les glandes à venin + sont totalement développées ; l'acide formique est rejeté l'abdomen + relevé, après que les mandibules aient infligées une blessure. Chez + presque toutes les espèces, les nymphes sont enveloppées d'un cocon. + Ce cocon ne fait défaut que chez les Camponotus truncatus, une + espèce rare. 55 espèce des Formicinées sont présentes en France. +
+Très important, il mérite un paragraphe. Ce genre comprend de petites + espèces dont les ouvrières ne possèdent en général que des ocelles à + peine développées. Les articles des antennes, du 2nd au 6e, sont + toujours nettement plus courts que l'avant-dernier d'entre eux. La + plupart des espèces se nourrissent principalement de miellat (de + pucerons ou de conchenilles). Ces fourmis sont les traditionnelles + fourmis noires des jardins, qui apprécient les fruits et les + liquides sucrés.
+Espèces particulièrement connues en France : Camponotus ligniperda, + Lasius sp., Formica rufa, Formica sanguinea, Polyergus rufescens. +
+Source : Cette partie de l'article, à partir de "Sous-familles", vient de + "Identification de Sous-familles", par Grey, forum akolab et forum + myrmecofourmis. Travail de documentation à partir de documents de Bert + Hölldobler, Luc Passera.
+Les fourmis possèdent un comportement que l'on retrouve chez les poussins + consistant à rassembler un grand nombre d'individus afin de créer une colonie + fonctionnelle et rapide.
+La communication entre les fourmis se fait surtout au moyen de produits + chimiques volatiles appelés phéromones, émises par diverses glandes, parfois + dans une substance lipophile qui recouvre naturellement tout le corps de la + fourmi. Comme d'autres insectes, les fourmis sentent avec leurs antennes. + Celles-ci sont assez mobiles, ayant - comme mentionné plus haut - une + articulation coudée après un premier segment allongé (le scape), leur + permettant d'identifier aussi bien la direction que l'intensité des odeurs. + Ce système d'orientation olfactif est combiné avec des composantes visuelles + (points de repère, position du soleil), capacité à mesurer la distance + parcourue.
+L'utilisation principale des phéromones réside dans la définition et le + repérage de « pistes » olfactives destinées à guider les fourmis vers des + sources de nourriture (voir ci-dessous). Les phéromones sont aussi mélangées + avec la nourriture échangée par trophallaxie, informant chacune sur la santé + et la nutrition de ses congénères. Les fourmis peuvent aussi détecter à quel + groupe de travail (par exemple le fourragement ou la maintenance de nid) + l'une ou l'autre appartient. De même, une fourmi écrasée ou attaquée + produira une phéromone d'alerte dont la concentration élevée provoque une + frénésie agressive chez les fourmis à proximité ou dont une concentration + plus faible suffit à les attirer. Dans certains cas, les phéromones peuvent + être utilisées pour tromper les ennemis, ou même pour influencer le + développement des individus. Ainsi, la reine produit une phéromone spéciale + en l'absence de laquelle les ouvrières commenceront à élever de nouvelles + reines.
+Certaines fourmis émettent des sons, on parle alors de stridulations + (friction de la râpe, formée d'un alignement de côtes, de stries, de dents, + d'épines, et du grattoir, qui consiste en une saillie ou un bord vif, qui + produit la stridulation, un peu comme le ferait un clou grattant sur une + lime ou l'ongle passant sur les dents d'un peigne). Ces sons permettent + alors d'attirer d'autres ouvrières pour, par exemple, porter une proie trop + lourde pour un individu isolé. Cette méthode est toutefois moins efficace + que la piste de phéromones, comme l'a montré G.D dans sa fameuse expérience + du même nom.
+D'autres utilisent aussi la communication visuelle, de moins en moins + répandue. Chez les Tetraponeras par exemple, lorsque les larves ont un + besoin en nourriture, elles remuent simplement la tête pour que, rapidement, + une ouvrière intervienne pour lui ingurgiter de la nourriture liquide de + bouche à bouche. Chez les Tisserandes, lorsqu'une ouvrière se lance dans la + construction d'un nouveau nid, elle commence par agripper une feuille pour + la courber. Elle sera immédiatement rejointe par son entourage qui aura + aperçu la scène et qui l'aidera dans sa tâche. C'est ainsi qu'elles pourront + rejoindre les bords de deux feuilles pour les tisser entre elles.
+La majorité des fourmis pratiquent la trophallaxie, le processus alimentaire + au cours duquel une fourmi régurgite une partie de la nourriture qu'elle a + ingérée dans son jabot social pour la restituer à une autre fourmi. Le genre + Messor a la particularité de n'avoir pas de jabot social et de ne pas faire + de trophallaxies.
+Les fourmis attaquent et se défendent en mordant et, pour certaines espèces, + en projetant de l'acide formique (formicinae) qui fait fondre la chitine des + insectes, ou d'autres substances pouvant engluer un adversaire, ou encore en + piquant à l'aide d'un aiguillon (qui chez quelques espèces reste piqué avec + la glande à venin dans la peau de la victime).
+Chez la plupart des espèces, la colonie a une organisation sociale complexe + et est capable d'accomplir des tâches difficiles (exploiter au mieux une + source de nourriture, par exemple). Cette organisation apparaît grâce aux + nombreuses interactions entre fourmis, et n'est pas dirigée - contrairement + à une idée répandue - par la reine. On parle alors d'intelligence + collective, pour décrire la manière dont ce comportement collectif complexe + apparaît, grâce à des règles individuelles relativement simples.
+Dans les colonies de fourmis, le « comportement global » n'est donc pas + programmé chez les individus, on dit qu'il émerge de l'enchaînement d'un + grand nombre d'interactions locales entre les individus et leur + environnement.
+Un exemple classique de comportement collectif auto-organisé est + l'exploitation des pistes de phéromones. Une fourmi seule n'a pas + l'intelligence nécessaire pour choisir le plus court chemin dans un + environnement complexe. De fait, c'est la colonie dans son ensemble (du + moins, les individus impliqués dans le fourragement) qui va choisir ce + chemin.
+En 1980, Jean-Louis Deneubourg a pu vérifier expérimentalement qu'une colonie + de fourmis (de l'espèce Lasius niger) disposant de deux chemins de longueurs + différentes pour rallier une source de nourriture, choisissait plus souvent + le chemin le plus court. Il décrit ainsi ce phénomène :
+« (...) un « éclaireur », qui découvre par hasard une source de + nourriture, rentre au nid en traçant une piste chimique. Cette piste + stimule les ouvrières à sortir du nid et les guide jusqu'à la source de + nourriture. Après s'y être alimentées, les fourmis ainsi recrutées + rentrent au nid en renforçant à leur tour la piste chimique. Cette + communication attire vers la source de nourriture une population de plus + en plus nombreuse. Un individu qui découvre une source de nourriture y « + attire » en quelques minutes n congénères (par exemple 5) ; chacun de + ceux-ci y attirent à leur tour n congénères (25), et ainsi de suite. + »+
Si l'on considère plusieurs chemins pour se rendre sur le lieu + d'approvisionnement, on comprend que les individus empruntant le plus court + reviendront plus vite à la fourmilière que ceux qui auront pris le plus + long. C'est ainsi que ce chemin comportera une trace olfactive de plus en + plus forte par rapport aux autres et sera donc préféré par les fourmis.
+On connaît depuis d'autres exemples de ce type, comme la construction du nid, + la répartition du couvain dans celui-ci, l'entassement des cadavres de la + colonie, l'organisation en « supercolonies », etc.
+Une estimation du nombre de fourmis vivant aujourd'hui sur terre à un instant + donné est environ 10 millions de milliards d'individus. Les fourmis + constitueraient 1 à 2 % du nombre d'espèces d'insectes, mais près de 20% de + leur biomasse. Chaque individu ne pèse que de 1 à 10 milligrammes, mais + leur masse cumulée est environ quatre fois supérieure à celle de l'ensemble + des vertébrés terrestres.. Environ 12 000 espèces de fourmis sont + répertoriées en 2005, mais on en découvre régulièrement, essentiellement en + zone tropicale et dans la canopée (qui n'est explorée que depuis quelques + dizaines d'années). Seules 400 espèces sont connues en Europe, alors qu'on + peut compter jusqu'à 40 espèces différentes sur un seul mètre carré de forêt + tropicale en Malaisie (668 espèces comptées sur 4 hectares à Bornéo, et 43 + espèces sur un seul arbre de la forêt péruvienne amazonienne, soit presque + autant que pour toute la Finlande ou les îles Britanniques). Environ huit + millions d'individus ont été comptés sur un hectare d'Amazonie + brésilienne[réf. nécessaire], soit trois à quatre fois la masse cumulée des + mammifères, oiseaux, reptiles, et amphibiens vivant sur cette surface. Elles + jouent un rôle majeur dans le recyclage des espèces et dans la formation et + la structuration des sols. Plusieurs espèces vivent en symbiose avec des + bactéries, des champignons, des animaux (papillons ou pucerons par exemple) + ou avec des arbres ou des fleurs.
+Les fourmis produisent naturellement, notamment pour protéger leurs oeufs et + leurs cultures des champignons, des insecticides, des fongicides, des + bactéricides, des virucides et une batterie de molécules complexes dont les + fonctions ne sont pas toutes connues. Elles font partie des premières + espèces pionnières et montrent des capacités étonnantes de terrassement, de + colonisation et de résilience écologique, et même de résistance à la + radioactivité.
+Les ouvrières de l'espèce Atta d'un seul nid peuvent mobiliser et + répartir sur 100 mètres carrés jusqu'à 40 tonnes de terre. Certaines + espèces jouent un rôle au moins aussi important que celui des lombrics + pour les couches superficielles du sol ; ce sont de 400 à 800 kg de sol + qui sont creusés, mobilisés, transportés, maçonnés pour construire un + nid climatisé dans le désert, et 2,1 tonnes en Argentine par Camponotus + punctulatus. De nombreuses espèces décolmatent et acidifient le sol + rendant mobilisables des nutriments autrement moins biodisponibles. + Elles enfouissent de la matière organique et remontent en surface un sol + fragmenté en petites particules propices à la croissance des graines. + Les fourmis contribuent à la fois à homogénéiser et aérer le sol, à + l'enrichir en surface et en profondeur, tout en diversifiant les + habitats en fonction de la proximité de la fourmilière.
+Les fourmis jouent un rôle pédologique majeur, elles protègent certains + arbres de parasites. La fourmi rousse des bois Formica polyctena est + ainsi protégée par la loi dans plusieurs pays, à juste titre puisqu'elle + consommerait 14 500 t d'insectes par an, rien que dans les forêts + alpines d'Italie, conservant des « îlots verts » autour de leurs nids + lors des épisodes de défoliation).
+D'autres espèces cultivent des parasites des plantes (pucerons ou + cochenilles dont elles exploitent le miellat) Elles protègent aussi + certaines espèces qui leur fournissent abri ou nourriture. Elles + contribuent à disperser et à faire germer de nombreuses graines, près de + 100 % des graines d'une euphorbe méditerranéenne sont transportées par 3 + ou 4 espèces de fourmis qui consomment l'élaiösome charnu et gras de la + graine en rejetant le reste, sans affecter sa capacité germinative[réf. + nécessaire]. Dans un même environnement, une prairie avec fourmilières + est plus productive que celle qui en est dépourvue. De nombreuses + épiphytes dépendent des fourmis ou sont favorisées par leur présence. + Pour les attirer, ces épiphytes leur offrent du nectar et/ou un abri en + échange d'une protection contre divers prédateurs et parfois d'une aide + à la dispersion des graines (certaines fourmis (Crematogaster ou + Camponotus) végétalisent leurs nids et fabriquent des jardins suspendus + en incorporant des graines d'épiphytes dans les parois de leurs nids + faits de fibres ou pulpe de bois mâchées) Elles défendent activement + leurs jardins et en tirent un nectar extrafloral, un abri supplémentaire + et peut-être une protection microclimatique.
+Certaines espèces causent cependant des dégâts à certaines plantes + cultivées par l'élevage des pucerons et cochenilles. Des espèces + introduites et très invasives ne sont pas combattues par les fourmis + locales du pays d'arrivée (elles ne les reconnaissent pas comme + dangereuses). C'est une cause de régression de la biodiversité, par + régression ou disparition d'espèces de fourmis concurrentes ou d'espèces + d'autres règnes.
+Certaines espèces de fourmis tisserandes sont depuis longtemps + introduites dans les cultures fruitières pour défendre les fruits + d'attaques d'insectes, des fourmis du genre Ectatomma à petits effectifs + mais à nids nombreux (11 000 nids/ha comptabilisés dans les plantations + de café ou cacao au Chiapas au Mexique patrouillent en permanence et + mangeraient annuellement 16 millions de proies pour Ectatomma + tuberculatum et 15 fois plus (260 millions) pour Ectatomma ruidum.les + Solenopsis invicta défendent la canne à sucre de certains parasites + majeurs, comme la Wasmannia auropunctata protège les cocotiers des + punaises, mais ces espèces sont souvent invasives et provoquent des + piqûres très douloureuses.
+Les fourmis jouent un rôle majeur de nécrophage, même en pleine ville et + en zone tempérée pour des oiseaux, rats, souris et autres petits animaux + morts par exemple. En nettoyant rapidement les cadavres dont elles ne + laissent souvent que les os, cuticules dures ou arêtes elles empêchent + la libération dans l'environnement de nombreux propagules de microbes + pathogènes.
+On estime que 90 % au moins des cadavres d'insectes, dans la nature + finissent dans des fourmilières, avant d'être recyclés dans le sol.
+Les fourmis se nettoient sans cesse et s'enduisent, elles, leurs reines + ainsi que leurs oeufs de molécules bactéricides, virucides et + antifongiques. Les fourmis chargées d'éliminer les cadavres du nid, les + excréments et autres déchets sont souvent des ouvrières en fin de vie ou + des individus qui restent dans les endroits consacrés aux déchets et + n'ont plus de contacts directs avec les autres fourmis. Certaines + espèces s'enduisent de bactéries filamenteuses "amies" qui repoussent + d'autres bactéries, pathogènes. Cependant, leurs élevages de pucerons + peuvent induire l'infestation des plantes par des champignons, via le + miellat ou les piqûres faites dans les feuilles.
+L'industrie, pharmaceutique notamment, s'intéresse aux nombreuses + substances synthétisées par les fourmis. Des fourmilières reconstituées + et circulant dans des salles et couloirs de plastique sont utilisés + comme moyen pédagogique. La fourmi en tant qu'individu ou société + intéresse également les cybernéticiens ou les scientifiques qui + travaillent sur l'auto-organisation.
+Certaines pollutions, dont celles par les pesticides affectent de nombreuses + espèces, mais c'est surtout l'introduction d'autres espèces de fourmis, + invasives, et la destruction de leurs habitats (forêts, prairies, savanes et + brousses tempérées, savanes, bocage) qui sont les premières menaces. Leurs + prédateurs naturels sont nombreux, des mouches parasites, aux mammifères tels + que le pangolin ou le tamanoir qui sont des consommateurs spécialisés, de + nombreux animaux les consomment épisodiquement, le faisan ou l'ours brun en + Europe, ou encore les chimpanzés, qui savent utiliser des brindilles pour aller + les chercher dans leur nid, sans jamais mettre en péril les espèces, + semble-t-il.
+Les fourmis arboricoles se déplaçant le long des branches ou sur les feuilles + dans la canopée de la forêt courent le risque d'être balayées par le vent, la + pluie, ou même par un singe qui passe. On a observé en 2005 que les fourmis + arboricoles survivent en se comportant en "parachutistes". Lorsqu'elles tombent, + elles se mettent en position pattes écartées, comme les parachutistes qui + contrôlent leur chute en inclinant leurs membres et leur corps. Ces fourmis + glissent avec les pattes antérieures et l'abdomen orientés vers le tronc + d'arbre, effectuant souvent des virages à 180° en direction de la cible dans les + airs.
+Les Formicidae sont nés il y a 120 millions d'années depuis des insectes + apparentés aux guêpes. Dès lors, de nombreuses espèces sont apparues en se + spécialisant aussi bien pour la vie souterraine que arboricole, voire les deux. + La sous-famille Martialinae, dont la seule espèce membre en 2008 est Martialis + heureka, pourrait être à l'origine de toutes les autres sous-familles.
+Les rapports entre humains et fourmis sont très variables. D'une part, les + fourmis ont souvent été utilisées dans des fables et des histoires enfantines + pour représenter l'acharnement au travail et l'effort coopératif. Elles peuvent + aussi être perçues comme utiles pour nettoyer des insectes parasites et aérer le + sol. D'autre part, elles peuvent devenir sources de nuisances mineures ou + parasites elles-mêmes quand elles envahissent les maisons, les cours, les + jardins et les champs. La fourmi Tetraponera colonise un arbre creux le Barteria + surnommé au Gabon l'arbre de l'adultère. On y attachait les femmes adultères + dans le temps. La morsure d'une fourmi étant aussi douloureuse que celle d'une + guêpe mais moins durable.
+Avec la mondialisation des échanges commerciaux et des transports, plusieurs + espèces sont devenues invasives. Une certaine espèce, appelée fourmi tueuse, a + tendance à attaquer des animaux beaucoup plus grands qu'elle dans sa quête de + nourriture ou dans la défense de ses nids. Les attaques sur l'homme sont rares, + mais les piqûres et les morsures peuvent être très douloureuses et + incapacitantes si elles sont répétées, avec un choc anaphylactique possible pour + quelques espèces dangereuses. Les fourmis peuvent aussi être source de problème + lorsqu'elles sont introduites dans des zones géographiques où elles ne sont pas + indigènes (comme Linepithema humile, la fourmi d'Argentine, formant la + supercolonie qui va des côtes italiennes aux côtes espagnoles en passant par la + France, soit plus de 6 000 km12, et exterminant les espèces indigènes). Les + fourmis de feu peuvent par exemple attaquer et tuer de jeunes alligators du + Mississippi au sortir de l'oeuf.
+La fourmi d'Argentine ou Linepithema humile, décrite pour la première fois en + 1868, a profité des échanges commerciaux pour s'expatrier et coloniser le Sud + des États-Unis dès 1891, l'Europe en 1904, l'Afrique du Sud en 1908 et + l'Australie en 1939. Il est probable qu'elle atteignit les côtes + méditerranéennes en 1920 par le biais de plantes à fleur.
+En 2002, des entomologistes européens ont constaté que la fourmi d'Argentine + avait envahi l'Europe du Sud sur 6 000 km du nord de l'Italie jusqu'à la Galice + et le Portugal, en passant par le sud de la France. Cette colonie est la plus + grande jamais observée dans le monde. La deuxième se situe en Catalogne.
+Le changement d'environnement de ces fourmis serait à l'origine de leur très + grande cohésion. En effet, lorqu'elles sont en Argentine, les colonies de + Linepithema Humile ne comptent qu'un seul nid. C'est l'absence de prédateur en + Europe qui a permis à ces fourmis d'augmenter la densité des nids et donc les + échanges entre les ouvrières de ceux-ci, entraînant un appauvrissement de la + diversité génétique des gènes de reconnaissance des individus au sein de leur + nid. Les fourmis d'Argentine apprirent la diplomatie, et les différents nids ne + s'entretuèrent plus. Au fil du temps, la densité des nids permit la création + d'une supercolonie, et deux individus d'un bout à l'autre de cette mégalopole de + fourmis peuvent se reconnaître au premier coup de phéromones, comme étant de la + même fratrie.
+Les fourmis d'Argentine ne sont pas dangereuses pour l'homme mais elles nuisent à + l'écosystème originel de l'Europe du Sud: elles détruisent les bourgeons des + arbres et prennent la place des fourmis européennes. La seule façon d'empêcher + l'expansion de cette supercolonie serait de détruire l'esprit de + l'unicolonialité qui unit les nids de fourmis. Cet esprit d'équipe est condamné + à disparaître une fois l'objectif de la super colonie atteint: coloniser un + maximum de territoire. La deuxième supercolonie en Catalogne serait plus + belliqueuse que la première et pourrait bien chercher à l'éliminer.
+En 2004, des scientifiques américains ont remis en cause l'idée d'appauvrissement + génétique. L'étude de Deborah Gordon sur une supercolonie présente en + Californie, publiée dans la revue Ecology, a révélé que la coopération des + fourmis aurait donc pour origine un régime alimentaire commun.
+Contenu soumis à la GFDL
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+La Grande Dépression, dite aussi crise de 1929, est la période de l'histoire américaine qui suivit le Jeudi noir du 24 octobre 1929, jour où survint le krach boursier (les marchés boursiers new-yorkais s'effondrèrent de manière durable le lundi 28 octobre 1929, le lundi noir). Les événements de cette journée déclenchèrent une dépression économique mondiale qui mena à une importante déflation et à un accroissement significatif du chômage.
+Après le Jeudi noir le 24 octobre, aux États-Unis, l'un des problèmes principaux était qu'avec la déflation, une même somme d'argent permettait d'acquérir de plus en plus de biens au fur et à mesure de la chute des prix. Dans ces conditions, les agents économiques ont individuellement intérêt à :
+L'économie entre dans un destructif cercle vicieux, qui durera plusieurs années. La chute se traduit aussi dans les cours de bourse : l'indice Dow Jones est pratiquement divisé par 10 entre son plus haut de 1929 et son plus bas en 1932. Dans l'éclatement de la bulle spéculative, trop de plans d'investissements se sont avérés insolvables, voire frauduleux.
+La crise boursière dégénère très vite en crise bancaire. Prises en tenaille entre l'effondrement de la valeur de leurs actifs (parfois trop engagés dans des affaires douteuses, mais même des entreprises honorables et solides sont massacrées), les défauts de remboursement de leurs emprunteurs, et la réduction de leur activité de crédit, des banques font faillite au premier faux pas et finalement en 1932, le système bancaire s'effondre. Avec la déconfiture du système bancaire, et la population s'accrochant au peu de monnaie qu'elle possédait encore, il ne resta pas assez de liquidités sur le marché pour qu'une quelconque activité économique puisse inverser la tendance.
+En 1933, la production industrielle américaine avait baissé de moitié depuis 1929. Entre 1930 et 1932, 773 établissements bancaires firent faillite
+Aux États-Unis, le taux de chômage augmente fortement au début des années 1930 : il atteint 9 % en 1930. Le pays compte quelque 13 millions de chômeurs en 1932. En 1933, lorsque Roosevelt devient président, 24,9 % de la population active est au chômage et deux millions d'Américains sont sans-abri.
+Les manifestations de la faim se multiplient. En mars 1930, 35 000 personnes défilent dans les rues de New York. En juin 1932, les Anciens Combattants réclament le paiement des pensions à Washington DC : ils sont violemment délogés par les soldats. Une grande grève dans le secteur du textile éclate en 1934. Dans les campagnes, la situation économique se dégrade, notamment à cause de la sécheresse et du Dust Bowl (1933 - 1935). En 1933, la diminution de 60 % des prix agricoles affecte durement les agriculteurs (effet ciseaux). La ruine des fermiers des Grandes Plaines poussent des milliers de personnes à s'installer dans les États de l'Ouest. Face à la misère qui grandit, l'influence communiste progresse dans les milieux populaires.
+La diffusion de la crise se fera par deux canaux.
+Comme les banques américaines ont alors des intérêts dans de nombreuses banques et bourses européennes et qu'elles rapatrient d'urgence leurs avoirs aux États-Unis, la crise financière se propage progressivement dans toute l'Europe.
+Parallèlement, les échanges économiques internationaux subissent de plein fouet d'abord le ralentissement qui commence aux USA, ensuite l'effet négatif des réactions protectionnistes, d'abord des USA, puis de tous les autres pays quand ils sont touchés à leur tour ; la France et le Royaume-Uni tentent de se replier sur leurs colonies, mettant au point la « préférence impériale », interdite lors de la Conférence de Berlin (1885) mais largement pratiquée après 1914.
+Les relations économiques étant à l'époque bien moindre qu'aujourd'hui, ces répercussions mettront du temps à se diffuser : par exemple la France sera touchée à partir du second semestre de 1930, soit six mois plus tard. L'Italie est touchée à partir de 1931.
+Les réactions gouvernementales en Europe ne seront pas plus adéquates que celles aux USA. En France la crise sera aggravée par les mesures déflationnistes (baisse des prix et des salaires) des gouvernements Tardieu et Laval, bien que ceux-ci tenteront, de façon limitée, quelques grands travaux (dont l'électrification des campagnes). En Allemagne, le taux de chômage atteint des sommets (plus de 25 % de la population active en 1932), alimentant la désillusion et la colère de la population, et c'est en promettant de régler le problème de la crise qu'Adolf Hitler parvint au pouvoir le 30 janvier 1933.
+En Amérique du Sud, en Asie et en Afrique, se produit la « crise des produits de dessert » liée à la forte baisse du pouvoir d'achat en Europe et en Amérique du Nord. Au Brésil, pour limiter la mévente et faire grimper les cours, le café est brûlé dans les locomotives.
+Le monde entier est touché excepté l'Union soviétique de Staline, protégée par son système économique autarcique.
+La réflexion économique a posteriori a porté d'une part sur les causes immédiates de la crise et d'autres part sur les raisons de la transformation de la récession en dépression.
+Les innombrables écrits sur la crise de 1929 n'ont pas permis de dessiner une explication généralement admise de sa survenue. Les ouvrages qui lui sont consacrés sont le plus souvent normatifs ou descriptifs et très peu explicatifs. Chaque école a tiré un tant soit peu la couverture en faveur de ses thèses générales. Charles Kindleberger distingue les explications qui reposent sur une cause ou une origine unique (unicausales) de celles, telles la sienne, reposant sur la conjonction de plusieurs facteurs
+Pour Charles Kindleberger, la crise a deux grandes origines : « une importante instabilité latente du système, et l'absence d'un stabilisateur ». Le système économique mondial était devenu instable en partie parce que l'Angleterre avait perdu sa prééminence et que les États-Unis refusaient d'assumer leur rôle. Selon lui, le pays qui a la prééminence doit assurer la stabilité économique en assumant cinq fonctions
+C'est sans doute la plus complète en ce sens qu'elle couvre largement la période antérieure à la crise et explique la plupart des symptômes constatés.
+L'économiste J. Rueff voit l'origine des difficultés dans l'établissement d'un système de Gold Exchange Standard par la conférence de Gênes au début des années 1920. Dans le système de l'étalon-or tout déficit de la balance des paiements provoque une sortie d'or et une restriction proportionnelle du crédit. Cet effet sera stabilisateur et permettra un retour vers l'équilibre. Dans un système d'étalon de change or où une monnaie privilégiée peut être conservée comme réserve monétaire, le pays privilégié, lorsque sa balance est déficitaire, voit sa monnaie revenir chez lui et servir de base par l'intermédiaire du multiplicateur de crédit à de nouveaux crédits qui aggravent les déficits. Le Gold Exchange standard a donc tendance à accroitre sans limite l'endettement du pays privilégié. Dans le cas des États-Unis avant 1929 l'endettement global s'est mis à grimper de plus en plus vite jusqu'à dépasser 370% du PIB. L'efficacité marginale du capital a baissé. La spéculation a remplacé l'investissement industriel. La bourse a connu une expansion aussi spectaculaire qu'intenable. Au final c'est toute la pyramide de dettes qui s'est écroulée, d'autant plus vite et fort qu'elle était plus haute. Comme cette pyramide avait ses racines dans les déséquilibres financiers mondiaux, c'est le monde entier qui a été atteint et les circuits économiques internationaux ont été électrocutés provoquant les sauve-qui-peut que l'on sait.
+Cette explication donnée dans son livre sur les pêchés monétaires de l'Occident, se retrouvera dans l'explication des difficultés d'un autre système de Gold Exchange standard, celui de Bretton Woods et de la crise de 1974 et la période de stagflation ultérieure. Certains économistes actuels voient le même mécanisme de double pyramide de dettes à la source de la crise économique de 2008 - 2009.
+L'École autrichienne d'économie soutient également que c'est la création monétaire effrénée dans les années 1920 par le tout jeune système de réserve fédérale qui a conduit à une bulle inflationniste vouée fatalement à l'éclatement. « L'effondrement fut l'aboutissement fatal des pressions exercées pour abaisser le taux d'intérêt au moyen de l'expansion du crédit. » (Ludwig von Mises). Son explication est institutionnelle comme celle de J. Rueff mais plus orienté vers l'existence d'une banque centrale, que l'école autrichienne conteste violemment.
+Les monétaristes, représentés par Milton Friedman, dénoncent la politique monétaire restrictive mise en place par la FED à partir de 1928, qui entraîne une pénurie de crédits. Cette erreur serait à l'origine de la crise. La FED aurait au contraire dû fournir des liquidités au système bancaire : le renchérissement du crédit a forcé les spéculateurs boursiers à retirer leur épargne, ce qui a entrainé la faillite de près de 5000 banques aux États-Unis.. Ce serait donc un excès de régulation monétaire qui serait à l'origine de la crise.
+ +Les États-Unis après une phase de très forte croissance depuis les difficultés d'avant guerre ont accumulé la richesse du monde (l'Europe étant ruinée) et cette richesse n'a pas été assez diffusée dans la société malgré des théories comme le fordisme. La concentration de la richesse a réduit les possibilités de consommation que l'appareil de production permettait. John Maynard Keynes a donné une certaine caution à cette explication en expliquant que les riches dépensaient proportionnellement moins que les pauvres. Une concentration de la richesse provoquerait ainsi un équilibre de sous emploi. Cette vision n'explique ni la mécanique d'emballement de 1928 - 1929 ni les modalités détaillées de la crise elle même et en particulier ses dimensions internationales : la concentration de la richesse en Europe dans les années 1920 après les destructions de 1914 est rien moins qu'établie.
+C'est évidemment la thèse des marxistes qui reprennent les thèses de Marx de la sur-accumulation du capital et de la baisse du taux de profit qui sont à l'origine des multiples crises survenant dans le système capitaliste : la sur-accumulation du capital entraîne une surproduction de biens de production par rapport aux biens de consommation. La crise de 1929 est vue comme "finale". Nikolai Kondratiev qui ne la voyait que cyclique et circonstancielle sera fusillé par Staline !
+Une explication proche est celle des « théoriciens de la régulation » qui pensèrent que les économies développées ont été déstabilisées par les progrès de l'organisation scientifique du travail. Le taylorisme a en effet permis une augmentation très importante de la production : Robert Boyer a ainsi calculé que la production par tête a augmenté en France de 6% par an entre 1920 et 1960. En revanche, les salaires réels ont progressé de seulement 2% par an en France sur la même période, ce qui explique l'apparition d'une situation de surproduction et le déclenchement de la crise. Ces thèses malthusiennes sont restées marginales.
+C'est la frénésie boursière et l'irresponsabilité des banquiers qui ont prêté sans retenue aux spéculateurs qui est à l'origine de la crise. Mal régulée, l'activité des banques a conduit non plus à financer l'économie réelle mais la spéculation malsaine. La hausse boursière était intrinsèquement intenable. Lors que la bourse a dévissé les prêts bancaires n'ont pu être remboursés, la panique s'est installée et la ruée vers les banques a provoqué le blocage du système monétaire et financier. 8000 banques feront faillites de 1929 à 1934. L'économie s'est brutalement arrêtée. Cette théorie passe très vite sur les aspects internationaux, bien que la crise de 1929 ait été mondiale. Et pourquoi diable une crise de spéculation s'est développée à cette date et seulement aux États-Unis ? J.K Galbraith qui a été le principal porteur de ces idées a dans son livre, la crise de 1929, plutôt une attitude descriptive et ironique que véritablement explicative.
+Dans cette vision la crise n'est qu'un épisode de plus du cycle économique d'une dizaine d'années. Il n'aurait pris son allure de dépression qu'à la suite de mauvaises réactions de la part de l'État Fédéral américain (attentisme : "la reprise est au coin de la rue") ou de la nouvelle banque centrale, la FED, qui aurait restreint le crédit là où il fallait ouvrir les vannes. D'autres dans la même approche cyclique supposeront comme Kondratieff que la crise a été particulièrement longue et violente par l'effet de mouvements de longues périodes sur l'innovation. L'innovation se serait tarie alors que l'électrification et les chemins de fer avaient été les moteurs de la croissance précédente ils auraient fini par s'arrêter. Les observateurs modernes pensent plutôt la période comme ayant été riche en innovation : téléphonie fixe, TSF, début même de la télévision, automobile, aviation, électroménager, publicité, nouvelles idées de management, etc.
+ +C'est la thèse défendu par Lionel Robbins
+ +Parmi de nombreux textes qui mettent l'accent sur des « fautes », l'expiation des fautes en cas de grand malheur est un classique de l'humanité depuis l'origine des temps, on peut citer celle de l'économiste Lionel Robbins dans son ouvrage La Grande Dépression 1929 - 1934, Payot, 1935. La crise était inévitable à cause des excès commis dans la période précédente :
+Après les excès doit venir la purge si nécessaire et qu'il faut laisser se dérouler sans entraves. La crise vient assainir la situation économique et lui permettra de repartir sur des bases plus solides. Le plus vite la purge complète, le plus vite la reprise.
+La longueur et la gravité de la crise qui verra la ruine de nombreuses familles, le développement d'un immense chômage, la faillite de milliers de banques et celle de dizaines de milliers d'entreprises a conduit à mettre en cause la manière dont les politiques économiques ont été conduites. Les certitudes qui se sont dégagées ont pu laisser croire qu'une crise de type 1929 ne serait plus possible aujourd'hui car désormais on savait.
+L'accusation d'aveuglement et de pusillanimité est bien montré par l'affirmation du Président de la Bourse de Wall Street qui s'exprime ainsi en (septembre 1929) : « Bien des gens n'ont pas compris que c'en est apparemment fini des cycles économiques tels que nous les avons connus. Quant à moi, je suis convaincu de l'essentielle et fondamentale solidité de la prospérité américaine ».
+Ensuite l'idée constamment répétée que la prospérité était « round the corner » et qui expliquait qu'on ne fit rien a été mise systématiquement en cause. La critique Keynésienne à partir de son livre majeur expliquera que lorsqu'un équilibre de sous emploi s'est installé seul l'investissement public permet de retrouver le plein emploi. Ces idées n'étaient pas celles du temps, où on attendait plutôt d'une baisse des prix et des salaires les conditions de la reprise.
+ +On a vu que pour les monétaristes la FED avait tout faux avant la crise. Elle continuera à agir à contretemps après son déclenchement. Beaucoup d'auteurs comme notamment Ben Bernanke, l'actuel président de la FED, qui fera sa thèse universitaire sur ce thème, considèrent qu'elle aurait du alimenter massivement les banques en monnaie-banque centrale au lieu de maintenir la ligne de conduite orthodoxe qui proposait moins de laxisme plutôt qu'une inondation de crédits. Cette pensée est devenu un crédo qu'Alan Greenspan puis Ben Bernanke lui même allaient appliquer comme président de la FED avec détermination à chaque crise américaine à partir de 1987.
+ +Des mesures protectionnistes (par exemple, la Hawley-Smoot Tariff Act) entraînèrent une augmentation des droits de douane sur les importations, afin de protéger les producteurs locaux (mis en danger par la compétition internationale). En réponse à cette politique, d'autres pays augmentèrent à leur tour leurs droits de douane, mettant en très mauvaise posture les sociétés américaines qui vivaient de l'exportation. Cela conduisit à une suite d'augmentations des droits de douane qui fragmenta l'économie mondiale. D'une façon plus générale les grands empires, britannique et français, se replient sur eux-mêmes et ne recherchent plus le commerce international devenu trop dangereux, faute de monnaie mondiale.
+Pour Jacques Sapir, cette explication ne tient pas : il explique que « la chute du commerce international a d'autres causes que le protectionnisme ». Il fait remarquer que « la production intérieure des grands pays industrialisés régresse [...] plus vite que le commerce international ne se contracte. Si cette baisse avait été la cause de la dépression que les pays ont connue, on aurait dû voir l'inverse. » De plus, « si la part des exportations de marchandises dans le produit intérieur brut (PIB) passe de 9,8% à 6,2% pour les grands pays industrialisés occidentaux de 1929 à 1938, elle était loin, à la veille de la crise, de se trouver à son plus haut niveau, soit les 12,9% de 1913 ».
+Il ajoute
+« Enfin, la chronologie des faits ne correspond pas à la thèse des libre-échangistes. [...] L'essentiel de la contraction du commerce se joue entre janvier 1930 et juillet 1932, soit avant la mise en place des mesures protectionnistes, voire autarciques dans certains pays, à l'exception de celles appliquées aux États-Unis dès l'été 1930, mais aux effets très limités. En fait ce sont les liquidités internationales qui sont la cause de la contraction du commerce. Ces liquidités s'effondrent en 1930 (-35,7%) et 1931 (-26,7%). Or on voit la proportion du tonnage maritime inemployé augmenter rapidement jusqu'à la fin du premier trimestre 1932, puis baisser et se stabiliser »+
Indépendamment de la question du protectionnisme l'explosion du système monétaire international défini à la conférence de Gênes conduit à des redéfinitions des valeurs en or des principales devises et à une suite de dévaluations qui faussent les termes de l'échange international et provoquent des troubles sur tous les marchés de biens et de services internationaux.
+On constatera que ces quatre contestations des politiques menées dans les années 1930 sont à la base des politiques suivies actuellement : gonflement des liquidités par la banque centrale, refus du protectionnisme, refus (verbal mais acceptation de facto) des dévaluations compétitives, activisme d'État via des plans de relance massifs.
+Le président Herbert Hoover tenta sans grand succès de remédier à la crise. Ses adversaires démocrates le surnommaient le « Do nothing ».
+En novembre 1932, les États-Unis élisent Franklin Delano Roosevelt pour remplacer Hoover à la tête de l'État. Le taux de chômage approchait alors les 25% de la population active. Roosevelt prit ses fonctions en mars 1933 et lança plusieurs programmes nationaux afin d'accroître le volume de liquidités et réduire le chômage (c'est ce que l'on nomma le New Deal).
+La cour suprême s'opposa dans un premier temps à cet interventionnisme économique très fort, contraire à sa jurisprudence précédente, avant de s'y rallier en 1937, par l'arrêt West Coast Hotel Co. v. Parrish.
+Le New Deal offrit une réponse politique forte aux attentes sociales nés du désastre humain de la crise dont témoigne par exemple Les Raisins de la colère de Steinbeck. Il redonne espoir aux Américains et Roosevelt sera réélu en 1936, 1940 et 1944, dans le contexte de la Seconde Guerre mondiale il est vrai pour 1944. Il fournit aussi aux États-Unis des infrastructures - routes, aménagements hydroélectriques - encore utilisées à l'heure actuelle.
+Le New Deal est souvent crédité d'avoir permis de surmonter la crise. Ce point de vue, généralement admis jusque vers les années 1960, est aujourd'hui contesté par les économistes. Lorsque survint la Seconde Guerre mondiale, soit 8 ans après les débuts du New Deal, les États-Unis étaient encore en pleine crise. Certains affirment que l'instabilité inhérente des marchés économiques causa une crise si profonde, que même les interventions du New Deal, aussi pertinentes soient-elles, n'auraient pas pu rétablir rapidement la situation. D'autres estiment que, la crise de 1929 correspondant à la période de l'histoire américaine où l'intervention du gouvernement fut la plus forte, on pourrait raisonnablement penser que l'action du gouvernement n'a fait qu'accentuer la dépression, plutôt que d'y remédier. Ils tirent entre autres arguments du fait qu'après un redressement initial, l'économie a replongé à partir de 1937, à peu près au moment où la Cour suprême a permis au New Deal de prendre plus d'ampleur. La thèse moderne dominante est que la crise fut en fait causée notamment par la politique monétaire de la "Fed", trop restrictive, et qu'elle pris fin lorsque cette politique cessa pour redevenir plus accommodante. La Fed elle-même s'est ralliée à cette thèse et gère maintenant toutes les crises comparables en conséquences. Cette thèse n'est pas acceptée par un économiste tel que Charles Kindleberger pour deux raisons : d'une part son explication ne repose que sur une seule cause et d'autre part, il conteste la période (1929 - 1933) prise comme base de référence N 1
+ +L'Allemagne suivit dès le début des années 30 une politique différente des recettes de l'orthodoxie libérale dominante à l'époque. Sous la responsabilité financière de Herr Schacht elle se lance dans une politique d'investissement massif, au départ principalement avec des objectifs civils. Galbraith écrira dans son livre sur "la monnaie" que la politique allemande fut à cette époque une politique keynésienne complète avant l'heure. La doctrine de Keynes est en effet qu'il faut rétablir par une politique d'investissement public l'équilibre perdu entre épargne et investissement. C'est de cette époque que date le réseau d'autoroutes allemand (dont l'équivalent en France ne sera construit que trente ans plus tard). Cette politique est menée sans aucune inflation, ce qui vaudra une réputation durable au ministre des finances, malgré son rôle dans l'appareil nazi. Le plein emploi est quasiment revenu avant même qu'Hitler oriente l'économie allemande vers la production militaire, qui d'ailleurs, est largement réalisée ... en Union Soviétique pour contourner les traités. le Pacte Germano-Soviétique a été précédé par une longue et secrète coopération militaire. Il va de soi que l'Allemagne sortira de la guerre ruinée.
+La situation est différente en Italie où l'exemple allemand n'est suivi que très partiellement et où les aventures coloniales extérieures absorbent une partie importante de l'énergie nationale. Elle sortira également de la guerre ruinée.
+La France, principalement agricole, subit la crise de plein fouet, les exportations étant pratiquement arrêtées. Elle se replie sur son Empire. Les troubles sociaux et politiques qui aboutissent au Front populaire ne permettent pas l'élaboration d'une politique constante. Alfred Sauvy dans son "histoire économique de la France entre les deux guerres" constate que les "quarante heures" bloque la reprise qui commençait à se manifester. L'effort de production militaire est tardif et n'a qu'une influence marginale sur l'activité. La France sortira de la guerre pillée et ruinée.
+La situation est peu ou prou la même au Royaume Uni qui a tenté de revenir à un taux de change en or intenable pour la Livre avant même 1929 et qui a connu une stagnation plus longue que les autres. La politique d'armement ne commence vraiment que très peu de temps avant la guerre et ne peut être considérée comme la méthode qui a permis de sortir de la crise. Elle sortira de la guerre victorieuse mais ruinée.
+Le Japon connait une période d'avant guerre très différente des démocraties du fait de son expansionnisme militaire et de l'encadrement rigoureux de la population. Elle manque de pétrole pour ses entreprises. La guerre avec les Etats-Unis sera largement provoquée par l'embargo décidé par ce pays sur les exportations pétrolières vers le Japon. Le pays sortira ruiné par la guerre.
+Les États-Unis connurent une période de forte activité pendant la guerre de quarante avec le retour au plein emploi, la mobilisation des hommes jeunes étant compensée par le recours massif à la main d'oeuvre féminine dans les usines d'armement. D'énormes investissements furent faits dans beaucoup de domaines qui donnèrent un avantage technologique au pays après guerre. Lorsque la guerre arriva à son terme, le retour des millions de soldats dans leurs foyers imposa une période de réajustement de l'économie. C'est cette transition qu'était censée faciliter le G.I. Bill. Au total ce fut le seul pays important à ne pas sortir ruiné de la guerre. La guerre avait également permis à des économistes keynésiens, sous l'influence de Hansen, de peupler l'administration qui se dote pendant la période des moyens en hommes, en idées et en droit, de son action. La paix retrouvée ils mirent en place une politique de dépense publique qui ne se relâchera plus.
+Ces exemples montrent que la montée vers la guerre ne sera nulle part le secret de la fin de la crise de 1929. La guerre marquera une rupture dans les mentalités, provoquera un besoin de reconstruction intense pendant une dizaine d'année, provoquera une concentration du pouvoir économique dans l'Etat qui est désormais partout chargé du droit au travail et à la sécurité sociale. Tous les gouvernements deviennent "keynésiens". L'orthodoxie d'avant 1929 est morte.
+Contenu soumis à la GFDL
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+La guerre est un conflit armé opposant au moins deux groupes militaires organisés + réguliers 1. Elle se traduit ainsi par des combats armés, plus ou moins + dévastateurs et implique directement ou indirectement des tiers. Elle qualifie + donc tous les conflits, qui ont pour principales caractéristiques, la force + physique, les armes, la tactique, la stratégie ou la mort de certains de ses + participants (soldats, résistants, Franc-tireur etc.) ou de tiers (civils, + employés et membres des associations d'aide humanitaire, etc.).
+Le sens commun veut que la guerre soit aussi vieille que l'humanité. Certains + estiment[réf. nécessaire] que chez l'Homme, la guerre est une forme extrême de + communication, un « commerce » dans sa signification profonde ou exacte de mise + en commun, de partage et d'échange (ici d'agressivité), la guerre économique + pouvant alors, sous une apparence plus socialement et éthiquement acceptable, + satisfaire d'autres appétits de pouvoirs que ceux qui animaient les auteurs des + guerres ethniques, de religions, de classe, etc. Les armes des nouveaux conflits + seraient alors la capacité à trouver et manipuler l'argent, l'influence et + l'information.
+Dans le contexte du droit international les belligérants combattant des groupes + irréguliers (rebelles, armée illégale...) remplacent souvent le terme guerre par + conflit armé, grande opération de police, lutte contre le terrorisme, + pacification, etc.
+Toutes les guerres laissent des séquelles, socio-psychologiques, économiques et + environnementales qui souvent constituent le germe ou le ferment d'une prochaine + guerre, produisant un cercle vicieux entretenu par la haine, le non-respect, la + peur de l'autre ou de l'avenir, et la difficulté à négocier.
+Pour l'anthropologue René Girard la guerre est une forme de rivalité + mimétique entre groupes, dans laquelle la violence est orientée vers + l'extérieur de la communauté. L'anthropologue Marvin Harris 2 de la Columbia + University a proposé une théorie sur les origines de la guerre dans les + sociétés non-étatiques, tribales et villageoises. L'idéologie dominante dans + notre société tend à blâmer l'individu pour la guerre sur la base + supposément biologique d'une « violence innée » de la « nature humaine » (le + péché originel) ou de l'« instinct de mort ». C'est un point de vue simple + et simpliste qui nous lave de toute responsabilité dans notre conduite + envers autrui. Si la guerre était naturelle, il n'y aurait pas besoin de + tant d'efforts de propagande pour dresser les uns et les autres à + s'entretuer. Le dressage ici se rapporte à ce que l'Anglais nomme par « + basic training » dès l'enfance dans la famille, la parenté, l'école, le + milieu social et à travers les jeux et les divertissements apparemment les + plus inoffensifs, le rejet et le déni de l'autre, la compétition et la + coopération.
+Harris répertorie quatre théories, selon lui les plus communes sur l'origine + de la guerre :
+Dans cette perspective et en couvrant à la fois les sociétés non-étatiques et + les sociétés étatiques, la guerre apparaît comme la forme et le moment (à la + fois comme instant et comme rapport de forces) de violence extrême d'un vol + organisé dont l'objet peut être physique, imaginaire ou symbolique.
+Tant du point de vue de l'attaquant que de l'attaqué, la guerre semble + pouvoir contribuer à maintenir ou restaurer la cohésion sociale d'un + groupe ou pays. Car le fait est que dans l'Histoire, nombre de guerres + furent déclenchées sous un prétexte dans le but unique (et souvent + réussi) de resserrer les rangs derrière le destin supérieur de la patrie + en cherchant l'« union sacrée », et soutenir celui qui apparait alors + comme son meilleur défenseur : le chef. Ainsi Otto von Bismarck qui + rêvait de l'unité allemande incita t-il la guerre franco-allemande de + 1870. Rappelons que l'Allemagne n'était à l'époque qu'une confédération + d'États indépendants, et que la guerre permit d'unifier l'Empire + allemand sous la couronne prussienne, ce qui fut l'avènement de + l'Allemagne bismarckienne qui domina seule l'Europe continentale pendant + près de trente ans.
+Harris veut démontrer que les gens, les hommes surtout, sont élevés dans + le culte et la croyance de la guerre comme une activité anoblissante, + flamboyante et glorieuse, avec un substitut qui est la compétition + sportive collective. L'histoire montre qu'on peut être élevé à prendre + plaisir à pourchasser d'autres personnes et à les tuer, à les détester + et les haïr ou bien à se révolter contre les résultats de tels actes. Si + on croit que les valeurs belliqueuses sont sources des guerres, alors le + problème crucial et critique devient celui de spécifier les conditions + dans lesquelles des personnes sont amenées à valoriser et à révérer la + guerre. La théorie de la guerre comme jeu trouve là sa limite. Comme + activité ludique, le jeu est une représentation du type « théâtral » et + prépare à la guerre en la glorifiant et en la valorisant.
+Du point de vue de la nature humaine décrite par ses "pulsions" + d'origines génétiques, biologiques et/ou culturelles acquises, la + pulsion de meurtre pourrait ou voudrait expliquer, au-delà de la pulsion + de mort que l'humain est programmé pour tuer. « Instinct », comme + ailleurs « Dieu » seraient alors des principes explicatifs passe-partout + pour justifier absolument et définitivement ce que nous ne comprenons + pas.
+La théorie de l'instinct de mort ou pulsion de mort néglige (aussi bien + dans la signification française de « ne pas savoir » que dans la + signification anglaise de « ne pas vouloir savoir ») l'environnement + bio-physico-chimique et le contexte culturel, historique et social dans + lesquels les tueries et les guerres prennent place. L'argument de la « + nature humaine », réincarnation du déterminisme génétique de la + sociobiologie qui va aussi loin que proclamer le viol comme un acte + logique dans l'intérêt du « succès reproductif » du violeur, se + contredit lui-même car guerre et tueries ne sont pas universellement et + de tous les temps admirées et pratiquées par les humains.
+De plus, il y a d'énormes distinctions entre les « lois de la guerre » (à + différentes époques et dans différentes sociétés) et, par ailleurs la + quantité de violences distribuée. La théorie d'un universel « instinct + de meurtre » est insoutenable même dans une société en guerre.
+L'être humain est bien entendu capable de devenir dangereusement agressif + en apprenant à jouir et à se réjouir de la guerre et de l'exercice de la + cruauté. Mais, « comment et quand nous devenons agressif sont plutôt + sous le contrôle de nos cultures que de nos gènes » écrit Harris (p. + 54), dans le vieux débat scientifique entre l'inné et l'acquis (ou du + déterminisme génétique contre le déterminisme culturel).
+De nombreux animaux grégaires ont des comportements d'agression qui, + lorsqu'ils s'expriment collectivement, peuvent évoquer la guerre. Il s'agit + généralement d'animaux territoriaux qui disposent aussi parfois de + comportements évoquant la négociation. Ainsi certains insectes sociaux + (fourmis, termites, etc) vivant en colonies forment de véritables armées, + disposant d'individus que nous nommons "soldats" chargés de défendre la + colonie, puis attaquent leurs ennemis dans des combats violents. Les + rapports entre fourmilières voisines ne sont pas toujours très harmonieux. + Des luttes territoriales terribles opposent des combattants avec pitié. Un + chercheur néerlandais, Mabelis, s'est passionné pour les guerres que se + livrent des colonies de fourmis rousses. Au printemps, quand le nid sort de + sa torpeur hivernale, les ouvrières fourrageuses vont explorer les environs. + Quand elles rencontrent un nid voisin apparenté, de type super-colonie, des + échanges de nourriture ou des transports de matériaux peuvent s'effectuer + entre les nids. Mais s'il s'agit d'une colonie étrangère, des combats + éclatent entre les ouvrières. L'intensité du combat va crescendo car chaque + colonie recrute au fur et à mesure de nouvelles combattantes. Les combats + durent toute la journée et se soldent par la mort de milliers de fourmis. + C'est au cours de telles guerres que les territoires des colonies évoluent. + D'après certains biologistes, ces guerres entre fourmis permettraient aux + colonies de se procurer des protéines à une époque où les proies sont encore + très rares. Les arts martiaux se sont en Asie beaucoup inspiré des attitudes + et moyens de défense des animaux. Cependant, le sentiment durable de + vengeance, qui a chez l'Homme entretenu des guerres durant des siècles ou + décennies leur semble inconnu.
+Selon le théoricien prussien Carl von Clausewitz (1780-1831) :
+« la guerre est le prolongement de la politique par d'autres moyens. + »+
Cette théorie pose qu'un conflit armé est « la suite logique d'une tentative + d'un groupe pour protéger ou augmenter sa prospérité économique, politique + et sociale au dépens d'un autre ou d'autres groupe(s) » (Harris, p. 54). + C'est la définition de la guerre impériale ou étatique, où l'attaquant se + battrait pour élever son niveau de vie au détriment des autres (les intérêts + économiques sous-jacents peuvent être enfouis et cachés derrière et par des + alibis politiques, raciaux et religieux). Dans cette approche l'État + n'existerait que par son organisation politique - impérialiste à l'usage + interne ou externe - capable de réaliser des guerres de conquête + territoriale, d'agencement économique et de colonisation. Par cette + continuité politique, la guerre est aussi un élément incontournable des + relations humaines, et donc une chose à laquelle il faut être prêt, ce que + traduit le proverbe romain : Si vis pacem, para bellum (Si tu veux la paix, + prépare la guerre), ou bien l'aphorisme de Nicolas Machiavel : « une guerre + prévisible ne se peut éviter, mais seulement repousser ». Cette définition + rejoint les antiques idées de la civilisation chinoise : la guerre n'est + qu'un des moyens pour imposer sa volonté à un groupe ou à l'inverse y + résister. Comme ce moyen est le plus risqué et le plus coûteux, la victoire + la plus intéressante est celle qui ne se voit pas, l'adversaire n'ayant pas + perdu la face, ce qui pourrait être une des définitions de la diplomatie. La + guerre est souvent une façon de ressouder une communauté contre un ennemi + commun, de justifier une forte discipline, voire d'acquérir ou conserver une + gloire politiquement nécessaire à un pouvoir se voulant charismatique . Ces + raisons rendent la guerre fréquente dans les dictatures et les États où les + hommes voient leurs certitudes troublés par une brutale évolution politique + (ethnique), économique ou technique. Il arrive cependant, bien que ce soit + plus rare, que des démocraties se fassent la guerre entre elles aussi (voir + théorie de la paix démocratique).
+Les guerres internes à un pays en cause mettant aux prises une partie de la + population contre l'autre sont qualifiées de guerres civiles. Chacun voit + dans son ennemi, et même en celui qui voudrait rester neutre, un traître + avec lequel il n'est plus possible de cohabiter et avec lequel aucun + compromis territorial n'est possible (comme cela serait possible avec un + ennemi étranger). C'est pourquoi l'unique issue envisagée est bien souvent + l'anéantissement de l'autre et de ses alliés réels ou potentiels (y compris + femmes et enfants), avec emploi de la terreur, ce qui rend ces guerres + meurtrières et sans merci. Le statut juridique d'une guerre civile ne permet + pas aux puissances étrangères et aux institutions internationales, comme + l'ONU d'intervenir, comme la France pour les « intelligence » ou Guerre + d'Algérie pour régler les différends. Inversement, une guerre étrangère est + déguisée en guerre civile pour masquer l'agression étrangère, comme la + France a déguisé sa reconquête coloniale en guerre civile avec la création + d'Un État vietnamien indépendant en 1948, durant la Première Guerre + d'Indochine d'indépendance et comme les États-Unis qui ont « aidé » la + République du Viêt Nam en lutte contre la République Démocratique du Viêt + Nam pendant la Deuxième Guerre d'Indochine ou Guerre du Vietnam de + réunification.
+Il faut et il suffit simplement de fabriquer un gouvernement à sa solde qui + demande l'aide pour intervenir en toute légalité dans les affaires + intérieures d'un État souverain.
+La guerre n'est pas une simple manifestation de la violence humaine, elle est un + fait social, qui demande une organisation des hommes, une convergence de leur + force, vers un objectif unique. Comme toute organisation de la société, elle est + hiérarchisée, et se décompose donc en une structure à deux niveaux principaux : + le niveau politique qui initie la guerre lorsqu'on la juge souhaitable ou du + moins nécessaire, et le niveau tactique, celui de la bataille et du rapport de + force qui, par la fortune des armes, donnera raison politiquement à celui des + deux belligérants qui aura su faire fléchir l'autre. Par sa violence, son + inhumanité, son coût qui peut condamner à la misère des générations, la guerre + imposa le niveau intermédiaire qu'est la stratégie, pour rendre plus efficace et + plus soutenable le terrible effort de guerre, pour le rationaliser et le rendre + plus « rentable ». Un conflit se décompose donc ainsi :
+Si l'on soustrait de la guerre l'aspect psychologique de la haine et de la + violence (ce que l'on fait, comme vu plus haut, dans la théorie classique), + la volonté politique précède nécessairement la volonté de violence + elle-même, et plus encore la réalisation de cette violence. La guerre + commence alors bien avant qu'on l'imagine pouvoir éclater, puisqu'elle nait + en amont sur le papier, d'ambitions et de nécessités rationnelles.
+« La guerre est la continuation de la politique par d'autres moyens » + - Général Carl von Clausewitz+
La violence est donc un outil dont dispose la politique pour arriver à ses + fins. Généralement elle n'est qu'un dernier recours dans le cadre d'une + stratégie plus globale (regroupant tous les moyens d'action), car l'objectif + du stratège est d'imposer sa volonté, et non pas de gagner des batailles. + C'est ce que défend Sun Zi :
+« L'idéal est que votre adversaire se plie à votre volonté sans que + vous ayez à utiliser la force » - L'Art de la guerre+
et à Clausewitz de surenchérir :
+« Le conquérant aime toujours la paix ; il entre volontiers + tranquillement dans notre pays [même s'il n'a pas à faire la guerre] + »+
Dans les pays développés et démocratiques, où l'État se caractérise de plus + en plus par sa fonction abstraite "d'administrateur de la société", on peut + effectivement penser que cette appréciation de la guerre comme calcul froid + de la nécessité politique correspond à la réalité. Cependant, lorsque la + pouvoir se confond avec la personnalité de celui qui l'exerce, la + rationalité de la volonté politique à tendance à laisser place à + l'irrationalité de l'autocratie, car un despote sera beaucoup plus enclin à + considérer la guerre comme une affaire personnelle. Mais l'on remarque que + même dans ce dernier cas, on ne peut affirmer que la politique n'est pas à + l'initiative du conflit, puisqu'en dictature la volonté personnelle devient + la substance même de la politique.
+« La guerre éclate lorsque les États n'ont plus une conscience claire + de leurs devoirs, une intelligence nette de leurs droits, une notion + exacte de leurs intérêts respectifs. Ils ne peuvent plus arriver à une + entente commune, ils ne peuvent plus accepter les lois que leur traçait + le droit des gens en temps de paix : ils s'y soustraient. La guerre est + l'acte politique par lequel des États, ne pouvant concilier ce qu'ils + croient être leurs devoirs, leurs droits et leurs intérêts, recourent à + la lutte armée, et demandent à cette lutte de décider lequel d'entre eux + étant le plus fort pourra en raison de sa force imposer sa volonté aux + autres » - Funck-Brentano et Sorel, Précis du droit des gens, Paris, + Plon, 1900, p. 74+
Par sa nature destructrice, la guerre implique un coût très important, et il + faut des motivations conséquentes et suffisantes pour initier un conflit. + Comme tous les phénomènes sociaux extrêmes, ces motivations sont en bonne + part de nature psychologique, mais la volonté de destruction s'est peu à peu + rationalisée au cours du temps pour devenir un outil au service de la + volonté politique. Celles-ci peuvent-être :
+À ces motivations matérielles et réfléchies qui peuvent encourager le recours + à la force, s'ajoute d'autres motivations d'origines psychologiques et plus + instinctives, d'autant plus courantes que le pouvoir est personnalisé :
+On peut décrire l'origine de la violence en politique de la manière + logique grâce au schéma suivant : quand la politique souhaite obtenir + quelque chose d'un groupe social sur lequel elle n'a pas autorité (ce + peut être un autre État), il lui faut son acceptation, ce que l'on nomme + la décision en stratégie. La seule et unique manière d'y parvenir est de + convaincre (voir la section niveau stratégique) l'autre qu'il est de son + intérêt de répondre favorablement aux demandent qui lui sont faites :
+Dans les deux cas le but est de rendre rentable l'acceptation des + conditions imposées, et si la réponse est négative, c'est que le refus + semble préférable. Si l'argument de la menace lui-même ne fait pas son + effet, deux solutions se présentent alors :
+Il faut donc en conclure, et c'est essentiel, que lors d'un litige entre + des entités politique indépendantes, toute décision et toute situation + qui résultera de la confrontation de leurs volontés respectives, y + comprit l'usage de la violence, aura été considérée par tous les + protagonistes comme étant le choix le meilleur.
+La stratégie est selon le Général André Beaufre :
+« l'art de la dialectique des volontés employant la force pour + résoudre leur conflit. » - Introduction à la Stratégie, Armand Colin, + 1963, p. 34+
Alors que le niveau politique formule une volonté, le rôle de la stratégie + est de réfléchir au moyens d'amener l'adversaire à y répondre favorablement, + ce que l'on nommera la décision. Pour le Général Beaufre, dans la + dialectique des volontés, la décision est un événement d'ordre psychologique + que l'on veut produire chez l'adversaire : le convaincre qu'engager ou + poursuivre la lutte est inutile. Le but de la stratégie est donc:
+« d'atteindre la décision en créant et en exploitant une situation + entrainant une désintégration morale de l'adversaire suffisante pour lui + faire accepter les conditions qu'on veut lui imposer. » - Introduction à + la Stratégie, Armand Colin, 1963, p. 36+
On admet généralement que le but de la stratégie est ni plus ni moins que de + "gagner la guerre", d'où la formule prêtée à Clausewitz de "la décision par + la bataille victorieuse". La réalité est plus subtile : n'oublions pas que + la décision est psychologique, et qu'il faut "convaincre qu'engager ou + poursuivre la lutte est inutile", d'où cette réflexion de Lénine analysant + Clausewitz : "retarder les opérations jusqu'à ce que la désintégration + morale de l'ennemi rende à la fois possible et facile de porter le coup + décisif". Ainsi, il ne suffit pas d'être le plus fort pour gagner la guerre, + mais de démoraliser le pouvoir adverse et c'est ce qu'apprirent à leurs + dépens les États-Unis lors des guerres du Viêt Nam, de Somalie, + d'Afghanistan ou encore d'Irak. D'ailleurs, la stratégie dans les guerre + insurrectionnelles devient de plus en plus un cas d'école, et elle sera + présentée ci-après.
+L'art de la stratégie réside précisément dans la subtile confrontation + entre d'une part, les capacités d'influence sur l'adversaire, positives + ou négatives, et d'autre part, l'évaluation des coût inhérents aux + moyens à disposition pour effectuer cette influence. L'influence peut + être négative pour l'adversaire : destruction de ses forces et de ses + biens, ou peut être positive : proposition de traité de commerce, + négociation avantageuse ; la conjonction de ces moyens d'influence doit + permettre une meilleure efficacité au rapport des coût qu'impliquent + chaque combinaison possible, entre techniques d'influence négative et + positive, c'est donc "jouer de la carotte et du bâton", en fonction des + prix et de l'efficacité de la carotte et du bâton. Pour l'exemple, on + peut imaginer qu'une phase destructrice qui apparaisse catastrophique à + l'ennemi, soit suivie d'une proposition de paix dotée d'avantages + inattendus, proférant alors un caractère providentiel à ce qui ne sont + que des exigences. Nous voyons qu'ici, la stratégie tient à un choix + subtil, émanant d'une réflexion qui vise à faire converger vers un + objectif des moyens parfois contradictoires, ce choix constitue l'art de + la stratégie.
+Là est donc l'intelligence de la stratégie, ses moyens sont de complexes + combinaisons de techniques d'influence, mais pour les élaborer, il faut + analyser l'effet moral décisif et savoir qui on veut convaincre. Dans + le cas d'un gouvernement central, on peut choisir d'agir directement sur + ses dirigeants et sur ce qui fait leur capacité d'influence (attaquer ou + arrêter les personnes dirigeantes, leur administration, ou plus souvent + leur propre capacité d'action : l'armée ennemie), ou bien sur un tiers + qui a une influence sur eux (une organisation internationale comme + l'ONU, des alliés influents, ou la population : solution + particulièrement efficace dans une démocratie ou une société très + divisée politiquement ou ethniquement). S'il faut convaincre non pas un + gouvernement unique et centralisé, mais une constellation de + personnalités ou un groupe (population, ethnie, groupe religieux, + mouvance idéologique...), la stratégie comporte d'autant plus de + variables et de complexité que le pouvoir adverse est décentralisé voir + totalement explosé, car dans ce cas la décision doit être obtenue d'un + ensemble d'individus, avec tout l'arc en ciel de sensibilité et + d'intelligence stratégique qui le compose.
+Il y a victoire de la stratégie lorsque l'adversaire décide de stopper ou + de ne pas engager le combat, c'est-à-dire, dès lors qu'il y a + démoralisation de son pouvoir décisionnaire. Or, suivant qu'un conflit + est interétatique ou insurrectionnel, qu'il est de l'ère pré-nucléaire + ou post-nucléaire, les moyens susceptibles d'arriver à cette fin sont + très différents.
+Le paradigme de la guerre industrielle entre États monopolise grandement + la réflexion stratégique encore aujourd'hui. Car il est tentant de + penser que disposer d'une armée "puissante" selon les critères + traditionnels (une armée de masse) autorise à se sentir prémuni de tous + les types de guerre. L'armée américaine, de très loin la plus puissante + au monde selon la définition classique, ne peut pourtant se permettre + d'obtenir la décision que très rarement et difficilement dans les + conflits insurrectionnels, autrement dit, elle ne peut pas gagner une + guerre non conventionnelle avec des stratégies conventionnelles. Et + c'est ce qu'a démontré le Général Petraeus à travers ses réflexions sur + la guerre contre-insurrectionnelle.
+Les raisons de ce paradoxe encore mal compris sont les suivantes : la + capacité des armées et plus généralement des politiciens à obtenir la + décision a subi des mutations considérables au cours de l'histoire, en + particulier en raison de l'évolution des possibilités opérationnelles + qui résultaient de l'armement, de l'équipement (évolutions des + technologies) et des méthodes de guerre et de ravitaillement, mais + surtout à cause des stratégies préférées par l'adversaire en fonction de + ses propres caractéristiques politiques et sociales. Or cette évolution + inéluctable fut rarement comprise, au contraire, l'évolution à + généralement surpris les deux adversaires, qui durent en tâtonnant + rechercher les solutions nouvelles menant à la décision. De là vient + l'idée que "les stratèges se préparent toujours pour la guerre + précédente". L'exemple le plus surprenant pourrait être celui de la + ligne Maginot, gigantesque structure à objectif défensif héritée des + dogmes de la Première Guerre mondiale (guerre défensive de position), + totalement incapable de protéger la France de la stratégie de guerre + éclaire offensive des armées nazies (guerre offensive et décisive très + dynamique, mécanisée et aéroportée).
+L'évolution la plus importante de ces dernières décennies parait être + l'apparition de la force nucléaire, dont les caractéristiques + foudroyantes ont totalement bouleversées les lois de la guerre, d'où la + naissance d'une nouvelle stratégie ; mais l'atome n'est pas la seule + révolution, et stratégie de guérilla, utilisée par le terrorisme, est + elle aussi capable de mettre en échec des armées industrielles + conventionnelles.
+Sont analysées ci-dessous les trois stratégies principales, s'adaptant + chacune aux moyens dont on dispose et à l'ennemi à combattre. Aucune + n'est meilleure que l'autre dans l'absolu, et aucune ne peut s'adapter à + toutes les situations.
+Dans la stratégie militaire classique, la guerre fut toujours + comprise comme un rapport de force interétatique. Ainsi Hegel, + contemporain des guerres napoléoniennes qui devaient redessiner la + carte de l'Europe, comprend la dynamique des rapports de forces + entre nations comme la matière même de l'histoire. L'histoire est + alors le théâtre de la lutte des États pour l'hégémonie, où chacun + se doit d'être le plus fort sous peine de disparaitre.
+Nation contre nation, front contre front, stratèges contre stratèges, + la guerre interétatique a cette caractéristique jusqu'à la Seconde + Guerre mondiale de voir se répondre en miroir des logiques de guerre + pratiquement symétriques. La décision à l'état pur est celle qui + résulte de la bataille victorieuse, et toute la stratégie classique + a pour objectif de gagner la guerre en terrassant l'ennemi sur le + champ de bataille. Dans cette logique d'équilibre des forces, une + faiblesse, un calcul qui s'avère faux, ou une manoeuvre inventive et + décisive, peut décider du sort de la guerre, tout l'art de la + stratégie classique est un jeu d'équilibriste où chacun s'efforce de + pallier ses points faibles et de gagner en supériorité.
+Le général Beaufre examine les solutions principales employées dans + le jeu de la stratégie, il en dénombre trois :
+Le paradigme de la guerre interétatique conçoit la puissance comme + synonyme de masse. Tout doit être massifié, densifié, les armes + comme les hommes. Dès l'Antiquité, les armées se battaient en rangs + serrés pour plus d'efficacité, à la fois tactique, mais aussi + logistique (resserré autour de son chef, le groupe entendait ses + ordres et agissait comme un seul homme avec une grande cohérence). + Et ce fut donc naturellement que la guerre devint industrielle au + xixe siècle, lors de la révolution industrielle. Les armes sont + fabriquées en très grand nombre, et leur mécanique est grandement + améliorée (mitrailleuse, canon rayé), parallèlement à leur + efficacité sur le champ de bataille. De même, les moyens de + transports tels que le train et les navires à vapeur permirent la + massification des troupes en des temps records sur des théâtres + d'opérations très éloignés. En 1904, la Russie transporta sur rail + une armée de plusieurs centaines de millier d'hommes sur 6500 + kilomètres par delà les espaces perdus et démesurés de Sibérie, afin + de rencontrer les armées japonaises de Mandchourie.
+« La planète entière, au début du XXe siècle était devenue + une seule entité maillée par les réseaux de transports et de + transmissions, des chemins de fer, des navires à vapeur et des + télégraphes. Et à l'intérieur de cette entité, les structures + civiles et militaires de chaque nation sont devenues étroitement + interconnectées. En temps de guerre, les chemins de fer seraient + réquisitionnés et les hommes mobilisés. Les nations étaient + mûres pour les guerres mondiales » - Général Sir Rupert + Smith,L'utilité de la force, Economica, p. 69, ISBN : + 978-2-7178-5366-7+
Nous avons vu ci-dessus que l'approche indirecte était parfois + préconisée par des théoriciens classiques, puisque le Général + Beaufre la citait parmi ses solutions préférées, car elle a + l'avantage de dérouter l'adversaire avec peu de moyens : « l'idée + centrale de cette conception est de renverser le rapport des forces + opposées par une manoeuvre et non par le combat. Au lieu d'un + affrontement direct, on fait appel à un jeu plus subtil destiné à + compenser l'infériorité où l'on se trouve » . L'approche indirecte + était alors un outil subtil mis à disposition de la stratégie + classique, mais « a trouvé son application en stratégie totale sous + une forme différente dans tous les conflits où l'un des adversaire + [...] avait des moyens inférieurs à ceux qui pouvaient lui être + opposés. » Autrement dit, la stratégie indirecte est l'arme du + pauvre, et celle préférée par l'insurgé.
+La stratégie classique fut théorisée à l'ère napoléonienne, puisque + que c'est l'empereur qui lui donna ses lettres de noblesse. Mais la + stratégie de ce que le jargon militaire nomme les conflits de basse + intensité, c'est-à-dire les conflits où ne s'opposent pas deux + armées centralisées et symétriques, mais où au moins un belligérant + (voire les deux) se constitue d'individus émanant directement de la + société civile menant plus une guérilla qu'une véritable guerre, vit + ses premières manifestations sérieuses en Espagne en luttant + justement contre les troupes de l'Empire, entre 1808 et 1814. Le + peuple appelait ça la « petite guerre », de guerra (nom pour guerre) + et illa (suffixe diminutif). On voit donc la guérilla, seule + solution des peuples face à la force classique, se développer et + remporter des succès précisément au moment où cette dernière montre + tout son prestige.
+Le général Sir Rupert Smith dit à ce sujet :
+« [...] des groupes de combat, petits, mobiles et souples, + issus de la population, cachés et soutenus par celle-ci, + s'ingéniaient à harceler les armées ennemies supérieures en + force, tout en évitant toute confrontation sur une grande + échelle. Par la poursuite de cette guerre, l'objectif politique + était de conserver l'identité politique de la population, même + sous occupation, en soutenant sa volonté de continuer à + combattre et à résister.[...]Privées de la force du nombre, et + des armes pour s'opposer à une armée en campagne, les guérillas + préfèrent éviter les batailles rangées. L'embuscade et le raid + représentent leur modes de combats favoris. » - L'utilité de la + force, p. 153+
Cette stratégie est une réponse à la faiblesse tactique des + guérilléros (peu d'hommes, peu d'entrainement, peu d'armes), et la + règle d'or jamais démentie de tout combattant insurgé vise à palier + cette faiblesse : toujours éviter de se trouver dans une position + dans laquelle l'ennemi pourrait nous forcer à combattre. Il convient + donc d'éviter d'occuper des infrastructures, des positions visibles, + ou même simplement du terrain (choses que convoite généralement une + armée classique) de façon à ne pas se trouver encerclé et de ne pas + avoir à lutter sur un front fixe à homme contre homme.
+L'imaginaire collectif considère encore aujourd'hui l'arme atomique + comme une menace pour la paix, mais si le risque de prolifération + nucléaire vers des pays irresponsables et à craindre, il est + absolument nécessaire de comprendre que dans toute l'histoire de la + guerre (dont les conflits furent de plus en plus terribles et + meurtriers au fur et à mesure de l'évolution des techniques de + combats), aucune stratégie n'a autant oeuvré pour la diplomatie et le + statu quo, et contre la violence, que la dissuasion nucléaire. La + bien nommée Guerre Froide, qui avait tous les ingrédients (situation + géopolitique, détestation mutuelle, rapport de force idéologique...) + pour dégénérer en conflit mondial, fut un exemple de guerre + impossible.
+Pour comprendre pourquoi l'apparition de l'arme nucléaire a nécessité + l'invention d'une nouvelle approche stratégique, il faut rappeler en + quoi elle détruit le paradigme de la guerre classique :
+Du fait de cette double caractéristique, l'arme atomique produit deux + phénomènes entièrement nouveaux :
+On dénombre habituellement quatre types de protection possibles + contre ce danger sans précédant :
+Ces quatre directions furent exploitées concurremment avec des + fortunes diverses et ont fini par se combiner dans des formules + stratégiques très compliquées, mais on peut dire que celle qui + semble, et de loin, la plus dissuasive est sans conteste la + quatrième (menace de riposte nucléaire en cas d'offensive), à tel + point qu'on la nomme précisément la dissuasion nucléaire.
+Le principe de la dissuasion nucléaire est fort simple : toute + agression trop directe envers une puissance nucléaire expose + l'agresseur à une riposte cataclysmique et absolument insoutenable, + un pays non-nucléaire ne peut donc en aucun cas s'attaquer + frontalement à une telle puissance. On nomme également équilibre de + la terreur ou MAD en anglais (Mutually Assured Destruction ou « + Destruction mutuelle assurée ») une situation plus précise : lorsque + deux puissances sont nucléaires, toute agression atomique de l'une + expose l'agresseur à une riposte destructrice d'une ampleur au moins + équivalente, ainsi le déclenchement des hostilités est a priori + impossible. Car le fait d'être agresseur ne profère aucun avantage + particulier comme ce pouvait être le cas dans la stratégie + classique, être attaquant ou attaqué signifie de toute façon la + destruction, d'où l'exigence constante de garantir la paix.
+Et la solution la plus efficace trouvée pendant la Guerre Froide pour + garantir la sécurité du monde, fut justement, par le Traité ABM (ABM + pour anti-missiles balistiques) signé en 1972, de limiter non pas + les capacité offensives de chacun des deux camps, mais de limiter + les capacités défensives. En effet, le meilleur gage de paix était + de préserver à tout prix la destruction mutuelle assurée, et ainsi + d'interdire l'utilisation généralisée de ces nouvelles technologies + des années soixante-dix des missiles intercepteurs. Ceci montre à + quel point la très contre-intuitive dissuasion nucléaire est l'une + des meilleures assurances imaginable pour sécurité du monde, y + compris lorsque celui-ci était divisé par la confrontation + est-ouest.
+Pour paraphraser Paul Valery- la guerre est un conflit social opposant des + hommes qui ne se connaissent pas aux dépens d'homme qui ne se connaissent + que trop bien sans jamais s'être vraiment battu.
+Les responsables des nations ont considéré depuis longtemps que l'éventualité + des guerres étant fréquente, il convenait de s'y préparer. La préparation de + ces guerres se fait le plus souvent par l'entraînement d'une ou plusieurs + armées. Après la deuxième guerre mondiale, les états ont créé l'ONU qui + développe par la coopération et la diplomatie des stratégies de préparation + et de maintien de la paix (avec, l'aide de contingents de casques bleus + lorsque le stade du conflit armé est atteint).
+Depuis l'histoire de la libération de l'Inde, qui s'est terminée au milieu du + XX siècle, le Mahatma Gandhi a fait école auprès de certains courants + minoritaires qui réfléchissent à des moyens «non-violents» pour régler les + conflits entre nations. Ils cherchent à réformer les réflexes ancestraux des + nations et des peuples vis-à-vis des guerres.
+John Foster Dulles, alors Ministre des Affaires étrangères du Président + Eisenhower, a déclaré qu'il y eût deux moyens pour soumettre un pays, par la + force des armes et par le contrôle de son économie.
+Jacob Bronowski - mathématicien, philosophe et poète réfugiés en Angleterre + et aux États-Unis durant les années 1930-40 a estimé que la guerre était le + résultat de la conjonction d'une technologie appropriée et de la logique du + pillage. L'agriculture avec la domestication des animaux et des plantes a + fait sortir l'humanité de l'errance perpétuelle. La domestication du cheval + s'insèrerait alors dans cette logique du pillage, le cheval permettant à des + nomades de faire des razzias chez des cultivateurs fixés à leurs terres, et + aux temps des semailles et des récoltes et voler le fruit de leur travail. + La frayeur suscité par ces cavaliers serait la source de la légende du « + centaure ». Une tradition de pillage et d'ailleurs de guerre par des + cavaliers a persisté en de nombreux lieux et époques, en Afrique, Amérique + et Asie.
+On peut même considérer que l'état de guerre est naturel, et que c'est la + paix qui résulte d'une construction, motivée par les plus grands gains d'un + mauvais compromis que de la plus grande victoire. La régulation et le + traitement de la guerre sont l'un des sujets majeurs pour les acteurs + politiques et religieux et depuis quelques années par l'Organisation des + Nations unies et d'autres institutions internationales et des organisations + non gouvernementales.
+En 1933, à l'initiative de la Société des nations, Albert Einstein a + questionné Sigmund Freud :"Pourquoi la guerre ?"11 et, au terme d'une longue + réponse, Freud conclut son courrier "Tout ce qui travaille au développement + de la culture travaille aussi contre la guerre".
+Des théoriciens ont émis l'hypothèse que la guerre était aussi une nécessité + naturelle pour réguler la population humaine. C'est une idée qui semble + assez communément partagée, qui voudrait que malgré son « intelligence » + l'humanité ne saurait se réguler autrement, mais cette théorie est infirmée + par au moins deux faits ;
+Dans Les silences du colonel Bramble André Maurois voit la guerre comme + aussi inévitable que les mouvements d'un dormeur dans son sommeil : + suite à un immobilisme prolongé, des parties du corps éprouvent des + soucis qui se cumulent avec le temps d'approvisionnement en ressources, + et la souffrance engendrée déclenche une tentative de retournement + brutale. Après s'ensuit un nouveau calme, temporaire, à l'issue duquel + le cycle recommence.
+« Les guerres sont un phénomène barbare, profondément immoral, + réactionnaire et contraire aux intérêts du peuple » - Déclaration + devant le tribunal de Francfort, février 1914.+
Ils ont cherché des moyens nouveaux moyens de résolution non-violente des + conflits, s'appuyant notamment sur la polémologie et la signature et + ratification de traités de paix et de conventions internationales. Mais ces + outils restent fragiles.
+Les principes du développement durable visent par un partage des ressources, + en amont et plus solidairement, à atténuer les tensions entre groupes. Ils + dépendent cependant du bon vouloir et des possibilités qu'ont les pouvoirs + et les habitants à les appliquer.
+La convention de La Haye interdit l'incorporation dans les armées de la + population d'un territoire occupé. Le pouvoir nazi a donc fait usage + d'une ruse : à partir du 25 août 1942, il a conféré la citoyenneté + allemande à un nombre croissant de Français d'Alsace et de Moselle à + commencer par les hommes (les Malgré-nous).
+Le philosophe Hugo Grotius s'est penché sur le sujet de la guerre juste et a + publié le livre De jure belli ac pacis (Le droit de la guerre et de la paix) + qui explique que pour qu'une guerre soit juste, elle doit être en accord + avec les conditions suivantes:
+Contenu soumis à la GFDL
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Le terme hippie dont baba cool est, plus tard, devenu un synonyme, désigne les femmes et les hommes qui, entre les années 1965 et 1975, ont globalement rejeté le mode de vie traditionnel de leurs parents. Les hippies font partie d'un mouvement de contre-culture caractéristique de cette décennie qui s'est poursuivi de manière moins radicale plus tard. Apparu au sein de la génération nombreuse du baby-boom de l'après-guerre, ce mouvement eut un impact d'autant plus grand sur des sociétés occidentales auparavant vieillissantes.
+Le terme hippie trouverait son origine dans un vocable africain, hip, que certains pensent être un terme wolof (hipi signifiant « ouvrir ses yeux »), repris dans le mot hipster désignant les amateurs de bebop des années 1940.
+Une autre origine du terme parfois donnée est une dérivation de l'acronyme H.I.P., désignant un quartier de San Francisco, le Haight-Ashbury Independant Property, occupé par les hippies.
+L'acronyme serait également un jeu de mot avec hype signifiant « décontracté, branché, dans le coup ». Comme le hipster, le hippie devait en effet être « cool ».
+Cependant, les hippies n'utilisaient pas ce terme pour se désigner eux-mêmes, ils se disaient plutôt freaks ou heads voire acid heads (les monstres ou les têtes).
+La première occurrence du mot dans les médias semble être trouvée dans un numéro du Time de novembre 1964 évoquant l'usage de drogue d'un jeune homme de 20 ans qui avait fait scandale.
+Même si le phénomène hippie naît véritablement aux États-Unis au début des années 1960, on en trouve les prémices au moins dès le xixe siècle.
+Le mouvement hippie est considéré par l'historien de l'anarchisme Ronald Creagh comme la dernière résurgence spectaculaire du socialisme utopique, qui se caractérise par une volonté de transformation de la société non pas par une révolution politique, ni sur une action réformiste impulsée par l'État, mais sur la création d'une contre-société socialiste au sein même du système, en mettant en place des communautés idéales plus ou moins libertaires. Cette filiation est revendiquée par certains d'entre eux, comme par exemple les Diggers de San-Francisco dont le nom est une référence à un collectif de squatteurs du xviie siècle.
+Selon Patrick Rambaud, l'un des piliers d'Actuel, acteur et observateur du mouvement soixante-huitard français « Les communautés ne sont pas nées dans les années 1960 aux États-Unis en France et en 70 en France. Ça existait au xixe siècle avec Fourier, Cabet qui part en Floride fonder l'Icarie, et même les pirates du xvie siècle ! » 7. Les liens sont parfois même structurels entre communautés socialistes utopiques et hippies à l'exemple de Joan Baez, qui aurait été élevée dans la Ferrer Colony de Stelton (New Jersey).
+En Allemagne également dès 1896, la Lebensreform inspirée du paganisme ancien, avec les wandervogel et les naturmensch, précédait les hippies de plusieurs décennies. Adolf Just ouvrit son premier centre en 1896 dans les montagnes du Harz et publia son livre best-seller «Retour à la nature », qui devint le modèle des « enfants de la nature » la même année. Les images de l'époque, si elles n'étaient pas en noir et blanc, pourraient donner l'impression d'avoir été prises dans une communauté hippies des années 1960 aux États-Unis. Un immigrant allemand, Bill Pester, s'installa en 1906 à Palm Canyon en Californie dans une hutte pour vivre un mode de vie en tout point identique à celui qui allait surgir au sein de la société américaine soixante ans plus tard. Un autre allemand, Maximillian Sikinger, s'installa à Santa Monica Mountains à partir de 1935 pour inspirer les américains à devenir des « Nature Boys » (naturmensch) et fut très actif au sein du mouvement hippie des années 1960.
+Les précurseurs directs dans les années 1950 sont les beatniks, dont les figures emblématiques telles que William Burroughs, Allen Ginsberg et Jack Kerouac furent des références pour le mouvement hippie. Ils veulent vivre une évasion hors de l'Amérique post-nucléaire et consommatrice bien-pensante, notamment sous l'influence du jazz et du mouvement surréaliste dont les membres ont trouvé refuge à New York pendant la guerre. Ils mènent une vie libérée, faite de sexe, de musique et de déplacements constants : Sur la route était un livre emblématique de cette quête, il le restera pour les hippies, bien que Kerouac se désintéressa du mouvement. Allen Ginsberg par contre en resta proche, et inspira entre autres Bob Dylan.
+Aux États-Unis, les débuts du mouvement se situent autour des années 60 dans un contexte de contestation et de refus de l'ordre établi (les surf bohemians, sans constituer un mouvement véritable, ont déjà toutes les caractéristiques des hippies dès le début des années 1950) ; les manifestations contre la guerre du Viêt Nam et les émeutes des Noirs dans les grandes villes américaines fédèrent une partie de la jeunesse. Mais cette génération, née juste après la Seconde Guerre mondiale, refuse aussi le conformisme, la soumission au pouvoir et aux canons de l'art. Elle cherche à fuir la société de consommation en mettant en avant des valeurs écologistes et égalitaires inspirées des philosophies orientales et primitives.
+Beaucoup des aspirations hippies sont héritées des écrivains de la Beat generation, également considérés comme précurseurs du mouvement car eux aussi exprimaient une rupture avec la société de masse. A l'idéal d'une vie centré sur la liberté, le sexe et la musique, les hippies ajoutent le psychédélisme et sa recherche de nouvelles perceptions par l'usage de drogues.
+Timothy Leary prône la révolution psychédélique par le LSD - à cette époque encore légal - et en 1964 Ken Kesey fonde les Merry Pranksters avec qui il sillonne les États-Unis dans un bus décoré par leurs soins afin d'organiser des acid tests.
+La médiatisation des Merry Pranksters entraîne la naissance de communautés psychédéliques comme Haight-Ashbury à San Francisco ou l'East Village à New York.
+À partir de 1965, de nombreux hippies commencent à s'installer à San Francisco, dans le quartier de Haight-Ashbury. Les diggers assurent l'intendance, en pratiquant entre autres la récupération des surplus de la ville, et distribuant gratuitement nourriture, soins et LSD. L'essor des communautés hippies inquiète les autorités. La Californie interdit l'usage du LSD le 6 octobre 1966, rapidement suivie par le reste du pays. L'image populaire du LSD change et devient celle d'un produit dangereux.
+En 1967, de grands rassemblements ont lieu à Haight-Ashbury. D'abord, en janvier, le happening géant du Human Be-In rassembla des centaines de personnes venues lire de la poésie, être ensemble et écouter de la musique. Au coucher du soleil, la foule se dirige vers la plage pour y passer la soirée. Ce soir là, la police profite de l'absence des habitants de Haight-Ashbury, pour arrêter cinquante personnes, ce qui occasionna une période de traque aux dealers de drogues douces.
+Des étudiants des colleges et high schools commencèrent à arriver à Haight-Ashbury durant leurs vacances de printemps 1967. Les dirigeants de la municipalité étaient déterminés à arrêter l'afflux de jeunes gens que leurs écoles avaient laissé libres pour l'été, et, malgré eux, attirèrent davantage l'attention sur l'événement. Une série d'articles d'actualité dans les journaux locaux alerta les médias nationaux sur le mouvement hippie grandissant. Certains membres de la communauté de Haight y répondirent en formant le Council of the Summer of Love, donnant à un mouvement créé par le bouche-à-oreille un nom officiel. Durant l'été, pas moins de 100 000 jeunes originaires du monde entier ont convergé dans le quartier d'Haight-Ashbury, à San Francisco, à Berkeley, et dans d'autres villes de la région de San Francisco, pour se joindre à une version populaire de l'expérience hippie. L'évènement de l'été est le festival international de musique pop de Monterey qui rassemble 200 000 personnes et où Jimmy Hendrix et The Who jouent pour la première fois.
+Haight-Ashbury est alors victime de son succès : tandis que des hippies, de plus en plus jeunes, continuent d'affluer, les drogues dures y font leur apparition et les descentes de police se multiplient. Les hippies estimaient alors leur nombre à 300 000 dans tout le pays.
+En 1968, alors qu'aux États-Unis sous l'influence d'activistes comme Jerry Rubin et Abbie Hoffman une partie du mouvement hippie se radicalise et parle de révolution, c'est en Europe qu'elle se concrétise en actions.
+À cette époque, le mouvement hippie est encore peu présent en Europe continentale, où il arrive par l'influence de sa musique. En France, les relais du courant hippie au début des années 1960 étaient le magazine Rock & Folk ainsi que le Pop Club sur France Inter avec Patrice Blanc-Francard. Le magazine Actuel, la référence du mouvement en France, ne sera créé qu'en 1970.
+Cependant en France, aux Pays-Bas, comme dans de nombreux pays, les années 60 virent également fleurir la contestation de l'ordre établi. Dès 1965, aux Pays-Bas, les provos d'Amsterdam prônaient la circulation en vélo. Ce mouvement de gauche invitait chacun à peindre son vélo en blanc et à le laisser à la libre disposition des habitants, ou organise des manifestations lors du mariage de la reine Beatrix avec Claus von Amsberg, ancien membre des Jeunesses hitlériennes. Souvent jugés plus provocateurs, plus politisés et militants que les hippies, ils sont parfois crédités des changements survenus à cette époque en Europe.
+Pour Dany Cohn-Bendit, « sans les provos et l'exemple qu'ils ont donné aux jeunes des autres pays, l'Europe d'aujourd'hui ne serait pas ce qu'elle est devenue. »22.
+Les paroles d'un jeune hippie français de ces années-là ne sont pas différentes de celles d'outre-atlantique :
+« Ainsi vont les choses dans nos sociétés dites de consommation : passée l'adolescence, âge irrécupérable mais dont on sait qu'il n'a qu'un temps, une certaine image de vous-même vous attend, tirée d'ailleurs à plusieurs millions d'exemplaires ; elle vous guette d'autant plus tôt que votre famille ne dispose pas des ressources financières qui, quelques années encore, vous garantiraient le droit à l'irresponsabilité. Gare à vous si vous ne marchez pas ensuite. On vous culpabilisera d'abord ; quelques bonnes lois feront le reste. » - Pourquoi n'êtes-vous pas hippie?, de Bernard Plossu, p. 8+
Le mouvement est plus politisé qu'aux États-Unis, mais, même si des hippies furent bien présents dans l'agitation de la Sorbonne, les évènements de mai 1968 en France sont issus de frustrations plus vastes.
+En août 1969 eut lieu le festival de Woodstock, un festival de musique et un rassemblement emblématique de la culture hippie. Il eut lieu à Bethel sur les terres du fermier Max Yasgur aux États-Unis, à une soixantaine de kilomètres de Woodstock dans l'État de New York.
+Organisé pour se dérouler du 15 au 17 août 1969, et accueillir 50 000 spectateurs, il en accueillit finalement plus de 450 000, et se poursuivit un jour de plus, soit jusqu'au 18 août 1969 au matin.
+Le festival accueillit les concerts de 32 groupes et solistes de musiques folk, rock, soul et blues. C'est un des plus grands moments de l'histoire de la musique populaire et a été classé parmi les « 50 Moments qui ont changé l'histoire du Rock and Roll 23. »
+Contrairement aux États-Unis et l'Angleterre, les grands festivals rocks n'ont pas eu en France le même caractère rassembleur. En 1967, le premier spectacle psychédélique à Paris, « la fenêtre rose », n'attire encore que peu de monde. Le premier festival, refusé par plusieurs municipalités françaises, aura finalement lieu à Amougies, en Belgique, fin 1969. En 1971, un festival gratuit est organisé à Auvers-sur-Oise, mais s'il ressemble bien à celui de Woodstock à cause de la pluie et de la boue, il est finalement annulé dans la nuit à cause de divers problèmes techniques alors que 20 000 personnes sont rassemblées. Seul le festival de l'île de Wight eut une ampleur comparable.
+À partir de 1968, les jeunes européens prennent également la route, d'abord vers Ibiza, et vers Amsterdam qui devient la capitale européenne des hippies. C'est là que Yoko Ono et John Lennon organisent en 1969 le premier « Bed-in for Peace ».
+Le Larzac, autre lieu de prédilection du mouvement, rassembla 60 000 personnes en août 1973 dont une grande proportion de hippies pour une manifestation intitulée « ouvriers et paysans, même combat ».
+Jack Weinberg, leader du « Free Speech Movement » dans les années 1960, était l'auteur de la célèbre phrase « Ne faites pas confiance à quelqu'un de plus de trente ans » qui traduisait sans équivoque la volonté de se distinguer de la génération précédente.
+Les hippies n'avaient pas le désir de contrôler la société, contrairement aux rébellions des générations précédentes, comme les wobblies ou les activistes de la nouvelle gauche. Bien que très critiques, ils ne proposaient pas d'alternative à la société, le mot d'ordre était plutôt « faites ce que vous voulez faire et ne vous préoccupez pas de ce que les autres en pensent » (« do your own thing and never mind what everyone else thinks »).
+Selon Chuck Hollander, expert en drogues pour la National Student Association au début des années 1960
+« S'il existait un code hippie, on pourrait le présenter ainsi : faites ce que vous avez envie de faire, où vous le voulez et quand vous le voulez. Lâchez la société que vous avez connue. Explosez l'esprit de toutes les personnes rigides que vous rencontrez, branchez-les, sinon par la drogue, au moins par la beauté, l'amour, l'honnêteté et la rigolade »+
De manière générale, les hippies contestaient le matérialisme et le consumérisme des sociétés industrielles, et tout ce qui y était lié. Ils rejetaient en particulier les valeurs associées au travail et à la réussite professionnelle, ainsi que le primat des biens technologiques au détriment des biens naturels. Ils aspiraient à une sorte de fraternité universelle pour laquelle ils espéraient trouver idées et techniques dans des sociétés traditionnelles. Ce complexe idéologique, essentiellement constitué en une praxis, n'a pas réellement été théorisé ; jamais non plus il n'a fait l'objet d'une homogénéité pratique parmi celles et ceux qui se reconnaissaient pourtant comme hippies.
+Les hippies remettaient en cause l'idée d'autorité, d'abord l'autorité parentale, et tout ce qui en découlait : toute domination de l'un sur l'autre. Cherchant à établir d'autres rapports avec leurs propres enfants, les hippies adoptèrent les pédagogies anti-autoritaires; dans les communautés naquirent des « écoles sauvages » ou « écoles parallèles », et le livre Libres enfants de Summerhill traduit en français en 1971 fut un succès pendant toute la décennie.
+Ils refusaient aussi les frontières et la violence en général; le mot « pigs » (porcs) était régulièrement utilisé à l'encontre des forces de l'ordre.
+Les Yippies sont des représentants notoires de cette prise de position. Un de leurs fondateurs, Jerry Rubin, initiateur des manifestations contre la guerre du Vietnam, fut arrêté et condamné pour conspiration et incitation à l'émeute, il écrivit en particulier Do it! scénarios de la révolution. Perçus comme des « hippies avec des fusils », ils étaient aux États-Unis la frange la plus radicale du mouvement.
+Peace and love, « paix et amour », est l'expression du pacifisme hippie des années 1960. Un autre slogan, issu de la guerre du Viêt Nam, Make Love, not War, « faites l'amour, pas la guerre » a été repris par le courant hippie pour les mêmes raisons ; l'expression apparaît en 1974 dans la chanson Mind Games de John Lennon.
+Flower Power, « le pouvoir des fleurs », est une autre expression pacifique qui trouve son origine dans le Summer of Love de 1967 à San Francisco. Consigne était alors donnée de « porter des fleurs dans les cheveux », comme l'illustre la chanson de Scott McKenzie San Francisco (Be Sure to Wear Flowers in Your Hair). Les hippies furent dès lors communément appelés flower children, « enfants-fleurs ». L'ensemble de ces expressions cherchaient à traduire une opposition à la guerre et à la violence en général, sans pour autant que les revendications soient toujours plus élaborées ou véritablement théorisées.
+Après les premières manifestions pacifiques contre la pollution en 1968 à San Francisco, et leur répression, de nombreux hippies rejoignirent des communautés rurales, et ce retour à la terre amène l'idée d'un plus grand respect de la planète incluant produits bios, utilisation d'énergies renouvelables et recyclage.
+Selon Timothy Leary également, les hippies sont à l'origine du mouvement écologique dans le monde. L'hypothèse Gaïa a été en effet formulée par James Lovelock à cette période où les premières craintes pour l'environnement commençaient à s'exprimer.
+La liberté sexuelle fait partie intégrante de l'idéologie hippie. Elle prône la légalisation de la pilule contraceptive et le droit universel à l'avortement, ce qui va à l'encontre, aux Etats-Unis, de l'idéologie conservatrice américaine des autorités religieuses en majorité chrétiennes. Les hippies vivent alors en communauté et ont des pratiques sexuelles diverses s'inspirant parfois du Kama sutra. Le mot d'ordre était « Free Love » (voir amour libre). Un rassemblement de 100 000 personnes à San Francisco en 1967 s'est appelé le « Summer of Love ». Il est généralement considéré que c'est au retour de ce rassemblement que les valeurs et le mode de vie du mouvement hippie ont commencé à vraiment se diffuser.
+Selon Jean-Pierre Bouyxou et Pierre Delannoy, « les communautés sont l'expression par excellence du movement : son infrastructure, l'ancrage social sans lequel il aurait vite été réduit à une simple mode aussi extravagante qu'éphémère. Les communautés sont sa signature au bas de l'histoire du XXe siècle. ». Elles se comptait par milliers aux États-Unis vers 1969, au point que dans les Rocheuses les hippies furent près d'élire un des leurs comme shérif. En France, on en dénombrait environ 500 au début des années 1970.
+Il n'y eut pas d'unité d'organisation entre ces communautés; les unes étaient des communautés urbaines, d'autres tentèrent de vivre d'agriculture et d'élevage et certaines n'étaient que des lieux de passage. Confrontées aux problèmes de subsistance, et aux difficultés de la vie en commun en réinventant de nouvelles relations, la plupart eurent une durée d'existence assez brève.
+La plus vaste expérience européenne fut celle de la commune libre de Christiania (Danemark), Copenhague; créée en septembre 1971, elle existe encore en 2009. Au début du xxie siècle, il existait encore une quarantaine de communautés hippies en Allemagne. En France, il n'en resterait qu'une à Charleval en Normandie.
+Les hippies recherchèrent un sens à la vie dans des spiritualités qu'ils jugeaient plus authentiques que les pratiques religieuses dont ils avaient hérité, s'aidant parfois de substances psychotropes. Le livre Les Portes de la perception (The Doors of Perception) d'Aldous Huxley (1954) fut une inspiration pour beaucoup (il a, entre autres, inspiré le nom du groupe The Doors).
+« Aujourd'hui, après deux guerres mondiales et trois révolutions majeures, nous savons qu'il n'y a pas de corrélation nécessaire entre la technologie plus avancée et la morale plus avancée. » - Aldous Huxley, Les Portes de la perception+
Selon certains témoins de l'époque, c'est au moment du Summer of Love de 1967 que furent fondés les prémices du New Age. Les hippies avaient commencé à explorer les traditions orientales, le bouddhisme, l'hindouisme et le taoisme et certains ouvrages populaires tentaient d'en faire une analyse syncrétique « libre », une manière d'aborder la spiritualité qui allait devenir la marque du New Age.
+Les hippies trouvaient leur inspiration spirituelle chez des personnalités comme Gautama Bouddha qui, incarnant la négation du monde matérialiste en tant que seule voie possible d'atteindre le bonheur permanent, avait tourné le dos au roi, son père, et voyageait comme un mendiant, François d'Assise, qui abandonna également une famille riche pour vivre dans la pauvreté et dans la nature, et bien sûr le Christ (« a groovy cat » selon l'expression consacrée), ainsi que Gandhi, Aldous Huxley et Tolkien.
+Élève d'Alan Watts, introducteur de la pensée orientale à San Francisco, Gary Snyder, rejoint par Jack Kerouac puis plus tard par Allen Ginsberg, également vont populariser la pratique de la méditation, et plus généralement du Tao et du Bouddhisme Zen.
+Le LSD (ou « acide ») fut découvert en 1943 par Albert Hofmann dans le laboratoire suisse Sandoz mais sera déclaré illégal aux États-Unis le 6 octobre 1966, ainsi que par l'ONU comme stupéfiant dans une convention de 1971. Jusqu'à cette interdiction sur le sol américain, la firme Sandoz met le LSD à disposition des chercheurs sous la forme d'une préparation appelée delysid. Le LSD apparaît d'abord comme prometteur dans le traitement de certaines maladies psychiatriques. Puis, il est popularisé comme étant un traitement dit miraculeux par les médias à partir du milieu des années 1950. Dans les années 1960, il devient un ingrédient du courant hippie.
+L'esthétique psychédélique peut être assimilée aux visions provoquées par le LSD qui provoque, en somme, une déformation de la vision et entraîne dans un état rêveur où réalité et rêve sont confondus. Le psychologue Timothy Leary, le chimiste Augustus Owsley Stanley III et le romancier Ken Kesey ont parmi d'autres encouragé la consommation de LSD. À cette époque, « l'acide » a notamment été distribué gratuitement lors des acid tests des Merry Pranksters. L'écrivain William S. Burroughs est considéré comme l'un des théoriciens de la pratique junkie liée à la mentalité hippie. Dans Junky, il explique en quoi la drogue est une philosophie qui mène à ouvrir les portes de la perception et à découvrir l'« équation de la came ». Le point culminant de l'usage du LSD aux États-Unis fut atteint à l'été 1967, au cours du Summer of Love (« Été de l'amour »), qui vit des milliers de hippies se regrouper à Haight-Ashbury, un quartier de San Francisco. Dans le Golden Gate Park, à proximité de Haight Ashbury, des grandes réunions ou « love-in » (ou « be-in » également) et des concerts gratuits étaient organisés par des groupes comme Grateful Dead, Jefferson Airplane ou Country Joe and the Fish.
+Il est possible de rattacher de nombreux courants artistiques à la consommation de psychotropes, aussi bien en musique (rock psychédélique, acid rock) que dans le dessin et la mode.
+Outre le LSD, le cannabis était aussi massivement consommé par les hippies, en particulier sous sa forme la plus répandue, la Marijuana (qu'ils appelaient maryjane ou thé).
+Pour les hippies, le but de cette consommation de psychotropes est présenté comme une volonté d'ouverture d'esprit et d'abolition des frontières mentales. Une étude des années 1960 de l'Université de Californie du Sud avait dégagé trois tendances dans la communauté hippie de l'époque : Les « groovers » (les fêtards), qui prenaient du LSD pour faire la fête et trouver des partenaires, les « mind trippers » (les touristes de l'esprit), qui portent des vêtements à fleurs et cherchent une thérapie, et les « cosmic conscious » (les mystiques), « planant », dont la consommation de drogue « est par nature eucharistique ».
+« La route des hippies » (Hippie trail) est une expression utilisée pour évoquer les voyages entrepris par cette génération des années 1960, principalement vers l'Europe et l'Asie. Le voyage se faisait fréquemment par bus ou en auto-stop, les étapes obligées étaient Amsterdam, Londres et les destinations Goa (Inde), Katmandou (Népal) mais aussi la Turquie et l'Iran. Un des objectifs déclarés de ces voyages était la « quête de soi » ou « la recherche de Dieu » mais également la recherche de toutes nouvelles expériences. Des ouvrages comme sur la route de Jack Kerouac, ouvrage fondateur de la Beat Generation ont contribué au mythe de « la route »45.
+En partie par rébellion contre les usages, le hippie portait les cheveux longs, pour les hommes comme pour les femmes. Ces dernières les portant généralement défaits, sans aucun apprêt. La liberté du corps (Body freedom) est complémentaire à la liberté de l'esprit qu'il préconise. Les relations sexuelles libérées, le naturisme sont des valeurs qui sont mises en avant dans son mode de vie.
+Les vêtements, aux couleurs vives, se voulaient choquants pour une époque où les tenues étaient assez uniformisées et sombres. Leurs pantalons étaient à « pattes d'éléphants », style lancé par les hippies californiens et l'influence de l'Orient leur avait donné le goût des sandales, des tuniques indiennes avec des motifs très fleuris et colorés, des gilets afghans et du patchouli. Ils portaient de petites lunettes rondes, des bandeaux dans les cheveux, des colliers et des bracelets de perles. Ils pouvaient tout aussi bien être nus quand la situation le permettait. Le blue-jeans est également un vêtement emblématique de la génération hippie, il est souvent porté peint, brodé, cousu, couvert de coquillages, de strass, de bijoux, de fleurs, et toujours avec les pattes d'éléphant. À la fin des années 70, de nombreux aspects vestimentaires hippies seront récupérés par la mode disco, adaptés sous une forme plus urbaine. Par la suite, le port du pantalon en jeans est probablement le seul attribut vestimentaire hippie à avoir résisté au temps et aux diverses modes qui se sont succédé, puisqu'il est toujours resté très présent depuis 40 ans.
+La musique est un élément capital et fédérateur des hippies. Le phénomène hippie sécrète une esthétique complète, musicale d'abord (Grateful Dead, Jimi Hendrix, The Doors, Pink Floyd, Crosby, Stills & Nash (and Young), Jefferson Airplane, Gong...) avec les premiers festivals, Monterey en 1967, Woodstock en 1969, l'Île de Wight en 1970, qui rassemblent des centaines de milliers de spectateurs ; mais aussi picturale, théâtrale, etc. Une nouvelle génération de chanteurs apparaît, dont Bob Dylan, représentant un nouveau genre musical : la protest song.
+Les hippies apprécient la country, folk (Bob Dylan) ou le rock psychédélique (Janis Joplin), mais ils trouvent aussi leur inspiration beaucoup plus loin avec notamment Ravi Shankar, joueur de sitar indien qui participa au festival de Monterey. Ces sélections musicales représentent bien le mouvement par une volonté d'ouverture aux différentes cultures et d'affranchissement des règles en vigueur.
+La révolte contre l'ordre établi eut des conséquences sur le mouvement hippie. Outre les poursuites pour usages ou possessions de drogues, des condamnations pour outrage aux moeurs répondirent à leurs provocations en ce domaine. Les communautés connurent diverses tracasseries, qu'elles soient ou non des squats.
+La « société de consommation » tant décriée des hippies s'accommoda par contre fort bien de ce mouvement qu'elle ne voulut voir que comme un effet de mode. Les productions décrivant les hippies furent des succès commerciaux, comme la comédie musicale Hair ou, pour les livres, L'antivoyage de Muriel Cerf. Le film du festival de Woodstock fut présenté à Cannes, et les idoles pop connurent la gloire à Hollywood.
+Après avoir moqué les « Cheveux longs, idées courtes » Johnny Halliday lui même s'afficha un temps en look hippie pour chanter Jésus Christ est un hippie.
+ +Le concert gratuit des Rolling Stones à Altamont en décembre 1969, qui se voulait un second Woodstock, rassembla 300 000 personnes à l'est de San Francisco. Mais plusieurs décès lors de cet événement, dont celui de Meredith Hunter, un jeune homme de 18 ans qui fut poignardé par un membre du service d'ordre constitué de Hell's Angels (car il avait pointé un revolver en direction de Mick Jagger), ainsi que l'adoption du style hippie par des personnalités comme Charles Manson et sa famille, condamnés pour meurtres (dont celui de Sharon Tate) dans la région de Los Angeles, portèrent un coup fatal au Peace and Love du mouvement. L'Amérique choquée et une bonne partie des hippies eux-mêmes commencèrent à prendre des distances sans pour autant que le mouvement disparaisse tout à fait.
+Le passage aux « drogues dures » et la mort de Jimi Hendrix, de Jim Morrison et de Janis Joplin, entre autres, à la suite d'abus d'alcool, de médicaments ou par overdose contribua grandement à l'impression de chute. Neil Young écrivit The Needle and the Damage Done (« l'aiguille et les dommages causés ») pour évoquer tardivement le problème.
+Avec la fin de la guerre du Vietnam, les médias perdirent leur intérêt pour les hippies. Avec l'arrivée du heavy metal, du disco et du punk, les hippies commencèrent même à apparaître ridicules.
+La plupart des hippies finirent par abandonner leur envie de régénérer le « vieux monde » et se rangèrent dès la fin des années 1970 et le courant des années 1980. La trentaine venue, ils trouvent du travail, fondent une famille et s'intégrent dans la société de consommation qu'ils dénonçaient auparavant. Une étude américaine estimait que 40% des hippies californiens s'étaient rangés, moins de 30% restant « en marge ». Jerry Rubin, devenu un des premiers actionnaires d'Apple, déclarait en 1985 : « Non, je ne lutte plus contre l'État. Ce n'est plus la peine, ce n'est plus le bon combat .../... La meilleure, la seule façon aujourd'hui de combattre l'État, c'est de le remplacer. Et nous sommes assez nombreux pour le faire. »22.
+Dans les arts, la musique et le pop-art marquèrent les esprits. Le slogan Flower Power (« pouvoir des fleurs ») était le symbole de la non-violence. La génération hippie a révolutionné la musique, l'art et a ouvert la voie à l'écologie, à l'action humanitaire, au pacifisme, à la libération sexuelle, au féminisme, entre autres, lesquels sont autant de symboles d'une révolution de la culture et des moeurs, aujourd'hui complètement intégrés dans les sociétés occidentales, sans que celles-ci aient forcément conscience de leurs origines hippies. Au début des années 1990, la rencontre entre les derniers hippies de Goa et les disc-jokey internationaux, fans de musiques électroniques et issus, en partie, de la vague Acid house, a donné naissance à la Trance-Goa ou trance psychédélique (psytrance), régulièrement jouée depuis en rave party.
+Les hippies sont à l'origine de divers changements dans les moeurs occidentales, le principal concernant la sexualité. En plus de la liberté exprimée dans les relations amoureuses, les premiers sex-shop vendant divers jouets sexuels (Good Vibrations à San Francisco était le premier) et la diffusion des films pornographiques et leurs projections en salle de cinéma sont apparues au sein de la communauté hippie. Ils allèrent jusqu'à demander la légalisation de la prostitution à une époque où la masturbation était publiquement condamnée et où personne n'aurait jamais ouvertement fait la promotion du plaisir. L'amour n'est plus honteux, et l'homosexualité n'est plus un tabou; c'est à cette époque que la première Gay Pride à lieu à New York, et San Francisco demeurera la capitale des deux tendances.
+Le « mouvement hippie », bien que peu structuré, portait en lui les germes d'un renouvellement inventif de la culture et du mode de vie des années d'après-guerre qui, par la réussite même de ses buts matérialistes, arrivait à un essoufflement particulièrement perceptible par la jeunesse. Dans différents domaines, des idées nouvelles perçaient : l'autogestion, l'écologie et le rejet des religions traditionnelles.
+Il est difficile de déterminer précisément quelle influence peut être exclusivement attribuée aux hippies, mais ils sont, entre autres, crédités de divers apports, dont l'« auto-stop », une mode vestimentaire encore en vogue au xxie siècle, les communautés écologiques et leurs propositions, la promotion d'un usage « récréatif » de drogues, les coopératives etc.
+La révolution hippie s'est rapidement éteinte malgré le choc salutaire qu'elle apporta à la société de l'époque. Selon certaines analyses, elle a souffert principalement du manque de discernement dans l'attaque des institutions qui étaient toutes mises dans le même panier. En se coupant de possibles ressources, à cause de ce qui pouvait être perçu comme de la paranoïa, elle ne pouvait que disparaître. La prédominance des drogues dans la culture et les communautés hippies ainsi que les décès qui en ont résulté ont terni l'idéal des premiers temps. L'explosion de liberté s'est faite au détriment d'un projet structuré dont l'absence a fini par provoquer la dissolution du mouvement.
+Le sénateur de New-York, Robert Kennedy, présentait en 1967 la revendication hippie de cette manière : « Ils veulent être reconnus comme des individus dans une société où l'individu joue un rôle de moins en moins important. Voilà une combinaison difficile ». Cet individualisme est pourtant passé dans les moeurs et l'arrivée du néo libéralisme aurait pour certains récupéré, en les dénaturant, les valeurs hippies.
+Contenu soumis à la GFDL
exploitable et diffusable pour la communauté scientifique
ne peut être utilisé à des fins commerciales
ANNODIS
projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
objectif : création d'un corpus de français écrit annoté discursivement
encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
http://www.tei-c.org/release/doc/tei-p5-doc
Pour Fernand Braudel (la Dynamique du capitalisme, 1985), le capitalisme est une « civilisation » aux racines anciennes, ayant déjà connu des heures prestigieuses, telles celles des grandes cités-États marchandes : Venise, Anvers, Gênes, Amsterdam, etc. mais donc les activités restent minoritaires jusqu'au XVIIIe siècle. Werner Sombart (Le capitalisme moderne, 1902) date quant à lui l'émergence de la civilisation bourgeoise et de l'esprit d'entreprise du XIVe siècle, à Florence.
+Comme le montre Braudel, on trouve dès le Moyen Âge des premières manifestations du capitalisme commercial en Italie et aux Pays-Bas. Le commerce maritime avec l'Orient, suite aux croisades, a enrichi les cités italiennes, tandis que les Pays-Bas, à l'embouchure du Rhin, font le lien entre l'Italie et l'Europe du Nord dominée par la ligue hanséatique. Dans les grandes cités, les marchands de draps et de soieries adoptent des méthodes de gestion capitalistes. Ils effectuent des ventes en gros, établissent des comptoirs et vendent leurs produits dans l'ensemble des grandes foires européennes. Ils se fournissent en matières premières aussi bien en Europe qu'au Levant. Dans cette époque troublée du Moyen Âge, ils règlent leurs paiements par lettres de changes, moins dangereuses que le transport de métaux précieux. C'est donc logiquement que se développent, en parallèle du capitalisme commercial, les premières activités bancaires du capitalisme financier : dépôts, prêts sur gage, lettre de change, assurance pour les navires.
+Ces capitalistes s'enrichissent si bien qu'ils étendent leur emprise économique sur l'ensemble de l'Occident chrétien, créant ainsi ce que Braudel appelle une « économie-monde ». Dans son analyse, Braudel distingue l'« économie de marché » du capitalisme, ce dernier constituant une sorte de « contre-marché ». Selon lui, l'économie de marché (c'est à dire l'économie locale à cette époque) est dominée par les règles et les échanges loyaux, parce que soumise à la concurrence et à une relative transparence, le capitalisme tente de la fuir dans le commerce lointain afin de s'affranchir des règles et de développer des échanges inégaux comme nouvelles sources d'enrichissement.
+On peut remarquer que dès l'Antiquité, des systèmes identiques avaient étés mis en place par les Phéniciens, les Grecs, les Carthaginois, les Romains. Ces systèmes étaient toutefois davantage marqués par l'impérialisme et l'esclavagisme que par le capitalisme. À travers le monde, d'autres formes de capitalisme commercial se développent de manière précoce à l'époque féodale (sous la dynastie Ming en Chine par exemple).
+Dans les grandes villes spécialisées d'Europe, l'artisanat, tourné essentiellement vers l'exportation, est dominé par les grands négociants et drapiers, si bien que les rapports économiques entre artisans et marchands s'apparentent à du salariat. Les négociants contrôlent à la fois l'apport de matières premières en amont et la vente des produits finis en aval.
+La population urbaine se différencie déjà en plusieurs classes économiques distinctes, riches pour certaines, pauvres pour d'autres. La ville de Florence en est le parfait exemple : on y trouve très tôt des banquiers qui développent des succursales à travers l'Europe et asservissent l'industrie à leur recherche du profit. Parmi eux de grandes familles, telle celle des Médicis, créent les premiers rapports « privilégiés » entre le monde des affaires et le monde politique
+Selon Fernand Braudel, l'apparition des premières bourses remonte au XIVe siècle dans ces cités italiennes où le commerce est permanent (contrairement aux foires médiévales se déroulant sur des périodes restreintes) et où se concentrent l'essentiel des activités financières.
+C'est toutefois la création en 1409 de la bourse de Bruges, un hôtel dédié à l'échange de marchandises, lettres de change et effets de commerce, qui marque un tournant dans le développement des activités financières. La place s'impose rapidement grâce à l'ouverture de son port, à la renommée de ses foires commerciales et au climat de tolérance et de liberté dont profitent marchands et investisseurs de toutes origines. Ce sont ces mêmes atouts qui permettront ensuite à la place d'Anvers (créée en 1460) de se développer au début de la Renaissance. On pouvait lire à son fronton : Ad usum mercatorum cujusque gentis ac linguae (« À l'usage des marchands de tous les pays et de toutes les langues »).
+Max Weber (dans l'Éthique protestante et l'esprit du capitalisme en 1905) considère que l'émergence du capitalisme moderne date de la Réforme. Sur la base d'un constat sociologique, il lie l'esprit du capitalisme moderne à la mentalité protestante et le voit donc comme le résultat d'une évolution lente issue de la Réforme, et plus généralement de l'évolution religieuse se faisant dans le sens d'un « désenchantement du monde ». On remarque d'ailleurs que des formes sporadiques de capitalisme financier avaient été développées depuis bien longtemps par les Lombards et les juifs, non soumis aux contraintes religieuses du catholicisme. C'est d'ailleurs à ces derniers que Werner Sombart (le Capitalisme moderne) attribuera la genèse du capitalisme moderne.
+Selon Weber, le capitalisme occidental correspond à l'apparition d'un esprit nouveau, d'une révolution culturelle. Weber emploi alors le terme capitalisme moderne « pour caractériser la recherche rationnelle et systématique du profit par l'exercice d'une profession. » Plus que la richesse, dont le désir n'est pas nouveau, c'est l'esprit d'accumulation qui s'impose comme vecteur d'ascension sociale.
+Cette nouvelle éthique se diffuse grâce à l'émergence de nouvelles valeurs : l'épargne, la discipline, la conscience professionnelle. Cette dernière permet par exemple l'apparition d'une élite ouvrière qui, au-delà du salaire, se soucie de la qualité de son oeuvre. Le travail devient une fin en soi. En parallèle émerge un personnage emblématique, l'entrepreneur, qui recherche une réussite professionnelle profitable à la société dans son ensemble.
+Le contexte favorable à cette évolution des valeurs est celui de la Réforme. Pour Max Weber, l'éthique du métier vient du luthéranisme qui encourage chaque croyant à suivre sa vocation, et qui fait de la réussite professionnelle un signe d'élection divine. En effet, les croyants ordinaires, sachant qu'ils n'ont pas la maîtrise de leur salut (logique de la prédestination), tentent ardemment de trouver dans leur vie privée des signes de cette prédestination, telle la réussite professionnelle, afin d'atténuer leur angoisse vis-à-vis de la mort et du jugement qui la suit. Par ailleurs le rapport direct à dieu prôné par la religion protestante accélère le processus de « désenchantement du monde » (en supprimant nombre de pratiques religieuses par exemple), ce qui concourt à l'émergence de la rationalité. Déjà, Karl Marx avait remarqué un processus de démystification en écrivant :
+« La bourgeoisie (...) a noyé les frissons sacrés de l'extase religieuse, de l'enthousiasme chevaleresque, de la sentimentalité à quatre sous dans les eaux glacés du calcul égoïste. »(Manifeste du Parti Communiste, 1848).
+Cette rationalisation permet l'apparition de nouveaux dogmes qui fondent l'esprit du capitalisme :
+« La répugnance au travail est le symptôme de l'absence de grâce. »,« Le temps est précieux, infiniment car chaque heure perdue est soustraite au travail qui concourt à la gloire de Dieu. »(Max Weber, l'Éthique protestante et l'esprit du capitalisme).
+Max Weber illustre ses propos d'un texte de Benjamin Franklin, révélateur selon lui des nouvelles mentalités :
+« Celui qui perd cinq shillings perd non seulement cette somme, mais aussi tout ce qu'il aurait pu gagner en l'utilisant dans les affaires, ce qui constituera une somme d'argent considérable, au fur et à mesure que l'homme jeune prendra de l'âge. »Advice to a young tradesman, 1748
+Les thèses de Weber ont été très critiquées. Le lien entre le dogme de la prédestination et l'esprit du capitalisme est très paradoxal, vu qu'il revient pour un fidèle a rechercher des signes d'élection tandis que le dogme affirme la prédestination comme de toute manière impénétrable. Des historiens infirment quant à eux la concomitance des deux phénomènes (Braudel par exemple, qui date le capitalisme d'une période antérieure à la Réforme).
+D'après Lewis Mumford (Techniques et civilisations, 1950), le système technique de la Renaissance annonce le futur économique du monde occidental.
+Le XVe siècle vit par exemple la mise au point de l'imprimerie à caractères mobiles (la « typographie ») par Gutenberg. Soucieux de préserver autant qu'il se peut les secrets de ses recherches, contraints à des emprunts monétaires importants, il est en quelque sorte l'archétype des futurs capitalistes. Son objectif est de répondre à une demande insatisfaite : la demande de culture des esprits de moins en moins analphabètes de la Renaissance. Au besoin de publications à grande échelle de livres majeurs va rapidement suivre la demande d'une production plus diversifiée. La diffusion de Bibles à usage personnel contribue à l'essor de la Réforme, tandis que celle-ci accroît en retour la demande. En partie permise par les progrès de la métallurgie, la typographie lui fournit en retour des débouchés. Intérêt pour la mécanique, prémices de « standardisation », productions de grandes séries, soucis de la « productivité » et esprit d'innovation? S'il faudra bien attendre des avancées similaires dans l'industrie textile pour connaître le décollage industriel, l'imprimerie montre bien que le terreau du capitalisme est plus ancien. Au sujet de l'imprimerie, Max Weber fait remarquer qu'elle existait depuis bien longtemps en Chine et sûrement en Inde, mais comme de nombreuses techniques, héritées parfois de l'Antiquité (la force de la vapeur était par exemple connue dans l'Égypte antique), elle a dû attendre de pouvoir s'insérer dans un ensemble de techniques cohérentes et complémentaires pour pouvoir s'imposer. Elle ne le fit d'ailleurs pas sans rencontrer d'opposition, notamment de la part des copistes médiévaux.
+Voir l'article Système technique.
+Le nouveau système technique qui se met en place à la Renaissance permet l'émergence de certains principes du capitalisme moderne comme l'amélioration de la productivité, l'économie de main d'oeuvre, l'augmentation de la production en volume et sa diversification ou encore l'investissement. Il s'appuie sur quelques innovations de rupture comme le haut fourneau, l'imprimerie ou le système bielle-manivelle, la montée en puissance des grands secteurs industriels (métallurgie, exploitation minière) et l'utilisation courante d'une source d'énergie (hydraulique). Ce système, qui persistera jusqu'au milieu du XVIIIe siècle, entraînera l'adoption d'un système social correspondant pour être au final le terreau d'un capitalisme naissant et le tombeau du régime féodal qui n'aura pas su s'inscrire dans cette mutation en profondeur.
+À partir du XVIe siècle, la pensée économique n'est plus dominée par les théologiens, mais par des penseurs laïcs qui se soucient en premier lieu de la puissance de l'État : les mercantilistes. Afin d'assurer l'expansion de la richesse du Prince, les valeurs religieuses sont oubliées. Peu importe que l'usure soit un péché ou non, les gouvernants ne se soucient plus que telle ou telle politique commerciale ne soit pas chrétienne : seule compte la Raison d'État. Cette pensée n'est pas celle du capitalisme, vu qu'elle ne se soucie que de l'importance de la puissance de l'État et non du développement de la richesse privée. Toutefois, d'abord parce qu'elle contribue à éliminer les valeurs religieuses, ensuite parce qu'elle peut trouver intérêt au développement des affaires privées, elle prépare les évolutions futures. Souvent la création de monopoles par l'État constituait un compromis entre l'enrichissement des marchands et la mainmise de la puissance publique sur les activités les plus lucratives. Ce fut par exemple le cas des différentes Compagnies des Indes.
+Au XVIIe siècle, la Hollande acquiert d'importants comptoirs en Inde et développe le commerce des épices, du poivre en particulier ; elle s'est établi au Japon et commerce avec la Chine. Elle devient le nouveau centre de l'« économie-monde » selon Braudel. En 1602, elle fonde la première Compagnie des Indes Orientales : c'est la première grande « société par actions ». Ses dividendes s'élevaient souvent à 15, voir 25 %. De 3 100 florins, les actions montèrent à 17 000 florins à la fin du siècle. Elles étaient soumises à d'incessantes spéculations, alimentées par les rumeurs les plus infondées, voire des campagnes de désinformation organisées. La Compagnie émet aussi des obligations. La Compagnie anglaise des Indes orientales prend le relais et le modèle inspire la création de compagnies dans l'industrie métallurgique, textile, papier...
+En parallèle, l'afflux d'or depuis les colonies d'Amérique permet à partir du XVIe siècle une stimulation des échanges, un perfectionnement des méthodes de paiement et des techniques monétaires. Les premières monnaies divisionnaires sont frappées, les monnaies fiduciaires connaissent une importante expansion, les premiers billets apparaissent. Dans le reste du monde, les échanges restent limités par l'usage de « monnaies métalliques dans l'enfance ».
+La Hollande connaît aussi la première bulle spéculative de l'Histoire, c'est la Tulipomanie. Dans les années 1630, le prix des tulipes connaît une forte envolée, l'oignon atteignant parfois le prix d'une maison bourgeoise. Lorsque celui-ci devînt manifestement irrationnel, le premier krach de l'Histoire se produisit.
+Toutefois, l'émergence du capitalisme est plus souvent associée aux prémices de la révolution industrielle, et en particulier au XVIIIe siècle. Les formes de propriété privée des moyens de production et de salariat se développent durant cette période.
+Dans le domaine artisanal, le capitalisme connaît des formes antérieures à l'usine ou à la manufacture. L'agriculture induit des périodes de faible activité (la morte saison surtout) et les manufacturiers des villes s'intéressent rapidement à cette main d'oeuvre régulièrement oisive. Le travail à domicile, ou « domestic system », va se développer. Il permet aux artisans et manufacturiers de sous-traiter une partie de leur production aux familles paysannes. Dans le cadre plus spécifique du « putting-out system », les entrepreneurs fournissent aux travailleurs ruraux (et toujours à domicile) des matières premières, voire des outils, puis viennent récupérer en échange d'un salaire le produit transformé, qui sera parfois achevé dans les ateliers urbains. Ce système a, par exemple, un intérêt majeur dans le cadre de la production textile. Si on ne peut qualifier de telles méthodes de capitalistes, elles sont bien annonciatrices des futurs rapports sociaux entre employeurs et salariés.
+Les innovations des débuts de la révolution industrielle restent accessibles aux petits artisans (cf. image de la « spinning-jenny » ci-contre) et ne requièrent pas encore la concentration du capitalisme industriel. On assiste pourtant à de premières grandes concentrations sporadiques, sans lien avec le machinisme mais liées à des productions particulières, comme par exemple l'impression sur toile. Cette dernière nécessite des terrains étendus afin de blanchir les toiles, des pièces immenses où les sécher. Elle requiert un outillage diversifié et complexe, et entraîne des stocks importants de toiles et de colorants. Enfin, elle nécessite le regroupement d'ouvriers spécialistes dans des tâches distinctes. Finalement, de nombreuses formes de productions, pas encore mécanisées, entraînent les premières grandes concentrations de capitaux et de la main-d'oeuvre.
+La question de l'accessibilité du capital aux plus humbles est essentielle dans l'analyse marxiste. En effet, Marx distingue deux formes différentes de propriété privée : celle du travailleur qui possède les moyens de la production qu'il met en oeuvre et celle de la bourgeoisie qui emploie la force de travail des prolétaires. La première forme historique correspond au développement de l'artisanat et de la petite agriculture, elle permet le développement des qualifications. Puis la seconde forme, liée à l'appropriation des moyens de production (voir l'Enclosure Act par exemple) par la bourgeoisie (ou la noblesse), permet l'apparition de la grande industrie, des grandes propriétés agricoles, du salariat et donc de l'ensemble des mécanismes qui fondent le mode de production capitaliste.
+Dans le domaine agricole, le système féodal perdure longtemps (le servage n'est aboli qu'en 1861 en Russie, ce qui en fait un cas exceptionnel). En 1727, l'Enclosure Act permet aux lords britanniques de s'approprier et de clôturer les champs. Auparavant, la propriété revenait aux communes, et les champs étaient exploités par l'ensemble des paysans locaux qui profitaient ensemble des récoltes. Toutefois les premières vagues d'enclosures sont plus anciennes et datent du XVe siècle. Les bouleversements qu'elles provoquent marquent déjà les esprits de l'époque : Thomas More dénonce déjà dans Utopia (1516) les conséquences sociales des balbutiements du capitalisme naissant et décrit un monde alternatif, un nulle part imaginaire marqué par un style de vie s'apparentant au communisme. Le long processus des enclosures et l'imposition des droits de propriété sur les champs va créer une distinction nette entre le propriétaire et le salarié (les anciens petits exploitants devenant les salariés des landlords). La France connaît dans ce domaine un phénomène différent au début du XIXe siècle : le Code Napoléon, qui disperse les terres entre les héritiers au moment du décès, freine le développement des grandes propriétés du capitalisme agricole.
+En pleine transition démographique, cette appropriation est le fait d'un intérêt nouveau pour le monde agraire de la part des élites britanniques, qui souhaitent développer une agriculture à haut rendement, et donc lucrative, sur le modèle de la Hollande et des Flandres. Cette appropriation entraînera immédiatement une activité et des investissements importants, du fait même de l'installation des clôtures. Sur le modèle des îles britanniques, la propriété privée des terres s'étend à travers l'Europe et les Amériques, non sans rencontrer des oppositions, notamment morales :
+« Le premier qui ayant enclos un terrain s'avisa de dire : ceci est à moi, et trouva des gens assez simples pour le croire, fut le vrai fondateur de la société civile. Que de crimes, de guerres, de meurtres, que de misères et d'horreurs n'eût point épargnés au genre humain celui qui, arrachant les pieux ou comblant le fossé, eût crié à ses semblables : « Gardez-vous d'écouter cet imposteur ; vous êtes perdus si vous oubliez que les fruits sont à tous, et que la terre n'est à personne ! » »Jean-Jacques Rousseau, Discours sur l'origine de l'inégalité, 1755
+La légitimité historique du capitalisme agraire se trouve essentiellement dans son effet direct : la Révolution agricole. Comme l'a montré Max Weber, l'introduction de l'idée de profit individuel a permis l'émergence du rationalisme dans la production, source principale de la productivité :
+« Lorsque les fruits sont à tous et que la terre n'est à personne, la terre ne produit que des bruyères et des forêts. »Jean-Baptiste Say
+Les progrès de l'agriculture capitaliste ont été nécessaires pour alimenter une population dont la croissance exponentielle (elle passe en Grande-Bretagne de 6 à 18 millions entre 1750 et 1850) faisait craindre aux plus pessimistes (Thomas Malthus en particulier) une fin désastreuse.
+Selon Braudel, le capitalisme ne peut s'établir profondément que là où les lois le lui permettent et assurent son épanouissement :
+« Il y a des conditions sociales à la poussée et à la réussite du capitalisme. Celui-ci exige une certaine tranquillité de l'ordre social, ainsi qu'une certaine neutralité, ou faiblesse, ou complaisance de l'État. »La Dynamique du Capitalisme
+La constitution des économies capitalistes telles que nous les connaissons a donc supposé d'importants changements législatifs instaurant la propriété privée du capital et un marché du travail. Pour Karl Marx, ces changements ne sont que la manifestation de la prise de pouvoir au sein de l'État de la bourgeoisie, une des étapes essentielles de la lutte des classes.
+En Grande-Bretagne, le vote de l'Enclosure Act marque l'avènement de la propriété privée du capital, il est suivi au XIXe siècle de la libéralisation de l'actionnariat. En 1825, le Bubble Act, qui limitait la taille des entreprises, est abrogé. En 1856, la création de sociétés anonymes est libérée de toute contrainte. C'est le début de la domination des théories du laissez-faire, souhaitant limiter l'intervention de l'État dans l'économie : idéologie répandue en Grande-Bretagne par les auteurs de l'école classique anglaise .
+En France, suite aux mouvements révolutionnaires de la capitale, les châteaux des campagnes sont assaillis à la fin juillet 1789 par les paysans qui contestent la propriété seigneuriale. Dans la nuit du 4 août 1789, les privilèges de la noblesse sont abolis et la propriété foncière est dès lors ouverte à la bourgeoisie, tandis que la disparition de nombreux impôts d'Ancien Régime permet de (re)lancer l'investissement. Le 26 août, la propriété privée est, « sous les auspices de l'Être suprême », reconnue dans la Déclaration des droits de l'homme et du citoyen comme un droit inaliénable.
+Aux États-Unis, depuis la colonisation, la propriété privée des terres a été la règle. Toutefois, la législation américaine a pu se montrer très favorable envers les moins riches et a su, grâce à l'immensité du territoire, faire de la propriété privée de la terre une notion fondamentale défendue par les plus humbles (non esclaves). Une loi de 1862 accorde en effet la propriété privée de 160 arpents aux pionniers. Le Homestead Act, en offrant un jardin à cultiver aux Européens démunis, stimule les flux migratoires vers les États-Unis.
+En Grande-Bretagne, les économistes classiques de la fin du XVIIIe siècle et du début XIXe siècle vont concentrer leurs critiques sur les lois établies afin de permettre l'émergence de lois favorisant le marché. Héritées du XVIIe siècle, les poor laws britanniques offraient via les paroisses une assistance aux indigents en leur attribuant un travail dans des workhouses, voire leur faisaient la charité de quelques denrées nécessaires à leur survie. Les grands classiques de l'économie (Adam Smith, Thomas Malthus et David Ricardo) s'acharnent contre ce système qui empêcherait la mobilité des travailleurs. En 1834, la quasi-abrogation de ces lois contraint les pauvres à se rendre en ville afin d'éviter la famine, en trouvant par la vente de leur force de travail les ressources nécessaires à leur survie.
+En France, la constitution du marché du travail et la liberté des capitaux est permise en juin 1791 par la Loi Le Chapelier, qui interdit toute liberté d'association : corporations, associations et coalitions (c'est-à-dire syndicats et grèves).
+Aux États-Unis, c'est le 13e amendement de la Constitution qui abolit l'esclavage le 18 décembre 1865, qui conclut la libéralisation du travail dans l'ensemble des secteurs d'activité.
+Alors que la législation favorise la bourgeoisie, la révolution industrielle s'emballe au début du XIXe siècle. Les productions de plus en plus importantes en volume, et les produits de plus en plus complexes, nécessitent des investissements de plus en plus grands. C'est le cas dans l'industrie naissante, mais aussi dans l'agriculture où de grosses machines (les moissonneuses batteuses dès 1834) font leur apparition. L'écart croissant entre le coût de ces machines et les salaires, ainsi que la limitation des biens communs et la dureté du travail, contribuent à segmenter la société en deux groupes bien distincts : les propriétaires du capital, et ceux que Marx appellera plus tard les « prolétaires ». Les usines se développent, les paysans sont emmenés de leurs campagnes pour rejoindre les villes et vendre leur force de travail dans l'industrie.
+En un siècle, le triomphe du capitalisme industriel a transformé une société traditionnelle, rurale et agricole, en une société urbaine et industrielle. L'exode rural, combiné à l'explosion démographique, a dépeuplé les campagnes et les ouvriers sont venus s'entasser dans les banlieues des grandes cités industrielles. Cette concentration humaine, associée à la misère ouvrière et au chômage de masse (l'« armée de réserve » décrite par Marx), contribue à l'émergence de la conscience de classe au sein du prolétariat. Auparavant une misère agricole au moins égale, peut-être souvent pire n'entraînait pas de tels problèmes sociaux du fait de l'absence de concentration. Les paysages sont profondément transformés, les « villes champignons » se multiplient, les grands centres économiques sont rebâtis (Paris par Haussmann), les régions charbonnières sont défigurées...
+Toujours au plan social, le « capitalisme managérial » (Alfred Chandler, la Main visible des managers) émergeant au tournant des deux siècles provoque de nouvelles distinctions entre « propriétaires », « entrepreneurs », « ouvriers » et « gestionnaires ». Dès lors, les profits des propriétaires sont de moins en moins légitimes et s'apparentent à une rente, car il n'est plus seulement question de la rémunération de leur talent d'entrepreneur. Toutefois, les riches familles de rentiers sont dépassées par les entrepreneurs de génie dés la fin du XIXe (Siemens, Edison, Ford? et plus récemment Bill Gates), comme le fut en son temps la noblesse.
+Après la Seconde Guerre mondiale, une période de forte croissance économique, les « Trente Glorieuses » (Jean Fourastié) en France, amène de nombreuses économies du Nord à la société de consommation, tandis que s'impose une classe moyenne et que les niveaux de vie ont tendance à s'uniformiser.
+Le dernier quart du XXe siècle est marqué par l'ouverture croissante des marchés financiers et par le nivellement des niveaux de vie. Les petits actionnaires se multiplient, l'actionnariat salarié se développe, ainsi que les fonds de pensions dans les pays anglo-saxons. Il semble que dans ses dernières évolutions, le capitalisme veuille se montrer comme bénéficiant à un plus grand nombre qu'auparavant. Mais surtout, la fin du XXe siècle est marquée par la chute du système économique alternatif exercé dans les pays du « bloc communiste » (dont certains estiment qu'ils constituaient en vérité une forme étatique du capitalisme) ayant désormais des économies de transition. Le capitalisme est alors dominant sous sa forme libérale, mais des secteurs avec des modes de fonctionnement différents coexistent (économie sociale, économie publique, professions libérales), celles-ci représentent 50 à 60 % du PIB dans les pays développés, ce qui rend relatif le poids de l'économie capitaliste dans ces sociétés.
+Selon Karl Polanyi (La Grande Transformation, Aux origines de notre temps, 1944), l'Occident a connu depuis la fin du XVe siècle, une généralisation des relations de marché. Il note toutefois que la prépondérance de celles-ci sur les relations traditionnelles, basées par exemple sur le don, le servage, le travail collectif ? ne devient effective qu'au XIXe siècle. C'est en effet durant cette période que se met en place en Occident une civilisation dont l'économie repose sur le marché autorégulateur, l'État libéral, l'étalon-or comme système monétaire international, et l'équilibre des puissances depuis la fin des guerres napoléoniennes.
+Pour décrire cette transformation, K. Polanyi reprend l'exemple de l'avènement du marché du travail en Grande-Bretagne. Le système traditionnel encadrait le travail par d'importantes restrictions juridiques. Les corporations imposaient des règles, davantage basées sur la coutume que sur les lois du marché, concernant aussi bien les rapports entre maîtres, compagnons et apprentis, que les conditions de travail ou les salaires. Ces derniers étaient par exemple annuellement évalués par des fonctionnaires.
+Encore en 1795, des juges de Speenhamland, un village de Grande-Bretagne, avaient décidé d'accorder des compléments de salaires, voire un revenu minimum aux indigents. Cette décision inspira la Grande-Bretagne entière et l'instauration d'un marché du travail, basé sur l'idée libérale que seul le travail doit être source de revenu, se heurtait à l'idée charitable que quiconque a un « droit de vivre ». Cet obstacle, critiqué par les classiques de l'économie et certaines philosophes utilitaristes fut finalement levé en 1834 avec la disparition des poor laws (cf. supra).
+Le dogme du marché autorégulé s'impose alors à la Grande-Bretagne (et par la suite au Royaume-Uni), et est complété par de nouvelles mesures qui vont former un système cohérent propice à l'expansion du grand capitalisme. Afin de garantir la régulation du marché, on indexe l'émission monétaire sur l'encaisse-or en 1844. Cette discipline monétaire, adoptée par la plupart des nations dans la seconde moitié du XIXe permet la stabilisation, ou l'autorégulation, des balances des paiements, suivant le principe des points d'entrée et de sortie d'or. Cette rigueur monétaire induit une déflation continue au XIXe qui nécessite une baisse proportionnelle des salaires nominaux (afin de garantir les profits), que seules les dures lois du marché peuvent imposer aux travailleurs. De même, afin de garantir une stabilité du pouvoir d'achat des travailleurs, malgré la baisse des salaires nominaux, le libre-échange s'impose comme moyen d'alimenter la baisse des prix par l'importation de produits étrangers à moindres coûts, d'où l'abolition des corn laws (lois protectionnistes sur le blé) en 1846 (cf infra).
+Le capitalisme reste au XIXe siècle essentiellement familial (à l'exception de quelques grandes sociétés déjà évoquées). Les noms des grandes familles industrielles et financières les plus connues de nos jours évoquent toujours cette période : Rothschild, Schneider, Siemens, Agnelli,? C'est dans une optique familiale que se développe le grand capitalisme : on s'accorde pour éviter la dispersion de l'entreprise entre les héritiers, tandis que les « fusions » de l'époque se font par l'entremise d'alliances matrimoniales.
+Dans la seconde partie du siècle, une nouvelle bourgeoisie s'impose, non celle des propriétaires mais celle des diplômés. En France par exemple, les Grandes Écoles fournissent l'essentiel des nouveaux entrepreneurs (Armand Peugeot, André Citroën, etc.). Mais l'arrivée de ces diplômés à la tête des grandes entreprises ne brise pourtant pas la tradition familiale :
+« Dans un cas de figure repris souvent dans les romans, l'ingénieur brillant pouvait succéder au patron après avoir épousé sa fille. »(Patrick Verley)
+Le développement de la législation sur les sociétés anonymes (libéralisation totale en 1856 au Royaume-Uni, 1867 en France et 1870 en Prusse), permet progressivement à des capitaux anonymes de se joindre à ceux des grandes dynasties industrielles.
+Dans Capitalisme, socialisme et démocratie (1942), Joseph Schumpeter prévoit que ces évolutions juridiques feront à terme disparaître la fonction d'entrepreneur-innovateur et qu'« au romantisme des aventures commerciales d'antan succède[ra] le prosaïsme ». La disparition de l'entrepreneur, entendu au sens du XIXe siècle, mène selon Schumpeter à la disparition de l'initiative capitaliste. L'« évaporation de la substance de la propriété » nuit à la vitalité de l'économie, et de part ses succès mêmes, « l'évolution capitaliste, en substituant un simple paquet d'actions aux murs et aux machines d'une usine, dévitalise la notion de progrès ». Finalement, Joseph Schumpeter craint à l'époque que le capitalisme disparaisse au profit du socialisme.
+Au XXe siècle, les évolutions des productions, la taille des entreprises et la complexité de leur gestion poussent de nombreux économistes à annoncer la fin du pouvoir des propriétaires du capital au profit des « gestionnaires » (managers). John Kenneth Galbraith prévoit que le pouvoir au sein de l'entreprise passe « de façon inévitable et irrévocable, de l'individu au groupe, car le groupe est seul à posséder les informations nécessaires à la décision. Bien que les statuts de la société anonyme placent le pouvoir entre les mains de ses propriétaires, les impératifs de la technologie et de la planification les en dépouillent pour les transmettre à la technostructure. » On assiste à une « révolution managériale » (corporate revolution), où le manager prend le relais de l'entrepreneur. Les équilibres entre les différents caractères du capitalisme en sont subtilement transformés : l'objectif essentiel est désormais moins le profit (qui préoccupait l'entrepreneur propriétaire) et les dividendes (soucis de l'actionnaire) que l'agrandissement de l'entreprise et de sa prospérité, dont dépendent la rémunération et le prestige des managers. L'accumulation du capital devient la nouvelle priorité.
+Les évolutions les plus récentes de l'entreprise traduisent toutefois un retour en force des propriétaires. L'actionnaire redevient la finalité de l'entreprise. Il ne s'agit généralement plus d'un individu, mais souvent de fonds de placement ou de fonds de pensions, ou de banques chargées de faire fructifier l'épargne des déposants, exigeants qu'ils soient petits ou grands. La logique de la « rentabilité financière » reprend l'avantage sur celle de la rentabilité économique. Les plus à même de remplir ces nouveaux objectifs restent les managers qui, bien qu'ayant perdu leur pouvoir d'orientation au profit de ce qu'on appelle désormais la « gouvernance d'entreprise » (corporate governance), obtiennent des salaires toujours plus importants.
+Certains économistes contestent cette nouvelle puissance des actionnaires au sein de l'entreprise. Pour Joseph Stiglitz (Quand le capitalisme perd la tête, 2004) les entreprises sont toujours aux mains des managers et des comptables qui ne fournissent pas aux actionnaires des données réelles sur la santé des entreprises et n'hésitent pas à voler ces derniers via des manoeuvres financières incomprises, en particulier la distribution de stock-option.
+Cette problématique s'illustre dès les débuts de la première révolution industrielle. Les modifications du travail et de son organisation engendrées par l'arrivée de machines entraînent pour les travailleurs une source de chômage, mais surtout de déqualification. Adam Smith (Recherche sur la nature et les causes de la richesse des nations, 1776) reconnaît que le développement du machinisme et la division du travail abrutissent les Hommes et amènent à les considérer comme de simples machines devant réaliser un même geste simple toute la journée. En 1811, les ouvriers du Nottinghamshire se révoltent, inspirés par la légende du célèbre Robin des Bois, sous la direction d'un mythique Ned Ludd, pour détruire les machines, devenues leurs ennemies. Il en fut de même en 1831, lors de la « révolte des Canuts » (ouvriers de la soie Lyonnais).
+De fait, pour les capitalistes, la machine a longtemps primé sur l'Homme. C'est ce dernier qu'on adapte. Lorsqu'un accident le prive d'un bras, on change l'Homme sans s'inquiéter de l'adéquation de la machine. Lorsque la machine et certains de ses composants sont d'accès difficiles, on emploie les enfants, dont la taille permet d'aller dans des endroits peu accessibles.
+D'un point de vue général, les études sur longues périodes ont montré que le résultat de l'introduction des machines est plus complexe que l'unique concurrence envers le travailleur, puisqu'elle amène aussi à créer de nouveaux postes plus qualifiés (apparition des ingénieurs) en parallèle des anciens postes d'ouvriers. Plus tardivement, les machines ont aussi pu réduire la pénibilité et la durée du travail lorsque leur conception prenait en compte cette approche. Elles ont aussi permis aux Hommes d'accéder à une société où les biens sont plus abondants grâce à l'augmentation de la productivité. Certains auteurs, enthousiastes face à la forte productivité des secteurs primaire et secondaire, confiants en la robotisation, n'hésitent pas à prophétiser « la fin du travail » (Jeremy Rifkin, 1996), et encouragent l'avènement d'une économie essentiellement tournée vers les services à la personne (« la production de l'Homme par l'Homme » selon Robert Boyer).
+« Désespérés, réduits à l'alternative de mourir de faim ou d'arracher à leur maître par la terreur la plus prompte condescendance à leur demande. »Adam Smith, Recherche sur la nature et les causes de la richesse des nations, 1776
+Sous la pression du développement du mouvement ouvrier et de la question sociale, le législateur va devoir réagir pour améliorer les conditions de vie des travailleurs. Des lois vont progressivement améliorer le temps de travail, les conditions de travail, le premier âge du travail, l'accès aux soins, à la « retraite », etc. Dès 1833 au Royaume-Uni avec le Factory Act, mais de façon très progressive puisque la loi de 1833 ne fait que limiter à 9 h par jour le travail des enfants de moins de 13 ans. Ces progrès humains ne se font donc que lentement, et dans le cadre d'un rapport de forces permanent.
+Cette période voit aussi se développer de nouvelles formes de solidarité entre travailleurs qui s'auto-organisent pour faire face à un dur quotidien. Les formes modernes de l'économie sociale se développent en opposition au capitalisme et proposent des services aux salariés. Dans un premier temps, les premières mutuelles servent à financer les enterrements, puis elles étendent leur champ d'action au financement des jours de grèves, puis aux congés maladie et à la retraite.
+Certains grands patrons ne seront pas insensibles à la misère du monde ouvrier, et s'illustreront par leur paternalisme, par leur philanthropie et leurs méthodes de travail tout aussi avant-gardistes que compétitives. Robert Owen commença ainsi à poser les bases du mouvement coopératif dans son usine de New Lanark, en proposant à ses ouvriers aussi bien des cours du soir, que des jardins pour leurs enfants. En France, au Creusot, Schneider offre aussi divers services à ses salariés, sans négliger toutefois de faire implanter une caserne.
+Plus tard, Henry Ford comprendra que l'insatisfaction de l'ouvrier, engendrée par les méthodes de travail tayloristes, se fait au détriment de la productivité, et proposera des salaires bien au-dessus du marché afin de limiter la rotation du personnel et de fidéliser une main-d'oeuvre devenue difficile à recruter sur des postes peu valorisants de travail à la chaîne en une période sans chômage. Cette pensée se généralisera et aboutira au « compromis fordiste » des années 1945 - 1970, période sur laquelle la part des salaires dans la valeur ajoutée va progresser au détriment de la part relative du profit. Toutefois, la productivité toujours accrue des salariés satisfaits de leurs salaires permet aux profits de s'accroître dans l'absolu : c'est ici qu'apparaît l'idée de compromis. La fin du compromis fordiste, depuis les années 1970 ou 1980 selon les pays, va cependant entraîner un mouvement inverse toujours en cours, dans lequel la part du profit progresse rapidement au détriment des salaires.
+Des modèles d'organisation du travail plus récents, tel le « toyotisme », invitent le salarié à faire part de ses réflexions sur le processus de production, lui permettant dés lors de reprendre un ascendant sur la machine, ou du moins d'en avoir l'illusion.
+L'opposition entre les grands capitalistes agricoles et d'autres parties de la population ne va malgré la révolution agricole pas tarder à se manifester. Dès 1776, Adam Smith écrit :
+« Les propriétaires, comme tous les autres hommes, aiment à recueillir là où ils n'ont pas semé. »
+Le capitalisme agricole, qui cherche à alimenter la hausse des prix par le protectionnisme (via les Corn Laws), va alors s'opposer au capitalisme industriel. En 1810, l'économiste et parlementaire David Ricardo (Essai sur l'influence du bas prix du blé) pense que l'ouverture du pays aux importations agricoles permettra, grâce à la faiblesse du prix des subsistances, de réduire les salaires et donc de favoriser l'industrie. De fait, c'est bien un lobby d'industriels du textile (l'Anti Corn Laws League) qui, au terme d'une bataille politique incertaine contre les grands propriétaires fonciers, fera abroger les Corn Laws en 1846. Le capitalisme libéral remporta alors l'un de ses premiers triomphes.
+À l'inverse, aux États-Unis, le Sud, qui repose sur une agriculture esclavagiste, est libre-échangiste, tandis que le Nord, qui développe un capitalisme industriel, est protectionniste. Durant les décennies précédant la Guerre de Sécession, des propriétaires du Sud prétextaient d'ailleurs que la condition de l'ouvrier du Nord n'était que rarement enviable à celle de l'esclave du Sud. Ils dénonçaient donc souvent l'appétit que les capitalistes dissimulaient derrière les discours abolitionnistes. L'imposition du capitalisme se traduisit donc par un ancrage profond de l'économie dans le protectionnisme qui a permis un essor rapide de nouveaux secteurs industriels.
+Selon Raymond Aron (Dix-huit leçons sur la société industrielle, 1962), le capitalisme a besoin dans son évolution d'accroître la qualification de la main-d'oeuvre afin de garantir la pérennité de la croissance économique. Cette qualification accrue provoque l'émergence des aspirations égalitaires. La société capitaliste conduit selon lui naturellement à la démocratie « parce qu'elle est fondée non pas sur des inégalités de statut, sur l'hérédité ou sur la naissance, mais sur la fonction remplie par chacun ». La démocratisation rend sensible la population au plein emploi, à la diminution du temps de travail, à la réduction des inégalités de revenus, ce qui aboutit finalement à une intervention croissante de l'État et à l'apparition de nombreuses formes de contre-pouvoirs.
+Pour Joseph Schumpeter (Capitalisme, socialisme et démocratie, 1942), c'est l'apparition du capitalisme et l'émergence d'une élite bourgeoise qui a permis le succès de la démocratie en lui fournissant des hommes capables de mettre en place une structure bureaucratique efficace. Si le socialisme peut selon lui aussi être démocratique, il en est toutefois moins apte que le capitalisme :
+« Une classe dont les intérêts sont le mieux servis par une politique de non-intervention met plus facilement en pratique la discrétion démocratique que ne sauraient le faire des classes qui tendent à vivre aux crochets de l'Etat. »(ibid.)
+Toutefois, pour des raisons similaires à celles exposées plus tard par Raymond Aron, la démocratisation mène souvent à une socialisation de la démocratie et à un recul du capitalisme.
+Rosa Luxemburg considère que dans la société capitaliste « les institutions formellement démocratiques ne sont, quant à leur contenu, que des instruments des intérêts de la classe dominante ». Selon elle, la démocratie serait empêchée par le fonctionnement du capitalisme, qui place une seule classe sociale à la direction de la société.
+Selon Michel Aglietta (Régulation et crises du capitalisme, 1976), le succès du capitalisme aux États-Unis est lié au « mythe de la Frontière ». L'idée originale de l'aménagement d'un espace géographique gigantesque se serait transformée en une idéologie favorable au capitalisme : « celle exprimant la capacité de la nation américaine à polariser les activités industrielles dans un sens de progrès. » L'assimilation de l'avantage de la grande industrie à la construction de la nation dans la conscience populaire aurait permis de justifier l'ensemble des dégradations du processus de production (taylorisme puis fordisme) nécessaires à la réalisation des profits des capitalistes.
+« C'est pourquoi la bourgeoisie industrielle a pu faire avaliser ultérieurement par l'ensemble de la nation les transformations technologiques induites par la plus-value relative en les présentant comme l'édification d'une « nouvelle frontière ». »(ibid.)
+Dans l'Histoire, le patriotisme serait donc un outil permettant de justifier les sacrifices des travailleurs au profit du grand capitalisme : c'est par exemple la conclusion que tireront certains poilus revenant des tranchées de la Première Guerre mondiale et constatant l'enrichissement nouveau de nombreux industriels. Voir la phrase d'Anatole France : « On croit mourir pour la patrie ; on meurt pour des industriels ».
+Un des soucis majeurs de l'accumulation du capital matériel a été l'accumulation de pouvoir qu'elle signifiait. Les grandes manufactures ont donc longtemps été étroitement contrôlées par l'État (on pense aux manufactures de Colbert) afin de limiter la constitution de formes de pouvoir privé. La création de sociétés sans l'aval du Parlement n'est accordée par exemple qu'en 1825 en Grande-Bretagne (abrogation du Bubble Act). La libéralisation complète de la création de sociétés par actions n'est achevée qu'en 1856 au Royaume-Uni.
+Avant même la révolution Russe, c'est aux États-Unis que se manifestent les premières oppositions entre le pouvoir politique et les grandes firmes capitalistes. Le capitalisme sous la forme du libéralisme économique apparaît et prône la concurrence par une nouvelle organisation du marché comme gage d'efficacité, tandis que les précédentes formes de capitalisme avaient une tendance à la concentration et à l'entente. Dans cette optique libérale, la création de monopoles est donc contrariée par des lois anti-trust. Elles seront mis en pratique par Theodore Roosevelt qui s'opposera particulièrement à Rockefeller et à J.P. Morgan. Plus tôt, les États du Sud avaient provoqué la guerre de Sécession en proclamant leur indépendance, craignant de se voir imposer le modèle du nord (opposé à leur système esclavagiste) par le gouvernement fédéral républicain d'Abraham Lincoln.
+Dans l'histoire récente, les tentatives de nationalisations des biens matériels des grandes firmes transnationales ont provoqué la chute de certains gouvernements : celui de Salvador Allende en 1973 au Chili (renversé par un coup d'État militaire décidé à Washington). En 1956, la nationalisation du Canal de Suez par le gouvernement égyptien de Nasser, provoque l'entrée en guerre de la France, du Royaume-Uni et d'Israël. À l'opposé, de nos jours, les privatisations des entreprises s'accompagnent presque systématiquement de mouvements sociaux et de protestations. La question du capitalisme, de par sa nature juridique, est source de pressions et de déséquilibres politiques.
+Pour John Kenneth Galbraith :
+« Le système industriel est inextricablement lié à l'État. Il n'échappe à personne que, de bien des façons, la grande entreprise moderne est un bras de l'État, et celui-ci, dans les circonstances importantes, est lui-même un instrument du système industriel. » Le Nouvel État industriel, 1967
+Selon Galbraith, les grandes firmes américaines de la seconde moitié du XXe siècle s'accaparent un pouvoir excessif afin de mettre en place à leur profit une économie planifiée. Le danger de guerres ayant pour seul objet de fournir des débouchés à l'industrie de l'armement est notamment évoqué. Quelques années plus tôt, le président américain avait d'ailleurs déclaré :
+« Nous ne devons jamais permettre que le complexe militaro-industriel ne menace nos libertés ou le processus démocratique. » Dwight David Eisenhower, Dernier discours à la nation du président des États-Unis, le 29 janvier 1961
+Le libéralisme et ses théories les plus fondamentales sont par ailleurs remises en cause par le capitalisme industriel. Selon sa théorie dite de la « filière inversée », c'est par exemple la consommation qui s'adapte à la production grâce au harcèlement et aux besoins créés par la publicité. Il insiste donc sur la nécessité de l'existence de « pouvoirs compensateurs », et sur le rôle essentiel de l'éducation dans l'émancipation de l'individu.
+Les liens entre le monde politique et les grandes entreprises font régulièrement l'objet de polémiques. On pense par exemple à celles liées à la guerre en Irak, ou aux critiques faites au mode de financement des campagnes électorales aux États-Unis.
+Tout au long du XXe siècle, l'épanouissement du capitalisme a été remis en cause par les crises économiques et l'émergence de modèles économiques alternatifs : les guerres mondiales, le bloc communiste, le nazisme en Allemagne et surtout la crise économique des années 1930.
+C'est en effet au cours de cette décennie que le capitalisme dut faire face aux défis les plus importants depuis son avènement au XVIIIe siècle. La crise amena une remise en question du « capitalisme sauvage » et du libéralisme. Par exemple, la théorie économique alors dominante (keynésienne) préconisait l'intervention publique (John Maynard Keynes, Théorie générale de l'emploi de l'intérêt et de la monnaie, 1936) pour réguler les dysfonctionnements d'un système économique qu'elle qualifiait d'imparfait et de fondamentalement instable.
+Après la Seconde Guerre mondiale, le développement des États providence s'accompagna d'une prise de contrôle par l'État des plus grandes sociétés industrielles, commerciales et bancaires dans de nombreux pays. Les systèmes d'assurance privée furent quant à eux remplacés par une prise en charge collective des risques à l'échelle étatique. On mit alors en place des économies mixtes, où le capitalisme devait désormais non plus dominer, mais coexister avec des systèmes économiques alternatifs.
+Toutefois, suite au choc pétrolier et à la crise économique des années 1970, les fondements théoriques de l'intervention publique et de la régulation du capitalisme furent bouleversés. Le retour des politiques libérales et la privatisation de pans entiers de l'économie marqua le retour en force du capitalisme privé comme système dominant des économies de marché. Par ailleurs, les années 1990 furent marquées par la disparition progressive des systèmes alternatifs dans les pays de l'ancien bloc communiste et dans de nombreux pays en voie de développement.
+L'essor du capitalisme a été encouragé par le nationalisme économique et le mercantilisme (voir plus haut). Au début des années 1950, Charles Wilson, PDG de General Motors, déclarait « ce qui est bon pour General Motors est bon pour les États-Unis et réciproquement ». Un siècle plus tôt, Karl Marx expliquait que le capitalisme requiert un marché protégé où écouler ses produits, le nationalisme était dans un premier temps la meilleure manière de se le garantir :
+Le marché est la première école où la bourgeoisie apprend le nationalisme ».
+Depuis, la convergence des intérêts nationaux et de ceux du capitalisme est de plus en plus contestée, et il semble que le capitalisme cherche à s'affranchir des contraintes nationales en se faisant le moteur de la mondialisation économique.
+L'histoire économique des différentes nations depuis le XIXe siècle a mené le capitalisme à prendre des formes différentes d'un pays à l'autre.
+La croissance du capitalisme britannique au XIXe siècle a été fortement marquée par un libre-échangisme mêlé à la tradition du mercantilisme commercial. Cette évolution contre-nature a mené à la constitution d'un empire colonial important et à une insertion très précoce du pays dans la division internationale du travail (la part de la population agricole est devenue largement minoritaire au Royaume-Uni dès le XIXe siècle). Important depuis ses colonies les matières premières, le Royaume-Uni est devenu au XIXe siècle l'« atelier du monde ». Héraut du libéralisme à travers un monde protectionniste, le Royaume-Uni a toutefois connu une parenthèse marquée par l'émergence d'un État-providence important à la suite de la Seconde Guerre mondiale, avant de redevenir à partir des années 1980 un des exemples du capitalisme libéral anglo-saxon.
+Si capitalisme américain et capitalisme britannique sont désormais réunis sous l'étiquette « capitalisme anglo-saxon », leurs histoires respectives sont pourtant différentes. Le capitalisme américain a été jusqu'à la fin de la Seconde Guerre mondiale marqué par un protectionnisme important. À la fin du XIXe siècle, le capitalisme américain a connu une concentration importante dans la plupart des branches de l'économie, la constitution des trusts. Ainsi fusionnaient (ou s'alliaient) de leurs côtés les banques, de leurs côtés les compagnies pétrolières, et ainsi de suite. Bien qu'on considère le modèle américain contemporain comme proche de celui du Royaume-Uni, c'est-à-dire comme ultra-libéral, l'État joue tout de même un rôle important dans le soutien de ses entreprises comme le montrent les interventions protectionnistes récentes, les commandes importantes à certaines industries? ce qui pousse certains économistes à qualifier les États-Unis de pays mercantiliste.
+Le modèle de l'Allemagne est plus récent, du fait même de la constitution plus tardive de cet État (1870). Il est depuis cette origine marqué par une forte prise en charge sociale (depuis Bismarck), une forte intervention de l'État dans les activités économiques, et une concentration importante des entreprises, qui deviennent ainsi des konzern. Cette concentration s'est faite dans une logique totalement différente de celle de la concentration américaine, vu qu'elle a consisté dans le rapprochement de secteurs d'activité différents et complémentaires, comme par exemple une forte implication du secteur bancaire dans l'ensemble des grandes branches de l'économie. Depuis la fin de la Seconde Guerre mondiale, avec l'essor de la social-démocratie, l'Allemagne a aussi réussi à développer un système syndical efficace où la collaboration entre entrepreneurs et représentants du personnel assure une relative stabilité, et un faible taux de grèves contrastant avec le taux de syndicalisation élevé.
+Au Japon, les origines du capitalisme se trouvent dans l'intervention vigoureuse de l'État. C'est en effet l'État qui, centralisant les anciens revenus des grandes familles féodales, va développer l'industrie sous l'ère Meiji (à partir de 1868) avant de la confier à ces dernières. Les principes du capitalisme nippon sont semblables à ceux du capitalisme allemand dans la façon dont sont concentrées les entreprises. L'État joue toujours un rôle important dans l'économie, notamment via l'intervention du MITI. Au plan social, les grandes firmes entretiennent avec leurs salariés des rapports privilégiés basés sur la sécurité de l'emploi et en retour le dévouement à l'entreprise de la part du salarié.
+Dans son ouvrage de 1991, Capitalisme contre capitalisme, Michel Albert a analysé les évolutions des deux grands modèles, le modèle « néo-américain » (ou anglo-saxon) et le modèle « rhénan » (Allemagne, mais aussi pays scandinaves, Autriche, Suisse, et partiellement le Japon).
+Pour Michel Albert, les performances économiques américaines depuis l'arrivée au pouvoir de Ronald Reagan en 1981 sont à relativiser. La forte croissance du capitalisme néo-américain est selon lui le fait d'acquis des années antérieures à la libéralisation de l'économie opérée par ce président. Cette croissance a aussi été marquée par une accentuation du dualisme social et des inégalités, tandis que l'économie connaît des déséquilibres dangereux (déficits budgétaires, extérieurs...) : « ils se jettent à corps perdu dans l'endettement pour la consommation, la jouissance immédiate ». Par ailleurs l'économie est menacée par la prépondérance des marchés financiers et de leurs exigences.
+Au contraire le modèle rhénan accorde une part moins importante à l'économie de marché via l'intervention de divers organismes. Les salaires sont par exemple fixés par les conventions collectives, l'ancienneté? Les grandes entreprises ne sont pas considérées comme des biens marchands mais comme une communauté « industrialio-financière » où les banques prennent une responsabilité de long terme. L'économie sociale de marché allemande incarne par ailleurs une synthèse entre le capitalisme et le socialisme. Moins générateur d'inégalités sociales, fondé sur des équilibres économiques solides (on pense à la rigueur monétaire allemande), le capitalisme rhénan semble donc supérieur.
+Pourtant le capitalisme rhénan connaît de nombreuses difficultés. La cohésion sociale serait menacée par la montée de l'individualisme tandis que la globalisation financière détourne les banques de leur rôle traditionnel. La confrontation des deux capitalismes tourne donc en faveur du moins performant (c'est l'opinion de Michel Albert), c'est à dire du modèle néo-américain. Finalement, cette évolution a tendance à orienter le capitalisme français vers le modèle anglo-saxon.
+Quoi qu'on pense des opinions de Michel Albert sur la qualité de tel ou tel modèle, on remarque que l'effondrement des sociétés socialistes n'a pas signifié la disparition des alternatives entre systèmes économiques différents.
+L'émergence du capitalisme au XVe siècle coïncide avec les premières grandes vagues de colonisations. Cortés, lucide conquérant des Amériques, déclara « nous autres Espagnols souffrons d'un mal que seul l'or peut guérir ».
+L'influence de l'économie sur les rapports de puissance des états, soulignés par les penseurs mercantilistes, poussera plusieurs siècles plus tard certains à lier capitalisme et impérialisme. Déjà au XVIIIe siècle, Voltaire, plutôt enthousiasmé, soulignait que les marchands étaient plus utiles à la puissance de leur pays que les nobles :
+« Le commerce, qui a enrichi les citoyens en Angleterre, a contribué à les rendre libres, et cette liberté a étendu le commerce à son tour ; de là s'est formée la grandeur de l'État. C'est le commerce qui a établi peu à peu les forces navales par qui les Anglais sont les maîtres des mers. Ils ont a présent près de deux cents vaisseaux de guerre. La postérité apprendra peut-être avec surprise qu'une petite île qui n'a de soi-même qu'un peu de plomb, de l'étain, de la terre à foulon et de la laine grossière, est devenue par son commerce assez puissante pour envoyer, en 1723, trois flottes à la fois en trois extrémités du monde? » Lettres anglaises
+De fait, le Royaume-Uni impose violemment son commerce au monde au XIXe siècle. Par exemple, celui de l'opium à la Chine (guerre de l'opium, 1838 - 1842)
+Au début du XXe siècle, des penseurs, marxistes pour la plupart, ont associé le phénomène de la multinationalisation des firmes et du colonialisme au développement du capitalisme, faisant de l'impérialisme son stade suprême.
+En 1913, Rosa Luxemburg explique dans l'Accumulation du capital, que la reproduction du système capitaliste nécessite l'ouverture continuelle de nouveaux débouchés et son implantation dans les régions géographiques dont il est encore absent. Ainsi selon Rosa Luxemburg, l'impérialisme mène inévitablement à la guerre.
+Illustrant l'importance économique des colonies, où plutôt reflétant l'importance qu'on leur attribuait à l'époque peut-être à tort, Jules Ferry déclara à la Chambre que « la politique coloniale est fille de la politique industrielle ». En effet, au fur et à mesure de son développement et de l'émergence économique de nouveaux pays, l'accès au marché et le partage des débouchés deviennent de plus en plus problématiques. Mais la constitution de marchés coloniaux exclusifs est limitée par la taille finie de la planète. Le temps du monde fini commence (selon l'expression du poète Paul Valéry) et les antagonismes entre les grandes puissances économiques ne peuvent s'en trouver qu'exacerbées.
+De fait, des crises et des conflits opposent à plusieurs reprises le Royaume-Uni à la France (crise de Fachoda en 1898), les britanniques à des colons néerlandais (guerre des Boers de 1899 à 1902), la France à l'Allemagne (au Maroc en 1905 - 1906 puis en 1911)? Jean Jaurès, opposant à la première guerre mondiale, déclara que « le capitalisme porte la guerre comme la nuée porte l'orage ».
+En 1916, Lénine explique dans l'Impérialisme, stade suprême du capitalisme, que la concentration du capital mène à un stade de l'histoire du capitalisme marqué par les positions de monopoles des grandes firmes industrielles et financières. Confrontées à la baisse tendancielle du taux de profit (théorie marxiste qui estime que les taux de profits du capitalisme tendent à baisser naturellement sur le long terme), les grandes firmes tentent d'investir sur les marchés étrangers afin de retrouver de forts niveaux de profit. Les grandes firmes nationales s'entendent alors pour se partager le monde. Lénine prend par exemple le cas d'AEG (Allemagne) et de General Electric (États-Unis) dans le domaine de l'électricité.
+« Ce qui caractérisait l'ancien capitalisme où régnait la libre concurrence, c'était l'exportation des marchandises. Ce qui caractérise le capitalisme où règnent les monopoles, c'est l'exportation des capitaux. » (ibid.)
+La nature belliqueuse du capitalisme a été beaucoup discutée. Nombre de libéraux ont fait remarquer que l'impérialisme s'était aussi révélé comme une tendance récurrente de l'Union soviétique. Dans les Étapes de la croissance économique (1960), Walt Whitman Rostow, pense que la guerre n'est pas proprement liée au capitalisme, mais plus simplement au développement économique. L'émergence d'une nouvelle puissance économique, qu'elle soit capitaliste ou autre, signifie l'apparition d'une adéquation entre les équilibres géopolitiques passés et les rapports de forces nouveaux. La remise en question par la nation émergente des traités passés mène naturellement à la guerre.
+Du point de vue de Fernand Braudel, si le capitalisme se fonde dans le commerce lointain, les colonies ont joué un rôle positif. Toutefois la concomitance du colonialisme et du capitalisme n'est pas si évidente dans les faits. Les grands empires coloniaux qu'ont été l'Espagne et le Portugal n'ont par exemple pas connu le développement du capitalisme industriel avant le XXe siècle. Au contraire, des nations comme l'Allemagne et le Japon, et surtout les États-Unis, on su développer un capitalisme efficace bien que ne possédant pratiquement pas de colonies.
+Certains historiens ont souligné le rôle pervers des colonies dans le développement économique des métropoles. Ces dernières, constituant des débouchés « faciles », ont joué le rôle de marchés captifs, c'est à dire qu'elles ont découragé l'investissement matériel sur le territoire national en détournant d'importants volumes de capitaux vers l'extérieur.
+Certains[réf. nécessaire] estiment que les efforts de conquête, mais surtout d'aménagement des territoires occupés, ont coûté davantage qu'ils n'ont rapporté aux économies capitalistes d'Europe. La théorie de Karl Marx du « pillage colonial » est donc contestée.
+En 1867, Karl Marx expliquait :
+« La découverte des contrées aurifères et argentifères de l'Amérique, la réduction des indigènes en esclavage, leur enfouissement dans les mines ou leur extermination, les commencements de conquête et de pillage aux Indes orientales, la transformation de l'Afrique en une sorte de garenne commerciale pour la chasse aux peaux noires, voilà les procédés idylliques d'accumulation primitive qui signalent l'ère capitaliste à son aurore. »
+Marx voit dans la colonisation l'origine des capitaux nécessaires à l'essor du capitalisme. Ils proviendraient :
+Dans une thèse datée de 1984, Empire colonial et capitalisme français, histoire d'un divorce, Jacques Marseille se demande si l'empire colonial a été un frein ou un moteur pour le développement du capitalisme français. Selon lui, l'importance de l'empire pour le capitalisme français n'a été qu'une apparence statistique. En effet, de grandes compagnies ont su profiter de la crédulité des épargnants pour s'attirer des capitaux qui ne prenaient souvent pas de formes matérielles dans les colonies. Par ailleurs, les produits importés des colonies n'étaient pas des produits rares ni des produits dont les prix étaient substantiellement inférieurs aux cours mondiaux. À partir de la crise des années 1930, ce sont les secteurs économiques en déclin qui se sont accaparés les marchés coloniaux, tandis que les secteurs sources d'innovation ne s'y sont en réalité que très rarement intéressés. Certains estiment donc que l'empire n'a pas été la source du progrès économique.
+Une prise de conscience de ce phénomène a progressivement renversé l'opinion des élites quant aux bienfaits du colonialisme, tandis que l'opinion publique, pourtant rapidement opposée au colonialisme, pour des raisons morales, conservait l'idée que celui-ci était favorable à la France. Le problème des marchés captifs a d'abord été identifié comme une source de démotivation à l'innovation pour les entreprises nationales, cette dernière n'étant pas nécessaire dans un contexte d'absence de concurrence de la part des pays étrangers. Le résultat serait alors de ce point de vue une perte de compétitivité face aux autres économies avancées. Seul le régime de Vichy a un temps préconisé le développement industriel des colonies, notant que le commerce avec des économies développées était plus profitable que celui avec des pays sous-développés. À la suite de la Seconde Guerre mondiale, les capitalistes ont cédé au « complexe hollandais ». En effet, le constat de la croissance exceptionnelle de l'économie des Pays-Bas suite à l'abandon en 1949 de l'Indonésie troublait la thèse couramment admise sur l'influence économique positive de l'empire.
+Finalement, la thèse de Jacques Marseille s'oppose à celle de Karl Marx sur le rôle du pillage colonial. Selon Marseille, il est notable que le développement récent du capitalisme a demandé au contraire un abandon des colonies, un « divorce par consentement mutuel » entre les deux parties : ce ne seraient donc pas des raisons économiques qui expliqueraient selon Marseille l'attachement des métropoles à certaines de leurs colonies, mais plutôt des raisons politiques et militaires. L'empire aurait en fait constitué un « boulet » entravant la modernisation du capitalisme français. Si un des divorcés en a largement profité, la métropole, le cas du second est plus nuancé. Si certaines anciennes colonies ont su développer un capitalisme efficace suite à leur émancipation, de nombreux pays, d'Afrique notamment, ont de nos jours des revenus par habitants inférieurs à ceux qu'ils avaient avant leur indépendance.
+Dans son ouvrage de 1994, Mythes et paradoxes de l'histoire économique, Paul Bairoch partage la thèse de Jacques Marseille :
+« A la veille de la première guerre mondiale, 98% des minerais métalliques utilisés dans les pays développés venaient du monde développé ; le chiffre était de 80% pour les fibres textiles et, comme nous l'avons vu, de plus de 100% pour l'énergie. » (ibid.)
+Seuls quelques rares produits entraînaient une dépendance vis à vis des colonies : le caoutchouc, les phosphates naturels? Au contraire, les pays du tiers monde étaient très dépendant des débouchés de la métropoles, car bien que les métropoles fussent quasi autosuffisantes, les colonies quant à elles exportaient à plus de 90% des produits primaires.
+Paul Bairoch note toutefois que les conséquences de la colonisation furent désastreuses : « Si l'occident n'a guère gagné au colonialisme, cela ne signifie pas que le tiers monde n'y ait pas beaucoup perdu ». Les territoires colonisés ne partagèrent pas la prospérité de leur métropole et, d'après Angus Maddison, le PIB de la plupart d'entre eux stagna entre 1820 et 1953.
+Faut-il imputer ce bilan au capitalisme ? Pour Karl Marx, « la richesse coloniale n'a qu'un seul fondement naturel : l'esclavage », mais Paul Bairoch souligne que l'occident ne fut pas le seul colonisateur.
+Au sens de Braudel, il faut entendre « monde » comme un ensemble économique cohérent. Dès lors, il peut coexister plusieurs « économies-monde », qui forment différents ensembles économiques. Ainsi les grandes cités marchandes sont-elles les centres d'ensembles économiques cohérents à l'échelle d'un continent, ou d'une mer (la Méditerranée au XVIe siècle pour les cités italiennes par exemple) :
+un morceau de la planète économiquement autonome, capable pour l'essentiel de se suffire à lui-même et auquel ses liaisons et ses échanges intérieurs confèrent une certaine unité organique ».
+Ce n'est qu'avec la révolution industrielle à la fin du XVIIIe siècle que s'entame un processus qui fera de Londres le centre d'une « économie-monde » à l'échelle mondiale. Elle sera plus tard dépassée par New York, vers 1929.
+L'étude parallèle des deux termes n'est pas gratuite, car on tend à retrouver les caractéristiques des « économies-monde » de la Renaissance dans l'économie mondiale actuelle.
+On peut donc considérer que c'est une longue évolution de schémas existant depuis la Renaissance qui a progressivement mené le capitalisme à constituer une économie mondialisée.
+Les premières multinationales modernes datent du milieu du XIXe siècle. À titre d'exemple, Samuel Colt réalise le premier investissement américain au Royaume-Uni en 1852 afin d'y faire produire son revolver. Singer, fabricant américain de machines à coudre s'installe en Europe à partir de 1867. Ces entreprises, le plus souvent britanniques, ouvrent la voix de l'internationalisation de la production. Elles sont suivies dans les années de la Grande dépression (1873 - 1896) par un premier groupe de grandes firmes nationales : General Electric, AEG, Nestlé, Kodak, United Fruits,? En 1908, Henry Ford ouvre sa première usine en Europe, à Manchester. La stratégie d'installation sur les marchés étrangers à été par la suite modifiée par la déréglementation et la modernisation des marchés financiers qui ont permis l'échange d'actifs financiers à l'échelle de la planète. Les grands groupes fusionnent avec des firmes étrangères (un des plus vieux exemples étant Royal Dutch Shell, compagnie britannico-néerlandaise fondée en 1908). On peut par exemple noter que les entreprises « françaises » cotées au CAC 40 sont en moyenne détenues à plus de 40 % par des investisseurs étrangers.
+Pour Robert Reich (l'Économie mondialisée, 1991), l'économie nation tend à disparaître au profit d'un réseau mondial dans lequel les entreprises abandonnent la production standardisée aux pays en développement, ce qui ne reflètent pas une perte de compétitivité des pays riches (on peut noter par exemple que seul 10 % du prix d'un ordinateur est lié à sa production proprement dite), mais conservent le plus souvent les activités de conception. Enfin la production est dispersée sur la planète afin de profiter des avantages de chaque région.
+Du point de vue social, l'effet de cette mutation du capitalisme est un accroissement des inégalités au plan national. Les travailleurs les moins qualifiés sont mis en concurrence avec ceux des pays du tiers monde, tandis que les « manipulateurs d'idées » profitent de marchés gigantesques où accroître leur profit. En effet l'idée (logiciel, gestion, brevet,...), produite une fois, se multiplie à coût quasi nul une infinité de fois, ce qui entraîne pour son concepteur un revenu proportionnel à la taille du marché.
+La perte de valeur du travail non qualifié et même du capital matériel (de plus en plus délocalisé dans les pays pauvres) entraîne une prise d'importance toujours croissante du capital immatériel (la propriété intellectuelle) et de la connaissance technique et du savoir-faire des travailleurs (le capital humain).
+Au tournant des XIIIe et XIVe siècles, se dégage progressivement en Europe un nouveau concept : celui de privilège. Les privilèges présentent trois caractéristiques :
+Mais c'est à Venise qu'apparaît le brevet sous sa forme moderne.
+Venise est à cette époque un milieu cosmopolite, entreprenant et toujours en mouvement. Par ailleurs tout ce qui se rapporte à la gestion de l'eau et autres dispositifs aquatiques est leur domaine de prédilection. C'est pourquoi Venise aurait délivré en 1421 un privilège s'apparentant réellement à un brevet d'invention. Le nombre de privilèges se multiplia au cours des cinquante années qui suivirent et le système s'étendit à d'autres domaines pour devenir l'un des principaux moyens de transmission du progrès commercial et industriel de la République.
+En 1474 la procédure est suffisamment rodée pour que les autorités décident, par un vote du Sénat (116 « oui » contre 10 « non » et 3 abstentions), d'intégrer l'expérience acquise en rédigeant une loi. Ce texte historique, connu sous le nom de « Parte Veneziana », énonce pour la première fois les quatre principes de base justifiant la création de toute loi sur les brevets :
+Pour faire l'objet d'un privilège, l'invention doit être :
+Au Royaume-Uni, la première loi sur les brevets d'invention (statute of monopolies) fut votée par le Parlement anglais en 1623. Depuis la Renaissance, de nombreuses cités reconnaissaient des privilèges aux inventeurs. En France, l'Ancien Régime leur assure aussi des droits. C'est Beaumarchais qui fera, durant la Révolution française, voter des « droits d'auteurs ». C'est le meilleur exemple du lien substantiel du capitalisme au Droit, car rien d'autre que la violence de l'État ne peut prévenir la copie. Le Royaume-Uni de la révolution industrielle se garantira l'exclusivité de ses innovations en empêchant la sortie de toute machine jusqu'en 1843.
+De nos jours, les brevets posent des problèmes éthiques dans les domaines médicaux tandis que se pose la question de la brevetabilité du vivant (le génome humain en particulier). Les brevets sur les logiciels, les algorithmes et les méthodes d'affaires sont également de plus en plus critiqués, leurs détracteurs craignant un effet adverse sur l'innovation et par la même un danger pour le capitalisme (Procés Research In Motion vs Blackberry, Procés Microsoft vs Eolas, etc.). L'évolution des supports informatiques et des méthodes d'échange, tel le « pair-à-pair » (peer-to-peer), montrent bien que la pérennité du capitalisme repose sur la volonté et la capacité de l'État à assurer la protection de la propriété privée.
+Plus spécifiquement, il s'agit en réalité de pouvoir monétiser ce qui jusque là n'avait qu'une valeur floue. Jusqu'à une époque récente, la propriété intellectuelle était assurée par le fait que sa violation nécessitait des capitaux importants (usines de reproduction de CD, Usine destinée à produire un produit qui viole un brevet, etc.) et surtout le produit fini (issu de la violation) était un produit physique. De ce fait, même si la notion de propriété intellectuelle n'était pas bien établie, un produit physique (dont la propriété n'était pas ambigue) venait la matérialiser et les contrefacteurs potentiels hésitaient à investir du capital dans une entreprise qu'ils savaient condamnable (et donc condamnée) à moyen terme. Le coût de reproduction et surtout l'absence de nature 'physique' des biens contrefaits ont aujourd'hui fait sauter ces deux barrières. Cette nouvelle situation a créé une nécessité pour le système capitaliste : celle de définir clairement les bornes, les règles et les moyens de protection de la propriété intellectuelle afin de pouvoir la monétiser de façon fiable. L'échec de ce processus entraînerait des modifications profondes dans la structure du capitalisme actuel.
+On doit l'analyse la plus connue du « capital humain » à l'économiste américain Gary Becker (Human Capital, 1964). Il définit l'ensemble des aptitudes et compétences accumulées par l'individu et susceptibles de jouer un rôle dans le processus de production. C'est la forme de capital dont la prise en compte est la plus récente. Il joue un rôle croissant dans une société de plus en plus tertiarisée et où la recherche et les sciences ont une place cruciale.
+Ce capital est substantiel à l'individu et il semble donc improbable qu'on puisse l'en déposséder. Il existe toutefois des exceptions notables. Les salariés quittant leur entreprise peuvent par exemple être soumis à une clause non-concurrence, les empêchant alors de faire profiter de leur savoir une entreprise concurrente, et ce pour un certain temps. Mais le capital humain pose bel et bien de vrai problèmes : la « fuite des cerveaux » par exemple (hauts diplômés formés aux frais d'un État et qui profitent à un autre). De même, le risque de perdre leurs salariés décourage les entreprises de leur offrir une formation onéreuse. Le capital humain représente une forme de capital que le capitaliste ne peut pas encore s'approprier.
+Les évolutions décrites par ses deux derniers paragraphes, accélérées par le processus de mondialisation, amènent certains à considérer le passage dans un nouveau type d'économie (« économie du savoir » ou « capitalisme cognitif ») dans laquelle les droits de propriété sur le capital seraient plus limités. A titre d'exemple le philosophe altermondialiste d'inspiration marxienne Antonio Negri estime que :
+le travailleur, aujourd'hui, n'a plus besoin d'instruments de travail (c'est-à-dire de capital fixe) qui soient mis à sa disposition par le capital. Le capital fixe le plus important, celui qui détermine les différentiels de productivité, désormais se trouve dans le cerveau des gens qui travaillent : c'est la machine-outil que chacun d'entre nous porte en lui. C'est cela la nouveauté absolument essentielle de la vie productive aujourd'hui . »
+Cette thèse reste éminemment contestée.
+Contenu soumis à la GFDL
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Homo sapiens (signifiant Homme sage en latin) est le nom binomial désignant l'espèce humaine, il est l'appellation scientifique de ce qu'on nomme communément l'Homme, l'humain ou encore l'être humain.
+Sur l'arbre du vivant, il appartient au règne animal, ordre des primates, et est le seul représentant actuel du genre Homo, les autres espèces incluses dans ce genre, une quinzaine en l'état actuel des connaissances, étant éteintes.
+Traditionnellement, on caractérise les membres du genre Homo par la locomotion bipède et l'aptitude à fabriquer des outils complexes. Le cerveau, par sa complexité, rend aussi possible la capacité à faire preuve d'abstraction et d'introspection. Au vue des débats scientifiques récents, il semble qu'il n'existe pas de définition biologique simple pour caractériser les Homo ou Homo sapiens par rapports aux autres grands singes, et que la classification moderne doive se faire comme pour toute autre espèce vivante par la considération de tout un ensemble de caractéristiques biologiques.
+Toutefois, au niveau culturel, Homo sapiens se distingue par rapport à toute autre espèce existante par la complexité de ses réalisations techniques et artistiques, l'importance de l'apprentissage et de l'apport culturel dans le développement de l'individu, mais aussi par l'ampleur des transformations qu'il a occasionnées sur son milieu et par un aménagement important du territoire. Depuis l'accélération du développement de certaines sociétés humaines, à partir du Néolithique puis la période de la « révolution industrielle », de nombreux paysages de la planète ont été modifiés.
+Le mot français « homme » est une évolution du latin hominem, forme accusative de homo et se réfère avant toute chose à l'espèce Homo sapiens dans son ensemble. Le mot « homme », dans une deuxième acception, désigne aussi l'individu mâle. L'individu femelle est, quant à elle, dénommé « femme ».
+Certaines langues font la distinction entre l'homme « être humain » et l'homme « individu mâle » : par exemples le latin (homo = être humain et vir = être humain mâle), l'allemand (Mensch = être humain et Mann = être humain mâle). En français, certains dialectes (dont celui de France) utilisent indistinctement le terme « homme » tantôt pour parler du mâle, tantôt pour parler de l'espèce, alors que d'autres (comme celui du Québec) préféreront les termes génériques « personne » et « humain » pour désigner un membre de l'espèce et réserveront la dénomination « homme » pour parler du mâle humain adulte. Les droits de l'homme, par exemple, sont dénommés ainsi dans de nombreux pays francophones, mais, au Québec, on parle plutôt de « droits de la personne ».
+Toutefois, on peut remarquer l'emploi de la majuscule (Homme) pour distinguer l'espèce (Homo Sapiens) de l'être humain mâle (homme).
+Le nom Homo sapiens relève de la terminologie scientifique introduite par Carl von Linné, élaborée pour sa classification systématique des espèces : la dénomination binomiale. En dehors de l'usage qui en est fait pour cette dénomination le mot latin « homo » doit porter une minuscule lorsqu'il est utilisé uniquement en tant que mot latin. Lorsqu'il est utilisé en tant que nom biologique de genre (« Homo »), c'est-à-dire le premier terme de la dénomination, il doit porter la majuscule. La dénomination scientifique complète de l'espèce humaine est, suivant cette terminologie : Homo sapiens, Linné 1758.
+La signification des différents éléments de cette dénomination est la suivante :
+Toutefois, en pratique, en zoologie, le nom et l'année sont rarement précisés.
+Jusqu'en 2003, l'espèce Homo sapiens était subdivisée en deux groupes distincts, considérés comme deux sous-espèces, dont l'une était l'espèce humaine actuelle, et l'autre, une espèce cousine éteinte, celle de l'homme de Néandertal. Comme pour toute sous-espèce la conséquence terminologique a été de créer des noms trinomiaux en rajoutant un adjectif, toujours latin (et en italique), après le nom d'espèce. C'est ainsi que l'espèce humaine était appelée Homo sapiens sapiens. Bien que souvent encore entendue, cette terminologie n'est plus en vigueur pour la majorité des scientifiques. En effet, n'étant pas une terminologie constitutive, mais référentielle, elle est le réceptacle évolutif qui reflète l'état des connaissances et la place de l'homme dans la compréhension que celui-ci a du monde : de nouvelles connaissances ou une nouvelle compréhension pourront produire une nouvelle classification, qui pourra conduire à une nouvelle dénomination.
+Le deuxième atout de cette terminologie est, depuis Linné, d'avoir offert un langage commun. Par delà les noms vernaculaires propres à chaque langue pour désigner l'espèce humaine ou les membres de celle-ci : Human, Mensch, Ser humano... et parfois multiples au sein d'une même langue : l'espèce humaine, l'homme, l'humain ; Homo sapiens se présente comme un vocable de référence, certes de nature scientifique, mais qui a su par ailleurs acquérir une notoriété dépassant celle du jargon.
+Les recherches en paléontologie humaine ou paléoanthropologie, ainsi que des études en génétique aboutissent à l'idée que la population originelle pour tous les humains se situait en Afrique, il y a très approximativement 200 000 ans.
+La classification des ossements fossiles dans l'espèce Homo sapiens, est réalisée par le rapprochement des morphologies osseuses comme :
+De plus ces caractères propres doivent être combinés à d'autres caractères comme un volume cérébral important : entre 1 400 et 1 600 cm3. Par exemple le « récent » fossile de l'homme de Flores n'a pu être attribué à Homo sapiens en raison d'un volume cérébral de seulement 400 cm3.
+Leur datation et la délimitation de zones géographiques de répartition sont de précieux renseignements sur nos origines. Elles permettent de faire des déductions ou d'affiner les hypothèses. La précision de cette science est limitée car elle est dépendante des éléments osseux et matériels mis au jour au fur et à mesure des fouilles. Ces découvertes ne permettent pas aujourd'hui à la paléontologie d'expliquer avec précision où, quand, et comment est né le premier représentant d'Homo sapiens. On sait néanmoins, qu'Homo sapiens trouve son origine dans l'arborescence évolutive des homininés se trouvant en Afrique. Alors que l'homme de Néanderthal a fait son apparition en Europe depuis 250 000 ans, Homo sapiens n'aurait migré depuis l'Afrique vers l'Europe et l'Asie que vers la fin des grandes glaciations vers -40 000 ans. Tous deux ont été contemporains l'un de l'autre, mais les conditions de leur rencontre et les détails de leurs « relations » ne sont pas connus. L'homme de Néanderthal est une espèce éteinte alors que Homo sapiens s'est maintenu, a colonisé tous les continents terrestres, a commencé à s'implanter sur divers astres (la Lune, préparation de l'implantation sur la planète Mars) du système solaire et même à projeter des outils (sondes Voyagers et Pioneers) au-delà de celui-ci.
+C'est en Afrique que les plus vieux ossements ont été découverts. Aujourd'hui, les paléontologues donnent à Homo sapiens un âge d'environ 200 000 ans puisque les plus vieux ossements retrouvés sont deux crânes datés de -195 000 ans, et appelés Omo 1 et Omo 2 ; viennent ensuite ceux de l'homme d'Herto encore appelé Homo sapiens idaltu, datés d'environ -154 000 ans.
+Ensuite viennent les ossements de Qafzeh et Skhul en Israël/Palestine datés respectivement de -97 000 et -80 000 ans.
+Les plus célèbres sont ceux de l'homme de Cro-Magnon, datés de -35 000 ans et découverts en France.
+Jusqu'en 2003, l'espèce Homo sapiens était subdivisée en deux sous-espèces, Homo sapiens sapiens et Homo sapiens neanderthalensis. Les résultats d'analyses génétiques ont conduit la plupart des auteurs à considérer ce dernier taxon comme une espèce à part entière, nommée Homo neanderthalensis. L'homme moderne et ses ancêtres immédiats ne sont plus considérés comme des Homo sapiens sapiens mais comme des Homo sapiens, dont ils sont les seuls représentants.
+Les êtres humains actuels appartiennent à cette seule espèce, et sa subdivision en races est généralement considérée comme non pertinente, d'un point de vue biologique. Le 21 décembre 2005 la planète Terre a vu l'espèce humaine atteindre 6,5 milliards de représentants.
+Les comparaisons entre différentes populations humaines actuelles des séquences de l'ADN mitochondrial et du chromosome Y suggèrent fortement que tous les humains actuels ont une origine commune située en Afrique. Les comparaisons avec l'homme de Néanderthal semble confirmer qu'il n'y aurait pas eu de croisement avec cette espèce, mais l'hypothèse n'est pas encore complètement exclue.
+Du point de vue scientifique, l'apparition de l'homme résulte d'une évolution biologique à partir d'espèces ancêtres, d'abord des eucaryotes, puis des vertébrés, des tétrapodes et aussi des mammifères arboricoles présentant une allure générale semblable aux singes actuels. Cette évolution depuis notre ancêtre commun le plus récent avec les chimpanzés est relativement bien documentée grâce aux fossiles, bien que des lacunes importantes existent; le fait que les deux espèces de chimpanzé, Pan troglodytes et Pan paniscus, soient considérés comme les espèces vivantes les plus proches de l'Homme est aussi établie par la phylogénétique.
+Les séparations des lignées ayant mené aux différentes espèces de primates actuels, dont le genre Homo, se sont produites de manière successive. La séparation la plus récente entre la lignée humaine et celle d'une autre espèce de primate a été la bifurcation des Homininés en Hominines (lignée humaine) et Panines (lignée des chimpanzés). Selon David Reich de la Harvard Medical School à Boston, cette séparation s'est faite il y a moins de 6,3 millions d'années. Toutefois, ces travaux indiquent également que cette séparation a été progressive, car la comparaison des séquences des chromosomes X de l'Homo sapiens et du chimpanzé montre des similitudes qui semblent refléter une période de ré-hybridation entre des Hominines et des Panines. Une hybridation significative entre au moins une espèce de chimpanzé d'une part, des espèces d'australopithèque et probablement des espèces d'homme d'autre part, conduisant à des échanges de gènes entre les deux tribus, a dû exister pendant peut-être quatre millions d'années selon les auteurs de ces travaux.
+Les mécanismes orientant cette évolution ne sont pas encore entièrement compris, mais la sélection naturelle semble avoir joué un rôle important : l'environnement aurait guidé notre évolution récente bien que les facteurs environnementaux responsables n'ont pas encore tous été identifiés.
+Les théories scientifiques se sont d'abord centré sur l'évolution de la taille du cerveau qui aurait précédé en temps les autres évolutions adaptatives de l'être humain (théorie du singe au gros cerveau). Toutefois la découverte de Lucy qui avait une démarche déjà bipède mais un cerveau de faible volume vint infirmer cette hypothèse, la bipédie étant de loin plus ancienne voire archaïque tandis que l'augmentation du volume cérébral étant un phénomène plus récent. Des empreintes de pas fossilisées datant de 3,75 millions d'années (trouvées à Laetoli en Tanzanie) montrent une bipédie archaïque. Des empreintes comparables aux nôtres datant de 1,51 à 1,52 millions d'années (trouvées au Kenya à Ileret).
+Par sa capacité à maîtriser des techniques lui permettant d'affronter des conditions climatiques difficiles, l'être humain vit dans quasiment tous les milieux terrestres et sous quasiment toutes les latitudes. Seules certaines régions extrêmes, comme l'Antarctique, ne sont pas colonisées de manière permanente.
+On estime qu'en 2009 l'humanité compte 6,789 milliards d'individus.
+Les espèces actuellement les plus proches de l'humain sont les deux espèces de chimpanzé : Pan troglodytes (le chimpanzé commun) et Pan paniscus (le bonobo). Dans leur proximité phylogénétique à l'homme viennent ensuite le gorille et l'orang-outan. Le génome des humains ne diffère que de 0,27 % de celui des chimpanzés, et de 0,65 % de celui des gorilles. Ces chiffres conduisent à estimer que notre lignée s'est séparée de celle des chimpanzés il y a environ cinq millions d'années, et des gorilles il y a environ sept millions d'années.
+La démarche phylogénétique part de l'idée que la vie évolue des formes les plus simples aux plus organisées, avec acquisition de plus en plus de caractéristiques nouvelles, même si des pertes secondaires de caractères peuvent se produire au sein des lignées. Ainsi, l'espèce humaine fait partie, comme toute autre espèce du vivant, de plusieurs groupes emboîtés dont chacun est caractérisé par un caractère nouveau, qui se rajoute à ceux déjà accumulés. Notre espèce est classée dans :
+Dans le groupe des primates, Homo sapiens fait partie des :
+Parmi toutes les espèces cités ci-dessus, aucune n'est « inférieure » à aucune autre. Seuls les degrés de parenté diffèrent, en allant des espèces les plus éloignées jusqu'aux espèces les plus proches de nous.
+ +On entend souvent : « l'homme descend du singe ». Cette phrase est en fait fausse : l'humain partage avec les singes actuels des ancêtres communs, qu'on ne connaît pas encore. L'Homo sapiens serait en fait l'espèce actuelle la plus proche des chimpanzés, et inversement. Donc, parmi toutes les espèces vivantes actuelles, il n'y aurait aucun ancêtre, mais simplement des espèces qui sont plus ou moins apparentées entre elles. Du point vue scientifique, les humains ne sont pas « plus évolués » que les chimpanzés. Ils ne sont pas « supérieurs » aux autres êtres vivants, ni aux singes, ni aux bactéries ; chaque espèce est adaptée à son milieu. Parler en termes de supériorité d'une espèce relève de jugements de valeur.
+Selon Jean-Marie Schaeffer, on a longtemps estimé, en sociologie et en philosophie, que l'espèce humaine était à part dans le monde vivant. Dans son ouvrage La fin de l'exception humaine, il estime que l'espèce humaine doit être considérée de la même manière que les autres espèces « pour appréhender la complexité de notre psychisme et de nos relations sociales ».
+La notion du propre de l'homme relève à la fois de la philosophie et de la science, notamment la paléoanthropologie et la sociobiologie, et a une grande importance religieuse.
+Les plus anciennes traces de réflexion sur la spécificité de l'homme remontent à l'Antiquité. Par la suite, à de nombreuses reprises, les scientifiques et les penseurs ont tenté de définir le propre de l'homme par des caractéristiques anthropocentriques aujourd'hui dépassées :
+« Ainsi, même dans le cadre des théories modernes de l'évolution, qu'on appelle néodarwinisme ou théorie synthétique de l'évolution - terme inventé pas Julian Huxley - et qui domine la pensée évolutionniste entre 1947 et 1977, les évolutionnistes s'efforcent de réserver une place à part à l'homme, étant entendu que si son corps à évolué, il reste que ce qui fait l'humain échappe aux lois de l'évolution13. »+
Durant les développements de la science moderne, les « spécificités » avancées comme étant propres à l'homme ont tour à tour été remise en question. Ainsi, il fut avancé que le propre de l'homme était l'usage de l'outil, et il fut aussi question de la culture, qui semblait seulement exister chez notre espèce animale. Toutefois, les découvertes récentes montrent que les grands singes manient eux aussi des outils, et sont capable de transmettre des éléments de culture. Le caractère bipède exclusif de l'homme est lui aussi remis en question : la bipédie aurait pu pré-exister parmi l'ancêtre commun des hominoïdes, dans ce cas ce n'est pas la lignée humaine qui aurait acquis la bipédie, mais ce seraient les lignées existantes de grands singes qui l'auraient perdue. Le rire a lui aussi été souvent présenté comme étant le propre de l'Homme mais de nombreuses recherches le montrent comme appartenant également aux grands singes et même aux rats.
+Du point de vue de la biologie, cette question peut sembler peu pertinente si l'on prend l'angle d'approche de la sociobiologie : elle est « évidente » par sa présence. Par contre, la paléoanthropologie apporte une réponse intéressante à la question, tout en se concentrant sur les aspects biologiques de l'Homo sapiens. Une citation de Pascal Picq résume cette position scientifique :
+« L'humain est bien une invention des hommes, qui repose sur notre héritage évolutif partagé, mais n'est pas une évidence pour autant. Homo sapiens n'est pas humain de fait.15 »+
Homo sapiens peut être présenté sommairement comme étant un mammifère terrestre ; dressé sur deux membres inférieurs, qui constituent la base de son corps, en proportion environ de moitié, prolongés, en haut, par le tronc, le cou, puis la tête. Disposant de deux membres supérieurs, se terminant chacun par une main, ce qui lui permet de saisir et manipuler ; d'une taille à l'âge adulte pouvant aller d'environ 80 cm à environ 2,50 m dans les deux extrêmes du nanisme et du gigantisme (plus couramment de 1,40 à 2 m) ; disposant d'organes sexuels ; à la couleur de peau empruntant les degrés du noir, du marron, du beige ou du rosé, pouvant être recouvert de poils par endroits, de forme allant du frisé au lisse et dont la couleur est, indépendamment de la couleur de la peau, de teintes noire, brune, blonde, rousse ou blanche ; aux yeux aux teintes du marron, du bleu, du vert ou du gris...
+L'évolution vers Homo sapiens se caractérise par les éléments suivants :
+Les liens entre ces éléments, leur valeur adaptative, et leur rôle dans l'organisation sociale est sujet à débat parmi les anthropologues. La taille moyenne des hommes, aujourd'hui, en France, est de 1,75 m, et celle des femmes de 1,62 m, pour des masses respectives moyennes de 75 et 61 kg. Les données individuelles sont très variables autour de ces moyennes, avec une forte influence de facteurs environnementaux, des comportements et des régimes nutritionnels. Les moyennes elles-mêmes varient beaucoup selon les populations et les époques.
+Les jeunes naissent avec une masse autour de 3 kg, et une taille d'environ 50 à 60 cm, après une gestation de neuf mois. Totalement dépendants à la naissance, leur croissance dure plusieurs années. La maturité sexuelle survient entre 12 et 15 ans. La croissance des garçons continue souvent jusque vers 18 ans (la croissance se termine vers 21 - 25 ans avec la solidification de la clavicule). L'espérance de vie est très dépendante des conditions matérielles et de la disponibilité de soins médicaux. L'espérance de vie se situe aujourd'hui autour de 75 ans dans les pays les plus riches, et est inférieure à 40 ans dans les plus pauvres. Des cas isolés de longévité approchent 120 ans, et la personne ayant vécu le plus longtemps sans doute possible sur son âge est la française Jeanne Calment, qui a vécu plus de 122 ans.
+L'être humain possède 23 paires de chromosomes (contre 32 pour le cheval).
+Bien que les premières manifestations de préoccupations esthétiques ou symboliques soient attribuables à l'homme de Néandertal durant le Paléolithique moyen, les plus anciennes représentations humaines authentifiées comme telles sont le fait d'Homo sapiens et peuvent être datées du Paléolithique supérieur (vers 40 000 à 10 000 ans BP). Ainsi à l'Aurignacien (vers 40 000 à 28 000 ans BP), faciès culturel le plus ancien et attribuable à l'homme anatomiquement moderne en Europe, sont associées les statuettes de Vogelherd, de Geissenklösterle et de Hohlenstein-Stadel qui restituent des figures en ronde bosse représentant des mammouths, des félins, des ours, des chevaux et des hommes. On note aussi dans l'art pariétal, comme à la grotte Chauvet, la représentation de vulves féminines ainsi que d'individus mi-homme mi-bison. Puis au Gravettien (29 000 à 22 000 ans BP) sont sculptées des figures féminines dites vénus paléolithiques. Au Magdalénien (19 000 à 10 000 ans BP), les représentations humaines sur paroi ou sur objet se font plus fréquentes.
+Léonard de Vinci, avec ses dessins d'anatomie, est le premier à étudier le corps humain avec un oeil médical, suivi par Michel-Ange (voir par exemple le « David » ci-dessous) ; ses tableaux s'efforcent de représenter le corps de l'homme avec la précision de la masse organique qui le compose.
+Le jeudi 30 mars 2006 s'est tenu à l'UNESCO un colloque ayant pour thème « L'espèce humaine peut-elle se domestiquer elle-même ? ». Le directeur général de l'UNESCO, Monsieur Matsuura, avait alors exposé les deux enjeux de cette question : l'enjeu scientifique, mais également l'enjeu éthique, et exposa ainsi la problématique : « Pour la première fois de son histoire, l'humanité va donc devoir prendre des décisions politiques, de nature normative et législative, au sujet de notre espèce et de son avenir. Elle ne pourra le faire sans élaborer les principes d'une éthique, qui doit devenir l'affaire de tous. Car les sciences et les techniques ne sont pas par elles-mêmes porteuses de solutions aux questions qu'elles suscitent. Face aux dérives éventuelles d'une pseudo-science, nous devons réaffirmer le principe de dignité humaine. Il nous permet de poser l'exigence de non-instrumentalisation de l'être humain ». L'espèce humaine ainsi appréhendée dans sa vulnérabilité génétique pose la question de son statut juridique : Est-elle un sujet de droit ? Est-elle protégée en elle-même ? Comment est-elle protégée ?
+Paradoxalement, alors que les conférences insistent de plus en plus sur l'espèce humaine et sur son devenir, les textes internationaux ne protègent pas pour le moment l'espèce humaine par un dispositif qui lui serait expressément rattaché.
+Les quelques rares textes qui font mention de l'espèce humaine le font dans leur préambule, au titre de fondement général aux dispositions du corps du texte, qui ne vise donc pas directement à protéger l'espèce humaine elle-même ; ainsi peut-on lire dans le préambule de la Déclaration sur la race et les préjugés raciaux adoptée par acclamation le 27 novembre 1978 à la vingtième session de la conférence générale de l'Organisation des Nations unies pour l'éducation, la science et la culture à Paris pour fonder la non hiérarchisation de ses membres : alinéa 5 : « Persuadée que l'unité intrinsèque de l'espèce humaine et, par conséquent, l'égalité foncière de tous les être humains et de tous les peuples, reconnue par les expressions les plus élevées de la philosophie, de la morale et de la religion, reflètent un idéal vers lequel convergent aujourd'hui l'éthique et la science, ». Il ne faut ici pas confondre la protection de l'espèce humaine en tant que telle, et l'interdiction de la hiérarchisation de ses membres qui est précisément l'objet des dispositions de la Déclaration.
+La Convention pour la protection des Droits de l'homme et de la dignité de l'être humain à l'égard des applications de la biologie et de la médecine : Convention sur les Droits de l'homme et la biomédecine élaborée au sein du Conseil de l'Europe, convention dite d'Oviedo du 4 avril 1997, fait également référence à l'espèce humaine dans l'alinéa 10 de son préambule : « Convaincus de la nécessité de respecter l'être humain à la fois comme individu et dans son appartenance à l'espèce humaine et reconnaissant l'importance d'assurer sa dignité; ». L'espèce humaine est de premier abord présentée de nouveau comme attribut d'un sujet de droit pour fonder la protection de celui-ci ; toutefois, la problématique du Directeur Général de l'UNESCO trouve dans le corps de la convention une résonance au sein de l'article 13 de la convention, intitulé « Interventions sur le génome humain » situé sous le Chapitre IV relatif au « Génome humain ». En effet, cet article énonce qu' « Une intervention ayant pour objet de modifier le génome humain ne peut être entreprise que pour des raisons préventives, diagnostiques ou thérapeutiques et seulement si elle n'a pas pour but d'introduire une modification dans le génome de la descendance. ». Ce texte se préoccupe explicitement, non pas seulement de la définition génétique de l'individu lui-même, mais également de sa descendance à travers son patrimoine génétique, et, par là même, de l'espèce. La protection ainsi élaborée n'est cependant pas absolue. En effet, le texte ne retient la modification du génome de la descendance comme illicite que dans la mesure où cette modification n'est pas le but poursuivi ; a contrario, si le génome de la descendance n'est pas la motivation directe de la modification du génome, cette modification est licite dans les cas gouvernés par « des raisons préventives, diagnostiques ou thérapeutiques » relatives à la personne subissant l'intervention.
+La procédure se décompose traditionnellement en une Signature par un plénipotentiaire (Chef d'État, Ministre des affaires étrangères...) et une Ratification, qui consiste en une confirmation de cette signature, par l'organe compétent propre à chaque État, qui lie ainsi, de façon effective, l'État au Traité. Ainsi, une convention internationale n'a théoriquement valeur de droit positif que si, après avoir été signée, elle a été ratifiée (en droit français la ratification est le fait du Président de la République, conformément à l'article 52 de la Constitution, après autorisation du Parlement selon les cas énumérés à l'article 53 de la Constitution). La portée de cette protection est donc très relative.
+La valeur juridique de ces traités dépend de la compréhension propre à chaque système juridique de ce qui constitue une atteinte à l'espèce humaine. La France a adopté récemment une des premières législations spécifiques visant explicitement à protéger l'espèce humaine.
+La loi du 29 juillet 1994 relative au corps humain (une des lois dites bioéthiques) a introduit, dans le droit français, la disposition selon laquelle « Nul ne peut porter atteinte à l'intégrité de l'espèce humaine » (article 16 - 4 1er alinéa Code civil français). Cette disposition figure parmi les principes généraux devant gouverner les recherches scientifiques et les pratiques médicales (articles 16 à 16 - 9 c.civ.). D'importants débats existent sur la portée et la signification pratique à donner à cette interdiction : en effet, les alinéas subséquents de l'article 16 - 4 énoncent les interdictions de l'eugénisme, du clonage reproductif (cette interdiction a été introduite par la loi bioéthique du 7 août 2004), et de la modification des « caractères génétiques dans le but de modifier la descendance de la personne ». Ainsi, le premier alinéa doit-il être interprété indépendamment des autres, ce qui reviendrait à distinguer l'interdiction de porter atteinte à l'intégrité de l'espèce humaine, l'interdiction des pratiques eugéniques et l'interdiction du clonage, auquel cas le premier alinéa demeure énigmatique ? Ou ce premier alinéa doit-il être interprété à la lumière des alinéas subséquents, auquel cas l'intégrité de l'espèce humaine serait atteinte par la réalisation d'actes d'eugénisme ou de clonage ?
+Une réponse semble pouvoir exceptionnellement être recherchée dans la traduction pénale de ces interdictions : en effet, ce sont les mêmes textes qui figurent dans le Code civil français et dans le code pénal, textes qui ont été, de surcroît, introduits par les mêmes lois. Protégée pénalement depuis 1994 à l'article 511 - 1 du code pénal, dans le livre qui protégeait les animaux des sévices graves (le Livre V du code pénal), l'espèce humaine a reçu par la loi bioéthique du 7 août 2004 une protection renforcée, les dispositions la protégeant ayant été déplacées en partie dans le livre II, lui faisant partager à présent l'intitulé du Titre I qui réprimait les crimes contre l'humanité, soit : « Des crimes contre l'humanité et contre l'espèce humaine », et lui consacrant le Sous-titre II intitulé « Des crimes contre l'espèce humaine » regroupant les articles 214 - 1 et suivant.
+L'enjeu de ces dispositions est de préserver les spécificités biologiques de l'espèce humaine que sont toutes ses caractéristiques génétiques :
+Les crimes contre l'espèce humaine peuvent être considérés comme le deuxième ensemble d'infractions les plus grave du système juridique français, après les crimes contre l'humanité, apparaissant en deuxième position (après les crimes précités) dans l'énonciation des infractions dans le code pénal, et l'action publique se prescrivant, par exception au droit commun (10 ans pour les crimes), par un délais de 30 ans (ce délai ne commençant par ailleurs à courir qu'à la majorité de l'enfant qui serait né du clonage), l'action publique relative aux crimes contre l'humanité étant, quant à elle, imprescriptible. On peut, par ailleurs, voir dans les crimes contre l'espèce humaine le complément de la protection de l'homme initiée par les crimes contre l'humanité, ces derniers protégeant l'homme dans sa dimension métaphysique : le respect de son humanité et de sa dignité, et les crimes contre l'espèce humaine protégeant l'homme dans sa dimension matérielle : sa définition génétique et sa spécificité biologique.
+Une équipe internationale de chercheurs a démontré que l'arrivée d'Homo Sapiens sur le Sahul (Australie, Nouvelle Guinée, Tasmanie) avait pris quelque 20 000 générations. Ces hommes sont à l'origine des Aborigènes d'Australie, étant restés quelque 50 000 ans isolés des autres populations. Cette étude a été réalisée en comparant les ADNmt et les chromosome Y de centaines d'Aborigènes et de Malaisiens. Cela réfute formellement la thèse qui postulait qu'Homo Erectus aurait convergé vers un homo sapiens tout comme le développement qui avait lieu en afrique.
+Contenu soumis à la GFDL
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Jules César (latin : CAIVS-IVLIVS-CAESAR-IV à sa naissance, IMPERATOR-CAIVS-IVLIVS-CAESAR-DIVVS- à sa mort) est un général, homme politique et écrivain romain, né à Rome le 12 ou le 13 juillet 100 av. J.-C. et mort le 15 mars 44 av. J.-C. (aux Ides de Mars).
+Son destin exceptionnel marqua le monde romain et l'histoire universelle : ambitieux et brillant, il s'appuya sur le courant réformateur et démagogue pour son ascension politique ; stratège et tacticien habile, il repoussa les frontières romaines jusqu'au Rhin et à l'océan Atlantique en conquérant la Gaule, puis utilisa ses légions pour s'emparer du pouvoir. Il se fit nommer dictateur à vie, et fut assassiné peu après par une conspiration de sénateurs. Il fut divinisé et son fils adoptif Octave, vainqueur de Marc Antoine acheva la réforme de la République romaine, qui laissa place au principat et à l'Empire romain.
+César affirmait avoir pour ancêtre Iule (ou Ascagne), fils d'Énée et de Créuse, amené en Italie par son père après la chute de Troie. Ce fondateur d'Albe-la-Longue était considéré comme le créateur de la vieille famille des Iulii qui, selon l'empereur Claude, se joignit ensuite aux patriciens de Rome. Par ce lignage, César revendiqua, lorsqu'il prononça l'éloge funèbre de sa tante Julia, une ascendance remontant à Vénus.
+Les Iulii historiquement connus furent une famille patricienne d'importance mineure, qui exerça quelques consulats mais ne faisait pas partie, au Ier siècle av. J.-C., de la cinquantaine de familles de la nobilitas qui fournissaient la plupart des consuls. Les Julii connurent des revers de fortune, et Jules César grandit dans une maison assez modeste du bas quartier de Subure, de mauvaise réputation.
+Caius Julius César, le futur Jules César, naît vers 100 av. J.-C., fils de Caius Julius Caesar III et de Aurelia Cotta, également d'origine patricienne. Malgré les sources historiques, la date précise de cette naissance reste incertaine : le 12 juillet ou le 13 juillet 100 av. J.-C.10,11,12,13 ou 102 av. J.-C.14,15.
+Selon Tacite, en mêlant dévouement maternel et ferme discipline, sa mère Aurelia donne à Caius et ses deux soeurs Julia une éducation exemplaire. Cicéron attribuera à cette éducation familiale et à des études assidues l'élégance du latin de César et la qualité de son éloquence. Plutarque et Suétone souligneront aussi son art des relations en société tout au long de sa vie : amabilité et politesse envers ses hôtes, prodigalité sans retenue, savoir-vivre et bonne tenue dans les banquets (Caton, qui pourtant le déteste, lui accorde qu'il est le seul ambitieux qui ne s'enivre pas), conversation brillante et cultivée. Ces qualités de séduction seront ses premiers atouts dans la vie publique romaine.
+Son père, Caius Julius Caesar III, ne dépasse pas, dans sa carrière politique, le rang de préteur en 92 av. J.-C., et meurt subitement un matin en mettant ses chaussures, César est alors âgé de quinze ans. Son oncle, Sextus Julius Caesar III, obtient le consulat en 91 av. J.-C. mais meurt au siège d'Asculum lors de la Guerre sociale.
+La jeunesse de Jules César s'inscrit dans un contexte de violentes luttes politiques qui opposent les optimates aux populares. Les premiers maintiennent une ligne conservatrice et aristocratique qui place le sénat romain au coeur de la République. Les seconds veulent satisfaire les revendications sociales et accorder plus de place politique aux Italiens et aux provinciaux.
+Jules César grandit ainsi au milieu de troubles sanglants (Première guerre civile) : combats de rue à Rome en 88 av. J.-C. entre les partisans de Caius Marius, chef des populares, et ceux de Sylla, puis victoire des légions de Sylla sur les marianistes aux portes de Rome en 82 av. J.-C., suivie d'impitoyables chasses à l'homme contre les proscrits du camp adverse.
+Ses relations familiales placent Jules César parmi les populares dans le jeu politique romain. Sa tante Julia fut l'épouse du consul Marius et lui-même épouse en 84 av. J.-C. Cornelie Cinna la fille de Cinna, successeur de Marius. Malgré ces alliances familiales, Jules César ne semble pas s'être joint aux marianistes les plus extrémistes lors de la guerre civile qu'ils menèrent contre Sylla. Il est possible que César ait suivi les modérés lorsqu'ils se rallient à Sylla. En 84 av. J.-C. César est choisit - ou est candidat - au sacerdoce de flamen dialis (premier prêtre de Jupiter) suite au suicide de Lucius Cornelius Merula durant les proscriptions marianistes. Ce poste honorifique lui interdit toute activité guerrière, donc d'entreprendre le Cursus honorum.
+Sylla exige que César divorce de Cornelie Cinna et rompe ainsi ses derniers liens avec les marianistes. César refuse, et doit se cacher, jusqu'à ce que de puissants protecteurs, dont son oncle Aurelius Cotta, fassent fléchir Sylla et cesser la traque. Sylla lui a entre-temps bloqué sa nomination comme Flamen Dialis et les interdits qui l'accompagnaient (ainsi que la dot de sa femme et une partie de son héritage). Prudent, César quitte Rome. Il s'enrôle vers 80 av. J.-C. dans l'armée et rejoint avec le préteur Marcus Minucius Thermus le théâtre d'opérations militaires en Asie, où Lucullus assiège Mytilène, capitale de Lesbos qui s'était ralliée à Mithridate VI. César reçoit mission de demander au roi de Bithynie Nicomède IV le renfort de sa flotte. Suétone se fait l'écho d'une rumeur sur la réputation de César, rapportant qu'il aurait eu des relations sexuelles passives avec Nicomède, vice le plus méprisable aux yeux des Romains. Cette suspicion, qui peut être une lourde et classique plaisanterie entre soldats, plutôt qu'une réalité indémontrable, suivra César, depuis les commentaires insultants de ses adversaires jusqu'à son triomphe final.
+Lors de la prise de Mytilène, César accomplit un exploit que les historiens ne précisent pas, mais qui lui vaut en récompense une couronne civique, la plus glorieuse décoration militaire, habituellement décernée pour avoir sauvé au combat la vie d'un concitoyen. César sert encore en Cilicie sous les ordres de Servilius Isauricus, puis est démobilisé.
+À la mort de Sylla en 79 av. J.-C., César demeure quelque temps en Asie. Selon Plutarque, lors de son trajet sur la mer Égée, il est enlevé par des pirates de Cilicie qui le font prisonnier durant 38 jours sur l'île de Farmakonisi et réclament une rançon de vingt talents d'or. César déclare en valoir cinquante, et promet de revenir exécuter les pirates après sa libération, ce qu'il fait effectivement. Puis il perfectionne son éloquence auprès du célèbre rhéteur grec Molon de Rhodes.
+De retour à Rome, il débute sa vie publique par un coup d'audace : il attaque en justice le proconsul Gnaeus Cornelius Dolabella qui vient d'achever son mandat en Macédoine, et l'accuse de concussion. Malgré l'éloquence de César et les nombreux témoins à charge qu'il cite, la cible a trop de poids politique : Dolabella est acquitté, probablement par solidarité de classe avec ses juges tous issus du Sénat. César tente une seconde et brillante attaque contre Gaius Antonius Hybrida, qui faillit réussir. Antonius dut recourir à l'intervention des tribuns de la plèbe pour échapper à une condamnation.
+César développe activement ses relations, dépensant beaucoup en réceptions, et entame le parcours politique classique (cursus honorum) : tribun militaire, questeur en 69 av. J.-C. en Espagne, puis édile en 65 av. J.-C., il capte la faveur du peuple en rétablissant le pouvoir des tribuns de la plèbe et en relevant les statues de Marius. Chargé de l'organisation des jeux, il emprunte massivement pour en donner de spectaculaires, alignant selon Plutarque le nombre record de 320 paires de gladiateurs.
+Parallèlement, César poursuit son activité judiciaire, pour des causes qui flattent le courant des populares. En 64 av. J.-C., il intente des procès contre d'anciens partisans de Sylla, fait condamner Lucius Liscius et Lucius Bellienus, payés pour avoir ramené la tête de proscrits. Mais il échoue contre Catilina, les jurés se refusant à condamner un membre de la vieille famille des Cornelii. L'année suivante en 63 av. J.-C., avec l'aide du tribun de la plèbe Titus Labiénus, César tente un coup juridique extravagant en accusant de haute trahison le vieux sénateur syllanien Gaius Rabirius pour des faits anciens de trente-sept ans : le meurtre du tribun de la plèbe Saturninus. L'affaire est sans précédent depuis le légendaire procès d'Horace. Cicéron assure la défense de Rabirius (Pro Rabirio), mais les deux juges désignés par le préteur ne sont autres que César lui-même et son cousin Sextus. Rabirius est condamné, mais fait appel au peuple romain, son jugement devant les comices est reporté puis l'affaire est finalement abandonnée.
+César se fait élire en 63 av. J.-C. au titre de pontifex maximus grâce à une campagne financée par Crassus. Il dépense d'importantes sommes d'argent et contracte de nombreuses dettes, afin de remporter les suffrages des comices tributes, contre deux rivaux redoutables (Servilius Isauricus et Q. Catulus), plus âgés et plus dignes que lui. Selon l'usage, César s'installe dans la demeure du pontife à la Regia, et exercera la fonction de grand Pontife jusqu'à sa mort.
+Désigné préteur urbain pour l'année suivante au moment de la conjuration de Catilina (63 av. J.-C.)32, il ne fait rien pour la prévenir et est soupçonné de connivence. Salluste, qui est un partisan de César, attribue ces soupçons à des manoeuvres calomnieuses de Q. Catulus et C.Pison, adversaires politiques de César. Appien considère pour sa part que Cicéron n'ose pas mettre en cause César en raison de sa popularité. Lors du vote au Sénat sur le sort des complices de Catilina, César s'oppose à leur exécution immédiate en plaidant l'illégalité d'une exécution sans jugement, mais son avis est mis en minorité après l'intervention de Caton.
+Envoyé comme propréteur en Bétique (Espagne) en 60 av. J.-C., il ne peut partir qu'après avoir donné des cautions à ses créanciers. Son départ précipité de Rome est motivé par sa volonté d'échapper à une action judiciaire éventuellement engagée à la fin de sa charge. César mène son premier commandement par une offensive contre les peuples ibères encore insoumis. Après avoir pacifié la province, il revient à Rome afin d'y défiler en triomphe pour son succès militaire puis de briguer le consulat. Mais les préparatifs du triomphe lui imposent de stationner hors de Rome, tandis qu'il doit y être présent pour poser sa candidature dans les délais. Il demande une dérogation, que Caton fait traîner en palabres. César doit choisir, et renonce à son triomphe pour viser le consulat.
+L'homme le plus en vue à cette date est Pompée, après sa victoire en Orient contre le roi Mithridate VI Eupator. Cette campagne a permis à Rome de s'étendre en Bithynie, au Pont et en Syrie. Pompée revient couvert de gloire avec ses légions mais conformément à la règle, il les licencie après avoir reçu le triomphe, en 61 av. J.-C..
+Au faîte de la gloire, Pompée demande des terres pour ses anciens soldats et la confirmation des avantages qu'il a promis pour les cités et princes d'Orient, mais le Sénat refuse. César exploite opportunément la déception de Pompée, le rapproche de Crassus, et forme avec eux le premier triumvirat. Cet accord secret scelle une alliance entre les trois hommes, chacun s'abstenant de réaliser des actions nuisibles à l'un des trois. César renforce peu après cette alliance en mariant sa fille Julia à Pompée.
+Grâce au financement de sa campagne électorale par Crassus, César est élu consul en 59 av. J.-C., en ralliant notamment à sa cause Lucius Lucceius un de ses éventuels compétiteurs. Durant son mandat, il ne laisse à son collègue le conservateur Marcus Calpurnius Bibulus qu'une ombre d'autorité. Bibulus et Caton multiplient les actions d'obstruction contre César, mais ils sont chassés du forum lors de la promulgation d'une loi agraire. Suite à cet incident, Bibulus se retire chez lui jusqu'à la fin de son mandat, laissant le pouvoir à César qui l'exerce seul. L'historien romain Suétone rapporte quelques vers décrivant la situation politique :
+« Ce que César a fait, qui d'entre nous l'ignore ? - Ce qu'a fait Bibulus, moi je le cherche encore. »+
César peut désormais légiférer comme un tribun, selon l'expression de Plutarque, satisfaire les revendications des populares, rendre des gages à Pompée et gagner de nouveaux soutiens auprès des chevaliers et des provinciaux : passant outre les protestations des sénateurs Lucullus et Caton, il fait ratifier les initiatives de Pompée qui avait réorganisé les principautés du Moyen-Orient sans demander l'avis du Sénat ; il promulgue plusieurs lois agraires : distribution aux vétérans de Pompée de parcelles des terres publiques (l'ager publicus), faisant de Capoue une colonie romaine, achat de terres à des particuliers qui sont ensuite distribuées à 20 000 citoyens pauvres. La diminution d'un tiers du fermage dû par les publicains à l'État est une aubaine pour les chevaliers, affairistes et banquiers (lex de publicanis). Sa loi contre la concussion (lex Iulia de repetundis) permet enfin de sanctionner d'amendes les gouverneurs de province qui monnayent leurs interventions ou se livrent à des exactions financières. Enfin, il place le Sénat sous le contrôle de l'opinion publique, en faisant publier les comptes-rendus de séance (Actus senatus).
+Cette activité politique va de pair avec une activité mondaine soutenue : Suétone prête à César entre autres maîtresses les épouses de Crassus et Pompée, et, ce qui paraît mieux attesté, Servilia la demi-soeur de Caton. Plus officiellement, César épouse Calpurnia, fille de Calpurnius Pison, consul désigné pour l'année suivante, ce qui lui assure une future protection politique. César se fait un autre allié dans la personne de Clodius Pulcher, qui avait pourtant courtisé sa précédente épouse, en satisfaisant une requête qui lui tenait à coeur : troquer son rang de patricien pour celui de plébéien et postuler ainsi à l'élection de tribun de la plèbe.
+César profite de sa popularité pour préparer l'étape suivante de sa carrière : normalement, le Sénat prolonge le mandat d'un consul par le proconsulat d'une province pour un an. César contourne cette règle avec l'aide du tribun de la plèbe Vatinius : celui-ci fait voter par le peuple un plébiscite qui confie à César et pour cinq ans deux provinces, la Gaule cisalpine et l'Illyrie, avec le commandement de trois légions (lex Vatinia). Pour sauver une apparence d'autorité, le Sénat lui accorde en plus la Gaule transalpine et une quatrième légion.
+Suétone rapporte que César, se vantant devant le Sénat d'être enfin parvenu à ses objectifs, et promettant une victoire éclatante en Gaule, reçut un outrage d'un de ses nombreux adversaires qui s'écria « Cela ne sera pas facile à une femme ». César répliqua que cela n'avait pas empêché Sémiramis de régner sur l'Assyrie, et les Amazones de posséder jadis une grande partie de l'Asie.
+Dès la fin de son consulat, César gagne rapidement la Gaule, tandis que le préteur Lucius Domitius Ahenobarbus et le tribun de la plèbe Antistius le citent en justice pour répondre à l'accusation d'illégalités commises pendant son mandat. En fin juriste, César fit objecter par les autres tribuns qu'il ne pouvait être cité en application de la loi Memmia, qui interdisait toute poursuite contre un citoyen absent de Rome pour le service de la République. Pour éviter toute autre mise en cause devant la justice, César s'appliquera durant son proconsulat à demeurer dans ses provinces. Il passe ainsi chaque hiver en Gaule cisalpine, où il reçoit partisans et solliciteurs et s'assure chaque année d'avoir parmi les élus à Rome des magistrats qui lui soient favorables. La gestion de ses affaires à Rome même est confiée à son secrétaire Lucius Cornelius Balbus, un chevalier d'origine espagnole, avec qui il échangera par précaution des courriers chiffrés.
+Dès le début de son proconsulat, César engage la conquête de la Gaule en profitant de la migration des Helvètes en mars 58 av. J.-C.. Cette expédition militaire est motivée par ses ambitions politiques, mais aussi par des intérêts économiques qui associent les Romains à certaines nations gauloises clientes de Rome (Éduens, Arvernes, etc.).
+Tout en menant ses campagnes, César maintient ses relations avec la classe politique romaine : Quintus, frère de Cicéron commande une légion en Belgique, Publius et Marcus, les fils de Crassus interviennent en Belgique puis en Aquitaine ; Lucius Munatius Plancus, et Marc Antoine seront à Alésia.
+A Rome, les conservateurs réagissent à la guerre que mène César : son affrontement contre le germain Arioviste, qui a la qualité d'ami du peuple romain, accordée lors du consulat de César, a scandalisé Caton, qui proclame qu'il faut compenser cette trahison de la parole romaine en livrant César aux Germains. César se justifiera longuement dans ses Commentaires en détaillant ses négociations préliminaires avec l'agressif Arioviste, lui faisant même dire que « s'il tuait [César], il ferait une chose agréable à beaucoup de chefs politiques de Rome, ainsi qu'il (Arioviste) l'avait appris par les messages de ceux dont cette mort lui vaudrait l'amitié ».
+En 56 av. J.-C., Lucius Domitius Ahenobarbus, candidat au consulat soutenu par Caton et par Cicéron, met à son programme la destitution et le remplacement de César. Toujours obligé de se cantonner en Gaule, César réunit à Lucques Crassus, Pompée et tous les sénateurs qui les soutiennent. Ils renouvellent tous trois leur accord et définissent un partage des provinces. Ahenobarbus et Caton sont agressés en plein forum et empêchés de faire campagne. Pompée et Crassus profitent de l'appui de César pour remporter les élections et être élus pour un second consulat en 55 av. J.-C. 57. Cicéron a des obligations envers Pompée, que celui-ci lui rappelle vertement par l'intermédiaire de son frère Quintus. Cicéron s'incline et soutient la prorogation du gouvernement de César pour cinq nouvelles années
+À l'issue de leur consulat en 54 av. J.-C., chacun reçoit le gouvernement d'une province : Crassus part en Asie chercher une gloire militaire qui égale celles de Pompée et de César, l'Espagne et l'Afrique sont attribuées à Pompée, qui préfère rester à Rome, centre du pouvoir, et envoie ses légats gouverner. Sur les quatre légions qui lui sont attribuées, Pompée en prête deux à César, qui a besoin de renforts.
+Pendant son second mandat, en 55 av. J.-C., César traverse la Manche et réalise une première incursion en Bretagne (l'actuelle Grande-Bretagne), terre inconnue et quasi mythique pour les Romains de l'époque. Ultérieurement, il réalise un autre exploit par une démonstration militaire au-delà du Rhin. Mais à partir de l'hiver 54/53, la situation en Gaule se détériore, et des révoltes se multiplient.
+En 53 av. J.-C., la défaite et la mort de Crassus et de son fils Publius à la bataille de Carrhes contre les Parthes, et la mort de Julia, fille de César et épouse de Pompée, et de l'enfant qu'elle avait eu de Pompée défont les liens du triumvirat. César propose à Pompée la main de sa petite-nièce Octavie, et demande en mariage la fille de Pompée, mais ces offres d'alliances matrimoniales n'aboutissent pas.
+Le début de l'année 52 av. J.-C. est difficile pour César : la révolte en Gaule se généralise sous l'impulsion de l'Arverne Vercingétorix. À Rome, les désordres sont tels que Pompée est nommé consul unique, avec l'assentiment de Caton et des conservateurs. Pompée épouse Cornélie, la jeune veuve de Publius Crassus et la fille du conservateur Metellus Scipion, qu'il prend au milieu de l'année comme collègue au consulat. Pompée est désormais le défenseur du clan des conservateurs.
+En 52 av. J.-C., Jules César remporte une victoire décisive au siège d'Alésia, où il reçoit la reddition de Vercingétorix. En 51 av. J.-C., après avoir étouffé les derniers foyers de révolte, César affirme la souveraineté de Rome sur les territoires de la Gaule situés à l'ouest du Rhin.
+Selon Velleius Paterculus, en neuf campagnes, on n'en trouverait à peine une où César n'aurait pas mérité le triomphe, et il massacra plus de quatre cent mille ennemis et en fit prisonniers un plus grand nombre encore. Pour Plutarque, la conquête de la Gaule fut l'une des plus grandes victoires de Rome et place son commandant César au rang des plus illustres généraux romains, tels les Fabius, les Métellus, les Scipions.
+« En moins de dix ans qu'a duré sa guerre dans les Gaules, il a pris d'assaut plus de huit cents villes, il a soumis trois cents nations différentes, et combattu, en plusieurs batailles rangées, contre trois millions d'ennemis, dont il en a tué un million, et fait autant de prisonniers. »67+
Tandis qu'il termine son mandat de proconsul, César prépare son retour à Rome par la conquête de l'opinion romaine : il répond aux critiques sur sa conduite de la guerre par la publication de ses Commentaires sur la Guerre des Gaules, sobre compte-rendu où il se présente à son avantage, puis en 51 av. J.-C., il annonce la construction d'un magnifique et nouveau forum, financé par le butin des Gaules. L'objectif du César est maintenant de se présenter aux élections de 50 av. J.-C. pour un second consulat en 49 av. J.-C., conformément à la loi qui impose un intervalle de dix ans entre chaque consulat. Pour éviter l'attaque en justice que lui a juré Caton et qui l'empêcherait de faire campagne, il lui faut conserver son mandat de proconsul en Gaule, et être candidat malgré son absence de Rome.
+À Rome, les conservateurs vont tout faire pour empêcher le projet de candidature de César. En 50 av. J.-C., César mène sa politique à distance depuis la Gaule cisalpine : il fait élire Marc Antoine tribun de la plèbe pour l'année suivante. Soldant les dettes du tribun de la plèbe Curion, il le fait lâcher Pompée et passer de son côté. Enfin, il neutralise un des consuls, Lucius Aemilius Paullus, en lui versant des fonds nécessaires à la réfection de la basilique Aemilia sur le forum. En revanche son lieutenant Servius Sulpicius Galba, candidat au consulat pour 49 est battu, et les consuls élus Lucius Cornelius Lentulus Crus et Caius Claudius Marcellus lui sont farouchement hostiles. Les conservateurs s'activent eux aussi, et prennent des contacts avec Labiénus, le meilleur lieutenant de César.
+À la fin de l'année 50 av. J.-C., les premières passes d'armes restent dans la voie légale et se déroulent au Sénat. Le tribun Curion propose que Pompée et César licencient simultanément leurs troupes, les consuls s'y opposent. Le Sénat décide que Pompée et César envoient chacun une légion pour préparer la guerre contre les Parthes. Pompée choisit la Ire légion, qu'il avait prêtée à César, César renvoie la XVe, et doit se dessaisir ainsi de deux légions (il en conserve néanmoins neuf, dont une l'accompagne en Gaule cisalpine tandis que les autres hivernent en Gaule). Pompée envoie ces deux légions prendre leurs quartiers d'hiver en Italie du sud. En chemin, leurs officiers se livrent à un intense travail de désinformation, affirmant que César était devenu odieux et détesté par ses soldats, et induisent Pompée à le sous-estimer.
+Toujours par l'intermédiaire de Curion et Marc Antoine, désormais tribun, César tente une nouvelle proposition : il accepte de ne conserver que deux légions et le gouvernement de la Gaule cisalpine et de l'Illyrie, pourvu qu'on accepte sa candidature au consulat. Malgré la recherche d'un compromis par Cicéron, Caton refuse qu'un simple citoyen impose ses conditions à l'État, le nouveau consul Lentulus s'emporte et fait expulser du Sénat Curion et Marc Antoine. L'historien Velleius Paterculus accusera Curion d'être responsable de cette rupture, tandis que Appien présentera Marc Antoine comme l'initiateur du clash. Selon Plutarque, « C'était donner à César le plus spécieux de tous les prétextes » : s'en prendre aux tribuns de la plèbe, les représentants sacro-saints du peuple ! Le Sénat décrète que César doit abandonner son poste de gouverneur et revenir à Rome en simple particulier.
+César peut se présenter comme la victime de l'acharnement des conservateurs et comme le défenseur des tribuns de la plèbe. Prenant l'initiative de l'illégalité, il décide en janvier 49 av. J.-C. de pénétrer en armes en Italie, et franchit le Rubicon, rivière marquant la frontière entre l'Italie et la Gaule cisalpine. Plutarque et Suétone mettent en scène ce tournant historique et attribuent à César la citation « Alea jacta est » (« Le sort en est jeté. »), signifiant qu'il tentait la destinée. Pour César, il n'y a plus que deux issues : la mort et le déshonneur ou la victoire et le pouvoir. Il mise sur l'audace et la rapidité de ses déplacements militaires et sur l'expérience et la fidélité de ses légions, et se démarque des atrocités de la précédente guerre civile par sa politique de clémence, n'exerçant ni proscriptions ni représailles.
+César progresse rapidement vers Rome sans rencontrer de résistance, et ajoute à ses forces les trois légions que Pompée avait commencé à lever. Pompée récupère des troupes à Capoue, et se replie sur Brindisi d'où il écrit à tous les gouverneurs de provinces de mobiliser contre César. Les consuls, Caton, Bibulus et même les sénateurs modérés comme Cicéron fuient en hâte, rejoignent Pompée à Brindisi et s'embarquent pour Dyrrachium en Épire. Sans flotte, César ne peut les poursuivre.
+Pendant les quelques jours qu'il passe à Rome, il rassure les sénateurs restés sur place, offre au peuple une distribution de blé, promet un don de 75 deniers à chaque citoyen et accorde la citoyenneté romaine aux habitants de la Gaule cisalpine. Reconnaissant, le peuple le fera désigner dictateur pendant son absence. Assuré du soutien de l'Italie, il confie la gestion de Rome à Lépide, envoie Curion s'emparer de la Sicile et de la Sardaigne, garantissant le ravitaillement de Rome en blé, libère l'ex-roi juif Aristobule II afin de l'envoyer en Syrie avec deux légions et empêcher Pompée de mobiliser des troupes. Mais les partisans de Pompée empoisonnent Aristobule. César va lui-même en Hispanie soumettre les légats de Pompée. Quand l'année 49 av. J.-C. se termine, César est maître de l'Italie, des Gaules et des Espagnes, mais ses lieutenants ont subi des revers : Curion s'est fait tuer en Afrique, Gaius Antonius a été fait prisonnier en Illyrie, et son meilleur lieutenant Titus Labienus a rejoint le camp de Pompée, qui a levé une armée sur les provinces d'Orient et les royaumes alliés de Rome. La flotte pompéienne contrôle l'Adriatique, prête à débarquer en Italie.
+L'année suivante en janvier 48 av. J.-C., César est officiellement élu consul ; poursuivant sa stratégie fondée sur l'initiative et la rapidité de mouvement, il prend un risque considérable en traversant l'Adriatique pendant l'hiver et surprend Pompée en Épire. Mis en difficulté lors du siège de Dyrrachium où il a enfermé Pompée pendant quatre mois, César doit se replier, attirant Pompée en Thessalie. En août 48 av. J.-C., poussé par son entourage, Pompée accepte la bataille rangée. Malgré l'avantage du nombre, il est battu à Pharsale. Cicéron et Brutus se rendent à César, qui les accueille chaleureusement. Caton et Labienus fuient en Afrique, Pompée se réfugie en Asie, puis à Chypre d'où il gagne l'Égypte, pensant trouver de l'aide chez le jeune pharaon dont il avait autrefois protégé le père.
+César parvient à Alexandrie début octobre 48 où il trouve le corps de Pompée, assassiné sur l'ordre du jeune Ptolémée XIII. César passe l'hiver 48/47 à Alexandrie, et la guerre s'engage alors entre Ptolémée et César. Ce dernier n'a qu'un faible effectif et doit mener un combat difficile ; lors d'un engagement dans l'île de Pharos, il est même obligé de fuir à la nage. Il sort vainqueur de l'affrontement en mars 47, et détrône le jeune souverain au profit de Cléopâtre VII et du plus jeune de ses frères.
+D'Égypte, César se rend en Asie (juillet - août 47 av. J.-C.), afin de réprimer Pharnace II, fils de l'ancien roi du Pont Mithridate, qui a profité de la guerre civile pour reconquérir des territoires et réaffirmer son autorité. Le cinquième jour de son arrivée, en quatre heures de combat et en une seule bataille (Bataille de Zéla), César écrase et détrône Pharnace. À cette occasion il écrivit au Sénat ces mots célèbres : Veni, vidi, vici pour exprimer la facilité avec laquelle il était venu à bout de son adversaire.
+De retour en Italie, César doit faire face à l'insubordination des soldats cantonnés en Campanie. Il les reçoit à Rome, et parvient à les ramener à l'ordre sous la menace de les licencier.
+Puis, César passe en Afrique fin 47 av. J.-C., où il passe l'hiver. Il détruit à la bataille de Thapsus l'armée républicaine que commandent Metellus Scipion et Caton d'Utique et leur allié le roi numide Juba Ier (février 46 av. J.-C.)84 ; Metellus Scipion et Juba meurent dans la bataille, Caton se suicide à Utique pour éviter d'être capturé, Titus Labienus se réfugie en Espagne. L'annexion de la Numidie s'ajoute aux conquêtes de César.
+Lorsque César revient à Rome, la paix est revenue, l'Italie n'a pas connu les atrocités des précédentes guerres civiles. Tous les écrivains loueront la clémence de César, qui a accueilli sans restriction les pompéiens qui se rendaient et n'a exercé aucune proscription contre la classe politique. César peut annoncer au peuple que l'annexion des Gaules et de la Numidie et le protectorat sur l'Égypte vont permettre d'obtenir du blé et de l'huile en abondance et définitivement résoudre les problèmes de ravitaillement de Rome.
+En août et septembre 46, César célèbre par un quadruple triomphe ses victoires sur les Gaules, le Pont, l'Égypte et la Numidie. La durée et le faste des cérémonies, l'énormité du butin éclipsent tous les triomphes précédents. À chaque cérémonie, César vêtu de pourpre parcourt en char la Voie Sacrée, suivi du butin, des captifs, des soldats qui ont toute liberté pour scander les plaisanteries les plus osées sur son compte. Pour monter au Capitole offrir un sacrifice au temple de Jupiter Capitolin, le char de César passe entre deux rangées d'éléphants qui tiennent des flambeaux.
+César offre au peuple des représentations théâtrales, des courses, des joutes d'athlètes, des spectacles de chasse et de gladiateurs, des reconstitutions de combat terrestre et nautique, cette dernière est la première naumachie montrée à Rome. Des banquets publics réunissent près de 200 000 convives. La vente du butin rapporte plus de 600 millions de sesterces, et l'argent est distribué à flot : les 75 deniers que César avait promis sont donnés à chaque citoyen, avec 25 deniers de plus pour compenser le retard, les légionnaires reçoivent 24 000 sesterces chacun, et des lots de terre. Les loyers de moins de 1000 sesterces à Rome et moins de 500 sesterces en Italie sont annulés.
+La plupart des revendications des populares sont maintenant satisfaites, et César entreprend les réformes nécessaires à l'administration du monde romain. Il fait procéder à un recensement, et ajuste à la baisse le nombre d'allocataires des distributions de blé. Il compense cette mesure en installant 80 000 citoyens pauvres et des soldats démobilisés dans de nouvelles colonies dans les provinces, dont Carthage et Corinthe qu'il fait reconstruire.
+La paix ne dure que quelques mois. En 46 av. J.-C., les dernières forces du parti pompéien s'insurgent en Espagne, menées par Pompée le Jeune, fils de Pompée, et Titus Labienus. Consul pour la quatrième fois, César arrive à marches forcées en Espagne en décembre 46 av. J.-C.. Cette guerre est longue et sans merci, avec des exécutions de part et d'autre. César achève en avril 45 av. J.-C. ses derniers adversaires à Munda, dans la bataille la plus acharnée des guerres civiles. Retardé par une maladie, son jeune neveu Octave le rejoint en Espagne malgré les dangers du trajet, geste que César apprécie hautement. Dans le dernier testament qu'il rédige, il déclare adopter Octave et le désigne comme héritier principal avec comme autre héritier Quintus Pedius, son autre neveu qui a combattu à ses côtés en Espagne.
+Revenu à Rome en octobre 45 av. J.-C., César y célèbre son cinquième triomphe. César commet là une erreur politique que Plutarque soulignera : la règle veut qu'un triomphe honore une victoire sur un peuple ennemi de Rome, ce qui n'est pas le cas dans cette guerre civile. Ni Pompée vainqueur de Sertorius, ni Sylla vainqueur des marianistes n'avaient célébré de triomphe. De plus, César accorde deux autres triomphes, à Fabius et son neveu Quintus Pedius. Là encore, c'est une entorse aux usages qui réservent le triomphe au général doté de l'imperium et non à ses lieutenants.
+César, nommé dictateur pour dix ans, est désormais le centre du pouvoir ; il reconstitue les effectifs du Sénat, en radie quelques sénateurs responsables de concussion dans leur province, et y inscrit des Gaulois cisalpins et des Espagnols, une première qui marque le début de la promotion des provinciaux. Il nomme lui-même les magistrats, sauf les tribuns de la plèbe et les édiles plébéiens, encore élus, et désigne des consuls pour quelques jours de charge seulement. Obtenir un titre, un avantage ou une faveur dépend de son approbation. Ainsi, Cicéron par des discours emplis d'adulation où il qualifie la clémence de César de « divine » fait gracier plusieurs de ses amis.
+Cicéron propose de décerner à César des honneurs, les autres sénateurs suivent en une surenchère de plus en plus excessive. Ainsi César reçoit le nom de Liberator et le titre d'Imperator transmissible à ses descendants, quoiqu'il n'ait plus d'enfant. Il réforme le calendrier, on renomme le mois de Quintilis de son nom de famille. Pompée avait eu l'honneur de porter les emblèmes du triomphe, robe pourpre et couronne de lauriers, lorsqu'on célébrait des jeux à Rome. César reçoit le même honneur, mais à titre permanent ; il peut siéger sur un siège plaqué d'or. Certains privilèges accordés par les sénateurs vont jusqu'à l'extravagance, comme l'autorisation d'avoir commerce avec toutes les femmes qu'il voudra. Pour l'historien Dion Cassius, les sénateurs agissent par excès de flatterie, ou par raillerie. Plus préoccupant, selon Plutarque, c'est pour certains une manoeuvre destinée à déconsidérer César et le rendre odieux, et se préparer plus de prétextes de l'attaquer un jour.
+En nommant lui-même les magistrats supérieurs, César arrête le cycle corrupteur des campagnes électorales ruineuses financées par l'extorsion financière sur les provinces, et soulage enfin la charge de celles-ci ; mais ceci réduit les profits des brasseurs d'argent que sont les publicains et remplace la compétition politique par un arbitraire et une flagornerie indigne qui suscitent des oppositions : pour l'année 44 av. J.-C., César désigne Marc Antoine comme consul et Marcus Junius Brutus et Cassius comme préteurs. Selon Plutarque, la déception de Cassius qui espérait le consulat est une des raisons qui l'amènent à comploter. Tous les historiens romains le présentent comme l'instigateur principal du complot contre César. Cassius regroupe peu à peu une coterie d'opposants, d'anciens pompéiens graciés par César, mais également, notent les historiens modernes, des césariens qui ont servi lors de la guerre des Gaules. Ces derniers redoutent vraisemblablement l'expédition militaire que prépare César contre les Parthes qui serait suivie d'un retour par la Scythie et la Germanie.
+Les comploteurs cherchent en Marcus Junius Brutus le chef symbolique idéal : il porte le nom mythique de Brutus qui chassa Tarquin le Superbe, le dernier roi qui régna sur Rome en tyran. Neveu et admirateur de Caton, Brutus, souvent tenu pour stoïcien mais en réalité bien plus proche de l'Académie pouvait de surcroît trouver dans ses convictions philosophiques des raisons d'agir contre un "tyran". Il a épousé Porcia, fille de Caton et veuve de Bibulus, et par conséquent il est l'héritier moral des derniers républicains. Toutefois, César l'a comblé de faveurs et l'a nommé préteur urbain. Les comploteurs mènent donc une approche psychologique : ils parsèment chaque jour le tribunal que préside Brutus de messages anonymes qui invoquent le Brutus chasseur de roi : « Brutus, tu dors, tu n'es pas le vrai Brutus ! ». Ensuite, Cassius convainc Brutus d'agir contre César. Présenter Brutus comme l'inspirateur du complot contre César permet de fédérer d'autres opposants.
+Les rumeurs de complot parviennent à César, qui ne s'en soucie pas, répondant qu'il est au courant, ou même en plaisante : quand on l'informe que Brutus complote, César rétorque en se pinçant « Il attendra bien la fin de cette carcasse ! ».
+Le 14 février 44 av. J.-C., le Sénat confère à César la dictature perpétuelle. Son pouvoir est désormais sans limite, même l'intercessio des tribuns ne peut s'exercer sur son imperium. Tout espoir d'une abdication comme celle de Sylla et d'un retour à la République d'avant la guerre disparaît. César prend alors des décisions surprenantes : il décrète une amnistie générale, et licencie sa garde personnelle.
+Autre inconséquence aux yeux des historiens romains, César néglige les présages : avertissements des devins, mise en garde pour la période allant jusqu'aux Ides de Mars, cauchemar de son épouse Calpurnia la veille des ides. Tout au plus, apprenant les signes néfastes observés sur les victimes offertes en préliminaire de la réunion au sénat, César se résout à ne prendre aucune décision importante ce jour-là104.
+Les conjurés ont prévu leur attentat aux Ides de Mars (15 mars de l'an 44 av. J.-C.), au début de la réunion du Sénat dans la Curia Pompeia sur le Champ de Mars. Seul César est visé, Marc Antoine qui accompagne César est attiré à l'écart par des faux solliciteurs, tandis que César est entouré par le groupe des conjurés. Métellus s'assure que César ne porte aucune protection, et tous l'assaillent : il tombe percé de 23 coups de poignard. Le coup ultime vient de Brutus. Les derniers mots de César auraient été pour ce dernier « Toi aussi, mon fils ».
+Pas moins de onze auteurs antiques ont rapporté l'attentat, avec plus ou moins de détails. Si le fait est bien connu, l'analyse de ses causes est délicate. Officiellement, les conjurés ont éliminé César pour l'empêcher de devenir roi et pour sauver la République. L'accusation d'aspirer à la royauté était le procès d'intention quasi rituel des conservateurs romains pour éliminer tout homme politique trop favorable aux revendications populaires. Les écrivains romains ont relevé comme autant d'indices ce qui peut étayer cette suspicion :
+Plutarque affirme que César voulait détruire la République et devenir roi. Parmi les historiens modernes, Jérôme Carcopino suit cet avis, et Joël Schmidt voit dans cette liste autant de gestes voulus par César pour sonder l'opinion romaine sur l'idée de le couronner roi. D'autres historiens modernes sont plus circonspects dans l'interprétation des éléments cités par Plutarque et Suétone : pour Marcel Le Glay, il est difficile de séparer la réalité et la rumeur, et si César n'a pas voulu lui-même la royauté, certains dans son entourage l'ont voulu, et les Romains l'ont cru ou ont feint de le croire. Christol et Nony rappellent que César « sut toujours donner le change sur ses intentions réelles » et considèrent que ce problème n'est pas soluble. Plus encore, Ronald Syme estime que ce problème « n'a pas à être posé. César fut tué pour ce qu'il était, non pour ce qu'il aurait pu devenir. En revêtant la dictature à vie, il semblait écarter tout espoir de retour à un gouvernement normal et constitutionnel. Le présent était insupportable, l'avenir bouché. »116.
+Mais Suétone complique les analyses sur la fin de César en ouvrant une autre piste : César aurait eu la mort qu'il souhaitait. Là encore, Suétone produit ses indices :
+Des historiens modernes ont développé cette thèse, justifiant l'attitude de César par sa perception d'une maladie qui le diminuait. Néanmoins, les préférences pour une mort brève et imprévue sont après tout banales, et selon Régis Martin, la croyance de César en sa chance protectrice (Fortuna) et sa certitude que sa perte provoquerait la guerre civile peuvent aussi expliquer sa conduite.
+César désigna dans son testament trois héritiers, les petits-fils de ses soeurs, à savoir Octave, Lucius Pinarius Scarpus et Quintus Pedius. Il légua les trois quarts de son héritage au premier et le quart restant aux deux autres. Dans la dernière clause de son testament, César adopta Octave, le futur empereur Auguste, et lui donna son nom. Enfin, il légua au peuple romain ses jardins près du Tibre et trois cents sesterces par tête.
+Le 20 mars, un bûcher fut dressé sur le champ de Mars, près de la tombe de sa fille Julia, et l'on imagine évidemment l'effet dramatique de cette proximité. Le corps du César, couché sur un lit d'ivoire tendu de pourpre et d'or, fut d'abord déposé dans une chapelle dorée, édifiée sur le forum, devant la tribune aux harangues. À sa tête, sa toge ensanglantée était exposée sur un trophée. Comme le corps reposait, face vers le ciel, et ne pouvait être vu, on éleva au-dessus de lui une effigie de cire grandeur nature, afin que la foule pût contempler les vingt-trois blessures (trente-cinq selon d'autres auteurs) qui lui avaient été sauvagement infligées au corps et au visage. Pour souligner l'ignominie de ce crime, Marc Antoine fit lire, en guise d'oraison funèbre, la liste des honneurs qui avaient été dévolus à César, ainsi que le serment qu'avaient prêté les sénateurs de défendre sa vie. On chanta des vers parmi lesquels revenaient, pour susciter la compassion, une citation empruntée au Jugement des Armes de Pacuvius : « Fallait-il les sauver pour qu'ils devinssent mes meurtriers ? » (compte tenu de la mansuétude dont César avait obstinément fait preuve à l'égard de Brutus, c'était particulièrement bien choisi).
+Chavirée par l'habile et pathétique mise en scène, la foule en colère entassa autour du lit funèbre le bois arraché aux boutiques avoisinantes et tout ce qui lui tombait sous la main pour construire un bûcher d'apothéose, comme elle l'avait fait quelques années plus tôt pour les funérailles de Clodius. Les vétérans de ses légions y jetèrent leurs armes et certaines femmes les bijoux qu'elles portaient. Les Juifs, qui n'oubliaient pas que César leur avait permis de relever les murs de Jérusalem abattus par Pompée, se réunirent plusieurs nuits de suite autour de son tombeau pour le pleurer.
+On raconte que lorsque Caius Matius organisa des jeux funéraires en juillet -44 à l'occasion de l'anniversaire de sa naissance, une comète se mit à briller dans le ciel (apparition également attestée par les astronomes chinois) et l'Etna entra en éruption, faisant de sa mort un bouleversement cosmique. À l'emplacement où il fut incinéré, son petit-neveu et fils adoptif, le futur Auguste, fit ériger un temple. De nos jours, on vient parfois de fort loin pour y déposer quelques fleurs, un poème, une bougie et perpétuer le souvenir de celui qui voulut être « le premier dans Rome »... La plaque commémorative apposée par la ville à l'intention des visiteurs, emprunte à Appien son récit de l'événement :
+« ...et on le ramena sur le Forum, là où se trouvait l'ancien palais des rois de Rome ; les plébéiens rassemblèrent tous les objets de bois et tous les bancs dont regorgeait le Forum, et toutes sortes d'autres choses analogues, puis par-dessus mirent les ornements très abondants de la procession, plusieurs rapportèrent encore de chez eux quantité de couronnes et de décorations militaires : ensuite ils allumèrent le bûcher et passèrent la nuit en foule auprès de lui ; c'est là qu'un premier autel fut érigé, et que maintenant se trouve le temple de César, qui, juge-t-on, mérite d'être honoré comme un dieu... »+
Le complot n'atteignit cependant pas ses objectifs. Le consul Marc Antoine avait été épargné, à la demande de Brutus. Lépide, qui stationnait avec des troupes à proximité de Rome et Octave qui se trouvait en Epire étaient hors d'atteinte. En revanche, l'attentat contre César guida les prétendants à sa succession sur la conduite à tenir : ils firent symboliquement rayer la dictature des magistratures romaines, et la remplacèrent par un triumvirat quinquennal. La politique de clémence avait prouvé son danger suicidaire, les triumvirs commencèrent une vague de proscriptions sanglantes suivie par 14 ans de guerre civile, contre les assassins de César, contre Sextus Pompée, puis entre triumvirs. Octave finit par l'emporter en 31 av. J.-C., et devint Auguste, maître unique et absolu de l'Empire. Il confirma et continua les réformes entamées par César, organisant un Empire pacifié, stabilisé et géré avec plus d'équité. Comme Auguste et la plupart des empereurs à sa suite, Jules César fut divinisé après sa mort.
+César n'était pas seulement un grand général et un grand homme d'État, il excellait également dans l'art oratoire et dans l'écriture. Des divers écrits qu'il avait composés, il ne nous reste que ses Commentaires (Commentarii rerum gestarum) :
+Ces oeuvres constituent le modèle du genre des mémoires historiques, même si leur objectivité est discutée par les historiens. En effet, ces ouvrages servent la propagande politique de César, et par conséquent leur exactitude peut être mise en doute.
+On y joint généralement, les ouvrages suivants même s'ils ont probablement été rédigés par Aulus Hirtius :
+César écrivit aussi en -45 l'Anticato, réplique au panégyrique que Cicéron prononça en faveur de Caton d'Utique, « le dernier républicain ». Cet ouvrage, aujourd'hui perdu, est connu par les citations de Cicéron (ad Atticum, 13, 50, 1), Tacite (Annales, 4, 34), Suétone (Caesar, 56, 3), Plutarque (Caesar, 54), Appien, Juvénal et Dion Cassius.
+Enfin et plus curieusement, il rédigea un traité de grammaire De analogia, en deux livres, dans lequel il expose des théories grammaticales argumentées sur l'analogie (d'où le titre de l'ouvrage), ainsi qu'un poème intitulé le Voyage.
+César semble également avoir écrit plusieurs essais dans sa jeunesse (Éloge d'Hercule, une tragédie d'OEdipe, un Recueil de mots remarquables), mais Auguste interdit leurs publications, après la mort du dictateur. Selon l'historien Pierre Grimal, ces trois oeuvres perdues ont probablement été écrites en grec.
+Jules César devenu dictateur reprend certaines réformes administratives entreprises une génération plus tôt par le précédent dictateur Sylla. De nouveau, il faut adapter les institutions à l'extension de la puissance romaine qui résulte des conquêtes en Orient et en Gaule, et offrir des charges à ses partisans :
+Pour l'administration des provinces, César veut éviter les mandats de cinq ans qu'il a pratiqué, ainsi que Pompée ; il limite la durée des charges de gouverneur : un an pour un propréteur, deux ans pour un proconsul. L'organisation des municipes italiens est précisée par une loi-cadre, dont une copie nous est parvenue, les Tables d'Héraclée.
+Ces réformes seront conservées par Auguste, elles lui permettront de disposer d'une nombreuse élite, nécessaire à l'administration d'un Empire.
+L'activité de bâtisseur de César se manifeste plusieurs fois dans sa carrière politique. À chaque fois, ses réalisations, toujours spectaculaires, sont destinées à renforcer son prestige et sa popularité.
+À la fin de la guerre des Gaules en 51 av. J.-C., César entame sa campagne électorale pour une future candidature au consulat. Pompée avait construit le premier théâtre romain en pierre à Rome et une nouvelle curie quelques années auparavant. César lance à son tour un projet de bâtiment public prestigieux : un nouveau forum, au nord de l'ancien, ouvrant son coté est sur l'Argilète. Il est financé par le butin des Gaules, et commence par l'achat des terrains, pour une somme de cent millions de sesterces selon Suétone. Ce Forum Julium suit un plan similaire à celui du forum de Pompéi qui date de la même période : une longue esplanade rectangulaire fermée par une enceinte bordée de portiques, au fond de laquelle s'élève le temple de Vénus. Selon Appien, la dédicace de ce temple aurait fait suite au voeu de César d'élever un temple à Vénus Victorieuse s'il était vainqueur à Pharsale. Devant ce temple, il se fit représenter par une statue équestre.
+Ce nouveau forum crée ainsi une architecturale originale en combinant l'agora hellénistique et le temple romain sur podium, formule qu'adopteront tous les forums impériaux ultérieurs.
+Maître sans partage de Rome à partir de 46 av. J.-C., César a désormais tous les moyens de sa politique. Il commence par des aménagements de circonstance pour les jeux célébrant son triomphe : agrandissement des extrémités du cirque, construction d'un stade pour les lutteurs sur le champ de Mars, creusement d'un bassin au bord du Tibre pour une naumachie.
+Les travaux entrepris sur le vieux forum voient la reconstruction de la curia Hostilia, incendiée en 52 av. J.-C. par les partisans de Clodius Pulcher. D'autres projets plus ambitieux sont envisagés : la construction de la plus grande basilique de Rome sur l'emplacement de la vieille basilique Sempronia, l'édification d'un temple de Mars, et d'un second théâtre en pierre. Tous ces chantiers seront suspendus pendant les guerres civiles. Octave devenu Auguste les mènera à leur terme en achevant la grande basilique Julia et le théâtre de Marcellus, et en dédiant un temple de Mars vengeur.
+Pour décongestionner une Rome surpeuplée, César en repousse les limites administratives et élargit le périmètre sacré du pomoerium à un mille romain (1,5 km) des anciennes murailles de la ville. Cette mesure fut à peine suffisante, car Auguste agrandit encore ce périmètre une génération plus tard en créant les 14 régions de Rome.
+Toujours pour la gestion de Rome, César fait recenser la population urbaine, selon une méthode inédite et originale : les citoyens ne sont plus convoqués par tribus pour défiler devant les services de recensement. Le recensement est organisé quartier par quartier, et ce sont les propriétaires des immeubles de location qui doivent déclarer leurs locataires. La méthode dut être efficace, car Auguste la reprendra. Sans préciser les résultats de ce dénombrement, Suétone dit qu'il permit de ramener de 320 000 à 150 000 le nombre de bénéficiaires de distributions gratuites de blé instaurées par Clodius Pulcher en 58 av. J.-C..
+Un ultime projet de loi de César destiné à améliorer quelque peu la circulation dans une agglomération aux rues étroites et encombrées interdit la circulation de jour à tout véhicule à roue, à l'exception des chars de procession lors des cérémonies et des charrettes d'entrepreneurs, nécessaires aux chantiers urbains. Cette loi fut votée après la mort de César, et resta en vigueur plusieurs siècles, démontrant sa nécessité. Depuis César, la nuit romaine fut réservée au transit des marchandises, pour le grand dam des dormeurs, et les récriminations de Martial et Juvénal.
+Les guerres civiles menées par César lui imposent de forts besoins financiers, pour entretenir de plus en plus de légions, qui se déplacent d'un secteur à l'autre de l'Empire. Il se dote donc à partir de 49 av. J. C. d'un atelier monétaire qui suit ses déplacements sur les théâtres d'opération, et frappe les espèces monétaires dont il a un besoin croissant. Cette pratique n'est pas nouvelle, le Sénat romain l'avait autorisé pour les grands corps expéditionnaires de Lucullus ou de Pompée en Orient, mais César se l'arroge en s'emparant de la réserve d'or de la République. De surcroît, César apporte deux grandes innovations, qui servent sa politique, que ses successeurs Octave et Marc Antoine pérenniseront, et qui s'institutionnaliseront sous l'Empire romain :
+Rome n'avait émis de monnaies en or que temporairement, essentiellement aux moments les plus difficiles de la Deuxième Guerre punique et en puisant dans les réserves de métal précieux thésaurisées par le Sénat . L'émission d'aureus renoue donc avec l'idée de puiser dans les réserves pour sauver la République. De plus, la forte valeur de cette monnaie (un aureus pour 25 deniers d'argent ou 100 sesterces) facilite les importantes gratifications aux soldats de César et contribue à leur prestige.
+Les motifs qui apparaissent sur les monnaies émises par César participent à sa propagande : outre son nom ou son portrait, une première sous la République, figurent principalement les motifs suivants :
+Les fonctions de Pontifex maximus exercées par César comportait la fixation du début de chaque année. César la met à profit pour réformer le calendrier romain, pour que la durée moyenne de l'année soit exactement de 365,25 jours, la meilleure approximation connue à l'époque en occident. Il donne ainsi son nom de famille au calendrier julien. L'historien romain Suétone précise cette modification du calendrier effectuée par César :
+« Il régla l'année sur le cours du soleil, et la composa de trois cent soixante-cinq jours, en supprimant le mois intercalaire, et en augmentant d'un jour chaque quatrième année. Pour que ce nouvel ordre de choses pût commencer avec les calendes de janvier de l'année suivante, il ajouta deux autres mois supplémentaires, entre novembre et décembre, à celle où se fut cette réforme ; et elle fut ainsi de quinze mois, avec l'ancien mois intercalaire, qui, selon l'usage, s'était présenté cette année-là. »95.+
Le nom de César, pris par Octave comme fils adoptif de J. César, devint par la suite un titre que portèrent tous les empereurs et les princes romains, quoique étrangers à la famille des Césars. Il fut ensuite attribué aux héritiers présomptifs de l'empire, usage qui devint une règle à partir de Dioclétien. Depuis cette époque les empereurs prirent le titre d'Auguste et s'adjoignirent avec le titre de César un prince qui devait leur succéder. Le nom de César a donné le mot « Kaiser » en allemand, ainsi que le mot « Tsar » (ou « Czar ») en russe et en bulgare.
+Pline l'Ancien a avancé que le surnom de Caesar pourrait venir du fait qu'un des ascendants de César soit né par césarienne (caesar, aris : enfant né par incision). En revanche et quoi qu'en dise Pline l'Ancien, la naissance de César lui-même par césarienne est invraisemblable, car sa mère vécut encore une vingtaine d'années après sa naissance.
+Une tradition populaire postule que c'est à la suite d'un exploit accompli pendant la Première Guerre punique par un représentant de la gens Julia, qui avait vaincu au cours d'un combat un éléphant de l'armée carthaginoise, en lui tranchant les jarrets, qu'on l'aurait honoré du surnom de Caesor, « trancheur ». Puis le terme punique késar, « éléphant », donna caesar, et le sobriquet devint héréditaire. La découverte de monnaies émises au début de la guerre civile, représentant un éléphant piétinant un serpent (ou un carnyx) au-dessus du nom « Caesar », semble étayer cette thèse. Cet ancêtre glorieux serait à placer aux environs de 250 av. J.-C.. Mais le premier membre de la gens Julia à être enregistré de manière historiquement fiable est Sextus Julius Caesar qui fut préteur en 208 av. J.-C..
+Enfin, une dernière hypothèse émise par Sextus Pompeius Festus considère que le premier César de la gens Julia aurait eu été surnommé ainsi à cause d'une abondante chevelure, en latin caesaries.
+L'auteur latin Spartianus dans son ouvrage Vie d'Aelius, fait une synthèse des différentes origines possibles du nom César :
+« Les conjectures auxquelles a donné lieu le nom de César, le seul titre qu'ait porté le prince dont j'écris la vie, me paraissant devoir y être rapportées, je dirai que, suivant l'opinion des plus doctes et plus savants auteurs, ce mot vient de ce que le premier qui fut ainsi nommé avait tué dans un combat un éléphant, animal appelé Caesa dans la langue des Maures ; ou de ce qu'il fallut, pour lui donner le jour, faire à sa mère, qui était morte avant de le mettre au monde, l'opération appelée césarienne ; ou de ce qu'il naquit avec de longs cheveux ; ou enfin de ce que ses yeux étaient d'un bleu céleste et d'une vivacité extraordinaire. Mais il faut proclamer heureuse la nécessité, quelle qu'elle fût, de créer un nom devenu si fameux, et qui durera l'éternité du monde. »+
Le père de Jules César, Caius Julius Caesar III, né vers 135 av. J.-C. et mort en 85 av. J.-C., est le fils de Caius Julius Caesar II. Issu d'une famille patricienne comptant plusieurs consuls (Sextus Julius Caesar II et Sextus Julius Caesar III) il exerce au cours de sa vie les fonctions de questeur (99 av. J.-C. ou 98 av. J.-C.), préteur (92 av. J.-C.) puis gouverneur d'Asie (91 av. J.-C.). Il meurt brusquement de cause naturelle à Pisae en 85 av. J.-C.19.
+Sa mère Aurelia Cotta, née en 120 av. J.-C. et morte en 54 av. J.-C. ou 53 av. J.-C.146, est issue d'une famille patricienne et consulaire (ses trois frères furent consuls). Pour Tacite et Plutarque, elle incarne la matrone romaine, exemplaire par l'éducation et le dévouement qu'elle porte à ses enfants et à sa famille et en particulier à son fils. Devenue veuve en 85 av. J.-C., elle ne se remarie pas et continue d'habiter avec ce dernier.
+À l'exception de César, Caius Julius Caesar III et Aurelia Cotta ont eu deux autres enfants, deux filles, Julia Caesaris « Maior » (l'ancienne) et Julia Caesaris « Minor » (la jeune).
+Les informations concernant Julia Caesaris « Maior » sont peu nombreuses. Suétone confirme l'existence de cette dernière car elle aurait selon lui participé à l'accusation de Clodius Pulcher poursuivi pour sacrilège et adultère. Elle avait au moins un fils, car différents auteurs mentionnent la part réservée à cet enfant dans le testament de César.
+Julia Caesaris « Minor » naît en 101 av. J.-C. et meurt en 51 av. J.-C.153. Elle épouse Marcus Atius Balbus, originaire d'Aricie et est la mère de Atia Balba Caesonia et la grand-mère d'Octave, qui sera adopté par César et deviendra l'empereur Auguste.
+Selon Suétone, Cossutia fut la première femme de César, dont il divorça pour épouser Cornelia (la mère de sa fille Julia) pour des motifs politiques : « et quoiqu'on l'eût fiancé, dès son enfance, à Cossutia, d'une simple famille équestre, mais fort riche, il la répudia, pour épouser Cornélie, fille de Cinna, lequel avait été quatre fois consul (dimissa Cossutia quae familia equestri sed admorum dives praetextato desponsata furat...) »1 154.
+L'examen des rares sources et la compilation des études sur le sujet mènent à dégager l'hypothèse suivante. César, venant juste de revêtir la toge virile, a épousé Cossutia, issue d'une riche famille de l'ordre équestre, entre juillet 85 av. J.-C. et juillet 84 av. J.-C. (sans doute à l'instigation de ses parents et pour des raisons financières, la famille n'étant pas spécialement riche) et en divorça l'année suivante, sous le consulat de Lucius Cornelius Cinna, dont il épousa la fille, Cornelia (un choix plus personnel traduisant une orientation politique qui ne s'est jamais démentie par la suite, César, bien qu'encore très jeune étant devenu le chef de famille à la mort de son père).
+Plutarque, quant à lui, n'apporte pas une solution satisfaisante, car le récit qu'il fait de la vie de César comporte certaines incohérences :
+« Au retour de sa questure, il épousa en troisièmes noces Pompeia ; il avait de Cornélia, sa première femme, une fille, qui par la suite fut mariée au grand Pompée. » Le passage comporte une contradiction que Napoléon III avait déjà relevée en son temps. Enfin, si Pompeia Sylla est la troisième femme de César, et Cornélia sa première, Plutarque ne mentionne pas l'identité de sa seconde épouse. Il semble plus vraisemblable que Cornélia fut la seconde épouse de César et Cossutia sa première.
+En 68 av. J.-C., après avoir exercé les fonctions de questeur en Hispanie, César épouse Pompeia Sylla, car sa première femme Cornélia était morte l'année précédente.
+Cinq ans plus tard, en 63 av. J.-C., César est élu pontifex maximus et décide de divorcer suite aux relations supposées entre sa femme et un jeune patricien, Clodius Pulcher.
+Enfin, en 59 av. J.-C., il épouse Calpurnia Pisonis avec laquelle il restera lié jusqu'à sa mort en 44 av. J.-C..
+Cornelia Cinna lui donne son unique enfant légitime, une fille prénommée Julia, qui naît en 83 av. J.-C. ou 82 av. J.-C. et épouse Pompée en 60 av. J.-C.. Elle meurt en 54 av. J.-C..
+Au cours de son séjour en Égypte, César entretient des relations avec Cléopâtre VII qui accouchera plus tard (vers 47 av. J.-C., ou plus probablement vers 44 av. J.-C.) d'un enfant, Ptolémée XV dit Césarion. Cependant, la paternité de César envers cet enfant est discutée par les historiens et semble déjà être l'objet d'une polémique peu de temps après la mort du dictateur. Césarion est assassiné très jeune (15 ou 17 ans) par Auguste, le fils adoptif de César et premier empereur romain.
+En 46 av. J.-C., César, sans descendance légitime, adopte son petit-neveu Octave par testament qui, selon l'usage romain en cas d'adoption, est désormais appelé Caius Julius Cæsar Octavianus (Octavien). Il deviendra plus tard Auguste, premier empereur de Rome.
+Enfin, César est peut-être le père de Brutus, qu'il aurait eu avec Servilia Caepionis en 85 av. J.-C.. En effet, Plutarque dans son oeuvre, Vie de Brutus, rapporte la bienveillance de César envers celui-ci158 et la croyance qu'il avait acquise d'être le père naturel, l'enfant étant né durant la période où il fréquentait Servilia Caepionis.
+D'après l'historien latin Suétone, César séduit de nombreuses femmes tout au long de sa vie et plus particulièrement celles issues de la haute société romaine.
+Il aurait ainsi séduit Postumia, la femme de Servius Sulpicius, Lollia, la femme d'Aulus Gabinius et Tertulla, la femme de Marcus Crassus. Il semble avoir également fréquenté Mucia la femme de Pompée.
+César entretient des relations particulières avec Servilia Caepionis, mère de Brutus, qu'il semblait particulièrement apprécier. Ainsi, Suétone rapporte les divers présents et avantages qu'il offrit à sa bien-aimée, dont notamment une magnifique perle d'une valeur de six millions de sesterces. L'amour de Servilia pour César est publiquement connu à Rome.
+Le penchant de César pour les plaisirs de l'amour semble également attesté par ces quelques vers chantés par ses soldats, lors de son triomphe à Rome au retour de ses campagnes en Gaule, et rapportés par Suétone :
+« Citoyens, surveillez vos femmes : nous amenons un adultère chauve Tu as forniqué en Gaule avec l'or emprunté à Rome. »+
César a des relations amoureuses avec Eunoé, femme de Bogud, roi de Mauritanie.
+Cependant, sa relation avec Cléopâtre VII est restée plus célèbre. Suétone rapporte que César a remonté le Nil avec la reine égyptienne et l'a fait venir à Rome en la comblant d'honneurs et de présents. C'est aussi un bon moyen pour lui de tenir l'Égypte, où trois légions sont présentes, et dont le rôle dans l'approvisionnement en céréales de l'Italie commence à devenir prépondérant. Toujours est-il que Cléopâtre est présente à Rome au moment de l'assassinat de César et qu'elle rentre rapidement dans son pays après le meurtre.
+Selon l'historien grec Plutarque la santé de César était fragile, ce dernier étant en effet sujet à de fréquents maux de tête et à des attaques d'épilepsie,168,169.
+Cette faiblesse de César et son mauvais état de santé semblent également être attestés par Suétone,172,173. Toutefois, Suétone souligne aussi l'endurance de César à la marche ou à la nage lors de ses campagnes.
+D'autres auteurs font état, quant à eux, de malaises survenus à la toute fin de sa vie.
+Néanmoins, César n'aurait pas pu commander aussi efficacement ses troupes en Gaule s'il avait été en mauvaise santé. Quelle que soit la maladie l'affectant, il ne semble l'avoir éprouvée que tardivement. Les attestations de son « épilepsie » datent seulement des dernières années de sa vie (à Thapsus et peut-être à Munda). S'il en avait été autrement, Cicéron qui ne le portait pas dans son coeur, ne se serait sûrement pas privé de l'attaquer sur le sujet comme il l'a fait à propos d'une prétendue aventure avec le roi Nicomède IV de Bithynie.
+De plus, il faut se souvenir que le diagnostic des maladies n'obéissait pas aux mêmes critères qu'aujourd'hui et que des symptômes ressemblant à ceux décrits très imprécisément par Plutarque et Suétone peuvent être dus à de nombreuses autres causes (hypoglycémie, malaise vagal, coup sur la tête, tumeur etc.). Certaines de ces affections peuvent également s'accompagner d'une altération du comportement et il semble que cela ait été le cas pendant les derniers mois que César passa à Rome avant d'être assassiné. La lecture de ces documents, qui n'ont pas été rédigés par des contemporains, ne permet pas de trancher de manière définitive.
+Il est également fort probable qu'un filtrage des sources de l'époque ait été opéré par Auguste, censurant tout ce qui ne s'inscrivait pas dans le cadre de sa propagande (y compris et surtout les oeuvres de César autres que les Commentaires). César est mort entre 56 et 58 ans, ce qui constitue un âge honorable et une longue durée de vie pour l'époque. La vie tumultueuse qu'il a menée, aura sûrement laissé des traces, étant donné qu'il ne se ménageait pas.
+Jules César fait partie des personnages historiques les plus saillants de la culture mondiale. Sa popularité ne cesse de croître dès le xiie siècle avec la diffusion du motif des Neuf Preux, neuf grandes figures historiques ou mythiques qui incarnent l'idéal du roi chevalier. De cette tradition subsiste encore aujourd'hui le roi de carreaux de nos jeux de cartes.
+Contenu soumis à la GFDL
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Léonard de Vinci (Leonardo di ser Piero da Vinci écouter, dit Leonardo da Vinci), né à Vinci le 15 avril 1452 et mort à Amboise le 2 mai 1519, est un peintre florentin et un homme d'esprit universel, à la fois artiste, scientifique, ingénieur, inventeur, anatomiste, peintre, sculpteur, architecte, urbaniste, botaniste, musicien, poète, philosophe et écrivain.
+Après son enfance à Vinci, Léonard est élève auprès du célèbre peintre florentin Andrea del Verrocchio. Ses premiers travaux importants sont réalisés au service du duc Ludovic Sforza à Milan. Il oeuvre ensuite à Rome, Bologne et Venise et passe les dernières années de sa vie en France, à l'invitation du roi François Ier.
+Léonard de Vinci est souvent décrit comme l'archétype et le symbole de l'homme de la Renaissance, un génie universel et un philosophe humaniste dont la curiosité infinie est seulement égalée par la force d'invention. Il est considéré comme un des plus grands peintres de tous les temps et peut-être la personne la plus talentueuse dans le plus grand nombre de domaines différents ayant jamais vécu.
+C'est d'abord comme peintre que Léonard de Vinci est reconnu. Deux de ses oeuvres, La Joconde et La Cène, sont des peintures très célèbres, souvent copiées et parodiées, et son dessin de l'Homme de Vitruve est également repris dans de nombreux travaux dérivés. Seules une quinzaine d'oeuvres sont parvenues jusqu'à nous ; ce petit nombre est dû à ses expérimentations constantes et parfois désastreuses de nouvelles techniques et à sa procrastination chronique. Néanmoins, ces quelques oeuvres, jointes à ses carnets, qui contiennent des dessins, des diagrammes scientifiques et des réflexions sur la nature de la peinture, sont un legs aux générations suivantes d'artistes seulement égalé par Michel-Ange.
+Comme ingénieur et inventeur, Léonard développe des idées très en avance sur son temps, depuis l'hélicoptère, le char de combat, le sous-marin jusqu'à l'automobile. Très peu de ses projets sont construits, ou même seulement réalisables de son vivant, mais certaines de ses plus petites inventions comme une machine pour mesurer la limite élastique d'un câble entrent dans le monde de la manufacture. En tant que scientifique, Léonard de Vinci a beaucoup fait progresser la connaissance dans les domaines de l'anatomie, du génie civil, de l'optique et de l'hydrodynamique.
+Léonard de Vinci est né le samedi 15 avril 1452 « à la troisième heure de la nuit », c'est-à-dire trois heures après l'Ave Maria, soit 22 h 303, au château de Vinci près de Florence, d'une relation amoureuse illégitime entre son père, Messer Piero Fruosino di Antonio da Vinci, notaire, chancelier et ambassadeur de la République florentine et descendant d'une riche famille de notables italiens, et sa mère, Caterina, une humble fille de paysans, dans le petit village toscan d'Anchiano, un village situé à deux kilomètres de Vinci, sur le territoire de Florence en Italie. Une étude en 2006 note qu'il semble probable que Caterina soit une esclave venue du Moyen-Orient.
+Léonard, ou plutôt Lionardo selon son nom de baptême, est baptisé puis passe ses cinq premières années chez son père à Vinci, où il est traité comme un enfant légitime. Il a cinq marraines et cinq parrains, tous habitant le village. Il reçoit une instruction et acquiert ainsi la lecture, l'écriture et l'arithmétique. Néanmoins, il n'étudie pas sérieusement le latin, base de l'enseignement traditionnel, et une orthographe chaotique montre que cette instruction n'est pas sans lacune : en tout cas, elle ne fut pas celle d'un universitaire.
+À cette époque, les conventions d'appellation modernes ne se sont pas encore développées en Europe. Seules les grandes familles font usage du nom de leur appartenance patronymique. L'homme du peuple est désigné par son prénom auquel on adjoint toute précision utile : le nom du père, le lieu d'origine, un surnom, le nom du maître pour un artisan, etc. Par conséquent, le nom de l'artiste est Leonardo di ser Piero Da Vinci, ce qui signifie Leonardo, fils de maître Piero De Vinci ; néanmoins le « Da » porte une majuscule afin de distinguer qu'il s'agit d'un patronyme. Léonard lui-même signe simplement ses travaux Leonardo ou Io, Leonardo (« Moi, Léonard »). La plupart des autorités rapportent donc ses travaux à Leonardo sans le da Vinci. Vraisemblablement, il n'emploie pas le nom de son père parce qu'il est un enfant illégitime. « Vinci » provient du nom des « vinchi », plantes assimilables à des joncs, utilisées dans l'artisanat toscan et poussant près du ruisseau Vincio.
+En 1457, il a 5 ans quand sa mère se marie avec Antonio di Piero Buti del Vacca da Vinci, un paysan de la ville, avec lequel elle aura cinq enfants. Il est alors admis dans la maison de la famille de son père, du village de Vinci, qui, entre-temps, a épousé une jeune fille d'une riche famille de Florence, âgée de 16 ans, Albiera degli Amadori. Celle-ci, sans enfants, reporte toute son affection sur Léonard, mais elle meurt très jeune en couches en 14643. Considéré dès sa naissance comme un fils à part entière par son père, il ne fut cependant jamais légitimé. Son père se maria quatre fois et lui donna dix frères et deux soeurs légitimes venus après Léonard. Il aura de bons rapports avec la dernière femme de son père, Lucrezia Guglielmo Cortigiani, et laissera une note l'appelant « chère et douce mère »3.
+Sa grand-mère paternelle, Lucia di ser Piero di Zoso, céramiste et proche de Léonard, est peut-être la personne qui l'initia aux arts. Un présage connu rapporte qu'un milan venu du ciel aurait fait un vol stationnaire au-dessus de son berceau, la queue de l'oiseau le touchant au visage.
+Giorgio Vasari, le biographe du xvie siècle des peintres de la Renaissance, raconte, dans Le Vite (1568), l'histoire d'un paysan local qui demanda à ser Piero que son talentueux fils peigne une image sur une plaque. Léonard peignit une image représentant un dragon crachant du feu, si réussie que ser Piero la vendit à un marchand d'art florentin, qui lui-même la revendit au duc de Milan. Entre-temps, après avoir réalisé un bénéfice, ser Piero acheta une plaque décorée d'un coeur transpercé d'une flèche, qu'il donna au paysan.
+Le jeune Léonard est proche de la nature, qu'il observe avec une vive curiosité et s'intéresse à tout. Il dessine déjà des caricatures et pratique l'écriture spéculaire en dialecte toscan. Giorgio Vasari, dans sa biographie de Léonard, raconte une anecdote sur les premiers pas dans la carrière artistique de celui qui allait devenir un des plus grands peintres de la Renaissance. Un jour, le père de Léonard, ser Piero, « prit plusieurs de ses dessins et les soumit à son ami Andrea del Verrocchio qu'il pria instamment de lui dire si Léonard devait se consacrer à l'art du dessin et s'il pourrait parvenir à quelque chose en cette matière. Andrea s'étonna fort des débuts extraordinaires de Léonard et exhorta ser Piero à lui permettre de choisir ce métier, sur quoi, ser Piero résolut que Léonard entrerait à l'atelier d'Andrea. Léonard ne se fit pas prier ; non content d'exercer ce métier, il exerça ensuite tous ceux qui se rattachent à l'art du dessin. » C'est ainsi que Léonard est placé comme élève apprenti à partir de 1469 dans un des plus prestigieux ateliers d'art de la Renaissance de Florence sous le patronage d'Andrea del Verrocchio à qui il doit sa formation multidisciplinaire d'excellence, où il côtoie d'autres artistes comme Sandro Botticelli, Le Pérugin et Domenico Ghirlandaio. En effet, jusqu'en 1468, Léonard est recensé comme résident de la commune de Vinci mais il est très souvent à Florence où son père travaille.
+Verrocchio est un artiste renommé très éclectique : orfèvre et forgeron de formation, peintre, sculpteur et fondeur qui travaille notamment pour le riche mécène Laurent de Médicis. Les commandes principales sont des retables et des statues commémoratives pour les églises. Cependant, les plus grandes commandes sont des fresques pour les chapelles, comme celles créées par Domenico Ghirlandaio et son atelier pour la Chapelle Tornabuoni et de grandes statues telles que les statues équestres de Gattamelata par Donatello et Bartolomeo Colleoni de Verrocchio. Léonard travaille également avec Antonio Pollaiuolo dont l'atelier est proche de celui de Verrocchio.
+Après un an passé au nettoyage des pinceaux et autres petits travaux d'apprenti, Léonard est initié par Verrocchio aux nombreuses techniques pratiquées dans un atelier traditionnel, bien que certains artisans soient spécialisés dans des tâches telles que l'encadrement, les dorures et le travail du bronze. Il a donc eu l'occasion d'apprendre notamment des bases de la chimie, de la métallurgie, du travail du cuir et du plâtre, de la mécanique et de la menuiserie, ainsi que des techniques artistiques de dessin, de peinture et de sculpture sur marbre et sur bronze. Il est également initié à la préparation des couleurs, à la gravure et à la peinture des fresques. Par la suite, Verrocchio confie à son élève, qu'il trouve exceptionnel, le soin privilégié de terminer ses tableaux. Mais la formation reçue lors de son apprentissage à l'atelier Verrochio semble plus large encore. Léonard acquiert la connaissance du calcul algorithmique et il cite les deux abacistes florentins les plus en vue, Paolo Toscanelli del Pazzo et Leonardo Chernionese. Plus tard, Léonard paraît bien faire allusion à la Nobel opera de arithmética, de Piero Borgi, imprimée à Venise en 1484, et qui représente bien la science de ces écoles d'abaques.
+Il n'y a pas d'oeuvre de Léonard connue pendant cette période mais, selon Vasari, il aurait collaboré à une peinture nommée Le Baptême du Christ (1472 - 1475)12. C'est d'ailleurs, selon la légende, à cause de la qualité du petit ange peint par Vinci pour ce tableau que Verrocchio, se sentant surpassé par son jeune assistant, décide de ne plus peindre. Selon la tradition qui veut que ce soit l'apprenti qui prenne la pose, Léonard aurait servi de modèle à la statue en bronze de David de Verrocchio. Il est également supposé que l'Archange Raphaël dans l'oeuvre Tobie et l'Ange de Verrocchio est le portrait de Léonard.
+En 1472, à l'âge de 20 ans, il est enregistré dans le « Livre rouge » de la guilde de saint Luc, célèbre guilde des artistes peintres et des docteurs en médecine de Florence, le Campagnia de Pittori. Il y a quelques traces de cette période de la vie de Léonard, dont la date d'un de ses premiers travaux, un dessin fait à la plume et à l'encre, Paysage de Santa Maria della neve (1473). Par la suite, sa carrière de peintre débute par des oeuvres immédiatement remarquables telles que L'Annonciation (1472 - 1475). Il améliore la technique du sfumato (impression de brume) à un point de raffinement jamais atteint avant lui.
+Il est toujours mentionné en 1476 comme assistant de Verrocchio, car, même après que son père lui eut mis en place son propre atelier, son attachement à Verrocchio est tel qu'il a continué à collaborer avec lui. Pendant cette période, il reçoit des commandes personnelles et peint son premier tableau, La Madone à l'oeillet (1476).
+Léonard s'affirme presque tout de suite comme un ingénieur : en 1478, il offre de soulever, sans en causer la ruine, l'église octogone de Saint-Jean de Florence, le baptistère actuel, pour y ajouter un soubassement.
+Les archives judiciaires de 1476 montrent que, avec trois autres hommes, il a été accusé de sodomie, pratique à l'époque illégale à Florence, mais tous ont été acquittés des charges retenues, probablement grâce à l'intervention de Laurent de Médicis. Ce document partant d'une accusation anonyme ne permet cependant pas d'affirmer avec certitude que Léonard était homosexuel.
+Deux années plus tard, à 26 ans, il quitte son maître après l'avoir brillamment dépassé dans toutes les disciplines. Léonard de Vinci devient alors maître-peintre indépendant.
+En 1481, le monastère de San Donato lui commande L'Adoration des mages (1481), mais Léonard ne terminera jamais ce tableau, probablement déçu ou vexé de ne pas être choisi par le pape Sixte IV pour la décoration de la chapelle Sixtine du Vatican à Rome, où il est en concurrence avec plusieurs peintres. Le néoplatonisme en vogue à l'époque à Florence joue peut-être également un rôle dans son départ vers une ville plus académique et pragmatique comme Milan. Cela est probablement plus en phase avec son esprit, basé sur un développement empirique, grâce à ses multiples expériences.
+Vinci peint La Vierge aux rochers (1483 - 1486) pour la confraternité de l'Immaculée Conception à la chapelle San Francesco Grande de Milan, mais ce tableau sera au centre d'un conflit entre l'auteur et ses commanditaires pendant plusieurs années. En effet, Léonard s'engage avec le droit de pouvoir copier l'oeuvre mais cela lui est refusé par la suite, il est donc contraint de stopper son travail, provoquant du retard. Le problème ne sera résolu que par des décisions de justice et les interventions d'amis.
+À Florence, le travail de Léonard ne passe pas inaperçu. Laurent de Médicis apprend que Léonard a créé une lyre argentée en forme de tête de cheval. Impressionné par son travail, il envoie Léonard à Milan comme émissaire et pour qu'il travaille pour le mécène et duc de Milan, Ludovic Sforza. Le but de cette manoeuvre est de rester en bonnes relations avec ce rival important. Il est très probablement accompagné par le musicien Atalante Migliorotti. Il écrit également une lettre à Ludovic, lettre qui figure dans le codex Atlantico, qui décrit les nombreuses et diverses choses merveilleuses qu'il pourrait faire dans le domaine de l'ingénierie et informe le seigneur qu'il peut aussi peindre. Ce texte est bien dans la tradition des ingénieurs qui l'ont précédé, il reprend le même programme, les mêmes curiosités et les mêmes recherches : désormais, c'est bien en ingénieur que Léonard va vivre et travailler. Sforza l'emploie à des tâches diverses sous le titre mythique d'« Apelle florentin », réservé aux grands peintres. L'artiste est ainsi « ordonnateur de fêtes et spectacles aux décors somptueux » du palais et invente des machines de théâtre qui émerveillent le public ; il peint plusieurs portraits de la cour milanaise. Léonard de Vinci est porté sur la liste des ingénieurs des Sforza et lorsqu'on l'envoie à Pavie, il est qualifié d' « ingeniarius ducalis ». Mais des contacts avec les cercles éclairés de Milan lui montrent également toutes les lacunes de sa formation.
+Il s'occupe également de l'étude pour le dôme de la cathédrale de Milan et d'une version en argile pour faire un moule pour le « Gran Cavallo » (« Il Cavallo », le cheval de Léonard), une imposante statue équestre en l'honneur de Francesco Sforza, le père et prédécesseur de Ludovic, faite de soixante-dix tonnes de bronze, ce qui constitue une véritable prouesse technique pour l'époque. Cette statue reste inachevée plusieurs années, Michel-Ange reconnaissant lui-même qu'il est incapable de la fondre. Lorsque Léonard finit la version en argile pour le moule et ses plans pour le processus de fonte, le bronze prévu pour la statue est utilisé à la création de canons pour défendre la ville de l'invasion de Charles VIII de France.
+En 1490, il participe à une sorte de congrès d'architectes et d'ingénieurs, réunis pour l'achèvement du Dôme de Milan et fait la connaissance d'un autre ingénieur dont la renommée est bien établie, Francesco di Giorgio Martini. Ce dernier l'emmène à Parme, avec Giovanni Antonio Amadeo et Luca Fancelli, où on lui a demandé une autre consultation pour la construction de la cathédrale.
+C'est à cette époque que Léonard réfléchit à des projets techniques et militaires. Il améliore les horloges, le métier à tisser, les grues et de nombreux autres outils. Il étudie aussi l'urbanisme et propose des plans de cités idéales. Il s'intéresse à l'aménagement hydraulique et un document de 1498 le cite comme ingénieur et chargé de travaux sur les fleuves et les canaux. Bien que vivant à Milan entre 1493 et 1495, Léonard a noté dans ses documents d'imposition qu'il a, à sa charge, une femme appelée Caterina. À la mort de celle-ci, en 1495, la liste détaillée des dépenses relatives à ses funérailles laisse à penser que c'était sa mère plutôt qu'une servante.
+Vers 1490, il crée une académie portant son nom où il enseigne pendant quelques années son savoir tout en notant ses recherches dans de petits traités. La fresque La Cène (1494 - 1498) est peinte pour le couvent dominicain de Santa Maria delle Grazie. En 1496, Luca Pacioli arrive à Milan ; Léonard de Vinci se lie tout de suite d'amitié et réalise pour lui les planches gravées de la Divina proportione. Un peu plus tard, en 1498, il réalise le plafond du château des Sforza.
+En 1499, lorsque les troupes de Louis XII de France prennent le Duché de Milan et destituent Ludovic Sforza, qui s'enfuit en Allemagne chez son neveu Maximilien Ier du Saint Empire, sa statue équestre en argile est détruite par les Français, qui l'utilisent comme cible d'entraînement. Louis XII revendique ses droits à la succession des Visconti. Louis XII envisage de découper le mur représentant La Cène pour l'emporter en France, comme l'imaginera également Napoléon Ier quelques siècles plus tard. Avec la chute de Sforza, Léonard entre au service du comte de Ligny, Louis de Luxembourg, qui lui demande de préparer un rapport sur l'état de la défense militaire de la Toscane. Le retour inopiné de Ludovic Sforza modifie ses projets et, avec son assistant Salai, il fuit Milan en février 1499 pour Mantoue puis Venise.
+En mars 1499, Léonard de Vinci est alors employé comme architecte et ingénieur militaire par les Vénitiens, qui cherchent à protéger leur cité. Il élabore des méthodes pour défendre la ville d'une attaque navale des Turcs avec, notamment, l'invention d'un scaphandre à casque rudimentaire. Les Turcs n'attaquant pas, l'invention ne sera jamais utilisée et, fin avril, il est de retour à Florence. Il étudie les cours d'eau du Frioul et propose un relèvement du cours de l'Isonzo par des écluses, de façon à pouvoir inonder toute une région qui couvrait les approches de Venise.
+En avril 1500, il revient à Venise pour deux mois, après avoir séjourné à Mantoue, en compagnie du moine mathématicien Luca Pacioli, où il fut fortement remarqué pour un portrait d'Isabelle d'Este. Une lettre du 14 avril 1501, par laquelle Fra Pietro da Nuvolaria répond à la duchesse de Mantoue, indique que « ses expériences mathématiques l'ont tellement détourné de la peinture, qu'il ne peut plus supporter le pinceau. » Ainsi, Léonard de Vinci poursuivait bien des recherches plus larges. Il séjourne dans le couvent de la Santissima Annunziata en 1501 et reçoit la consécration pour l'esquisse préparatoire La Vierge, l'Enfant Jésus avec sainte Anne et saint Jean Baptiste, une oeuvre qui provoque une telle admiration que « hommes et femmes, jeunes et vieux » viennent la voir « comme s'ils participaient à un grand festival ». Il fait un bref séjour à Rome à la villa d'Hadrien à Tivoli. Il travaille La Madone aux fuseaux pour Florimond Robertet, le secrétaire d'État de Louis XII de France.
+En 1502, il est appelé par le prince César Borgia, duc de Valentinois et fils du pape Alexandre VI, avec le titre de « capitaine et ingénieur général ». Il séjourne dans les Marches et la Romagne pour inspecter les forteresses et les territoires nouvellement conquis, remplissant ses carnets de ses multiples observations, cartes, croquis de travail et copies d'ouvrages consultés dans les bibliothèques des villes qu'il traverse. Il rencontre Nicolas Machiavel, « espion » de Florence au service de Borgia.
+Le 18 octobre 1503, il retourne à Florence où il remplit les fonctions d'architecte et d'ingénieur hydraulicien. Il se réinscript à la guilde de saint Luc et passe deux années à préparer et faire La bataille d'Anghiari (1503 - 1505), une fresque murale imposante de sept mètres sur dix-sept, avec Michel-Ange faisant La bataille de Cascina sur la paroi opposée. Les deux oeuvres seront perdues, la peinture de Michel-Ange est connue à partir d'une copie d'Aristotole da Sangallo en 154224 et la peinture de Léonard est connue uniquement à partir de croquis préparatoires et de plusieurs copies de la section centrale, dont la plus connue est probablement celle de Pierre Paul Rubens. Un feu utilisé pour sécher plus rapidement la peinture ou la qualité du matériel semblent être à l'origine de l'altération de l'oeuvre, laquelle a par la suite probablement été recouverte par une fresque de Giorgio Vasari.
+Léonard est consulté à plusieurs reprises comme expert, notamment pour étudier la stabilité du campanile de San Miniato al Monte et lors du choix de l'emplacement du David de Michel-Ange où son avis s'oppose à celui de Michel-Ange. C'est à cette période qu'il présente à la cité de Florence son projet de déviation de l'Arno destiné à créer une voie navigable capable de relier Florence à la mer avec la maîtrise des terribles inondations. Cette période est importante pour la formation scientifique de Léonard qui, dans ses recherches hydrauliques, pratique l'expérience. En 1504, il revient travailler à Milan, qui est désormais sous le contrôle de Maximilien Sforza, grâce au soutien des mercenaires suisses. Beaucoup des élèves et des adeptes les plus en vue dans la peinture connaissent ou travaillent avec Léonard à Milan, y compris Bernardino Luini, Giovanni Antonio Boltraffio et Marco d'Oggiono. Son père meurt le 9 juillet, et Léonard est écarté de l'héritage en raison de son illégitimité, mais son oncle fera plus tard de lui son légataire universel. La même année, Vinci réalise des études anatomiques et tente de classer ses innombrables notes. Léonard commence à travailler La Joconde (1503 - 1506 puis 1510 - 1515), qui est habituellement considérée comme un portrait de Mona Lisa del Giocondo, née Lisa Maria Gherardini. Cependant, de nombreuses interprétations au sujet de ce tableau sont encore discutées.
+En 1505, il étudie le vol des oiseaux et rédige le codex de Turin. Désormais, observations, expériences et reconstructions a posteriori se succèdent. Une année plus tard, le gouvernement de Florence lui permet de rejoindre le gouverneur français de Milan Charles d'Amboise, qui le retient auprès de lui malgré les protestations de la seigneurie. Léonard est tiraillé entre Français et Toscans ; il est pressé par le tribunal de finir La Vierge aux rochers avec son élève Ambrogio de Predis alors qu'il travaille sur La bataille d'Anghiari.
+Le peintre devient l'unique héritier de son oncle Francesco en 1507, mais les frères de Léonard entament une procédure pour casser le testament. Léonard fait appel à Charles d'Amboise et Florimond Robertet pour qu'ils interviennent en sa faveur. Louis XII de France est à Milan, et Léonard est de nouveau l'ordonnateur des fêtes données dans la capitale lombarde.
+En 1508, il vit dans la maison de Piero di Braccio Martelli avec le sculpteur Giovanni Francesco Rustici à Florence mais part habiter à Milan, à la Porta Orientale dans la paroisse de Santa Babila. Louis XII revient bientôt en Italie et entre à Milan en mai 1509. Presque aussitôt, il dirige ses armées contre Venise, et Léonard suit le roi en qualité d'ingénieur militaire ; il assiste à la bataille d'Agnadel. À la mort du gouverneur Charles d'Amboise en 1511 et après la bataille de Ravenne en 1512, la France quitte le Milanais. Cette seconde période milanaise permet à Léonard de Vinci d'approfondir ses recherches en science pure. La parution en 1509 du De expendentis et fugiendis rebus de Giorgio Valla eut certainement une grande influence sur lui.
+En septembre 1513, Léonard de Vinci part pour Rome travailler pour le pape Léon X, membre de la riche et puissante famille des Médicis. Au Vatican, Raphaël et Michel-Ange sont tous deux très actifs à ce moment. Devant le succès des Sangallo, Léonard ne se voit confier que de modestes missions et semble n'avoir participé ni à la construction des nombreuses forteresses romaines qui marqueront l'évolution de la poliorcétique, ni à l'embellissement de la capitale. Pire, sa peinture elle-même ne semble plus de mise, et il se réfugie dans une autre spécialité, peut-être sa préférée, l'hydraulique, avec un projet d'assèchement des marais pontins, appartenant au duc Julien de Médicis. Léonard exécute, en 1514, la série des « Déluges », qui est une réponse partielle à la version offerte par Michel-Ange dans la chapelle Sixtine.
+« Les Médicis m'ont créé, les Médicis m'ont détruit », écrivit Léonard de Vinci, sans doute pour souligner les déceptions de son séjour romain. Sans doute pensait-il que jamais on ne lui laisserait donner sa mesure sur un chantier important. Sans doute connaissait-on aussi son instabilité, son découragement rapide, sa difficulté à terminer ce qu'il avait entrepris.
+En septembre 1515, le nouveau roi de France François Ier reconquiert le Milanais par la bataille de Marignan. En novembre 1515, Léonard se penche sur un nouveau projet d'aménagement du quartier Médicis à Florence. Le 19 décembre, il est présent à Bologne pour la réunion entre François Ier et le pape Léon X9,27,28. Francois Ier charge Léonard de concevoir un lion mécanique pouvant marcher et dont la poitrine s'ouvre pour révéler des lys. On ne sait pas pour quelle occasion ce lion a été conçu, mais il peut avoir été lié à l'arrivée du roi à Lyon ou aux pourparlers de paix entre le roi et le pape.
+Il part travailler en France en 1516 avec son assistant artiste peintre Francesco Melzi et Salai où son nouveau mécène et protecteur, le roi de France François Ier l'installe au manoir de son enfance, le clos Lucé, à proximité du château d'Amboise, la demeure de l'époque du roi, en tant que « premier peintre, premier ingénieur et premier architecte du roi » avec une pension annuelle de mille écus. Peut-être à la cour de France, s'intéressait-on plus au peintre, à l'artiste qu'à l'ingénieur et, jusque là, seuls des Français s'étaient attachés l'illustre Florentin en qualité d'artiste : en Italie il n'avait jamais été engagé que comme ingénieur. En lui donnant le clos Lucé, François Ier dit à Léonard : « Fais ce que tu veux ». Il n'est pas le premier artiste à recevoir cet honneur ; Andrea Solario et Fra Giovanni Giocondo l'avaient précédé quelques années avant. François Ier est fasciné par Léonard de Vinci et le considère comme un père. Le manoir et le château d'Amboise étaient d'ailleurs reliés par un souterrain permettant au souverain de rendre visite à l'homme de science en toute discrétion. Léonard projette la construction d'un nouveau palais à Romorantin avec le détournement d'un fleuve dans la Sauldre. Il esquisse un projet de canal entre la Loire et la Saône et organise des fêtes, comme celle que le roi donne au château d'Argenton en octobre 1517 en l'honneur de sa soeur.8
+Le 23 avril 1519, Léonard de Vinci, malade depuis de longs mois, rédige son testament devant un notaire d'Amboise. Il demande un prêtre pour recevoir sa confession et lui donner l'extrême onction. Il est emporté par la maladie le 2 mai 1519, au Clos Lucé, à l'âge de 67 ans. La tradition selon laquelle il mourut dans les bras de François Ier repose peut-être sur une interprétation erronément littérale d'une épitaphe rapportée par Giorgio Vasari. Cette épitaphe, qui n'a jamais été vue sur aucun monument, contient les mots « Sinu Regio », qui peuvent signifier, au sens propre sur la poitrine d'un roi, mais aussi, dans un sens métaphorique, dans l'affection d'un roi, et peuvent n'être qu'une allusion à la mort de Léonard dans un château royal. De plus, à cette époque, la cour est au château de Saint-Germain-en-Laye, où la reine accouche du roi Henri II de France, le 31 mars, et les ordonnances royales données le 1er mai sont datées de cet endroit. Le journal de François Ier ne signale d'ailleurs aucun voyage du roi jusqu'au mois de juillet. Pour finir, l'élève de Léonard de Vinci, Francesco Melzi, auquel il lègue ses livres et ses pinceaux et qui est dépositaire de son testament, écrit au frère du grand peintre une lettre où il raconte la mort de son maître. Pas un mot n'y fait allusion à la circonstance mentionnée plus haut qui, si elle avait été avérée, n'aurait certainement pas été oubliée.
+Selon ses dernières volontés, soixante mendiants suivent son cortège et il est enterré à la chapelle Saint-Hubert, qui est dans l'enceinte du château d'Amboise et domine la ville.
+Léonard de Vinci, toute sa vie célibataire et n'ayant jamais eu ni femme ni enfants, lègue l'ensemble de son oeuvre considérable pour la faire publier à son disciple préféré et élève depuis ses 10 ans, Francesco Melzi. Il lui offre notamment ses manuscrits, carnets, documents et instruments. Après l'avoir accompagné en France, il reste près de Léonard de Vinci jusqu'à sa mort et gère son héritage pendant les cinquante années suivant la mort de son maître. Cependant, il ne publiera rien de l'oeuvre de Léonard et de nombreuses peintures, dont la Joconde, se trouvaient encore en sa possession dans son atelier. Les vignes de Léonard seront divisées entre Salai, un autre élève et disciple très apprécié par Léonard et entré à son service à l'âge de 15 ans, et son servant Battista di Vilussis. Le terrain sera légué aux frères de Léonard, et sa servante reçut un manteau noir à bords de fourrure.
+C'est le début de la dispersion et la perte des deux tiers des cinquante mille documents originaux multidisciplinaires rédigés en vieux toscan et cryptés par Léonard de Vinci. Chaque carnet, manuscrit, page, croquis, dessin, texte et note est considéré comme une oeuvre d'art à part entière. Il ne resterait que treize mille documents environ.
+Vingt ans après la mort de Léonard, François Ier dira au sculpteur Benvenuto Cellini :
+« Il n'y a jamais eu un autre homme né au monde qui en savait autant que Léonard, pas autant en peinture, sculpture et architecture, comme il était un grand philosophe34. »+
Léonard commence son apprentissage avec Andrea del Verrocchio en 1466, année où le maître de Verrocchio, le grand sculpteur Donatello, meurt. Le peintre Paolo Uccello, dont les premières expériences avec la perspective influencèrent le développement de la peinture des paysages, est alors très âgé. De même, les peintres Piero della Francesca et Fra Filippo Lippi, le sculpteur Luca della Robbia et de l'architecte et écrivain Leon Battista Alberti ont environ 60 ans. Les artistes les plus renommés de la génération suivante sont le maître de Léonard : Andrea del Verrocchio, Antonio Pollaiuolo et le sculpteur Mino da Fiesole.
+La jeunesse de Léonard se déroule dans une maison de Florence ornée des oeuvres de ces artistes et par les contemporains de Donatello, Masaccio dont les fresques figuratives et réalistes sont imprégnées d'émotion, et Lorenzo Ghiberti, dont les Portes du Paradis montrent la complexité des compositions, alliant travaux architecturaux et soin des détails. Piero della Francesca a fait une étude détaillée de la perspective et est le premier peintre à faire une étude scientifique de la lumière. Ces études et les traités de Leone Battista Alberti doivent avoir un profond effet sur les jeunes artistes, et en particulier sur les propres observations de Léonard et ses oeuvres d'art,37.
+La représentation du nu de Masaccio montrant Adam et Ève quittant le paradis, avec Adam sans ses organes génitaux masqués par une feuille de vigne, crée une image très expressive des formes humaines qui influencera beaucoup la peinture, notamment parce qu'elles sont exprimées en trois dimensions par une utilisation novatrice de la lumière et de l'ombre, que Léonard développera dans ses propres oeuvres. L'humanisme de la Renaissance influençant le David de Donatello peut être vu dans les peintures les plus tardives de Léonard, en particulier Saint Jean Baptiste.
+Florence est dirigée à l'époque par Laurent de Médicis et son jeune frère Julien, tué par la conjuration des Pazzi en 1478. Ludovic Sforza, qui gouverne Milan entre 1479 et 1499 et chez qui Léonard a été envoyé comme ambassadeur de la cour des Médicis, est aussi son comptemporain. C'est également par l'intermédiaire des Médicis que Léonard fait la connaissance d'anciens philosophes humanistes dont Marsile Ficin, partisan du néoplatonisme, et Cristoforo Landino, auteur de commentaires sur les écrits classiques. Jean Pic de la Mirandole est également associé à l'académie des Médicis. Léonard écrit plus tard dans la marge d'un journal « Les Médicis m'ont fait et les Médicis m'ont détruit » ; mais le sens de ce commentaire reste discuté.
+Bien que l'on cite ensemble les trois « géants » de la haute Renaissance, Léonard de Vinci, Michel-Ange et Raphaël ne sont pas de la même génération. Léonard a 23 ans quand Michel-Ange est né et 31 ans à la naissance de Raphaël. Raphaël mourra en 1520, une année après de Vinci et Michel-Ange vivra encore quarante-cinq ans.
+Gian Giacomo Caprotti da Oreno, dit « il Salaino » (« le petit diable ») ou Salai, a été décrit par Giorgio Vasari comme « un gracieux et beau jeune homme avec des cheveux fins et bouclés, en lequel Léonard était grandement ravi ». Salai entre au service de Léonard en 1490 à l'âge de 10 ans. Leur relation n'est pas facile. Un an plus tard, Léonard fait une liste des délits du garçon, le qualifiant de « voleur », « menteur », « têtu » et « glouton ». Le « petit diable » avait volé de l'argent et des objets de valeur à au moins cinq reprises, et avait dépensé une fortune en vêtements, dont vingt-quatre paires de chaussures. Néanmoins, les carnets de Léonard des premières années de leur relation contiennent beaucoup d'images de l'adolescent. Salai est resté son serviteur et son assistant durant les trente années suivantes.
+En 1506, Léonard prend comme élève Francesco Melzi, âgé de 15 ans, fils d'un aristocrate Lombard. Melzi devient le compagnon de vie de Léonard et il est considéré comme son élève favori. Il se rend en France avec Léonard et Salai, et reste avec lui jusqu'à sa mort. Salai quitte cependant la France en 1518 pour retourner à Milan. Il y construit une maison dans le vignoble de la propriété de Léonard qu'il s'est finalement vu léguer. En 1525, Salai meurt d'une mort violente, soit assassiné, soit à la suite d'un duel.
+Salai exécute un certain nombre de tableaux sous le nom d'« Andrea Salai », mais, bien que Giorgio Vasari prétende que Léonard « lui a appris beaucoup de choses sur la peinture », son travail est généralement considéré comme étant de moindre valeur artistique que celui des autres élèves de Léonard, comme Marco d'Oggiono ou Giovanni Antonio Boltraffio. En 1515, il peint une version nue de La Joconde, dite « Monna Vanna ». À sa mort en 1525, la Joconde appartenant à Salai a été évaluée à cinq cent cinq lires, ce qui est une valeur exceptionnellement élevée pour un portrait de petite taille.
+Giovanni Antonio Boltraffio et Marco d'Oggiono rejoignent l'atelier de Léonard lorsqu'il est de retour à Milan, mais de nombreux autres élèves moins connus tels que Ambrogio de Predis, Bernardino dei Conti, Francesco Napoletano ou encore Andrea Solario sont aussi présents.
+Léonard de Vinci a eu beaucoup d'amis qui sont reconnus dans leurs domaines respectifs ou ont eu une influence importante sur l'Histoire. Il s'agit notamment du mathématicien Luca Pacioli avec qui il a collaboré pour un livre, César Borgia au service duquel il a passé deux années, Laurent de Médicis et le médecin Marcantonio della Torre. Il a rencontré Nicolas Machiavel, avec qui il développera plus tard une étroite amitié, et Michel-Ange avec qui il a été rival. Parmi ses amis, se trouvent également Franchini Gaffurio et Isabelle d'Este. Léonard semble ne pas avoir eu d'étroites relations avec les femmes, sauf avec Isabelle. Il a fait un portrait d'elle, au cours d'un voyage qui le mena à Mantoue, qui semble avoir été utilisé pour créer une peinture, aujourd'hui perdue. Il était également ami de l'architecte Jacopo Andrea da Ferrara jusqu'à son assassinat.
+Au-delà de l'amitié, Léonard garde sa vie privée secrète. De son vivant, ses capacités extraordinaires d'invention, son « exceptionnelle beauté physique », sa « grâce infinie », sa « grande force et générosité », la « formidable ampleur de son esprit », telles que décrites par Vasari, ont attisé la curiosité. De nombreux auteurs ont spéculé sur les différents aspects de la personnalité de Léonard. Sa sexualité a souvent été l'objet d'études, d'analyses et de spéculations. Cette tendance a commencé au milieu du xvie siècle et a été relancée au cours des xixe et xxe siècles, notamment par Sigmund Freud.
+Les relations les plus intimes de Léonard sont avec ses élèves : Salai et Francesco Melzi. Melzi a écrit que les sentiments de Léonard étaient un mélange d'amour et de passion. Il a été décrit depuis le xvie siècle que ces relations étaient d'un caractère érotique. Depuis cette date, on a beaucoup écrit au sujet de son homosexualité, voire de sa pédérastie présumée et du rôle de cette sexualité dans son art, en particulier dans l'impression androgyne et érotique qui se manifeste dans Bacchus et plus explicitement dans un certain nombre de ses dessins.
+Léonard est passionné par la nature et les animaux au point d'en devenir végétarien et d'acheter des oiseaux en cage pour leur rendre leur liberté. Il est également très bon musicien. Il est admis que Léonard était gaucher et ambidextre, ce qui expliquerait son utilisation de l'écriture spéculaire.
+Malgré la relative récente prise de conscience et l'admiration vouée à Léonard comme scientifique et inventeur, son immense renommée de la plus grande partie de ces quatre cents dernières années a reposé sur ses réalisations en tant que peintre et sur une poignée d'oeuvres, authentifiées ou lui étant attribuées qui ont été considérées comme faisant partie des plus beaux chefs-d'oeuvre jamais créés.
+Ces peintures sont célèbres pour de nombreuses raisons et qualités qui ont été beaucoup imitées par les étudiants et discutées très longuement par les connaisseurs et les critiques. Parmi les qualités qui font des travaux de Léonard des pièces uniques sont souvent citées les techniques novatrices qu'il a utilisées dans l'application de la peinture, sa connaissance approfondie de l'anatomie humaine et animale, de la botanique et la géologie mais aussi son utilisation de la lumière, son intérêt pour la physiognomonie et la façon dont les humains utilisent le registre des émotions et les expressions gestuelles, son sens de la composition et son sens subtil des dégradés de couleurs. Il maîtrisait notamment la technique du « sfumato » et le rendu des ombres et des lumières. Toutes ces qualités sont réunies dans ses tableaux les plus connus, La Joconde, La Cène et La Vierge aux rochers.
+Léonard a réalisé de très nombreux portraits de femmes, mais un seul portrait d'homme, celui d'un musicien, a été retrouvé à ce jour. On lui prête souvent la phrase suivante : « Le personnage le plus digne d'éloges est celui qui, par son mouvement, traduit le mieux les passions de l'âme », qui explique bien sa pensée de peintre. Cependant, il a aussi dessiné des croquis caricaturaux de ses contemporains dans la mode du grotesque.
+Léonard est célèbre pour ses dessins et ses peintures dans lesquels il introduit une conception innovante de la perspective. Vinci estimait que les arts picturaux forment une science. Mais l'utilisation, souvent supposée, du nombre d'or dans son oeuvre n'est pas avérée. Son travail sur les proportions, à l'image de l'Homme de Vitruve, se limite à l'usage de fractions d'entiers.
+Les premiers travaux de Léonard de Vinci commencent avec Le Baptême du Christ peint avec Andrea del Verrocchio, à qui il est attribué, et ses autres élèves. Deux autres peintures semblent dater de cette période à l'atelier, qui sont tous les deux des « Annonciations ». L'un est petit, large de cinquante-neuf centimètres pour seulement quatorze de haut. Il s'agit d'une prédelle se plaçant à la base d'une composition plus large, et, dans ce cas, pour un tableau de Lorenzo di Credi duquel il fut séparé. L'autre est un travail beaucoup plus important, de deux cent dix-sept centimètres de large.
+Dans ces deux annonciations, Léonard a dépeint la Vierge Marie assise ou agenouillée à la droite de l'image, et un ange de profil s'approchant d'elle par la gauche. Un gros travail est fait sur les mouvements des vêtements et les ailes de l'ange. Bien que précédemment attribuée à Domenico Ghirlandaio, l'oeuvre est désormais presque universellement attribuée à de Vinci.
+Dans le tableau le plus petit, Marie détourne ses yeux et plie ses mains dans un geste qui symbolise la soumission à la volonté de Dieu. Dans le tableau le plus grand cependant, Marie ne semble pas aussi docile. La jeune femme, interrompue dans sa lecture par ce messager inattendu qu'est l'ange, place son doigt dans livre saint pour repérer là où elle en est et lève la main dans un geste de salutation ou de surprise. Son calme semble montrer qu'elle accepte son rôle de mère de Dieu, non pas avec résignation mais avec confiance. Dans ce tableau, le jeune Léonard présente le visage humaniste de la Vierge Marie, reconnaissant le rôle de l'humanité dans l'incarnation de Dieu. Ce dernier tableau a visiblement été travaillé par plusieurs personnes, puisque certaines discontinuités de style sont perceptibles, comme une « erreur » de perspective sur le bras droit de Marie, le pré fleuri comme une broderie ou bien les ailes de rapace de l'ange. Le style du lutrin du tableau pourrait être un clin d'oeil au style du tombeau de Pierre de Médicis réalisé par Verrochio en 1472.
+Dans les années 1480, Vinci reçoit deux très importantes commandes et commence à travailler à une autre oeuvre qui est également d'une grande importance en termes de composition. Malheureusement, deux des trois oeuvres n'ont jamais été terminées et la troisième a été si longue à créer qu'elle fut soumise à de longues négociations sur son achèvement et son paiement. L'un de ces tableaux est Saint Jérôme. Liana Bortolon, dans son livre The Life and Times of Leonardo (1967), associe ce tableau à une période difficile de la vie de Léonard. Les signes de la mélancolie peuvent se lire dans son journal : « Je pensais que j'apprenais à vivre ; j'apprenais seulement à mourir. »9.
+La composition du tableau est très inhabituelle, même s'il est vrai que certaines parties de celui-ci furent découpées. Le tableau dépeint la pénitence de Jérôme de Stridon dans le désert. Pénitent, Jérôme occupe le milieu de l'image, le corps légèrement en diagonale. Sa posture agenouillée prend une forme trapézoïdale, avec un bras tendu vers le bord extérieur de la peinture et son regard allant dans la direction opposée. Jack Wasserman souligne le lien entre cette peinture et les études anatomiques de Léonard. Au premier plan de l'ensemble s'étend son symbole, un grand lion, dont le corps et la queue effectuent une double courbe à travers la base de l'image. L'autre caractéristique intéressante est l'aspect superficiel du paysage de pierres rocailleuses où se trouve le personnage.
+L'affichage audacieux et novateur de la composition, avec les éléments du paysage et le drame personnel, apparaît également dans le grand chef-d'oeuvre inachevé qu'est L'Adoration des mages, une commande des moines de San Donato à Scopeto. C'est un tableau à la composition très complexe, et Léonard a fait de nombreux dessins et études préparatoires, y compris une très détaillée pour la perspective linéaire d'une ruine d'architecture classique qui sert de toile de fond à la scène. Mais, en 1482, Léonard part à Milan, à la demande de Laurent de Médicis, afin de gagner les bonnes grâces de Ludovic Sforza. Il abandonne donc son tableau.
+Le troisième travail important de cette période est La Vierge aux rochers qui a été commandée à Milan pour la confrérie de l'Immaculée Conception. La peinture, faite avec l'assistance des frères, devait combler un grand retable, déjà construit. Léonard a choisi de peindre un passage de l'enfance du Christ tiré des évangiles apocryphes, lorsque le petit Jean le Baptiste, sous la protection d'un ange, a rencontré la sainte Famille sur la route de l'Égypte. Dans cette scène, telle qu'elle a été peinte par Léonard de Vinci, Jean reconnaît et vénère Jésus comme le Christ. Le tableau montre des personnages gracieux s'agenouillant en adoration devant le Christ dans un environnement sauvage et un paysage rocheux. Le tableau est quasiment aussi complexe que la peinture commandée par les moines de San Donato, même s'il a seulement quatre personnages et non cinquante et s'il dépeint un paysage plutôt qu'un fond architectural. Le tableau a été achevé mais, en fait, deux versions de la peinture ont été faites, celle qui est restée à la chapelle de la confrérie, et l'autre qu'a emportée Léonard en France. Mais les frères n'ont pas eu leur peinture avant le siècle suivant. Une seconde version de ce tableau, avec l'ajout des auréoles et du bâton de Jean le Baptiste sera faite quelques années plus tard.
+La plus célèbre peinture de Léonard pour la période des années 1490 est La Cène. Elle est peinte directement sur un mur du couvent Santa Maria delle Grazie à Milan. La peinture représente le dernier repas partagé par Jésus et ses disciples avant sa capture et sa mort. Il montre précisément le moment où Jésus déclare : « l'un de vous va me trahir ». Léonard dépeint la consternation que cette déclaration a causé à l'ensemble des douze disciples de Jésus.
+Matteo Bandello a observé Léonard au travail et il écrit, dans une de ses nouvelles, que, certains jours, il peint de l'aube au crépuscule sans même s'arrêter pour manger, et puis ne peint plus les trois ou quatre jours suivants. Selon Vasari, cela provoque l'incompréhension du père supérieur, le prieur, qui chasse le peintre, jusqu'à ce que Léonard demande au duc de Milan Ludovic Sforza d'intervenir. Vasari décrit également comment Vinci doute de sa capacité à peindre proprement les visages de Jésus et de Judas, disant au duc qu'il a peut-être utilisé le moine pour modèle.
+Lorsque la fresque est achevée, elle est saluée comme un chef-d'oeuvre de conception et de caractérisation, obtenant même plus tard l'admiration de Pierre Paul Rubens et de Rembrandt. L'oeuvre a été restaurée sans cesse, la peinture se détachant du support en plâtre. La peinture s'est détériorée rapidement, de telle sorte qu'avant même le centième anniversaire de sa création, elle a été décrite par un témoin comme « totalement dévastée ». Léonard, au lieu d'utiliser la technique éprouvée de la fresque, a utilisé la « technique de la tempera », un procédé de peinture utilisant le jaune d'oeuf comme médium pour lier les pigments, alors que le support est principalement « gesso », un type de craie fait de carbonate de calcium minéral, ce qui a produit une surface sujette à la moisissure et à l'écaillage. Malgré ces déboires, la Cène est restée l'une des oeuvres d'art les plus reproduites.
+Parmi les oeuvres créées par Léonard dans les années 1500 se trouve un petit portrait connu sous le nom de La Joconde (1503 - 1506) ou de, notamment pour les anglophones, « Mona Lisa ». Le tableau est connu, en particulier, pour l'insaisissable sourire sur le visage de la femme, dont les experts s'accordent à dire qu'il s'agit de Lisa Gherardini. La qualité de la peinture est peut-être liée au fait que l'artiste a subtilement ombré les coins de la bouche et les yeux, afin que la nature exacte du sourire ne puisse être déterminée. La qualité des ombres pour lesquelles le travail est réputé a été appelé « sfumato » ou « la fumée de Léonard ». Giorgio Vasari a écrit que « le sourire est si agréable qu'il semble divin plutôt qu'humain ; ceux qui l'ont vu ont été très surpris de constater qu'il semble aussi vivant que l'original ». Néanmoins, pendant longtemps, les experts ont généralement admis que Vasari a pu n'avoir jamais connu la peinture autrement que par sa renommée car il l'a décrite comme ayant des sourcils. Une analyse spectroscopique à haute résolution a permis de confirmer l'hypothèse de Daniel Arasse qui, dans son livre Leonardo da Vinci (1997), discutait de la possibilité que Léonard ait pu avoir peint le visage avec des sourcils, mais qu'ils ont ensuite été enlevés, notamment parce qu'ils n'étaient pas en vogue au milieu du xvie siècle. Effectivement, La Joconde aurait eu des sourcils et des cils qui ont par la suite été enlevés.
+Les autres caractéristiques de ce travail sont la sévérité vestimentaire, laissant les yeux et les mains non concurrencés par d'autres détails, le paysage de fond spectaculaire, le travail des couleurs et la nature de la technique de peinture très douce employant des huiles, mais posées un peu comme la tempera et mélangées à la surface de sorte que les coups de pinceaux semblent indissociables. Vasari a exprimé l'avis que la façon de peindre ferait même « le plus confiant des maîtres [de la peinture]... désespérer et perdre courage ». L'état de conservation remarquable et le fait qu'il n'y ait aucun signe visible de réparations ou de surcouches repeintes sont extrêmement rares pour une peinture de cette période.
+Dans La Vierge, l'Enfant Jésus et sainte Anne, la composition reprend de nouveau le thème de personnages dans un paysage que Jack Wasserman, dans son livre Leonardo da Vinci (1975), qualifie de « saisissant par sa beauté » et renvoie à la peinture inachevée de saint Jérôme avec le personnage faisant un angle oblique avec l'un de ses bras. Ce qui rend La Vierge, l'Enfant Jésus et sainte Anne si rare est la présence de deux ensembles dans une perspective différente mais se superposant. Marie est assise sur les genoux de sa mère, sainte Anne. Elle se penche en avant pour prendre dans ses bras l'enfant Jésus qui joue avec un agneau, signe de l'imminence de son propre sacrifice. Ce tableau, qui a été copié à plusieurs reprises, a influencé Michel-Ange, Raphaël et Andrea del Sarto et, à travers eux, Pontormo et Le Corrège. Le style de la composition a été adopté en particulier par les peintres vénitiens Le Tintoret et Paul Véronèse.
+Vinci n'a pas été un peintre prolifique, mais il l'a été comme dessinateur, remplissant ses journaux de petits croquis et de dessins détaillés afin de garder une trace de tout ce qui avait attiré son attention. En plus de ses notes, il existe de nombreuses études pour ses peintures, dont certaines peuvent être considérées comme préparatoires à des travaux tels que L'Adoration des mages, La Vierge aux rochers et La Cène. Son premier dessin daté est un paysage, Paysage de la vallée de l'Arno (1473), qui montre la rivière, les montagnes, le château Montelupo et les exploitations agricoles au-delà de celui-ci dans le plus grand détail.
+Parmi ses célèbres dessins, il y a l'homme de Vitruve, une étude des proportions du corps humain, la Tête de l'ange, La Vierge aux Rochers et La Vierge, l'Enfant Jésus avec sainte Anne et saint Jean Baptiste, qui est un grand carton (160 × 100 cm) en craie blanche et noire sur un papier de couleur de sainte Anne. Ce thème de sainte Anne sera, avec la sainte Famille, la dominance de l'oeuvre de Léonard de 1500 à 1517. Ce dessin emploie la technique subtile du sfumato, à la manière de La Joconde. Léonard ne semble jamais avoir fait une peinture à partir de ce dessin, mais un tableau assez proche en est La Vierge, l'Enfant Jésus et sainte Anne.
+Les autres dessins d'intérêt comprennent de nombreuses études généralement dénommées « caricatures » parce que, bien qu'exagérées, elles semblent être basées sur l'observation de modèles vivants. Giorgio Vasari rapporte que, si Léonard voyait une personne qui avait un visage intéressant, il la suivait toute la journée pour l'observer. Il existe de nombreuses études de beaux jeunes hommes, souvent associées à Salai, avec le visage rare, très admiré et caractéristique que l'on appelle le « profil grec ». Ces visages sont souvent en contraste avec ceux d'un guerrier. Salai est souvent dépeint dans des costumes et des déguisements. Léonard est connu pour avoir conçu des décors pour des processions traditionnelles. D'autres dessins, souvent minutieux, montrent des études de draperies. Le Musée Léon-Bonnat de Bayonne conserve un dessin de Léonard de Vinci représentant Bernardo di Bandino Baronchelli (un des assassins de Julien de Medicis lors de la conjuration des Pazzi), après sa pendaison à l'une des fenêtres du Palazzo del Capitano di Giustizia à Florence, le 29 décembre 1479.
+L'humanisme de la Renaissance ne lie pas les sciences et les arts. Cependant, les études de de Vinci en sciences et en ingénierie sont aussi impressionnantes et novatrices que son travail artistique, enregistrées dans des carnets de notes comprenant quelque treize mille pages d'écriture et de dessins, qui associent art et philosophie naturelle (le base de la science moderne). Ces notes ont été réalisés et mises à jour quotidiennement pendant toute la vie et les voyages de Léonard. Continuellement, il s'efforce de faire des observations du monde qui l'entourait, conscient et fier d'être, comme il se définissait, un « homme sans lettres », autodidacte et lucide sur les phénomènes naturels souvent bien éloignés de ce qui était appris à l'école.
+Ces journaux sont pour la plupart rédigés dans une écriture spéculaire, plus communément appelée « écriture en miroir ». La raison peut avoir été davantage un besoin pratique, pour être plus rapide, que pour des raisons de chiffrement comme cela est souvent suggéré. Comme Léonard écrivait avec sa main gauche, il devait être plus facile pour lui d'écrire de droite à gauche.
+Ses notes et dessins, dont les plus anciens sont datés de 1475, montrent une grande variété d'intérêts et de préoccupations, mais aussi certaines listes quelconques d'épicerie ou de ses débiteurs. Il y a des compositions pour des peintures, des études de détails et de tapisseries, des études de visages et d'émotions, des animaux, des bébés, des dissections, des études botaniques et géologiques, des machines de guerre, des machines volantes et des travaux architecturaux.
+Ces carnets de notes - initialement des feuilles volantes de différentes tailles et de différents types, données par ses amis après sa mort - ont trouvé leur place dans les collections importantes comme celles exposées au château de Windsor, au musée du Louvre, à la Bibliothèque nationale d'Espagne, à la Bibliothèque ambrosienne de Milan, au Victoria and Albert Museum et à la British Library de Londres. La British Library a mis une sélection à partir de ses notes (BL Arundel MS 263) sur l'Internet dans les pages de son site abordant ce chapitre. Le Codex Leicester est le seul grand travail scientifique de Vinci qui soit entre les mains d'un propriétaire privé (Bill Gates).
+Les journaux de Léonard semblent avoir été destinés à la publication, car beaucoup de feuilles ont une forme et un ordre qui en faciliteraient l'édition. Dans de nombreux cas, un seul thème, par exemple, le coeur ou le foetus humain, est traité en détail à la fois dans les mots et les images, sur une seule feuille. Ce mode d'organisation minimise également la perte de données dans le cas où les pages seraient mélangées ou détruites. La raison pour laquelle ces journaux n'ont pas été publiés alors que Léonard était encore en vie est inconnue, mais certains estiment que la société n'était pas prête pour cela, notamment l'Église vis-à-vis de ses travaux anatomiques.
+L'approche de la science par Léonard est très liée à l'observation : si « la Science est le capitaine, la pratique est le soldat ». Sa science, ses recherches scientifiques ne portent exclusivement que sur les parties qu'il a pratiquées en technicien. Léonard de Vinci a essayé de comprendre un phénomène en le décrivant et en l'illustrant dans les plus grands détails, en n'insistant pas trop sur les explications théoriques. Ses études sur le vol ou le mouvement de l'eau sont sans doute ce qu'il y a de plus remarquable à ce sujet. Comme il manquait d'instruction initiale en latin et en mathématiques, les chercheurs contemporains ont largement ignoré le savant Léonard, bien qu'il ait appris par lui-même le latin.
+Dans les années 1490, il a étudié les mathématiques à la suite de Luca Pacioli et a fait une série de dessins de solides réguliers dans une forme squelettique afin de les faire graver pour son livre Divina Proportione (1509)13. Il est alors particulièrement fasciné par l'idée de l'absolu et de l'universel. Cependant, sa culture mathématique est celle d'un praticien : elle a les objectifs limités des abacistes de son temps, il pénètre avec peine la géométrie des Grecs, sa perspective est celle de tous les théoriciens de son temps. Néanmoins, Léonard a conçu un instrument à système articulé destiné à construire une solution mécanique du problème d'Alhazen, problème essentiellement technique, et qui témoigne d'une connaissance approfondie des propriétés des coniques.
+De même, la mécanique de Léonard est celle de ses contemporains, avec ses faiblesses, ses incertitudes, ses erreurs et il ne paraît pas qu'il ait apporté beaucoup de découvertes en la matière. Sa physique est assez confuse et vague. Il ne fut certainement jamais artilleur et n'a pas de théorie relative à la balistique. Pourtant, comme l'attestent certains de ses schémas, Léonard de Vinci eut peut-être l'intuition, comme on pouvait l'observer sur un jet d'eau, qu'il n'existait pas de partie rectiligne dans la trajectoire d'un projectile d'artillerie contrairement à ce qui était couramment admis à l'époque. Mais il s'arrêta très vite sur une voie que Tartaglia puis Benedetti allaient suivre et qui mena à Galilée 8
+Si Alberti ou Francesco di Giorgio Martini se préoccupèrent de la solidité des poutres, jamais ils n'avaient cherché de formulations mathématiques. Léonard de Vinci s'intéresse au problème de la flexion, sans doute à l'aide d'expériences, et parvient à définir des lois, encore imparfaites, de la ligne élastique pour des poutres de différentes sections, libres ou encastrées dont le problème de Galilée (problème du balcon). Ce faisant, il élimine le module d'élasticité et le moment auquel avait pourtant fait allusion Jordanus Nemorarius
+Sa chimie se borne à la mise au point d'un alambic et aux quelques recherches d'alchimie qu'il pratiqua à Rome.
+Paul Valéry met en avant la manière dont Léonard de Vinci a découvert intuitivement par l'observation « le premier germe de la théorie des ondulations lumineuses », sans cependant pouvoir la valider de manière expérimentale : « L'air est rempli d'infinies lignes droites et rayonnantes, entrecroisées et tissées sans que l'une n'emprunte jamais le parcours d'une autre, et elles représentent pour chaque objet la vraie forme de leur raison (de leur explication). »58.
+Léonard de Vinci étudia aussi beaucoup la lumière et l'optique ; en hydrologie, la seule véritable loi qu'il ait formulé est celle du débit des cours d'eau.
+Il semble que, à partir du contenu de ses carnets, il ait envisagé de publier une série de traités sur une grande variété de sujets. À plusieurs reprises il mentionne un projet de traité de l'eau, mais qui paraît avoir été si considérable dans sa pensée qu'il semblait irréalisable. Un traité d'anatomie aurait été observé au cours d'une visite par le secrétaire du cardinal Louis d'Aragon en 1517. Les aspects de son travail sur les études de l'anatomie, de la lumière et des paysages ont été rassemblés pour la publication par son élève Francesco Melzi et finalement publiés en 1651 en Italie, longtemps après sa mort, sous le nom de Traité de la peinture par Léonard de Vinci,60. Selon Daniel Arasse, le traité a été publié en France bien plus tard mais eut soixante-deux éditions en cinquante ans, ce qui fait que Léonard est souvent considéré comme « le précurseur de la pensée universitaire française sur l'art ».
+La formation initiale de Léonard à l'anatomie du corps humain a commencé lors de son apprentissage avec Andrea del Verrocchio, son maître insistant sur le fait que tous ses élèves apprennent l'anatomie. Comme artiste, il est rapidement devenu maître de l'anatomie topographique, en s'inspirant de nombreuses études des muscles, des tendons et d'autres caractéristiques anatomiques visibles. Il pose les bases de l'anatomie scientifique, disséquant notamment des cadavres de criminels dans la plus stricte discrétion, pour éviter l'Inquisition. Les conditions de travail sont particulièrement pénibles à cause des problèmes d'hygiène et de conservation des corps.
+Comme artiste connu, il a reçu l'autorisation de disséquer des cadavres humains à l'hôpital de Santa Maria Nuova à Florence et, plus tard, dans les hôpitaux de Milan et de Rome. De 1510 à 1511, il a collaboré dans ses recherches avec le médecin Marcantonio della Torre et, ensemble, ils ont compilé un ensemble de travaux théoriques sur l'anatomie avec plus de deux cents dessins de Léonard. Il a été publié sous le nom peu évident de Traité de la peinture en 1680.
+Léonard a dessiné de nombreux squelettes humains, des os, ainsi que les muscles et les tendons, le coeur et le système vasculaire, l'action de l'oeil, les organes sexuels et d'autres organes internes. Ces observations contiennent parfois des inexactitudes dues aux connaissances de l'époque, il n'a par exemple jamais entrevu la circulation du sang. Il a fait l'un des premiers dessins scientifiques d'un foetus dans l'utérus et la première constatation scientifique de la rigidité des artères suite à une crise cardiaque. Comme artiste, Léonard observa de près les effets de l'âge et de l'émotion humaine sur la physiologie, en étudiant en particulier les effets de la rage. Il a également dessiné de nombreux modèles dont certains avec d'importantes déformations faciales ou des signes visibles de maladie.
+Il a aussi étudié et dessiné l'anatomie de nombreux animaux. Il a disséqué des vaches, des oiseaux, des singes, des ours et des grenouilles, comparant la structure anatomique de ces animaux avec celle de l'homme. Il étudia également les chevaux.
+« Combien de biographies n'a-t-on pas écrites, qui ne mentionnent cette activité scientifique ou technique que pour montrer l'étendue d'un savoir qu'on veut universel [...] Tout ceci n'a pu se faire que péniblement, par une recherche constante de ce qu'avaient écrit les anciens ou les prédécesseurs immédiats [...] Et faute de connaître tout ce passé qui l'avait fait, on a présenté Léonard comme un inventeur fécond » - Les ingénieurs de la Renaissance Bertrand Gille+
Léonard de Vinci s'inscrit dans le courant technicien de la Renaissance et, comme tel, il eut des prédécesseurs immédiats ou plus lointains parmi lesquels on peut citer Konrad Kyeser, Taccola, Roberto Valturio, Filippo Brunelleschi, Jacomo Fontana ou encore Leon Battista Alberti à qui il doit sans doute beaucoup.
+Certains furent des personnalités plus puissantes, des esprits plus complets, des curiosités plus larges encore. C'est le cas de Francesco di Giorgio Martini, qui fut son supérieur lors de la construction du dôme de Milan et à qui il emprunta certainement beaucoup. Étant sans doute moins occupé par ses réalisations que ce dernier du fait d'un carnet de commandes moins rempli, Léonard de Vinci sera à la fois plus prolixe mais surtout capable d'un changement de méthode.
+Léonard est considéré comme le précurseur de nombre de machines modernes et, au-delà de l'étonnement éprouvé face à l'imagination prospective de l'auteur, on peut vite constater que le fonctionnement réel de la machine n'a pas dû être son souci premier. Comme le moine Eilmer de Malmesbury au xie siècle qui avait oublié la queue dans sa machine volante, les inventions de Léonard butent sur de nombreuses difficultés : l'hélicoptère s'envolerait comme une toupie, le scaphandrier s'asphyxierait, le bateau à aubes n'avancerait pas... De plus, dans ces épures, Léonard ne pose jamais le problème de la force motrice.
+Dans une lettre adressée à Ludovic Sforza, il prétend être capable de construire toutes sortes de machines à la fois pour la protection de la ville et pour le siège. Quand il a fui à Venise en 1499, il a trouvé un emploi d'ingénieur et a développé un système de barrières mobiles pour protéger la ville contre les attaques terrestres. Il a également eu pour projet de détourner la circulation de l'Arno afin d'irriguer les champs toscans, de faciliter le transport et même de gêner l'approvisionnement maritime de Pise, la rivale de Florence.
+Ses carnets présentent un grand nombre d'« inventions », à la fois pratiques et réalistes, notamment des pompes hydrauliques, des mécanismes à manivelle comme la machine à tailler les vis de bois, des ailettes pour les obus de mortier, un canon à vapeur, le sous-marin, plusieurs automates, le char de combat, l'automobile, des flotteurs pour « marcher sur l'eau », la concentration d'énergie solaire, la calculatrice, le scaphandre à casque, la double coque ou encore le roulement à billes. La paternité de la bicyclette est quant a elle très controversée.
+Un examen attentif de ces épures indique cependant que nombre de ces techniques furent, soit empruntées à quelques prédécesseurs immédiats (la turbine hydraulique à Francesco di Giorgio Martini, la chaîne articulée pour la transmission des mouvements à Taccola...), soit l'héritage d'une tradition encore plus ancienne (le martinet hydraulique est connu au xiiie siècle, les siphons et aqueducs sont visibles chez Frontin, les automates de divertissement décrit par les mécaniciens grecs...)8. Pourtant Léonard fut aussi novateur ; il est sans doute l'un des premiers dans le cercle des ingénieurs de l'époque à s'intéresser au travail mécanique du métal et en particulier de l'or, plus malléable. Avec la machine volante, les quelques machines textiles, pour lesquels la régularité des mouvements mis en oeuvre lui permettent d'appliquer son sens de l'observation, signent son originalité. Le métier mécanique, la machine à carder et celle à tondre les draps font sans doute de Léonard, le premier qui chercha à mécaniser une fabrication industrielle. La machine à polir les miroirs, qui supposait la solution d'un certain nombre de problèmes pour obtenir des surfaces régulières, planes ou concaves, a été imaginée pendant son séjour romain alors qu'il étudiait la fabrication des images. Paradoxalement, Léonard de Vinci s'intéressa peu à des inventions que nous jugeons aujourd'hui très importantes telles que l'imprimerie, même s'il est un des premiers à nous donner une représentation d'une presse d'imprimerie.
+Si la guerre peut répondre à une nécessité, elle est « pazzia bestialissima »18 (une « folie sauvage »). Il étudie donc les armes tout en gardant du recul quant à leur utilisation.
+En 1502, Léonard a dessiné un pont de deux cent quarante mètres dans le cadre d'un projet de génie civil pour le sultan ottoman Bayezid II d'Istanbul. Le pont était destiné à franchir l'embouchure du Bosphore connue sous le nom de la « Corne d'Or ». Beyazid ne poursuit pas le projet, car il estime que cette construction serait impossible. La vision de Léonard a été ressuscitée en 2001 quand un petit pont basé sur sa conception a été construit en Norvège. Le 17 mai 2006, le gouvernement turc a décidé de construire le pont de Léonard pour la Corne d'Or63.
+Pendant la majeure partie de sa vie, Léonard a été, comme Icare, fasciné par le vol. Il a produit de nombreuses études sur ce phénomène en s'inspirant des oiseaux et des plans de vol de plusieurs appareils, dont les prémices d'hélicoptère nommées la « vis aérienne », le parachute et un deltaplane en bambou. Sur ce nombre, la plupart étaient irréalisables, mais le deltaplane a été construit, et, avec l'ajout un empennage pour la stabilité, a volé avec succès. Néanmoins, il semble probable qu'il estimait que les systèmes proches des chauves-souris avaient le plus gros potentiel. Il inventa également la soufflerie aérodynamique pour ses travaux.
+Le musée du clos Lucé à Amboise, le musée Il Castello situé au château de comtes Guidi de Vinci et le Musée des Sciences et des Techniques Léonard de Vinci de Milan contiennent de nombreuses maquettes, des objets grandeur nature basés sur l'étude de ses carnets et des explications sur son travail.
+De Vinci a également étudié l'architecture. Il est influencé par les travaux de Filippo Brunelleschi et a projeté de surélever le baptistère Saint-Jean de Florence ou de créer une tour-lanterne pour la cathédrale de Milan. Il utilise souvent la forme octogonale pour les bâtiments religieux et le cercle pour les militaires. Suite à la peste qui frappe Milan vers 1484 et 1485, il conçoit une ville parfaite théorique avec des axes de circulation optimaux et des conditions de vie de qualité, sa vision n'est pas marquée par des distinctions sociales mais fonctionnelles, tels des organes dans un corps humain. Il travaille également sur les jardins. Néanmoins, beaucoup de ses travaux sur l'architecture seront perdus.
+On doit reconnaître à Léonard de Vinci un besoin de rationaliser inconnu jusqu'alors chez les techniciens. Avec lui la technique n'est plus affaire d'artisans, de personnes ignorantes et de traditions plus ou moins valables et plus ou moins comprises par ceux qui étaient chargés de l'appliquer.
+C'est d'abord par les échecs, par les erreurs, par les catastrophes qu'il essaie de définir la vérité : les lézardes des murs, les affouillements destructeurs des berges, les mauvais mélanges de métal sont autant d'occasions de connaître les bonnes pratiques.
+Progressivement, il élabore une sorte de doctrine technique, née d'observations, bientôt suivies d'expériences qui furent parfois conduites sur de petits modèles. Harald Höffding présente sa pensée comme un mélange d'empirisme et de naturalisme. En effet si pour Léonard de Vinci « La sagesse est la fille de l'expérience », elle permet de vérifier constamment ses intuitions et théories car « L'expérience ne se trompe jamais ; ce sont vos jugements qui se trompent en se promettant des effets qui ne sont pas causés par vos expérimentations ».
+La méthode de Léonard de Vinci a certainement consisté dans la recherche de données chiffrées et son intérêt pour les instruments de mesure en témoigne. Ces données étaient relativement faciles à obtenir dans le cas des poutres en flexion par exemple, beaucoup plus compliquées dans le domaine des arcs ou de la maçonnerie. La formulation des résultats ne pouvait être que simple, c'est-à-dire exprimée le plus souvent par des rapports. Cette recherche effrénée de l'exactitude est devenue la devise de Léonard de Vinci, « Hostinato rigore - obstinée rigueur ». C'est néanmoins la première fois qu'on voit appliquer de telles méthodes dans les métiers où on dut longtemps se contenter de moyens irraisonnés d'appréciation.
+Ce faisant, Léonard en est arrivé à pouvoir poser des problèmes en termes généraux. Ce qu'il cherche avant tout ce sont des connaissances générales, applicables dans tous les cas, et qui sont autant de moyens d'action sur le monde matériel. Pour autant sa « science technique » reste fragmentaire. Elle s'attache à un certain nombre de problèmes particuliers, traités très étroitement, mais il y manque encore la cohérence d'ensemble qu'on trouvera bientôt chez ses successeurs.
+Pour lui, cette recherche dans tous les domaines de la science et de l'art est normale car tout est lié. Sa curiosité et son activité perpétuelle sont un moyen de garder un esprit vivace car « Le fer se rouille, faute de s'en servir, l'eau stagnante perd de sa pureté et se glace par le froid. De même, l'inaction sape la vigueur de l'esprit ». Léonard de Vinci considère la peinture par exemple comme l'expression visuelle d'un tout, l'art, la philosophie et la science sont selon lui indissociables, pouvant expliquer en partie son approche de polymathe et « Qui blâme la peinture n'aime ni la philosophie ni la nature ». En proposant une « synthèse par la beauté », Léonard de Vinci illustre à lui seul ce que fut le grand courant d'innovation de la Renaissance.
+Léonard de Vinci pense que l'homme doit s'engager activement à combattre le mal et faire le bien car « Celui qui néglige de punir le mal aide à sa réalisation ». Il indique également qu'il ne se fait aucune illusion sur la nature de l'homme, et de la façon dont il pourrait utiliser ses inventions, comme il le fait en préambule à une présentation du sous-marin :
+« Je ne décris pas ma méthode pour rester sous l'eau ni combien de temps je peux y rester sans manger. Et je ne les publie et ne les divulgue pas, en raison de la nature maléfique des hommes, qui les utiliseraient pour l'assassinat au fond de la mer en détruisant les navires en les coulant, eux et les hommes qu'ils transportent »68.+
Léonard de Vinci place également la récompense morale bien au-dessus des récompenses matérielles :
+« Ce ne sont pas les richesses, qui peuvent être perdues. La vertu est notre vrai bien et la vraie récompense de son possesseur. Elle ne peut être perdue, elle ne peut nous abandonner, sauf quand la vie s'enfuit »65.+
Léonard de Vinci incarne parfaitement l'esprit de la Renaissance, époque des « Grandes Découvertes ». Génie universel, curieux de tout, parfois vu comme un personnage entre Faust et Platon, il a consacré sa vie à la recherche de la connaissance. Il imagine de multiples appareils et machines, dont la première « machine volante », qui resteront au stade de dessins. Plus qu'en tant que scientifique proprement dit, Léonard de Vinci a impressionné ses contemporains et les générations suivantes par son approche méthodique du savoir, du savoir apprendre, du savoir observer, du savoir analyser. La démarche qu'il déploie dans l'ensemble des activités qu'il aborde, aussi bien en art qu'en technique - les deux ne se distinguant d'ailleurs pas dans son esprit - notamment en horlogerie, procède d'une accumulation préalable d'observations détaillées, de savoirs disséminés çà et là, qui tend vers un surpassement de ce qui existe déjà, avec la perfection pour objectif. Bon nombre des croquis, notes et traités de Léonard de Vinci ne sont pas à proprement parler des trouvailles originales, mais sont le résultat de recherches effectuées dans un souci encyclopédique, avant l'heure. Léonard de Vinci se classe mal et c'est en ce sens qu'il a paru exceptionnel.
+De son vivant, Léonard a déjà une renommée telle que le roi de France l'a ramené dans son pays comme un trophée, et a affirmé l'avoir accompagné dans sa vieillesse et l'avoir tenu dans ses bras quand il est mort ; affirmation qui semble néanmoins fausse quant à sa mort, malgré le tableau de Dominique Ingres sur ce thème.
+L'intérêt pour de Vinci n'a jamais diminué depuis cette période. Giorgio Vasari, dans Le Vite, dans son édition de 1568 introduit son chapitre sur Léonard de Vinci avec les mots suivants :
+« Dans le cours normal des événements, beaucoup d'hommes et de femmes sont nés avec des talents remarquables ; mais, parfois, d'une manière qui transcende la nature, une seule personne est merveilleusement dotée par le paradis avec beauté, la grâce et le talent dans une telle abondance qu'il laisse les autres hommes loin derrière. Tous ses actes semblent inspirés et, de fait, tout ce qu'il fait vient clairement de Dieu plutôt que de compétences humaines. Tout le monde reconnaît que c'était vrai pour Léonard de Vinci, un artiste d'une beauté physique étonnante, qui a affiché une grâce infinie dans tout ce qu'il a fait et qui cultivait son génie si brillamment que tous les problèmes qu'il a étudiés, il les résolvait avec facilité12. »+
L'admiration continue de Léonard qu'ont eu les peintres, les critiques et les historiens se reflète dans de nombreux autres hommages écrits. Baldassare Castiglione, auteur du Livre du courtisan, écrit, en 1528 : « [...] Un autre des plus grands peintres de ce monde, qui regarde d'en haut son art dans lequel il est sans égal [...] »69 tandis que le biographe connu sous le nom de Anonimo Gaddiano a écrit, vers 1540 : « Il fut si exceptionnel et universel qu'on peut le dire né d'un miracle de la nature [...] »70.
+Le xixe siècle a introduit une certaine admiration pour le génie Léonard, Johann Heinrich Füssli écrivant en 1801 : « Ainsi fut l'aube de l'art moderne, lorsque Léonard de Vinci apparut avec une splendeur qui distançait l'excellence habituelle : composé de tous les éléments qui constituent l'essence même du génie [...] »71, ce qui est repris par A. E. Rio, qui écrit en 1861 : « Il était au-dessus de tous les autres artistes grâce à la force et la noblesse de ses talents ». La variété du champ d'application de Léonard, transmise par ses carnets est connue, ainsi que ses peintures. Hippolyte Taine écrit en 1866 : « Il ne peut sans doute pas y avoir dans le monde un exemple d'un génie si universel, si capable de s'épanouir, si empli de nostalgie envers l'infini, si naturellement raffiné, si autant en avance sur son propre siècle et les siècles suivants ». Le célèbre historien d'art Bernard Berenson écrit en 1896 : « Léonard est un artiste dont on peut dire avec une parfaite littéralité : rien de ce qu'il a touché ne s'est transformé en une chose d'une éternelle beauté. Qu'il s'agisse de la section transversale d'un crâne, la structure d'une mauvaise herbe ou une étude des muscles, il l'a, avec son sens de la ligne et de la lumière et de l'ombre, à jamais transformée en des valeurs qui communiquent la vie ». Charles Baudelaire le cite même dans Les Fleurs du mal (1857)75.
+L'intérêt pour le génie Léonard s'est maintenu sans relâche ; des experts étudient et traduisent ses écrits, analysent ses tableaux en utilisant des techniques scientifiques, argumentent sur les oeuvres qu'on lui attribue et recherchent des oeuvres qui ont été enregistrées mais jamais découvertes. La critique d'art Liana Bortolon écrit dans son livre The Life and Times of Leonardo (1967) : « En raison de la multiplicité des intérêts qui l'ont incité à poursuivre tous les domaines de connaissances, [...] Léonard peut être considéré, à juste titre, d'avoir été le génie universel par excellence et avec toutes les harmoniques inhérentes à ce terme. L'homme est aussi mal à l'aise aujourd'hui face à un génie qu'il l'a été au xvie siècle. Cinq siècles se sont écoulés et nous voyons encore Léonard avec une grande frayeur ». Les foules font toujours la queue pour voir ses plus célèbres oeuvres d'art : par exemple, le musée du Louvre doit une grande part de sa notoriété à La Joconde.
+Avec le best-seller Da Vinci Code, roman mêlant faits historiques et artifices scénaristiques, Dan Brown a donné un nouvel élan à l'intérêt pour de Vinci en 2003. Le roman a également été adapté au cinéma par Ron Howard. D'après un article du Monde, la boîte de vitesse de la Tata Nano a été imaginée à partir d'un modèle Léonard de Vinci : il s'agit tout simplement d'une lanterne en forme de tronc de cône qu'il était sans doute difficile de manoeuvrer pour la laisser en contact avec la roue dentée sur laquelle elle s'engrenait.
+En 2007, un couple de chercheurs italiens a émis une hypothèse sur la présence d'une partition de musique cachée à l'intérieur de La Cène. La disposition des mains des personnages et des pains sur la table donnerait une petite mélodie.
+Le 26 avril 2008, un saut en parachute selon les croquis et texte datant de 1485 et réalisé par Leonard de Vinci a été réalisé. Le Suisse Olivier Vietti-Teppa, s'est élancé au-dessus de l'aéroport militaire de Payerne depuis un hélicoptère en vol stationaire à 650 mètres d'altitude avec un réplique du parachute, fabriquée avec des matériaux modernes : il mesura une vitesse de chute de 3,9 m/s et put atterrir normalement. En 2000, le Britannique Adrian Nicholas avait également réalisé un saut avec une réplique du parachute, mais celui-ci étant plus fidèle à l'original, il pesait 80 kg et présentait des risques à l'atterrissage. L'homme avait abandonné la réplique en vol pour faire un atterrissage avec un parachute actuel.
+Le 18 décembre 2008, lors d'une restauration, du personnel du musée du Louvre à Paris découvre trois dessins, représentant une tête de cheval, un crâne et un enfant au dos de La Vierge, l'Enfant Jésus et sainte Anne, vraisemblablement de Léonard de Vinci.
+Contenu soumis à la GFDL
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+La liberté est la faculté d'agir selon sa volonté sans être entravé par le pouvoir d'autrui. D'un point de vue philosophique, elle peut être définie comme la capacité de se déterminer soi-même à des choix contingents. Elle est définie, et est perçue diffèrement selon la psychologie du sujet :
+Cette notion est à la fois conçue comme une valeur abstraite et normative de l'action humaine et comme une réalité concrète et vécue. Ces deux perspectives se recoupent de diverses manières et peuvent provoquer des erreurs de catégories. Il existe ainsi de nombreuses confusions possibles à propos du terme de liberté. Il faut donc prendre soin de distinguer les différents sens de ce mot.
+La liberté peut constituer un attribut de l'être humain, de sa volonté, et être la condition de droits naturels ou positifs, mais aussi de devoirs ; la réalisation effective de l'acte volontaire peut néanmoins comporter une dimension vécue que l'on ne saurait réduire à ce qui précède. Ces deux plans de l'existence humaine ne sont pas nécessairement compatibles : par exemple, l'existence des libertés juridiques est constatable, alors que la réalité (son existence dans nos actes) et l'essence (la conception que nous nous en faisons) de la liberté posent problème.
+Le premier point peut faire l'objet d'une enquête socio-politique ; son fondement métaphysique et le second point concernent plus particulièrement le problème philosophique de la liberté. Cet article sera donc divisé en deux parties pour en faciliter la lecture : une partie philosophique, traitant de ce qu'il y a de métaphysique dans la notion de liberté, et une partie sociologique. Il faut cependant garder à l'esprit que les deux aspects se recoupent.
+Remarque : pour une introduction générale à cette notion, on peut lire du chapitre « Un concept clef de la métaphysique » à « Les sens philosophiques fondamentaux du mot liberté ». Les chapitres suivants permettent d'approfondir la notion par la connaissance de ce que des philosophes en ont dit et par la diversité des points de vue.
+La question de la liberté peut être considérée comme une question métaphysique par excellence dans la mesure où elle concerne le statut de l'être humain au sein de la nature. La liberté qualifie en effet la relation de l'être humain en tant qu'agent et du monde physique, relation notamment considérée dans son rapport à un déterminisme supposé ou réel. Cette question concerne donc particulièrement l'immanence et la transcendance de la volonté humaine par rapport au monde.
+La liberté s'oppose en général (ce n'est donc pas toujours le cas) au déterminisme, au fatalisme et à toute doctrine qui soutient la thèse de la nécessité du devenir. Le concept de liberté divise très schématiquement les philosophes en deux camps : ceux qui en font le fondement de l'action et de la morale humaines (Épicure, Descartes, Kant), et ceux qui nient une quelconque transcendance de la volonté par rapport à des déterminismes tels que la sensibilité (Démocrite, Spinoza, Nietzsche) :
+« Il existait deux opinions sur lesquelles se partageaient les anciens philosophes, les uns pensant que tout se produit par le destin, en sorte que ce destin apportait la force de la nécessité (Démocrite, Héraclite, Empédocle, Aristote étaient de cet avis), les autres pour qui les mouvements volontaires de l'âme existaient sans aucune intervention du destin ; Chrysippe, en position d'arbitre officieux, me paraît avoir choisi la position intermédiaire ; mais il se rattache plutôt à ceux qui veulent voir les mouvements de l'âme libérés de la nécessité. »+
- (Cicéron, Du destin, §39)
+On dirait aujourd'hui qu'il y a une opposition entre physicalisme et mentalisme, i.e. entre la causalité physique (physicalisme) à laquelle tous les êtres peuvent être réduits et la causalité mentale (mentalisme), qui peut être une théorie matérialiste, tout en reconnaissant une action propre du mental. Dans le premier cas, il s'agit d'expliquer comment on peut naturaliser la volonté, sans reconduire un dualisme métaphysique classique, et comment il est encore possible de parler d'action et de responsabilité, alors que l'on en a supprimé la condition ; dans le second cas, il s'agit plutôt d'expliquer comment une causalité mentale est possible qui évite aussi ce dualisme souvent difficile à rendre intelligible. Un des points les plus intéressants que met ainsi en lumière cette opposition, c'est le caractère souvent difficile à déterminer du concept de liberté.
+Le problème de la liberté surgit naturellement quand la raison humaine cherche à unifier les différents éléments de sa représentation du monde. En effet, si l'explication philosophique comprend la réalité dans son intégralité, au moins idéalement (et au contraire des sciences qui ont une partie seulement du monde pour objet), alors un effort d'unification de notre connaissance par une causalité unique est exigible, et cela afin d'éviter les contradictions qui découlent de l'hypothèse de l'existence de plusieurs causalités (psychique et physique) : il semble en effet impossible de penser l'interaction de deux causalités hétérogènes. Ce problème a particulièrement sollicité la réflexion des philosophes de l'antiquité. La physique hellénistique est ainsi nettement déterministe. Mais cette unité causale a soulevé et soulève encore de nos jours des problèmes : si on unit les trois parties de la connaissance (physique, éthique, logique), et aujourd'hui les sciences humaines et les sciences de la nature, comment résoudre l'antagonisme entre destin et liberté ? Le problème qui se pose est essentiellement d'ordre moral. Epicure fut contraint d'inventer le clinamen, et les stoïciens inventèrent des raisonnements très subtils pour tenter d'échapper à ce qui ressemble à une conséquence inévitable de ce qu'on appelle aujourd'hui le physicalisme.
+L'unité de nos représentations serait alors une unité logique. Mais la question se pose : si tout dépend du destin, comment certaines choses peuvent-elles encore dépendre de nous ? Ou bien la nature est seule maîtresse des choses, ou bien l'homme est maître lui aussi au sein de la nature. Cette contradiction dans notre connaissance est la troisième antinomie kantienne : suis-je libre, ou suis-je conduit par le destin ? La nature est ici entendue comme un pur enchaînement causal ; il s'agit alors de concilier les deux affirmations : responsabilité morale et actes déterminés.
+Si on nie la causalité naturelle, on fait apparaître un concept de liberté qui implique la nouveauté absolue dans l'ordre de la nature : la liberté humaine doit pouvoir ouvrir des possibles en produisant des actions non-déterminées, indépendantes notamment des inclinations de notre sensibilité. Notre volonté n'a alors aucune cause antécédente. Mais dans ce cas, la liberté n'est pas une réalité intelligible : la liberté sort du néant, elle constitue une sorte de miracle, d'où le caractère presque indicible de ce concept, puisque la liberté semble être dans ce cas au-delà de la portée de l'intellect humain.
+Ainsi, en cherchant à unifier nos connaissances, soit on fait de l'homme un être déterminé, dont la volonté est immanente à la nature (donc on cherche à naturaliser l'humain), soit on fait de l'homme un être transcendant, irréductible en particulier à sa nature animale.
+Une définition du sens commun serait : la liberté est de faire ce qu'on désire sans rencontrer d'obstacle. C'est l'absence de contrainte et l'indépendance, comme, par exemple, le vagabond non assujetti à un ordre social (Arthur Rimbaud, Jack Kerouac, etc). Carmen, dit, dans l'Opéra de Georges Bizet : « Ce que je veux, c'est être libre et faire ce qui me plait », « avoir pour pays l'univers et pour loi sa volonté ». Il faut se défaire de la définition courante de la liberté : "Le pouvoir de faire ce que l'on veut." En faire une simple absence de limites, c'est se condamner à n'y voir qu'une illusion.
+C'est l'ivresse de la liberté :
+Mais cette liberté n'est pas la liberté au sens philosophique.
+En effet, contre la liberté indépendance, il existe au moins deux types de critiques :
+On remarque que dans cette conception philosophique de la liberté, les limites ne sont pas des limites contraignant la liberté de la volonté humaine ; ces limites définissent en réalité un domaine d'action où la liberté peut exister, ce qui est tout autre chose.
+Nietzsche reprendra cette critique : '« Aussi longtemps que nous ne nous sentons pas dépendre de quoi que ce soit, nous nous estimons indépendants : sophisme qui montre combien l'homme est orgueilleux et despotique. Car il admet ici qu'en toutes circonstances il remarquerait et reconnaitrait sa dépendance dès qu'il la subirait, son postulat étant qu'il vit habituellement dans l'indépendance et qu'il éprouverait aussitôt une contradiction dans ses sentiments s'il venait exceptionnellement à la perdre. »
+Ces deux critiques mettent en lumière plusieurs points importants. En premier lieu, la liberté ne peut se réduire à l'indépendance par rapport au monde extérieur ; il faut également une autonomie intérieure réelle par laquelle nous nous donnons volontairement des règles d'actions. Ainsi, alors que l'indépendance concerne les causes externes (définissant ce que je peux), l'autonomie concerne les causes qui sont la source de la volonté (définissant ce que je veux). La réflexion philosophique intériorise le problème et cherche à en trouver les conditions internes, en niant que la liberté soit dépendante en quoi que ce soit du monde extérieur.
+En second lieu, il n'est pas certain que tout lien soit contraire à l'indépendance. Être relié n'est pas toujours négatif, car l'intersubjectivité est peut-être plus fondamentale que l'indépendance du moi, dans la mesure où le moi est relation aux autres. Ainsi, pour Friedrich Nietzsche (et de même pour Hegel), le toi est antérieur au moi. Il ne semble donc pas possible de concevoir une liberté indépendance comme un état monadique, où l'individu serait une totalité fermée, atome qui n'aurait que des relations qui lui seraient extérieures ou étrangères. Les relations humaines seraient donc à la fois des sources de conflits et d'aliénation, et des conditions de liberté sociale et politique.
+Paul Valéry développe pour sa part l'idée que « la liberté est l'un de ces détestables mots qui ont plus de valeur que de sens, qui chantent plus qu'ils ne parlent, qui demandent plus qu'ils ne répondent, de ces mots qui font tous les métiers ».
+Pour faciliter l'exposition et la compréhension du problème philosophique de la liberté, il est commode de partir de quelques modèles fondamentaux, modèles qui sont soit des conceptions majeures, soit des moments importants de l'histoire de la pensée occidentale (cette liste n'est donc pas fermée) :
+Libre arbitre : propriété de la volonté (actus proprius), faculté de choix qui associe raison et volonté. C'est l'union de la spontanéité et de l'intelligence.
+La liberté, c'est donc la spontanéité éclairée par la raison ; cette conception de la liberté n'est pas incompatible avec certaines formes de naturalisme.
+Liberté d'indifférence
+Liberté transcendantale : c'est la faculté par laquelle l'individu peut disposer de lui-même et déterminer sa volonté en l'absence de toute contrainte physique, c'est-à-dire indépendamment de la causalité naturelle (chez Kant par exemple). Est dit libre l'homme qui se gouverne selon sa raison. Cela sous-entend que l'individu doit être en mesure de faire preuve de discernement et d'un grand sens critique : l'homme libre se donne à lui-même des normes cognitives.
+Cette liberté a deux conditions : l'indépendance et la spontanéité.
+Si cette liberté existe, alors il y a une différence radicale entre l'homme et la nature.
+La liberté telle que nous l'entendons (comme propriété métaphysique ou comme condition transcendantale de la volonté) était ignorée des Anciens. Cela tient d'abord au fait que la volonté n'est pas pour eux une faculté à part du psychisme, et que le psychisme n'est pas lui-même une entité séparée de l'exemplifier par un cheval (mais ce point devrait sans doute être discuté d'après des thèses récentes sur l'intelligence et la sensibilité animales).
+Une conséquence importante de cette conception ancienne de l'âme, c'est que l'action, ou du moins un certain type d'actions, a, pour les Grecs, une dignité moindre ; ce que montre par exemple l'esclavage et l'artisanat. Par nature, un être qui travaille n'est pas libre (Aristote, Politiques) car son activité déforme son corps et altère en conséquence les qualités de son âme. Ce qui a de la valeur, la finalité par excellence de l'activité humaine, c'est la pensée, l'activité de l'intellect, conçue comme la finalité et le vrai bien de l'âme : la liberté de l'homme serait donc dans la contemplation qui nécessite d'ailleurs des conditions de vie d'hommes libres. Cette liberté n'est pas contraire à la nature et à sa nécessité, puisqu'elle est la réalisation parfaite de l'essence de l'homme (il ne faut donc pas confondre l'emploi qui est fait ici du mot liberté avec d'autres emplois qui sont faits ailleurs dans l'article).
+Le christianisme vient ensuite modifier cette conception, avec l'idée d'un dieu qui est volonté et qui crée, l'idée d'un dieu artisan (cf. Paul de Tarse). Cette idée de l'artisan se rencontre déjà chez Platon, mais sous une forme qui n'est pas créationniste : la théologie antique fait plutôt de Dieu un intellect non impliqué dans la création de la matière, même s'il peut y être engagé, par exemple pour y mettre de l'ordre. L'action va donc prendre de la valeur, ou changer de valeur, dans la mesure où le libre arbitre est maintenant métaphysiquement valorisé : cette valorisation a une origine morale, en particulier pour l'explication du péché. Le prix à payer de la théodicée (pour conserver la volonté juste de Dieu), c'est la malédiction de la liberté humaine, qui fait de l'homme un coupable par nature.
+Le liberum arbitrium chrétien apparaît nettement chez Augustin d'Hippone (De Libero arbitrio). Sa finalité était de fonder une théodicée ; ce concept permet en effet de disculper Dieu de la responsabilité du mal (c'est là l'invention de l'intériorisation du péché dénoncée par Friedrich Nietzsche). La motivation est donc théologique et non anthropologique. Par la suite, le libre-arbitre deviendra un trait fondamental de l'anthropologie de Thomas d'Aquin.
+On voit, par ce bref historique, que le problème de la liberté en Occident n'est pas séparable de l'histoire du concept de Dieu. Ceci est encore valable même au xxe siècle, chez Sartre par exemple (voir plus bas), lorsqu'il renverse le rapport de l'essence et de l'existence.
+Les différentes conceptions vues ci-dessus nous font connaître plusieurs conceptions de la liberté. Mais le problème de savoir s'il y a quelque chose de tel que la liberté reste entier. Il y a un problème épistémique de la liberté, qui peut être envisagé d'un point de vue théorique et d'un point de vue pratique.
+S'il y a quelque chose comme la liberté, quelle sorte de chose est-ce ? Est-ce une substance, une essence, une faculté, un acte, etc. ? Les auteurs examinés plus haut nous ont déjà fourni quelques réponses possibles.
+Comment en a-t-on connaissance ? Avoir connaissance de quelque chose comme la liberté, cela ne suppose-t-il pas en même temps d'avoir la preuve de son existence ? La liberté serait donc dans ce cas observable et devrait faire partie des phénomènes. Pourtant si la liberté se manifeste en tant que phénomène empirique, il faut bien qu'elle se conforme aux lois de la nature. Or, cela semble bien être une contradiction. Il semble que rien de tel que la liberté ne puisse être donné dans le monde ; mais il serait sans doute plus exact de conclure que la liberté, comme objet de connaissance, nous échappe, et qu'elle n'est jamais un objet de notre expérience.
+Cette difficulté peut être contournée de plusieurs manières :
+Le transcendantalisme et le déterminisme semblent donc s'entendre pour retirer la liberté de l'expérience humaine.
+Les problèmes théoriques soulevés par le concept de liberté amènent à se demander si la conscience de la liberté, ou l'expérience que nous en avons, porte d'une manière certaine sur une réalité ?
+Si oui, à quelle genre de réalité a-t-on affaire ? L'expérience semble manquer de consistance pour le déterminer. En effet, si la conscience que nous avons de la liberté n'en est pas une connaissance, la liberté est soit une réalité métaphysique soit un concept vide.
+Si conscience et connaissance sont deux choses différentes, avoir conscience de quelque chose ne garantit pas son existence. Il faut donc plus que la conscience pour savoir si effectivement nous sommes libres. Ainsi, il peut sembler que non, notre expérience de la liberté ne porte pas sur une liberté, mais sur un type d'être dont la nature est hors de notre portée.
+C'est pourquoi, pour certains philosophes, vouloir prouver la liberté par des faits ou des raisonnements est une absurdité : « un homme qui n'a pas l'esprit gâté, n'a pas besoin qu'on lui prouve son franc arbitre ; car il le sent. » (Jacques Bénigne Bossuet). La « preuve » de la liberté se ramènerait donc à « l'épreuve » « d'un vif sentiment interne » (Leibniz), qui suffirait à en faire une donnée immédiate de la conscience (Bergson).
+La liberté serait donc d'abord un objet d'une intuition immédiate et interne. Mais on retombe alors dans les difficultés évoquées au début de cet article : le sentiment de la liberté, ou son intuition, n'est ni clair ni probant. L'aliéné ou l'homme ivre peuvent s'imaginer agissant de leur propre chef ; bien plus, même un homme tenu pour sain d'esprit est susceptible de se faire de graves illusions sur son propre compte.
+C'est pourquoi le problème métaphysique de la liberté tire en fait son importance des enjeux moraux qui en découlent.
+L'ensemble de cette problématique et les différentes conceptions des philosophes du passé permettent de voir plus précisément en quoi la liberté est un concept métaphysique fondamental : ses conséquences morales sont en effet considérables.
+On voit bien ici en quoi une détermination métaphysique, en apparence très spéculative et difficile, peut se montrer décisive pour la vie, pour l'existence concrète. En effet, on pose ou on nie que la liberté soit un attribut essentiel : la liberté est ou non constitutive de la nature humaine. Nier la liberté, ce serait donc supprimer l'essence de l'homme. Pratiquement, la question serait de savoir si cela revient à dire que nier la liberté est une perspective dans laquelle on ne voit pas de contraintes morales qui empêchent quiconque de nier aussi l'humanité d'un autre homme. « Tout est permis » dit Nietzsche, assumant cette négation anti-humaniste de l'essence de l'homme. Mais les doctrines de ce genre ont-elles nécessairement ces conséquences ? Nier la liberté, cela implique-t-il qu'il ne soit pas interdit de nier, opprimer, torturer ou détruire l'autre ? Si, en effet, la liberté implique l'existence du devoir comme sa condition, sa suppression entraînerait peut-être la suppression d'une distinction entre le bien et le mal :
+Renoncer à sa liberté, c'est renoncer à sa qualité d'homme, aux droits de l'humanité, même à ses devoirs. Il n'y a nul dédommagement possible pour quiconque renonce à tout. Une telle renonciation est incompatible avec la nature de l'homme; et c'est ôter toute moralité à ses actions que d'ôter toute liberté à sa volonté. (Rousseau, Le Contrat social).+
Sommes-nous plus libres sans les autres ? Comment penser la liberté par rapport aux libertés ? La liberté pour tous est-elle une véritable liberté ? La réalisation de la liberté, sa pratique politique, crée de nombreuses tensions.
+L'autonomie politique est incarnée par la figure du citoyen, qui abandonne son indépendance naturelle pour se soumettre volontairement à des lois qui sont, au moins idéalement, les mêmes pour tous (Hobbes, Rousseau). C'est à cette condition que, selon cette théorie, les hommes peuvent être libres ensemble. Mais les lois peuvent être ressenties comme une aliénation de leur liberté par les individus.
+Il existe cependant un point de vue opposé à cette vision de l'éducation comme moyen de la liberté. Ainsi au xviiie siècle, Jean-Jacques Rousseau défendait un paradigme du bon sauvage, considérant l'éducation comme une domestication de l'homme, et la société comme un carcan. Ce point de vue, qui sera développé par Sigmund Freud dans son essai Malaise dans la civilisation (1929), a été discuté dès la Révolution française. Un ouvrage comme Sa Majesté des mouches de William Golding suggère au contraire que l'homme privé des contraintes sociales n'en devient pas nécessairement meilleur.
+On distingue au niveau de l'individu plusieurs « types » de libertés :
+La liberté n'est pas qu'individuelle, elle existe aussi à un niveau global, plus collectif, avec par exemple la liberté de la presse, qui permet une libre publication, sans subir de censure.
+Le mouvement ouvrier au xixe siècle distingue liberté formelle et liberté réelle. La notion de liberté collective repose en partie sur cette distinction.[réf. nécessaire]
+Les différentes libertés collectives :
+Paradoxalement, la notion de liberté peut parfois à ce niveau, nuire à la liberté de l'individu. Comme dans le cas de la liberté de la presse, par exemple. Ainsi les moyens techniques et financiers importants nécessaires aujourd'hui aux organes d'information, en particulier radiophoniques ou audiovisuels, tendent à la formation de cartels pratiquant l'autocensure, réduisant par là même le pouvoir de contrôle et de critique de l'individu sur ces vecteurs d'information... L'abolition de la censure n'est donc plus un gage de liberté, car si les publications ne sont plus soumises à des décisions arbitraires, les vecteurs de l'information deviennent en revanche de moins en moins accessibles à la grande masse des individus, réduisant de ce fait leur capacité à exprimer leurs opinions, ainsi que la variété des points de vue exposés. C'est pour cette raison que la presse est considérée comme le quatrième pouvoir (à l'instar des pouvoirs exécutif, législatif et judiciaire).
+D'après leurs détracteurs, les brevets logiciels entraîneraient la formation de trusts surpuissants juridiquement qui seraient peu compatibles avec les libertés individuelles.
+Des mouvements tels que l'Open Source ou Logiciel libre tendent à favoriser l'accès à la connaissance et aux techniques de manière universelle, ce qui, à l'heure de la mondialisation, représente un élément pour la défense des libertés individuelles dans les pays émergents, les rendant techniquement indépendants des pays « déjà développés ».
+L'accès à l'internet pose de nombreuses questions éthiques concernant, entre autres, les libertés individuelles, mais aussi collectives. Il n'est pas souhaitable, notamment pour une entreprise qui souhaite protéger son capital intellectuel, de divulguer des informations sur le réseau internet mondial. Il est nécessaire d'établir des règles, et différents niveaux d'accès et de confidentialité pour les partenaires et les parties prenantes.
+Contenu soumis à la GFDL
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Linux, ou GNU/Linux, est un système d'exploitation compatible POSIX. Linux est créé en 1991 par Linus Torvalds pour ordinateur.
+Développé sur Internet par des dizaines de milliers d'informaticiens bénévoles et salariés, Linux fonctionne maintenant sur du matériel allant du modem au supercalculateur. Il existe de nombreuses distributions Linux indépendantes, destinées aux ordinateurs personnels et serveurs informatiques, pour lesquels Linux est très populaire. Elles incluent des milliers de logiciels, notamment ceux du projet GNU, d'où la dénomination GNU/Linux. Linux est également populaire sur système embarqué. La mascotte de Linux est le manchot Tux.
+En 1991, les compatibles PC dominent le marché des ordinateurs personnels et fonctionnent généralement sous les systèmes d'exploitation MS-DOS, Windows et OS/2. Le microprocesseur Intel 80386, vendu depuis 1986, commence à être abordable. En 1991, aucun de ces trois systèmes n'exploite correctement les capacités 32 bits et de gestion mémoire du 80386.
+Le projet GNU est connu pour avoir produit de nombreux logiciels libres, dont des commandes Unix, l'éditeur de texte Emacs et le compilateur C GCC. Ces logiciels sont généralement utilisés sur des stations de travail fonctionnant sous UNIX propriétaire, car le noyau de système d'exploitation Hurd n'est qu'à l'état de projet.
+En juin 1991, la Berkeley Software Distribution (BSD) sort la Networking Release 2 (Net/2), qui constitue un système UNIX BSD libre presque complet. Mais un procès lancé par Unix System Laboratories contre Berkeley Software Design fait peser des doutes sur le statut de cette distribution pendant presque deux ans.
+Le système d'exploitation Minix est développé par le professeur Andrew Tanenbaum pour l'enseignement. Il est inspiré de UNIX, gratuit, ses sources sont disponibles mais non libres, et la simplicité est privilégiée par rapport aux performances.
+En 1991, l'étudiant finlandais Linus Torvalds, que la faible disponibilité du serveur Unix de l'université de Helsinki indispose, entreprend d'écrire un noyau de système d'exploitation qu'on appellera plus tard « noyau Linux ».
+Linus Torvalds fait alors son apprentissage sur le système d'exploitation Minix. Comme l'auteur de Minix refuse d'intégrer les contributions visant à améliorer Minix, Linus décide d'écrire un remplaçant de Minix. Il commence par développer un simple émulateur de terminal, qu'il utilise pour se connecter via modem au serveur informatique de son université. Linus désire alors surtout comprendre le fonctionnement de son ordinateur, un compatible PC basé sur un microprocesseur Intel 80386. Après l'ajout de diverses fonctionnalités dont un système de fichiers compatible avec celui de Minix, Linus oriente son projet vers quelque chose de plus ambitieux : un noyau aux normes POSIX.
+Le 5 octobre 1991, il annonce sur le forum Usenet news :comp.os.minix la disponibilité d'une ébauche version 0.02 de son système d'exploitation, la version 0.01 ayant eu une diffusion plus que confidentielle. Le message en question ainsi que sa traduction sont disponibles sur Wikisource.
+Depuis, des centaines de passionnés et des entreprises, petites ou géantes, sont venus participer au projet, dont Linus Torvalds est toujours le coordonateur. Eric S. Raymond décrit dans un essai retentissant le modèle de développement du noyau Linux et d'une partie des logiciels libres.
+Initialement appelé Freax par son créateur, le projet trouve son nom définitif grâce à Ari Lemmke, administrateur du serveur FTP ftp.funet.fi, qui héberge le travail de Linus Torvalds dans un répertoire nommé Linux. C'est la première apparition d'un terme composé à partir de Linus et UNIX, qui deviendra par la suite une marque déposée au nom de Linus Torvalds. Le manchot Tux, dessiné par Larry Ewing en 1996, devient le symbole du projet.
+Parmi les étapes marquantes, on peut d'abord citer le lancement en octobre 1996 par Matthias Ettrich de l'environnement graphique KDE puis en août 1997 par Miguel de Icaza de son concurrent GNOME, les deux étant basés sur le système de fenêtrage X11 issu des travaux du Massachusetts Institute of Technology. Dans l'iceberg qu'est un système d'exploitation grand public basé sur le noyau Linux, les environnements de bureau, comme GNOME, KDE ou encore XFCE en forment la partie émergée, en contact direct avec l'utilisateur.
+Il y a également la prise en compte progressive de l'intérêt commercial de Linux dont on peut citer quelques manifestations spectaculaires : le lancement en février 1998 de l'Open Source Initiative ; l'annonce en juillet 1998 du support d'Oracle Corporation qui porte et supporte sa célèbre base de données sous GNU/Linux ; l'entrée en bourse de Red Hat le 11 novembre 1999 ; celle de VA Linux le mois suivant qui marque le sommet d'une impressionnante bulle spéculative ; le support massif apporté par le géant IBM qui y dépense son 1er milliard en 2001 4., emploie en 2005 près de 300 développeurs du noyau Linux, et organise à partir de 2003 la riposte légale lors de l'attaque du SCO Group qui affirmait posséder des droits d'auteurs sur le noyau Linux (voir l'article SCO contre Linux) ; l'acquisition en octobre et novembre 2003 de Ximian puis de SuSE par l'entreprise américaine Novell.
+C'est dans le monde des serveurs informatiques que GNU/Linux a eu le plus d'impact, notamment avec le très populaire LAMP. Sur les serveurs, GNU/Linux a souvent été utilisé pour remplacer d'autres Unix et se retrouve être le seul acteur majeur avec Windows.
+Dans les systèmes embarqués, GNU/Linux est fréquemment utilisé avec les outils uClibc et BusyBox qui ont été développés pour le matériel particulièrement limité en capacité mémoire. En outre, le fait de pouvoir compiler le noyau Linux avec des options spécialement adaptées au matériel cible donne aux développeurs de nombreuses opportunités d'optimisation.
+La principale originalité de GNU/Linux par rapport à d'autres systèmes d'exploitation concurrents - comme Mac OS, Microsoft Windows et Solaris - est d'être constitué d'un noyau libre et de logiciels libres.
+Un logiciel libre n'est pas nécessairement un logiciel gratuit, et inversement tout logiciel non-commercial n'est pas forcément libre. Ce ne sont pas non plus des logiciels libres de droits : c'est en vertu de leurs droits d'auteurs que les contributeurs d'un logiciel libre accordent les quatre libertés, qui sont d'utiliser le logiciel sans restriction, d'étudier le logiciel, de le modifier pour l'adapter à ses besoins et de le redistribuer sous certaines conditions précises.
+Certaines licences sont basées sur le principe de copyleft, c'est-à-dire de réciprocité : une oeuvre dérivée d'un logiciel sous copyleft doit à son tour être libre. C'est le cas de la licence libre la plus utilisée, à commencer par le noyau Linux lui-même : la licence GNU GPL écrite par Richard Stallman.
+L'ouverture du code source, l'un des quatre critères correspondant à la notion de logiciel libre, a des avantages théorisés entre autres par Eric Raymond en matière de correction rapide des bogues qui sont la plaie de l'informatique, et notamment la correction des failles de sécurité. C'est le refus du principe de sécurité par l'obscurité.
+Linux n'aurait pu se développer sans la présence de protocoles standardisés utilisés sur Internet. Un bon nombre de logiciels libres sont d'ailleurs des implémentations de référence, comme Apache.
+Les partisans des logiciels libres sont donc des partisans constants de l'interopérabilité. Ils mettent en avant les formats ouverts, des formats de données dont les spécifications techniques sont publiques et sans restriction d'accès ni de mise en oeuvre, afin de ne pas dépendre d'un seul logiciel.
+Citons dans cette optique Mozilla Firefox qui tente de respecter scrupuleusement les recommandations émises par le World Wide Web Consortium, Jabber qui a donné naissance au standard XMPP reconnu par l'Internet Engineering Task Force dans le domaine de la messagerie instantanée ou encore les suites OpenOffice.org et KOffice qui ont lancé le récent standard OpenDocument dans le domaine de la bureautique.
+Dans d'autres domaines, il n'existe pas d'organisme ou d'accord de standardisation reconnu. Le marché est alors morcelé entre divers vendeurs qui ont chacun leur technologie ou sous la domination d'un acteur économique prédominant qui ferme ses formats ou protocoles.
+Le premier cas de figure prévaut dans la guerre des messageries instantanées et est réglé par des logiciels multiprotocoles comme Pidgin ou Kopete. Les formats des suites Microsoft Office successives et le protocole Common Internet File System qui permet de partager fichiers et imprimantes entre différents ordinateurs d'un réseau Microsoft Windows tombent dans la deuxième catégorie. Ces formats et protocoles sont souvent pas ou mal documentés. L'interopérabilité passe alors nécessairement par la rétro-ingénierie.
+Cela peut nécessiter un travail titanesque, pouvant être par ailleurs illégal aux États-Unis mais légal en Europe (tant qu'on reste dans le cadre de l'interopérabilité) ; aujourd'hui, OpenOffice.org permet de lire la très grande majorité des fichiers aux différents formats .doc, et le logiciel Samba permet de participer aux réseaux Windows.
+Plus problématiques du point de vue des logiciels libres sont les formats et protocoles nécessaires à l'interopérabilité, mais verrouillés techniquement et/ou légalement : gestion des droits numériques, brevets logiciels, Directive EUCD, Digital Millennium Copyright Act...
+Unifix Linux 2.0 de la société allemande Unifix (et Linux-FT de Lasermoon) sont également certifiés POSIX.1 FIPS 151 - 26,7 (Federal Information Processing Standard). Noyau 1.2.139
+Sur le site Debian, ils expliquent « les normes de POSIX ne sont pas gratuites et la certification POSIX.1 (et FIPS 151 - 2) est très chère »
+De nombreuses associations, connues sous le nom de Linux Users Group, Groupe d'Utilisateurs Linux (LUG ou GUL), cherchent à promouvoir GNU/Linux et par extension, les logiciels libres, par le biais de rencontres où des démonstrations de GNU/Linux sont faites, des formations, et pour ceux qui le souhaitent des installations sur leur ordinateur.
+De nombreuses communautés existent sur Internet afin d'aider les débutants comme les professionnels. Citons le site lea-linux, le site d'informations collaboratif Linuxfr.org et le site Linux-Québec, qui aide les utilisateurs québécois comme français dans leur apprentissage des bases de GNU/Linux grâce à un réseau IRC très actif. Et les projets Proselux et Parrains.Linux permettent aux linuxien(ne)s de se rencontrer pour s'entraider. De même il existe de nombreux sites regroupant des Tutoriels ainsi que des HowTos, comme lea-linux ou encore LinuxTuto.
+Les logiciels libres sont produits de manière collaborative, souvent indépendamment les uns des autres, et peuvent être librement redistribués. Il s'ensuit une particularité du monde GNU/Linux : la séparation fréquente entre ceux qui produisent les logiciels et ceux qui les distribuent.
+On appelle distribution Linux une solution prête à être installée par l'utilisateur final comprenant un noyau Linux, des programmes d'installation et d'administration de l'ordinateur, un mécanisme facilitant l'installation et la mise à jour des logiciels comme RPM ou APT ainsi qu'une sélection de logiciels produits par d'autres.
+Une distribution peut par exemple choisir de se spécialiser (ou non) sur GNOME ou KDE. Elle est également responsable de la configuration par défaut du système (graphisme, simplicité...), du suivi de sécurité (installations de mise à jour) et plus généralement de l'intégration de l'ensemble.
+La diversité des distributions permet de répondre à des besoins divers qu'elles soient à but commercial ou non ; orientée serveur, bureautique ou embarqué ; orientée grand-public ou public averti ; généraliste ou spécialisée pour un usage spécifique (pare-feu, routeur réseau, grappe de calcul...) ; ou encore certifiées sur un matériel donné.
+Parmi les plus célèbres distributions, on peut citer Slackware, apparue en 1993, qui est aujourd'hui la plus ancienne distribution encore en activité, toujours maintenue par Patrick J. Volkerding ; Debian, éditée par une communauté de développeurs ; Red Hat, éditée par l'entreprise américaine du même nom qui participe également au développement de Fedora Core ; ou encore SuSE, à l'origine une traduction allemande de Slackware, qui a depuis évoluée en intégrant certains sous-système issus de Redhat.
+De nombreuses autres distributions plus ou moins spécialisées existent, étant pour la plupart dérivées des projets sus-cités. Par exemple voici quelques distributions spécialisées « environnement de bureau » : Ubuntu, éditée par Canonical Ltd qui est dérivée de Debian ; Mepis également basée sur Debian ; Zenwalk dérivée de Slackware ; Mandriva, dérivée de Red Hat, aujourd'hui éditée par la société française de même nom et impliquée dans plusieurs projets libres. Il existe également des distributions dites LiveCD, dont l'une des plus célèbres est Knoppix, qui offrent la possibilité de démarrer un système d'exploitation Linux complet et d'accéder à de nombreux logiciels à partir du support (CD ou DVD) sans installation préalable sur le disque dur, et sans altérer son contenu. Cette souplesse d'utilisation a fait qu'elles sont devenues un support très populaire de démonstration d'utilisation de Linux, et sont même utilisées comme outils de maintenance système.
+Un des enjeux qui se posent pour les distributions Linux est de nouer des partenariats avec des fabricants d'ordinateurs afin qu'il devienne facile de trouver un ordinateur préinstallé sous Linux. Car même si certaines distributions affirment avoir rendu l'installation d'un système Linux aussi simple que celle des systèmes d'exploitation concurrents, le simple fait d'avoir à être au courant qu'une alternative existe, d'être prêt à accepter des changements dans ses habitudes et d'avoir à installer soi-même le système constitue un désavantage indéniable par rapport à la situation privilégiée dont jouissent les distributeurs de Microsoft Windows et de Mac OS X. Le système de Microsoft est en effet omniprésent et Apple est en même temps le fabricant des Macintosh.
+À défaut, les usagers de Linux réclament de pouvoir être remboursés, lors de l'achat d'un ordinateur neuf, de la part du prix correspondant au système d'exploitation et aux logiciels qu'ils n'ont pas l'intention d'utiliser, comme la loi de certains pays le permet. Si la société Apple s'est montrée plusieurs fois coopérative face à de telles demandes, le remboursement de Microsoft Windows est en général long et difficile bien qu'actuellement une série de jugements a permis à certains consommateurs de se faire rembourser par les fabriquants. Devant la difficulté d'obtenir ce remboursement basé sur le CLUF, dès 1998, les associations Linuxfrench et AFUL ainsi que Roberto Di Cosmo ont lancé en réaction une action pour la détaxe Windows.
+Cette situation existe en Europe et en Amérique du Nord, mais pas dans certains pays d'Amérique du Sud où les distributions de Linux ont plus de parts de marché que Windows.
+D'après l'entreprise IDC spécialisée dans les études de marchés, 24 % des serveurs et 3 % des PCs étaient vendus avec Linux en 2004. IDC prévoit que le marché total des ordinateurs Linux sera de 35,7 milliards de dollars en 2008.15 Ces chiffres de ventes ne comptabilisent évidemment pas les entreprises et les particuliers qui choisissent d'installer eux-mêmes Linux après l'achat d'un matériel fourni sans Linux.
+Une étude de XiTi réalisée régulièrement sur les systèmes utilisés par leurs visiteurs de 19 000 sites web professionnels, donne, en février 2009, 93.82 % de part de marché à Windows (62,18 % à Windows XP et 28,90% à Windows Vista), 4,59 % à Mac OS X et 1,24 % à Linux.16.
+Part de Linux :
+Il existe d'autres approches et d'autres sources. Le fabricant de cartes graphiques canadien ATI, largement minoritaire sur le marché Linux en raison du manque de support 3D de ses cartes (il développe pourtant ses propres pilotes pour Linux), sur ce système d'exploitation, estime que Linux représente 3 % de ses ventes. Suite à son rachat par le fondeur AMD, ATI a ouvert les spécifications de ses cartes début 2008 afin que les développeurs de Mesa 3D puissent mieux intégrer la gestion de ses cartes.
+Les tableaux statistiques de w3schools donnent 2,2 % de parts de marché pour Linux en mars 2002 et 4.0 % de parts de marché en février 2009.17.
+Il est important de préciser s'il s'agit de la part de marché des postes client.
+De par la filiation avec UNIX, la ligne de commande est toujours disponible dans Linux.
+Certaines distributions, notamment celles spécialisées dans les serveurs ou certaines tâches d'administration, utilisent uniquement la ligne de commande, en particulier pour sa faible consommation de ressources, due à l'absence d'interface graphique, mais surtout sa puissance d'action, liée à l'interopérabilité des commandes et la possibilité de générer des scripts.
+Pendant longtemps, de nombreuses opérations de configuration nécessitaient son utilisation, ce qui n'est plus vrai avec les distributions récentes dédiées à l'utilisation familiale.
+Les aides en ligne mentionnent cependant souvent la démarche à suivre en ligne de commande, même lorsqu'une configuration graphique est possible : cette méthode est plus universelle dans le monde Linux, et souvent plus facile à expliquer pour la personne qui aide, et son interlocuteur n'a qu'à copier-coller l'indication.
+Une interface graphique bien conçue permet de nos jours d'accomplir la grande majorité des tâches bien plus agréablement, mais ce n'est pas toujours le cas, particulièrement lorsque la tâche a un aspect répétitif ou non prévu.
+La ligne de commande, qui tire sa puissance de sa possibilité de combiner à l'infini des sous-tâches automatiques, et qui permet presque naturellement d'automatiser la tâche ainsi accomplie, peut alors se révéler plus efficace que l'interface graphique.
+Scientifiques, ingénieurs et développeurs comptent parmi ses plus fréquents utilisateurs.
+Interface graphique et ligne de commande peuvent aussi se compléter l'une et l'autre : KDE est livré avec un terminal très ergonomique, et offre un mécanisme efficace (DCOP) pour piloter et donc automatiser toutes ses applications graphiques depuis la ligne de commande.
+Apple très réputé pour ses interfaces graphiques, MacOS étant le premier système commercialisé avec la gestion des fenêtre et de la souris, a également intégré un terminal en ligne de commandes compatible UNIX sur MacOS X.
+L'emploi du terme générique Linux est trompeur s'agissant de l'utilisation d'un ordinateur personnel. Il existe en réalité trois interfaces distinctes, aux caractéristiques bien différentes et formant chacune un tout autonome : l'approche traditionnelle centrée autour d'un gestionnaire de fenêtres d'une part, l'environnement KDE et l'environnement GNOME d'autre part.
+Cependant, comme toutes ces interfaces sont basées sur X Window, leurs applications peuvent cohabiter et elles offrent des points communs dont l'affichage de fenêtres à distance (y compris via des protocoles compressés et chiffrés comme ssh et nox) et le copier-coller simplifié : un texte sélectionné par la souris est automatiquement copié, un clic milieu (ou un clic molette, ou sur les 2 boutons en même temps) suffit alors pour coller le texte à l'endroit désiré. Il n'y a donc jamais besoin du clavier pour effectuer un copier/coller sous X.
+Traditionnellement l'interface d'un système d'exploitation basé sur le noyau Linux était une interface sobre voire spartiate, centrée autour d'un gestionnaire de fenêtres (il en existe de nombreux comme Window Maker ou IceWM) et d'une suite assez hétéroclite d'applications.
+La fenêtre xterm permettant une utilisation en ligne de commande n'est en général jamais loin, l'informaticien appréciant ses puissantes possibilités d'utilisation qui proviennent de la filiation de GNU/Linux avec UNIX.
+L'inconvénient d'un tel système est le temps nécessaire à personnaliser un tel environnement, et surtout la non-standardisation des applications ainsi utilisées. Les applications que l'on peut voir sur la copie d'écran de droite (XMMS, RealPlayer, Mozilla Firefox, xterm, gaim, konqueror) suivent chacune leurs propres conventions : aspect, comportements, raccourcis claviers différents ; les copier-coller et glisser-déposer sont aléatoires...
+Si individuellement des applications comme vim ou emacs peuvent effectivement avoir des aspects brillants, l'ensemble disparate de toutes ces applications en fait un système difficile à appréhender. Le temps consacré à apprendre une application et les réflexes ainsi acquis ne peuvent être appliqués aux autres applications, un avantage énorme qu'apporte la standardisation de comportement des interfaces comme l'avait montré le Macintosh. À titre d'exemple, le raccourci clavier utilisé pour quitter une application peut être : Ctrl + Q ou Ctrl + C - Ctrl + X ou Ctrl + C ou juste q ou Esc ou encore :qa! ou bye ou quit ou exit...
+L'utilisation d'un tel environnement régresse nettement ces dernières années avec la maturité des alternatives présentées ci-dessous. Elle perdure néanmoins chez des utilisateurs qui se sont faits à un tel système, ou qui l'apprécient car il leur permet d'utiliser un Linux récent même sur des ordinateurs anciens.
+L'état des lieux du précédent chapitre est décrit dans un manifeste daté de 1996 ayant poussé Matthias Ettrich à fonder en réaction le projet KDE, puis Miguel de Icaza à fonder le projet GNOME l'année suivante, qui s'inspirent de Mac OS et de Windows sur le plan de l'ergonomie logicielle et de la standardisation des comportements.
+Ces deux projets sont devenus les fédérateurs de Linux sur le poste de travail.
+Chacun offre en effet :
+Ces deux environnements de bureau ont atteint récemment une maturité certaine, citons l'année 2003 pour KDE, un peu plus tard pour GNOME. Très actifs, ces deux projets ont néanmoins l'intention de s'améliorer nettement pour leurs prochaines versions majeures ; les efforts dans ce sens sont concentrés au sein des projets Appeal pour KDE, et ToPaZ pour GNOME.
+Techniquement, ils reposent tous deux sur de nombreuses technologies communes, au premier rang desquelles le système de fenêtrage X11. Pour éviter de dupliquer certains efforts, une zone informelle de collaboration entre ces projets du nom de Freedesktop a été mise en place.
+C'est dans l'approche de l'ergonomie (celle-ci étant relative au type d'utilisateur) et dans la conception du rôle d'un environnement du bureau qu'ils diffèrent : l'environnement KDE pousse loin la volonté d'intégration entre les applications, possède de très nombreuses fonctionnalités avancées et joue la carte de la configuration tout en veillant à avoir des bons choix par défaut ; GNOME se veut plus épuré et se consacre sur les tâches essentielles (reprenant la philosophie making things just work). Chacun plaît, par conséquent, à un public différent.
+On peut noter également la montée en puissance d'un troisième environnement de bureau appelé XFCE, qui vise à fournir un environnement complet basé sur GTK+ comme GNOME, tout en restant plus léger que ce dernier ou KDE.
+La communauté du Libre a produit un grand nombre de logiciels utilisables dans de nombreux domaines.
+Des exemples de logiciels donnés à titre indicatif :
+La plupart des distributions Linux proposent un programme permettant de naviguer dans une liste de milliers de logiciels libres testés et préconfigurés spécialement pour une distribution. Ces programmes libres sont alors téléchargés et installés en un clic de souris, avec un système de signature électronique garantissant que personne ne leur a ajouté de virus ou de spyware.
+Certains logiciels propriétaires importants ont également une version Linux. C'est le cas de Opera, Macromedia Flash Player, Acrobat Reader, NeroLinux ou Skype par exemple.
+La notion de portabilité désigne la capacité d'un programme à être utilisé sous différents systèmes d'exploitation ou architectures.
+Enfin, il est possible d'utiliser des logiciels faits pour Microsoft Windows sur un poste Linux grâce à une implémentation de l'API Windows sous Linux comme WINE. Des offres commerciales basées sur WINE comme CrossOver Office permettent d'utiliser presque sans problèmes des logiciels tels Microsoft Office et Adobe Photoshop issus du monde Windows.
+Il existe de nombreux jeux disponibles sous Linux, gratuits ou payants, libres ou propriétaires. L'offre comporte aussi bien des petits jeux de bureautique (cartes, démineur, échecs, golf) que des jeux commerciaux récents (Enemy Territory : Quake Wars)
+Certains jeux sont conçus pour tourner nativement sous Linux (Quake 3 par exemple), et d'autres peuvent être lancés à l'aide de programmes implémentant l'API Windows sous Linux. Il en existe plusieurs implémentations, dont certaines spécialement pour les jeux, permettant ainsi de faire fonctionner de nombreux jeux conçus pour Windows, dans des environnements comme Cedega et WINE (ex.World of Warcraft). Le dernier recours des joueurs linuxiens consiste tout simplement à utiliser parallèlement Windows sur le même ordinateur grâce au multiboot ou à la virtualisation.
+Les programmes les plus connus en mode texte accessibles depuis la ligne de commande comprennent vim, emacs, sed, apt... Une certaine partie d'entre eux peut aussi s'utiliser par l'intermédiaire d'une interface graphique.
+Par ailleurs, les programmes fonctionnant en mode console sont relativement nombreux. Les raisons sont multiples :
+L'utilisation de ces programmes peut s'avérer difficile pour une personne n'étant pas habituée à travailler en mode texte, des personnes venant de Windows par exemple. D'un autre côté, ils sont relativement prisés par les utilisateurs avancés des systèmes de type UNIX.
+Les logiciels qui utilisent une bibliothèque libre peuvent fonctionner sur Linux et sur toutes les plates-formes où la bibliothèque est implantée. Ces bibliothèques peuvent ajouter une surcouche graphique sur des applications texte déjà existantes comme c'est le cas de Vim, mais elles servent surtout à développer des logiciels accessibles aux non-informaticiens et disposant des fonctionnalités autorisées par les interfaces graphiques, comme le glisser-déposer, les manipulations à la souris, etc.
+D'autres applications comme Blender ou Google Earth sont un cas à part car ils utilisent la bibliothèque OpenGL destinée à la base à l'implémentation ainsi qu'à la gestion de programmes utilisant la 3D (mais aussi la 2D).
+Plusieurs logiciels d'émulation existent permettant de simuler le fonctionnement de systèmes d'exploitation concurrents ou des environnements de jeu.
+Les programmes Steem et ARAnyM émulent une bonne partie des applications écrites pour les machines Atari, notamment les Atari ST et Atari TT, UAE (Unix Amiga Emulator) permet d'émuler le Commodore Amiga, Basilik les anciens Mac 68000 d'Apple. Tous ces émulateurs émulent les microprocesseurs de la famille 68000 de Motorola qui équipaient ces ordinateurs, ainsi que les coprocesseurs spécialisés de l'Amiga.
+MESS (souvent associé a MAME) permet d'émuler de la même façon un grand nombre de micro-ordinateurs 8bits. Il existe également des émulateurs spécialisés pour chacun de ces micro-ordinateurs. Euphoric pour les Oric, FMSX pour les MSX, mais aussi des émulateurs Spectrum, Commodore, etc.
+Des applications développées pour Windows peuvent tourner sous un système Linux via les applications Wine et son dérivé commercial Cedega qui réimplémente le fonctionnement des principales API de Microsoft Windows. Le microprocesseur n'est pas émulé, seul les fonctions des APS sont remappées à la volée sur les API utilisées nativement dans Linux. Par exemple : DirectX utilise OpenGL, la gestion de l'impression est relayée à CUPS ou LPR, des périphériques USB à libusb, les tablettes graphiques à XInput, etc. Cela permet dans de nombreux cas des performances proche de l'execution native, tout en évitant les problèmes de certains pilotes de périphériques inhérent à Windows. Dans certains cas spécifiques, les performances de certaines applications peuvent se trouver dégradées. De nombreux utilitaires, applications de tous domaines et jeux tournent parfaitement, mais pas tous. Le site de Wine référence les applications fonctionnant et celles posant problèmes.
+En outre, Linux ouvre également la possibilité d'obtenir une parfaite séparation entre plusieurs environnements virtuels tournant sur un seul ordinateur physique, en prenant en compte les modules de virtualisation présents dans les processeurs récents comme AMD-V sur AMD et Intel-VT (ou IVT) sur Intel. Ces environnements de virtualisation permettent d'exécuter des environnements différents ou plusieurs environnements similaires sur une même machine, tout en assurant une certaine sécurité dans la séparation des accès. Ce système est utilisé depuis longtemps par les mainframes d'IBM. IBM a d'ailleurs porté Linux sur celles-ci afin de permettre à ses clients de continuer à les utiliser avec un système plus moderne.
+Virtualbox est plutôt orienté poste de travail, permettant de faire tourner un système Windows (par exemple) dans une fenêtre et ainsi de garder la stabilité du système Linux, tout en utilisant certaines applications disponibles sur ces systèmes. Cela permet de migrer l'environnement de travail en douceur et sans problèmes. Le système hôte Linux n'est pas affecté par le système virtuel. Il reste donc utilisable, même en cas de problèmes que pourrait rencontrer le système virtuel.
+Xen et VMware sont quant à eux plus orientés serveur, ils donneront de meilleurs performances concernant l'exécution de machines virtuelles pour délivrer des services.
+Il en existe également d'autres, comme Qemu ou encore Bochs qui lui émule aussi le processeur, rendant le système invité beaucoup plus lent.
+La prise en charge de l'équipement matériel est l'une des critiques principales faites à Linux. En effet, tous les matériels pour micro-ordinateurs ne sont pas forcément pris en charge directement par Linux et les pilotes développés par les constructeurs et compatibles avec Linux ne sont pas toujours disponibles. Certains fabricants fournissent systématiquement des pilotes pour Microsoft Windows et Mac OS X, alors que sous Linux, la communauté est souvent obligée de les développer elle-même, souvent par rétro-ingénierie. Parfois, la communauté préfère développer des pilotes libres stables bien que des pilotes propriétaires développés par les constructeurs existent (c'est le cas pour les cartes graphiques ATI ou NVidia). Dans cette optique, les pilotes nécessaires pour faire fonctionner pleinement un ordinateur sont intégrés à la plupart des distributions Linux. Ce sont les périphériques de second niveau qui risquent dans certaines circonstances de ne pas avoir de pilotes disponibles, notamment certaines imprimantes, modems, webcams, etc. Cependant les utilisateurs de Windows ou MacOS sont parfois également confrontés à des problèmes de pilotes lorsqu'ils installent une nouvelle version de leur système et l'absence de code source empêche une recompilation des pilotes propriétaires. Enfin, il arrive qu'il n'y ait des pilotes que pour Linux, et pas pour Windows ou Mac (supercalculateurs, serveurs internet haut de gamme, consoles de jeu PlayStation, anciens périphériques dont le support à été arrêté par les constructeurs...). Le matériel ancien peut être généralement recyclé sous Linux, car la pérennité des pilotes libres est également l'un des points forts de Linux.
+La première raison de cette situation est le faible impact de Linux chez les particuliers, ce qui n'incite pas les fabricants à investir dans le développement de pilotes pour cet environnement. La seconde raison est le refus de certaines distributions (Fedora ou Debian, par exemple) d'embarquer des pilotes sous licences propriétaires, même quand ceux-ci existent, ce qui oblige l'utilisateur à les trouver et à les installer manuellement. Enfin, l'absence d'une API fixe dans le noyau Linux oblige les fabricants à délivrer des binaires des pilotes adaptés à chaque version du noyau[réf. nécessaire].
+Les utilisateurs qui travaillent sur plusieurs plates-formes et qui ont besoin de ces pilotes peuvent trouver des versions développées par de tierces parties, mais de tels pilotes ne supportent généralement qu'un ensemble rudimentaire de fonctions, et n'apparaissent qu'après la sortie du matériel, avec un certain temps de latence. Il existe cependant des mécanismes pour faire fonctionner certains pilotes développés pour d'autres systèmes d'exploitation (comme NdisWrapper).
+Les webcams sont, par exemple, particulièrement concernées par cette absence de pilotes, mais le protocole USB video device class ou UVC permet de répondre à ce problème avec de nombreuses webcams supportant ce protocole 29. Aujourd'hui de plus en plus de grands constructeurs font des efforts pour développer ou fournir les informations pour le développement de pilotes libres pour Linux, comme Creative Labs pour ses webcams ou cartes sons 30, Intel (processeurs, chipsets 3D, cartes réseau, etc.) ou des assembleurs (l'Américain Dell 31 et le Taïwanais Asus, poussé par Intel 32, ainsi que les Chinois Lineo ou Everex vendent par exemple des ordinateurs avec Linux préinstallé, mais de nombreux autres composants nécessitent de vérifier la disponibilité de pilotes avant l'achat, s'ils sont destinés à une utilisation sous Linux.
+Aujourd'hui, Intel a une véritable stratégie pour s'imposer sur le marché des Ultra-Mobile PC en proposant aux constructeurs une plateforme construite autour de GNU/Linux (projet Moblin), c'est le cas récent de la machine EeePC d'Asus et de plusieurs machines du même créneau.
+En raison de la parenté de GNU/Linux avec UNIX, GNU/Linux s'est imposé sur le marché des serveurs informatiques très rapidement. Un point crucial a été la possibilité d'utiliser un système d'exploitation de type UNIX sur du matériel compatible PC, beaucoup moins cher que les solutions à base d'UNIX propriétaire et de matériel spécifique. De nombreux logiciels serveurs très demandés et très utilisés (serveur HTTP, base de données, Groupware, serveur de messagerie électronique...) sont disponibles gratuitement, en général sans aucune limitation, et fiables, la part de marché de Linux dans ce domaine a en conséquence crû rapidement.
+GNU/Linux ayant une réputation de stabilité et d'efficacité dans la maintenance, il remplit les exigences posées à tout système d'exploitation pour serveurs. De plus, la modularité d'un système basé sur le noyau Linux permet l'exploitation de serveurs dédiés à une tâche particulière. Le portage du noyau Linux sur de nombreux composants hardwares fait que Linux est aujourd'hui utilisable sur toutes les architectures utilisées dans ce domaine. Le matériel utilisable est en conséquence considérable. Les derniers IBM eServer p5 et IBM eServer i5 sont par exemple supportés par IBM avec un système d'exploitation Linux et permettent d'y exécuter plusieurs systèmes Linux en parallèle.
+La part de marché des serveurs Linux s'établit en 2004 à environ 10 % avec une forte croissance annuelle de 50 % [Information de l'article allemand ; sources à trouver]. Il est utilisé dans à peu près tous les domaines. Un des exemples les plus connus est résumé par l'acronyme LAMP, où Linux propulse un serveur web Apache associé à la base de données MySQL et au langage de programmation PHP (alternativement : Perl ou Python). Linux est également souvent utilisé comme serveur de fichiers, le plus souvent dans les réseaux Windows grâce au serveur Samba, moins souvent sous NFS ou AppleShare.
+Linux, qui jouit d'une bonne réputation en matière de sécurité et de performance (passage à l'échelle) est très utilisé dans le domaine des réseaux informatiques, par exemple comme passerelle, comme routeur ou comme pare-feu.
+La disponibilité du code source, et la possibilité qui en découle d'adapter le système à une tâche précise, a permis à Linux de faire son entrée dans les centres de calculs. Sur ce marché des ordinateurs centraux, gros ordinateurs ultra-fiables optimisés pour le traitement massif de données, omniprésents dans les banques, les sociétés d'assurances et les grandes entreprises, Linux fait de plus en plus concurrence aux systèmes UNIX propriétaires qui étaient autrefois la norme.
+Linux a été très tôt utilisé dans le domaine des grappes de serveurs (en anglais : clusters), par exemple par le moteur de recherche Google dès le milieu des années 1990. Dans cette configuration, associée à la notion de grille de calcul, de simples ordinateurs tournant sous une distribution spécialisée de Linux travaillent indépendamment au sein d'un grand réseau d'ordinateurs.
+Les superordinateurs sont conçus pour atteindre les plus hautes performances possibles avec les technologies connues, en particulier en termes de vitesse de calcul. En novembre 2006, selon TOP33 Linux fait tourner 74% des cinq cents plus puissants ordinateurs du monde (contre 20 % pour UNIX) dont les plus puissants, les deux serveurs Blue Gene d'IBM (40 960 et 131 072 processeurs). En novembre 2007, c'est plus de 85 % des superordinateurs qui utilisent Linux, contre 6% pour UNIX et 1,20 % pour Windows. En novembre 2008 c'est 87.8 % des superordinateurs qui se trouvent sous Linux contre 4.60 % pour UNIX. http ://www.top.org/stats/list/32/osfam
+Linux se trouve aussi au coeur de nombreux appareils informatiques ou d'électronique grand public, et parfois sans que l'usager le sache. Il s'agit notamment d'équipement réseau et de petits appareils numériques destinés à la consommation de masse, équipés en général d'un processeur spécialisé économe en énergie et d'une mémoire flash.
+Le succès de Linux dans ce domaine tient, ici comme ailleurs, à ce que les fabricants apprécient de pouvoir d'une part adapter le logiciel à leurs besoins (consommation, interface, fonctions annexes, etc.), d'autre part de bénéficier de l'expérience et du travail d'une communauté active. Linux est aussi apprécié dans ce domaine pour sa fiabilité, sa résistance aux attaques des pirates informatiques sur les réseaux et bien sûr sa gratuité.
+Des forums de coopération spécialisés aident les fabricants de ces produits en mettant à disposition instructions, programmes et exemples de codes, et en s'efforçant de standardiser les interfaces de programmations de Linux dans l'embarqué. L'OSDL a lancé le 17 octobre 2005 la Mobile Linux Initiative pour accélérer la progression de Linux dans ce domaine.
+Linux fait tourner plusieurs routeurs dont certains modèles de Linksys, ainsi que divers terminaux fournis par des fournisseurs d'accès Internet (comme la Freebox en France).
+Linux se retrouve également sur une gamme de téléphones portables ("Linux phones" : Motorola, etc.), sur l'assistant personnel Sharp Zaurus et les tablettes Internet Nokia 770, Nokia N800 et Nokia N810. Dans le domaine des assistants de navigation personnels, les systèmes GPS autonomes de TomTom sont conçus à partir d'une plate-forme Linux.
+Linux est utilisé dans des lecteurs de salon DivX, des téléviseurs et des décodeurs TNT, sur des baladeurs audio comme ceux de SanDisk et sur les baladeurs multimédias d'Archos.
+La GP2X de GamePark, console de jeux vidéo portable
+La PlayStation 3 de Sony utilise un système d'exploitation avec le noyau Linux développé spécialement pour la machine.
+La Pandora (console), console de jeu "open source" qui a un système d'exploitation Linux compilé pour processeurs ARM (r).
+Les raisons pour lesquelles Linux est réputé avoir une bonne sécurité informatique sont diverses et dépendent également du domaine d'utilisation.
+Ainsi, sur le poste de travail, Linux bénéficie d'une stricte séparation des privilèges, ce qui dans la pratique n'est souvent pas utilisé avec des systèmes concurrents. Une des conséquences est qu'un ver ou virus informatique ne peut accéder qu'à une partie des ressources et fonctionnalités d'un système Linux, mais ni aux données importantes du système, ni aux données d'éventuels autres utilisateurs.
+Par comparaison avec d'autres systèmes grand-public, Linux, et avant lui UNIX, s'est propagé d'abord parmi des gens possédant un solide bagage technique et sensibles aux problèmes de sécurité informatique d'autant plus que les premières vulnérabilités informatiques sont apparues sous UNIX (1972) ainsi que les premiers virus et vers. Le développement de Linux s'est, par conséquent, déroulé dans un contexte où la sécurité était une question critique, comme en témoigne le nombre de logiciels de qualité dans ce domaine qui sont libres et originaires du monde Linux/UNIX.
+Dans le domaine des serveurs, le degré de sécurité dépend, par comparaison, avant tout du degré d'expérience qu'a l'administrateur système. Là, Linux marque des points grâce à sa liberté d'utilisation, qui permet sans risque et sans surcoût de tester abondamment divers scénarios sur d'autres ordinateurs, et d'y acquérir ainsi une expérience utile.
+Il existe une série de distributions spécifiquement axées sur la sécurité, et des initiatives telles que SELinux de la National Security Agency pour atteindre des niveaux de protection toujours plus hauts. Mais aussi, une série de distribution axée sur l'anti-sécurité, comme Damn Vulnerable Linux, pour sensibiliser les experts et les aspirants, aux problématiques de sécurité sur ce système d'exploitation.
+Un autre argument avancé est la variété des plates-formes matérielles supportées, ainsi que les solutions logicielles. Une faille de sécurité touchant le plus populaire client email ne touchera qu'une fraction des linuxiens ; par contraste, une faille touchant Outlook Express peut toucher d'un coup une proportion énorme des utilisateurs de Windows. Cette thèse est développée dans un rapport écrit par des sommités du domaine comme Bruce Schneier pour le compte de la CCIA et reprise par la société Gartner dans un document. Une partie est traduisible ainsi :
+« La plupart des ordinateurs tournent sous Microsoft(TM), et, par conséquent, la plupart des ordinateurs du monde sont vulnérables aux mêmes virus et aux mêmes vers au même moment. Le seul moyen d'éviter cela est d'éviter la monoculture logicielle dans le domaine des systèmes d'exploitation pour les mêmes raisons raisonnables et évidentes pour lesquelles on évite la monoculture en matière d'agriculture. Microsoft exacerbe ce problème via une panoplie de pratiques visant à verrouiller ses utilisateurs à sa plate-forme. L'impact sur la sécurité de ce verrouillage est réel et représente une menace pour la société. »+
Enfin, le fait que Linux et nombre de logiciels tournant sous Linux soient des logiciels libres permet que son code source soit étudié d'un oeil critique par quiconque désirant le faire, que ce soit pour effectuer des adaptations, dans un cadre éducatif, pour répondre aux intérêts privés d'une entreprise/institution ou par simple intérêt personnel (pour en exploiter les vulnérabilités par exemple). En relation avec cela, on entend souvent l'argument que les failles de sécurité sont corrigées plus rapidement, affirmation approuvée et réfutée par diverses études, en fonction généralement de leur source de financement. Enfin, la liberté des logiciels rend inutile le recours au piratage des logiciels, aux cracks ou autres sites warez très populaires parmi les adeptes des autres systèmes d'exploitation, et qui constituent un vecteur d'infection des ordinateurs.
+Reste que Linux n'est pas totalement insensible aux problèmes de sécurité, comme l'a montré le ver Slapper en septembre 2002, premier du genre à toucher un nombre notable d'ordinateurs sous Linux, avant tout des serveurs web tournant sous Apache (6 000 à l'apogée du ver).
+De plus Linux reste un système d'exploitation vulnérable comme tous les autres, ainsi près de 4 900 vulnérabilités ont été recensées entre 2003 et 2008, celles-ci sont réparties sur les différentes distributions disponibles 37. Celles-ci ont été, pour la plupart, corrigées assez rapidement, tandis que d'autres subsistent.
+La gestion numérique des droits (DRM) concerne le domaine du multimédia, et notamment la musique et les vidéos qui peuvent être achetées sur Internet. Certaines oeuvres sont protégées par des verrous numériques, visant à contrôler l'utilisation de l'oeuvre, par exemple en limitant le nombre d'écoutes ou de copies possibles. Ces DRM nécessitent l'emploi d'une technologie particulière, qui est la propriété exclusive du fabricant et vendeur desdits DRM, ce qui explique que la lecture d'une oeuvre protégée se trouve liée à l'utilisation d'un programme spécifique. Les deux plus grand fabricants de systèmes de gestion des droits numériques, Microsoft et Apple, conditionnent l'usage des oeuvres protégées par leurs systèmes à l'utilisation respective de Windows Media Player, et de iTunes. Ces sociétés vendant leur propre système d'exploitation, elles ne souhaitent pas proposer de version de leurs programmes pour Linux. Ainsi, il n'est souvent pas possible pour les utilisateurs de Linux d'acheter en ligne de la musique sur un site de téléchargement payant, ou d'écouter de la musique déjà achetée et téléchargée.
+Il existe aussi des DRM sur les CD audio, mais ceux-ci sont beaucoup moins standardisés et moins courants. La plupart sont conçus pour fonctionner avec les systèmes d'exploitation de Microsoft et sont donc susceptibles d'être totalement inefficace pour un utilisateur de Linux.
+Il ne s'agit pas de limitations techniques, puisque des systèmes de gestion libres existent 38. Voir aussi Linus Torvalds, selon lequel Linux et la gestion des droits ne sont pas incompatibles.39
+Brad Spengler développeur chez grsecurity accuse Linux de parfois centrer ses efforts sur les fonctionnalités au détriment de la sécurité. Il prétend que Linus Torvalds lui aurait dit ne pas être intéressé par l'ajout d'options de sécurité utiles pour éviter des débordements de tampon, car cela ralentirait le chargement des applications.
+Il reproche l'absence d'une personne chargée officiellement de la sécurité, avec qui il serait possible de communiquer en privé en toute sécurité. À la place la seule solution est d'envoyer un e-mail sur une liste de diffusion relative aux questions de sécurité où les failles découvertes sont parfois utilisées à des fins malveillantes avant qu'une mise à jour de sécurité ne soit diffusée, alors que les usagers de Linux ne sont pas au courant de l'existence de cette faille.
+Enfin il remet en cause l'implantation du système LSM depuis la version 2.6 du noyau qui aurait été implanté par laxisme et qui faciliterait l'insertion de rootkits invisibles au sein du système en les faisant passer pour des modules de sécurité, mais cela est devenu impossible depuis la version 2.6.2442. D'autres développeurs du noyau reprochent à ce système de consommer des ressources non négligeables et de permettre le détournement de la licence GPL du noyau en y ajoutant des composantes propriétaires.
+Contenu soumis à la GFDL
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Le mouvement rastafari (ou "rasta") est un mouvement religieux dont le nom provient de l'amharique Ras Tafari de ras, tête (mais ici « leader, seigneur »), et Tafari, « Celui qui sera Craint ». Tafari est le prénom de naissance donné à Hailé Sélassié Ier, (de Haile, « puissance » et Selassie, « trinité », en amharique) empereur d'Éthiopie de 1930 à 1974. Il est ainsi considéré comme un personnage sacré du fait de son ascendance qui remonterait aux rois bibliques Salomon et David selon la tradition éthiopienne, mais également par la signification de son nom de naissance, comme de celui choisi par les prêtres de l'église orthodoxe éthiopienne pour son sacrement. Le choix et la signification des noms ont en effet une importance primordiale dans la culture africaine.
+Le mouvement rastafari est assimilé par certains à une religion, par d'autres à une philosophie, voire à une idéologie ou un syncrétisme pour ses emprunts à la Bible. Les rastas, eux, le conçoivent comme un mode de vie, une façon de concevoir le monde et tout ce qui le constitue depuis sa création. Les croyants de ce mouvement sont des rastafariens, souvent appelés par le diminutif « rastas ».
+L'usage du terme rastafarisme, bien que correct n'est pas accepté par les rastas car ils sont contre la classification de personnes et prônent l'unification des peuples. L'usage de la majuscule sur le terme "Rastafari" est préférable pour eux.
+Pour d'autres, le rastafarisme tirerait sa véritable origine du shivaïsme. Le shivaïsme fait partie de l'hindouisme. Shiva, divinité primordiale dans l'Hindouisme, garde de longs cheveux en dreads. Il est toujours plongé en méditation.
+La religion chrétienne est extrêmement présente en Jamaïque (plus de 80% de la population), notamment avec les églises anglicane, méthodiste, baptiste, catholique romaine, l'Église de Dieu et, depuis les années 1970, l'Église éthiopienne orthodoxe.
+L'évangile (gospel) est chanté avec ferveur le dimanche dans toute l'île. Face à l'émancipation de la mentalité esclavagiste, puis du colonialisme, se sont créés, au début du xxe siècle, différents mouvements « éthiopianistes » où l'interprétation occidentale de la Bible est parfois remise en cause.
+Les traditions des cultes africains interdits par les maîtres ayant survécu sous forme d'Obeah (sorte de vaudou local illégal et redouté), du Kumina, et mélangées à la Bible, de la Pocomania ou
+Lorsque le Jamaïcain Marcus Garvey émigre à Harlem, où il devient un des premiers meneurs importants de la cause noire, il fait souvent allusion à l'Éthiopie dans ses discours. Il écrit ainsi dans son principal ouvrage Philosophy & Opinions :
+« Laissons le Dieu d'Isaac et le Dieu de Jacob exister pour la race qui croit au Dieu d'Isaac et de Jacob. Nous, les Noirs, croyons au Dieu d'Éthiopie, le Dieu éternel, Dieu le Fils, Dieu le Saint-Esprit, le Dieu de tous les âges. C'est le Dieu auquel nous croyons, et nous l'adorerons à travers les lunettes de l'Éthiopie. »+
Marcus Garvey est pour beaucoup le premier prophète noir du mouvement rastafarien. Il annonce la fin des souffrances du peuple noir et son retour aux racines : l'Afrique.
+En 1924, le révérend James Morris Webb prononce un discours cité par le quotidien conservateur Daily Gleaner : « Regardez vers l'Afrique, où un roi noir sera couronné, qui mènera le peuple noir à sa délivrance ».
+La presse coloniale dénonce alors cette doctrine éthiopianiste « vulgaire » qu'ils attribuent à Garvey. Mais le 2 novembre 1930, en Éthiopie, Tafari Makonnen, le Ras Tafari, est coiffé de la couronne sacrée du negusä nägäst (roi des rois) sous le nom de Haïlé Sélassié Ier (« Puissance de la Trinité »). Il est le chef d'une des premières nations officiellement chrétiennes de l'histoire, l'Abyssinie. Selon le livre sacré Gloire des Rois (Kebra Nagast), retraçant l'histoire de son antique dynastie, Sélassié serait le descendant direct du Roi Salomon et de la Reine Makeda de Saba.
+Des représentants prestigieux des pays occidentaux assistent au sacre très médiatisé de Sélassié, qui est perçu par une communauté d'agriculteurs éthiopianistes de Sligoville (Jamaïque), le Pinacle, dirigé par Leonard Percival Howell (véritable fondateur du mouvement Rastafari), comme étant l'accomplissement de la prophétie attribuée à Garvey.
+En effet, le « Roi des Rois, Seigneur des Seigneurs » (1° Timothée 6 :15) de la Bible ressemble beaucoup aux titres traditionnels millénaires de Sa Majesté Impériale Haïlé Sélassié Ier : « Empereur d'Éthiopie, Roi des Rois, Seigneur des Seigneurs, Lion Conquérant de la Tribu de Juda, élu de Dieu, Lumière de l'Univers ». Puisant à la fois dans le marxisme, le christianisme, la culture africaine et plus tard l'hindouisme, Howell considère Sélassié (ou « Jah », de Jéhovah) comme le messie et propose dès lors une interprétation afrocentriste de la Bible.
+Cultivant le chanvre, considéré comme un sacrement (fumé dans les chalices) et le diffusant dans l'île, il est arrêté pour sédition en 1933, puis il est interné à l'asile à plusieurs reprises, alors que le Pinacle est détruit maintes fois par la police. Différents mouvements éthiopianistes de libération, comme le mouvement Bobo de Prince Emmanuel, se développent parallèlement en Jamaïque. Ils prennent pourtant peu à peu un nom générique, Rastafari, et visent, en partie, à restituer à l'homme noir le rôle important qu'il a joué dans la civilisation, à commencer par la Bible, où les ancêtres Juifs de Sélassié seraient naturellement, comme lui, Noirs : Moïse, Jésus, etc.
+Progressivement, et selon le voeu de Jésus et des Naziréens (Nombres 6 - 5), beaucoup de Rastafariens ne se coupent ni la barbe ni les cheveux, (lien) une coiffure souvent comparée à la crinière du Lion de Juda sacré. Des « locks » (noeuds, boucles) ou « dread (épouvante) locks » se forment ensuite naturellement dans leurs cheveux crépus.
+Ce signe de reconnaissance deviendra une mode internationale à partir de 1976. Proches de la terre, généralement les Rastas ne boivent pas d'alcool, le vin étant proscrit (Nombres 6 - 3), ne touchent pas aux morts (beaucoup de Rastas ne font même jamais allusion à la mort, mais au contraire « chantent la vie »), sauf ceux de leur proche famille (Lévitique 21 - 1), et le corps humain est considéré comme l'église (Corinthiens 3 - 16, 17), rejetant ainsi le principe même des temples ou des églises.
+Désireux de se maintenir en bonne santé, ils suivent en principe un régime spécial qu'ils appellent "I-tal" (vital) (Génèse 1 :29 et 9 :4), qui se compose de riz, de fruits, de racines, de graines et de légumes. Ce régime exclut toute nourriture non biologique.
+Quant au nom "Rasta", il provient de celui, divin, de Sélassié : le Ras (tête, correspond étymologiquement et protocolairement à son titre de duc) Tafari (son prénom). Leurs couleurs sont celles de l'Éthiopie impériale (rouge, or et vert, couleurs de l'Afrique frappées du Lion de Juda).
+Dès lors, les Rastas, incompris, blasphématoires, fumeurs de chanvre (la ganja, « l'herbe de la sagesse » qui aurait poussé sur la tombe de Salomon) deviennent des parias maltraités. En 1954, le Pinacle est rasé, et ils s'installent à Kingston, à Back-o-Wall. Le nom de ce ghetto provient de sa situation géographique : il est attenant au mur d'un cimetière, et nombre de Jamaïcains craignent de s'y installer par peur des « duppy » (fantômes).
+Suite à la prophétie annonçant le couronnement d'un roi en Afrique, l'avènement au pouvoir du monarque Haïlé Sélassié, sous le titre biblique de « Roi des rois, Seigneur des seigneurs, Lion conquérant de la tribu de Juda, Lumière du Monde » est apparu pour les rastas comme la révélation d'un envoyé de Jah, qui les mènerait à la libération de leurs souffrances. Ainsi, il est communément affirmé qu'Haïlé Sélassié, à l'image de Jésus, est Jah incarné, Homme et Dieu.
+Cette croyance est très importante dans la philosophie rasta, bien que souvent difficilement acceptée, y compris parmi les gens proches du mouvement. Ainsi l'artiste-producteur Yabby You, bien que très mystique, a-t-il toujours refusé cette divinité. La légende raconte qu'il tire son surnom de Jesus Dread du fait qu'il demandait aux chanteurs travaillant pour lui de mentionner Jésus au lieu de Selassié dans leur paroles...
+Haïlé Sélassié lui-même n'a jamais reconnu le culte rasta envers sa personne, bien qu'il ait montré sa reconnaissance envers les rasta en effectuant des donations de terre en Éthiopie, puis en effectuant un voyage mémorable en Jamaïque en 1966. Cette terre se nomme Shashamane : Haile Sélassié offre cette terre dans les années 50 à tous les membres de la diaspora noire qui désireront rentrer en Afrique par le biais de l'Ethiopian World Federation (EWF) dont il est le fondateur. Ce fut un acte pour remercier les Noirs américains et caribéens présents lors de son couronnement à Addis-Abeba et qui essayèrent de sensibiliser l'opinion au sort de l'Éthiopie après l'invasion des troupes italiennes dans le pays. Ce terrain serait ainsi devenu pour certains Rastas le symbole du rapatriement en Afrique.
+Ainsi, aux dignitaires rastas rencontrés lors de sa visite en Jamaïque, répondant au désir de ceux-ci de retourner en Afrique, a-t-il fait la proposition suivante : « Ne rentrez en Afrique que lorsque vous aurez libéré tous les Jamaïcains oppressés dans leur pays. »
+Enfin, la vie et la mort d'Haïlé Sélassié possèdent une dimension symbolique forte, en particulier dans sa mort et les péripéties qui ont suivi. Pour les rastas, Hailé Sélassié n'a pas disparu (Jah Live de Bob Marley). Voir sa page pour plus de détails sur la mort de Sélassié et ses différentes sépultures.
+Haïlé Sélassié fait une visite officielle en Jamaïque en avril 1966.
+A son arrivée, des milliers de Rastas lui réservent, à sa surprise, un impressionnant accueil. Le mouvement prendra par la suite encore plus d'ampleur, bien que Sélassié, bienveillant avec les Rastas, ne prétende lui-même jamais être le dieu vivant.
+Cette visite a eu une forte répercussion sur l'importance et la popularité du mouvement Rasta. En effet, les autorités n'ont pas été en mesure de sécuriser la foule lors de l'arrivée de l'avion officiel sur le sol Jamaïcain. Celle-ci était tellement importante et excitée à l'idée de voir enfin le Roi des Rois, qu'il a fallu chercher un médiateur pour la canaliser. Celui-ci sera incarné par Mortimer Planno, très connu à l'époque pour ses enseignements Rasta, qui toucheront beaucoup Bob Marley entre autres. Ainsi, Mortimer Planno sera dorénavant présent à chaque sortie publique d'Haïlé Sélassié durant ce voyage.
+Il va sans dire qu'une telle chose n'était absolument pas prévue par le protocole, et a consisté en une manifestation importante de la présence des Rastas.
+D'autre part, cette visite a été pour beaucoup de Jamaïcains l'occasion de se confronter aux différentes croyances véhiculées par le mouvement, et de s'en faire sa propre idée. Ainsi, lors de cette visite, Rita Marley, en observant la main d'Haïlé Sélassié, est persuadée d'y avoir vu les stigmates du Christ. Bob Marley devint rasta cette même année 1966. De retour en Éthiopie Haïlé Sélassié Ier s'adresse à ses confidents en ces termes : « Il y a un gros problème en Jamaïque...» En effet le roi d'Éthiopie n'a jamais reconnu le culte rasta envers sa personne. Ce qui est interprété par de nombreux rastas (et avec cet humour qui leur est propre) comme la manifestation d'une dignité toute divine. À l'occasion de ce voyage Selassié s'assit autour d'une table avec 32 rastas représentant chacun une communauté. La discussion est centrée sur le thème du retour en Afrique. Sélassié leur offrira à cette occasion une terre éthiopienne, shashamany, jusqu'alors réservé aux Falashas (juifs éthiopiens). Mais seuls quelques rastas (principalement de la communauté des Twelwes Tribes Of Israël) reviendront aux pays de leurs ancêtres.
+Back-o-Wall est rasé le 12 juillet 1966 avec violence. De plus en plus de musiciens de rocksteady puis de reggae, jusque-là généralement proches de la soul américaine et des églises, transmettent le message rebelle rasta avec leurs chansons.
+Le style des trois tambours nyahbinghi joué lors des cérémonies rastas (grounations) se répand (Bob Marley en tirera une chanson, Selassie Is The Chapel). À partir de 1970, un courant rasta majoritaire traverse le reggae. Bob Marley fait découvrir au monde cette culture qui met en valeur l'histoire d'Afrique, méconnue malgré son extraordinaire richesse. Les Rastas commencent alors à obtenir le respect dans leur pays malgré une répression utilisant la prohibition de la détention de chanvre, punie de bagne malgré une pratique répandue dans toute la population de l'île.
+D'autre part, l'industrie musicale s'ouvre enfin au message Rasta dans la production de chansons Conscious aux paroles ouvertes au message des Rastas. Ainsi, jusqu'alors méprisé par les producteurs et distributeurs de l'île, le message Rasta commence, après qu'un certain nombre de rastas, dont certains expulsés de Back-o-Wall se sont installés dans les ghettos de Kingston, comme Trenchtown, et après la visite d'Haïlé Sélassié, à se faire sentir auprès de la population déshéritée de l'île.
+Alors qu'auparavant, les producteurs, à l'instar de Duke Reid, les refusaient catégoriquement, certains, comme Clement Seymour Dodd, dit Coxsone, ouvrent leur production aux compositions comportant un message spirituel et engagé, contrairement aux chansons d'amour qui prévalaient durant l'époque du rocksteady. Son studio, Studio One se met alors à produire des groupes et artistes aux paroles inspirées du message Rasta, comme The Gladiators, The Abyssinians, ou encore Dennis Brown et bien d'autres encore. Le fait que Coxsone ait été un des seuls à tolérer la consommation de chanvre dans son studio n'est certainement pas étranger à la présence à Studio One de ces groupes initiateurs du reggae roots.
+Si les Rastas perdent de l'influence chez les jeunes Jamaïcains après la disparition de Marley en 1981, ils restent très présents et font un retour massif, unanime, dans le reggae à partir de 1994 avec Garnett Silk, Buju Banton, Tony Rebel, Mutabaruka, Sizzla, etc. De nombreuses et différentes tendances rasta cohabitent en Jamaïque et sont parfois contradictoires. Les Bobo Ashanti, les Emmanuelites, les Ites, notamment, ainsi que des courants chrétiens plus traditionnels.
+Les positions des individus se réclamant rastas vont du racisme le plus primaire issu de la lutte contre l'esclavage et le colonialisme, ou d'un ethnocentrisme noiriste militant, garveyiste à outrance, parfois teinté de racisme, jusqu'à une philosophie universaliste profonde, où la recherche de sa propre identité, de son acceptation, de la tolérance et de la nature humaine rejoint les philosophies et ascèses orientales.
+L'organisation des Douze Tribus d'Israël tente de fédérer les Rastafariens, mais sans réel succès. En 1997, un parti d'obédience Rasta cherche même à se présenter aux élections.
+Pacifiques mais fiers, affichant généralement une certaine arrogance, les Rastas dénoncent la société païenne (les personnes sans conscience de l'aspect sprirituel de la vie et de la nature en général), Babylone, et répandent leur culture dans le monde entier.
+La foi rasta permet avant tout à beaucoup de Jamaïcains pauvres de retrouver une dignité et un sens à leur vie difficile, en restant détachés de l'identité coloniale et ancrés dans leurs racines africaines. L'idée universelle de base étant d'« être soi-même » et de « se connaître ».
+La culture et les préceptes Rasta tendent à se cristalliser en une nouvelle religion organisée, qui serait ainsi la plus importante née au vingtième siècle. Pour de nombreux Rastas, cette tendance est une dérive.
+La culture rasta est un tout formé par l'agrégation d'un certain nombre de croyances, de coutumes et de traditions. Il est ainsi vain de proposer une caractérisation exhaustive et universelle de la culture rasta. Celle-ci est au contraire basée sur la différence et se revendique comme une unité dans la diversité.
+Cependant, il existe des points de repères caractérisant les croyances rasta, principalement le port des dread locks, la consommation de ganja, et les habitudes alimentaires, bien que ces caractéristiques ne soient pas adoptées par tous. Contrairement aux idées reçues, le Reggae n'est pas en soi une marque caractéristique des croyances rasta, mais bien un vecteur servant le message, selon le concept ancestral très courant dans ces cultures : la transmission orale. Le genre musical le plus proche des rastas est plutôt le Nyabinghi. Enfin, une grande partie de la culture rasta est directement inspirée de la Bible, comme le concept de Babylone.
+Les rastas respectent la version de la bible acceptée par les anglicans (King James Bible), mais remettent en question certains passages, considérant que celle ci a été réécrite à l'avantage des blancs. Ils utilisent donc la Holy Piby, version de la bible réécrite au début du XXe siècle par Robert Aathlyi Rogers, dont le but est de prouver que le Christ ainsi que l'ensemble des enfants d'Israël sont noirs.
+Les fondements de la culture rasta se trouvent dans la Bible. En effet, rasta est une spiritualité revendiquant son attache aux fondements de la Bible, Ancien et Nouveau Testaments. Les rastas se reconnaissent dans la Bible et s'en inspirent constamment. Ainsi, la coutume veut que la première occupation d'un rasta au lever soit la lecture d'un chapitre de la Bible, selon l'adage : « A chapter a day keeps the devil away », soit : un chapitre par jour tient le diable éloigné.
+Certains passages de la Bible sont très importants dans les croyances rasta. Ainsi, le deuxième exode à Babylone, et la première destruction du temple de Jérusalem est pour les rastas l'incarnation de leur exil d'Afrique, esclaves des Babyloniens modernes que furent les colons britanniques. Ainsi s'explique le concept de Babylone, qui est la métaphore de l'exploitation des Juifs par les Babyloniens. Puis, par extension, le concept va s'étendre à tous les aspects qu'ils rejettent dans la société importée par les colons, comme le matérialisme, l'argent, le capitalisme, la police... Ici aussi, les limites du concept sont assez floues et peuvent varier d'un rasta à un autre...
+Toujours en s'inspirant de la Bible (Jérémie 51), les rastas pensent souvent que la civilisation occidentale a perdu les valeurs fondamentales (la nature, le respect, l'amour de l'autre...) au profit d'une société basée sur l'argent, la réussite personnelle et de plus en plus éloignée de la nature. Ainsi, de la même façon que Dieu avait détruit la cité de Babylone qui avait péché par excès d'orgueil, les rastas prophétisent la chute du système (« shitstem ») de Babylone.
+Les textes de la Bible sont le fondement des croyances rasta, comme celui de Rivers of Babylon, psaume 137.
+Cependant ils pensent que la Bible ne représente que la moitié de leur histoire : « Half the story has never been told ». L'autre moitié résiderait dans le coeur de chacun.
+Un très bon exemple de l'influence Biblique est le voeu de Nazarite. Les Rasta, pour expliquer leur mode de vie, se réfèrent souvent au voeu de Nazarite, comme présenté dans la Bible (Nombres 6 :1 - 21). Ce voeu, à caractère temporaire, sanctifie la personne le suivant pour une certaine période durant laquelle cette personne devra suivre certaines règles de vie. Ces règles sont pour la plupart celles auxquelles se réfèrent les Rasta dans leur mode de vie. Elles sont, pour les plus caractéristiques :
+Enfin, ce voeu est censé revêtir un caractère temporaire, et le texte des Nombres précise ensuite quand et comment le voeu doit s'achever. En particulier, un Nazarite ne devra pas croiser un homme mort, sous peine de devoir rompre son voeu. On retrouve cette idée dans un certain nombre de chansons, illustrée par cette phrase : « rasta don't go to no funeral », soit « le rasta n'assiste à aucune funéraille ». D'une manière générale, la mort constitue un tabou pour les rastas, et ils n'abordent ce thème que d'une façon très spirituelle et assez difficile à appréhender pour le non-initié.
+L'application stricte de ce voeu au mode de vie Rasta n'est pas sans porter à discussion. Avant tout, ce texte et les modalités d'applications du voeu de Nazarite, comme pour beaucoup de textes de l'Ancien Testament, pose la question du décalage temporaire et culturel. En effet il n'y a qu'à consulter les démarches à effectuer pour rompre le voeu pour comprendre qu'il ne saurait s'appliquer identiquement de nos jours. Ensuite, ce voeu est bien censé être temporaire (sept ans), alors que le mode de vie Rasta lui devrait pouvoir se pratiquer toute sa vie durant.
+Ainsi, un autre point caractéristique des Nazarites est le port des dreads, port qui est source de beaucoup de polémiques. Le débat de savoir si les dreads sont nécessaires à un Rasta est encore important de nos jours. Ainsi, certains Rastas pensent qu'un Rasta sans dreads n'en est pas un, d'autres, comme les membres des Twelve Tribes of Israël ou les Morgan Heritage (notamment avec le titre Don't haffy dread to be rastaman) pensent au contraire que Rasta est avant tout une philosophie de vie et qu'il est tout à fait possible d'être un Rasta sans porter de dreads, tandis que beaucoup de dreadlocks ne sont pas forcément le signe d'un Rasta.
+Enfin, il faut rappeler que le port des dreads est une mode qui s'est instaurée dans les ghettos de Kingston, par une génération de rastas apparue après la destruction du Pinacle. Le port des dreads n'était pas initialement la marque des adeptes de rasta, qui étaient alors les barbus car ils se laissaient pousser la barbe. Ainsi la réponse à la nécessité du port des dreads doit être trouvée par chacun ; mais de nombreux rastas pensent que cette coiffure ne codifie plus l'appartenance à leur mouvement.
+Il n'existe aucune doctrine rasta écrite, ni même de synthèse générale. Les concepts de la spiritualité rasta sont plutôt variés et de tradition orale. Le Kebra Negast qui retrace l'histoire de la dynastie salomonide éthiopienne, jusqu'au Négus (Hailé Selassié), est un ouvrage très considéré par les éthiopiens amhara, et de référence pour les rasta, qui se considèrent éthiopiens. Un grand nombre des concepts de la philosophie rasta (paix et amour) ont directement inspiré les artistes reggae dans les textes de leurs chansons. On peut proposer quelques exemples très importants.
+Le mouvement Rasta est un mouvement de rébellion et de libération des consciences. Ainsi, le vocabulaire et le parler font intimement partie des champs de bataille du mouvement. C'est ainsi que les Rasta ont développé un nombre important de jeux de mots plus ou moins évidents qui sont autant de façons de marquer et de frapper les esprits sur les concepts qu'ils soutiennent. Ceci tend à créer un patois propre à la culture rasta, permettant aux différents initiés de se reconnaître et de communiquer entre eux. On peut en proposer une liste non exhaustive :
+L'usage du pronom I et surtout du pronom I and I pour désigner le locuteur est une habitude extrêmement répandue parmi les rastas. En effet, ceux-ci considèrent chaque personne comme étant l'élément d'un tout. Ainsi, dans la tradition, la moitié de la Bible n'a pas été écrite, et réside dans le coeur de l'Homme. De cette manière, si un rasta écoute son coeur, quoi qu'il connaisse de la Bible écrite, il saura reconnaître et écouter le message divin.
+Les deux I représentent ainsi le soi commun pour le premier, et, pour le second, le soi divin, en connexion avec Jah. Beaucoup d'autres expressions rasta font ainsi référence à ce concept, comme « each and everyone », et le fameux « stick a bush », qui a inspiré un titre homonyme des Gladiators, littéralement : every hoe has its stick in the bush, soit chaque feuille a sa place sur le buisson, chaque feuille a sa diversité, mais est membre du même arbre, dans lequel coule la même sève.
+Ce concept est fondamental pour expliquer l'unité rasta malgré les différentes croyances et idées.
+Bien que corollaire du concept précédent, il paraît important d'éclaircir cette notion tant elle est importante et parce qu'elle justifie la négation de l'emploi du terme rastafarisme, pourtant correct en langue française.
+De la même manière que les rastas considèrent l'unité à travers la diversité, ils rejettent tout le vocabulaire en -isme, comme capitalisme, communisme, christianisme, etc. En effet, ces mots sont vus comme la manière qu'a Babylone de regrouper les gens et d'établir des barrières entre eux, rendant toute communication vaine, et entraînant la méconnaissance et l'intolérance. « We don't want your Ism-Skisms » signifiant que l'on refuse les catégorisations, qui sont sources de schismes entre individus.
+Les rastas vont ainsi inventer un grand nombre de mots qui reflètent leur façon de voir le monde :
+Pour les Rastas, leurs racines sont en Afrique, dont ils ont été arrachés pour être mis en esclavage dans la Babylone moderne. Ainsi, l'accomplissement des Écritures implique le retour à la terre promise, qui est pour eux l'Éthiopie.
+Cette référence à l'Éthiopie comme terre promise et non à la Palestine s'explique par plusieurs références, bibliques comme traditionnelles. Tout d'abord, les Rastas se souviennent de la Reine de Saba, Makheda, reine éthiopienne ayant visité le roi Salomon, dont elle aurait eu un fils, Menelik, selon la tradition. De même, l'Arche de l'Alliance, contenant les tables de la Loi et le bâton d'Aaron, dont la Bible perd la trace après Salomon, se trouverait aujourd'hui dans une chapelle de l'église orthodoxe Éthiopienne, apportée directement par Ménélik Ier. Salomon a confié l'arche d'alliance à son fils ainé, selon la tradition hébraïque, pour qu'il la préserve des convoitises. Menelik est reparti de Jerusalem, accompagnés de plusieurs prêtres de haut rang, dont les Falashas, Juifs noirs d'Éthiopie sont les descendants.
+Enfin, la prophétie annonçant le couronnement d'un roi en Afrique, accomplie par l'avènement au pouvoir de Haïlé Sélassié, acheva de confirmer l'Éthiopie comme la terre promise, Zion, le Sion (prononcé Zayan en anglais) chanté par les psaumes.
+Il faut également noter que la version anglaise de la Bible utilise le terme « Æthiopia » pour désigner ce qui est aujourd'hui le continent africain et non le mot Afrique qui désignait la province romaine d'Afrique en latin. L'origine du mot « Ethiopia » n'est pas connue avec certitude. Selon les sources, elle pourrait venir du en grec ancien Aithiops (XXXXX), signifiant « au visage brûlé », ou bien être dérivé de Ityopp'is un fils de Koush inconnu de la Bible, qui selon la légende fonda la ville d'Axoum. Voir l'article Éthiopie pour plus de détails.
+Le mouvement rasta est souvent vu comme une variante locale de la grande vague hippie qui eut lieu dans le monde occidental au cours des années 1970. Le message rasta se retrouve alors vu comme une manifestation d'amour et de paix universelle, comme prôné par les hippies.
+Bien que fondamentalement un message de paix et d'amour, le message rasta ne peut absolument pas se résumer à eux seuls. En effet, le mouvement rasta est avant tout un mouvement d'émancipation des consciences, et, surtout de dénonciation des dérives d'un système. De même que le reggae est une musique de rebelle, comme chanté par Bob Marley, le message rasta est avant tout un message de rupture et de rébellion spirituelle.
+Si cette rébellion spirituelle est souvent assimilée à une forme d'action pacifique à l'image des mouvements de Gandhi ou de Martin Luther King, ce n'est pas vrai en général. Peter Tosh, souvent qualifié du Malcom X rasta, ne disait-il pas que tout le monde veut la paix alors que lui désire la justice ? (« Everyone is crying out for peace, none is crying out for justice » - Equal Rights, 1977).
+Enfin, les rastas ont un fort attachement aux textes sacrés, à la méditation religieuse et recherchent en permanence à se rapprocher du lien ancestral qui les unit à l'Afrique et à leurs origines. En particulier, le traitement des femmes et des homosexuels est abordé d'une manière qui serait qualifiée de traditionaliste.
+Il ne s'agit pas non plus de voir dans les rastas de dangereux rebelles prêts à prendre les armes pour détruire la société moderne en vertu de valeurs obscurantistes, car ce n'est absolument pas le cas. Les rastas sont en majorité de paisibles personnes. Simplement, et la musique le montre bien, le message rasta est plus proche d'un message de paix universel que d'un message de résistance, comme le reggae est plus proche du punk que du rock progressif...
+Une autre différence notable entre le mouvement rasta et le mouvement hippie, se trouve dans l'origine sociologique de leurs adeptes : si les hippies sont généralement des jeunes issus de la classe moyenne voire des classes les plus aisées, les rastafari sont quasi uniquement originaires des ghettos et des classes défavorisées.
+Initialement confiné au sein des communautés rasta, le message s'est petit à petit répandu dans le monde. La première étape déterminante a été l'ouverture aux jeunes des ghettos de Jamaïcains, formés par l'exode rural, et remplis de jeunes essayant d'échapper à la délinquance, ne pas devenir des rude boys. La musique étant, à cette époque, très importante dans la culture populaire, le message s'est ensuite naturellement adapté aux compositions de l'époque. On est ainsi progressivement passé du rock steady, aux paroles axées sur les relations amoureuses puis à une musique plus spirituelle, le roots reggae. On constate très bien ce changement avec des artistes comme Ken Boothe, Bob Marley ou encore Max Romeo.
+Enfin, l'avènement du reggae comme musique populaire internationalement a permis l'expansion du message dans le monde entier séduisant des gens de tous les continents. Ceci n'est pas sans poser des questions, en particulier sur la pertinence du message reçu, et sur son adaptation aux autres populations. En effet, les racines africaines d'un rasta noir sont peut-être plus évidentes que celles d'un européen blanc... De plus, une critique souvent formulée à l'encontre des jeunes gens européens blancs portant les dreadlocks est la dilution du message, celui-ci se teintant d'une couleur hippie plutôt éloigné du message d'origine. Ainsi, la question de la possibilité de s'affirmer rasta lorsque l'on est blanc et européen est toujours ouverte, tout individu ayant la possibilité de ressentir un besoin inconscient de revenir à un mode de vie et de penser plus authentiques. Rasta ne se borne pas à des limites ethniques, le mouvement se base sur une « livity », manière de vivre et de se comporter qui remonte à la création de toute chose dont celle de l'Homme. La pensée, la spiritualité Rasta se veut universelle.
+Ainsi, il serait erroné de considérer que la philosophie rasta n'est pas reconnue en dehors de la Jamaique, et il est tout à fait possible de s'en inspirer de manière plus ou moins importante. Par exemple Max Cavalera, ancien chanteur du groupe de metal Sepultura et actuel chanteur de Soulfly s'inspire largement de la philosophie rasta dans ses paroles (I and I, Tribe, etc.) alors qu'il est blanc et qu'il pratique une musique, en dépit de quelques emprunts, très éloignée du reggae.
+Le mouvement Baye Fall (Originaire du Sénégal) est une branche de la confrérie des Mourides (l'un des nombreux courants du Soufisme) fondée par Cheykh Ibrahima Fall, lui même adepte de Cheikh Ahmadou Bamba. Culte qui voue un pouvoir total et une croyance absolue en Dieu et au marabout (guide spirituel/représentant de Dieu sur terre "khalifatoul lahi fil ard").
+Ce mouvement développe une croyance au soufisme qui se rapproche de la manière rastafari, le représentant de Dieu sur Terre n'est pas Haïlé Selassié mais le marabout du mouvement. On n'y retrouve pas les notions d'exil comme les jamaïcains et peu de conceptions sont similaires au mouvement rasta, cependant, l'islam se reconnaissant comme la vraie héritière de la religion des rois David et Salomon, on peut y voir, à cause des coutumes qui se ressemblent, une sorte de rastafarisme se disant "musulman".
+Forme de religion détachée de toute possessions matérielles, ou l'on fait les choses pour Dieu et non pas pour ou en fonction des autres. Tout se partage, le don de soi est naturel, et la foi en l'humain est essentielle.
+Mode de vie confondu totalement avec le mode de vie religieux, qui se rapproche du mode de vie rasta, mais avec une plus grande importance vouée au culte religieux. A la différence des musulmans, les Baye Fall n'ont pas d'obligations de prières, le travail au service du Cheikh est élevé au titre de culte religieux et le cheikh qui est leur maître est désigné pour les conduire vers le Tout Puissant.
+Le dreadlocks demeurent l'une des plus grandes particularités de ces religieux, plusieurs versions expliquent son origine : C'est une initiation du Cheikh Ahmadou Bamba. Il avait pris l'habitude de conserver ses cheveux. Ses disciples ont décidé de perpétuer cette habitude.
+Ces chevelures tirent leur origine des prétendus "saints" venus après les fondateurs du soufisme.
+Les saints n'avaient pas de moyens pour se coiffer, leurs cheveux poussaient alors jusqu'à prendre la forme de dreadlocks.
+A l'instar des vrais rastas (et non pas certains porteurs de dreadlocks non-croyants qui utilisent des produits pour entretenir leurs cheveux), la coiffure Baye Fall est naturelle et entretenue de façon naturelle. Ce mouvement fait de plus en plus d'adeptes en Afrique de l'ouest (Mali, Côte d'Ivoire, Sénégal, ...).
+Contenu soumis à la GFDL
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Noam Chomsky, né Avram Noam Chomsky le 7 décembre 1928 à Philadelphie en Pennsylvanie, est un linguiste et philosophe américain. Professeur émérite de linguistique au Massachusetts Institute of Technology où il a enseigné toute sa carrière, il est connu dans le domaine scientifique comme le fondateur de la linguistique générative. Il est également devenu mondialement célèbre pour son engagement et ses écrits politiques dissidents ainsi que pour ses convictions anarchistes.
+Chomsky a commencé à développer sa théorie de la grammaire générative et transformationnelle dans les années 1950 en cherchant à dépasser aussi bien l'approche structuraliste, distributionnaliste que béhavioriste dans l'étude du langage naturel. Visant à rendre compte des structures innées de la « faculté de langage », cette théorie est souvent décrite comme la contribution la plus importante dans le domaine de la linguistique théorique du xxe siècle et on a parfois parlé de « révolution chomskienne ». Pour répondre aux critiques développées dans les années 1970 envers son premier modèle, Chomsky a proposé au début des années 1980 une nouvelle version de sa théorie basée sur une approche modulaire. Il a ensuite jeté les bases, au cours des années 1990, de ce qu'il a appelé le « programme minimaliste ».
+Les recherches de Chomsky ont joué un rôle crucial dans ce que l'on appelle la « révolution cognitive ». Sa critique du Verbal Behavior (« Comportement verbal ») de Skinner en 1959, a remis en question l'approche comportementale de l'étude de l'esprit et du langage, qui dominait dans les années 1950. Son approche naturaliste de l'étude du langage a également eu un grand impact en philosophie du langage et de l'esprit. Il a également établi la hiérarchie de Chomsky, moyen de classification des langages formels en fonction de leur pouvoir de génération.
+En parallèle de sa carrière de scientifique, Noam Chomsky mène une intense activité politique et militante depuis le milieu des années 1960 et sa prise de position publique contre la Guerre du Viêt Nam. Sympathisant de la mouvance anarcho-syndicaliste et membre du syndicat IWW, il a donné une multitude de conférences un peu partout dans le monde et a publié de nombreux livres et articles dans lesquels il fait part de ses analyses historiques, sociales et politiques. Ses critiques portent tout particulièrement sur la politique étrangère des États-Unis d'Amérique et le fonctionnement des mass médias.
+En 1992, d'après le Arts and Humanities Citation Index, Chomsky a été plus souvent cité qu'aucun autre universitaire vivant pendant la période 1980 - 92, et occupe la huitième position dans la liste des auteurs cités,8,9. Il est considéré comme une figure intellectuelle majeure du monde contemporain, à la fois controversée et admirée. Plusieurs livres et documentaires lui ont été consacrés.
+Chomsky est né à Philadelphie en Pennsylvanie. Son père, William Chomsky, était un spécialiste de l'hébreu originaire d'une ville d'Ukraine plus tard détruite par les nazis. Sa mère, Elsie Chomsky (née Simonofsky) venait de la future Biélorussie mais, contrairement à son mari, elle grandit aux États-Unis et parlait « l'anglais de New York ». Leur première langue était le yiddish, mais selon Chomsky, dans sa famille, la parler était proscrit : celle-ci vivait en effet dans une sorte de « ghetto juif », partagé entre une communauté « yiddish » et une « hébreu ». C'est dans cette dernière que sa famille l'a élevé, « immergé dans la culture et la littérature hébraïques ».
+Vers l'âge de huit ou neuf ans, Chomsky passait chaque vendredi soir à lire de la littérature hébraïque. Plus tard, il enseigna l'hébreu. En dépit de cela, et de tout le travail linguistique effectué durant sa carrière, il a confié : « la seule langue que je parle et écris correctement est l'anglais ».
+Selon ses souvenirs, Chomsky écrivit son premier article pour le journal de son lycée en 1940 à propos de la menace de l'expansion du fascisme après la chute de Barcelone. C'est à cet âge qu'il se rapprocha des idées anarchistes.
+À partir de 1945, il étudie la philosophie et la linguistique à l'Université de Pennsylvanie, auprès des philosophes C. West Churchman et Nelson Goodman et du linguiste Zellig Harris. L'enseignement d'Harris comprenait sa découverte des transformations en tant qu'analyse mathématique de la structure du langage (fonctions mathématiques d'un sous-ensemble à un autre dans l'ensemble des phrases). Par la suite, Chomsky explique qu'elles sont des opérations de la production d'une grammaire hors-contexte. Les idées politiques de Harris furent également déterminantes quant à l'orientation future de Chomsky.
+En 1949, Chomsky se marie avec la linguiste Carol Schatz (1930 - 200813). Ils ont deux filles, Aviva (née en 1957) et Diane (1960), ainsi qu'un fils, Harry (1967).
+Chomsky soutient sa thèse de linguistique à l'université de Pennsylvanie en 1955, après avoir poursuivi ses recherches de 1951 à 1955 à Harvard en tant que Harvard Junior Fellow. Dans son mémoire, il commence à développer certaines des idées qu'il approfondit dans son livre de 1957, Structures syntaxiques'.
+Chomsky rejoint ensuite le Massachusetts Institute of Technology (MIT) en 1955 grâce à l'appui de Roman Jacobson, comme professeur associé au sein du laboratoire de recherche en électronique de l'institut qui travaille sur un projet de machine à traduire. En 1961, il est nommé professeur dans le « Département de langues modernes et de linguistique », créé pour accueillir le troisième cycle en linguistique mis sur pied par Morris Halle et lui-même.
+C'est vers 1965 que Chomsky prend la décision de s'engager dans le débat public et politique. C'est comme intellectuel qu'il devient l'un des principaux opposants à la guerre du Viêt Nam avec la publication en février 1967 de son essai « Responsabilités des Intellectuels » dans la New York Review of Books. Dans cet essai, il insiste sur l'idée que dans la mesure où les intellectuels ont, comparé au reste de la population, plus facilement accès à la vérité, ils ont d'autant plus de responsabilité face à elle. Depuis lors, Chomsky n'a pas cessé de publier ses analyses politiques et de donner de nombreuses conférences dans le monde entier. Ses critiques de la politique étrangère américaine, souvent reprises en dehors des États-Unis, l'ont exposé aux critiques nourries de la part des libéraux américains (mouvance équivalente des gauches sociales-démocrates en Europe) et de la droite américaine.
+Entre 1966 et 1976, il est titulaire de la chaire « Ferrari P. Ward de langues modernes et linguistique ». En 1976, il accède au titre rare d'Institute Professor. Chomsky a enseigné sans interruption au MIT durant ces cinquante dernières années.
+Profondément rationaliste, Chomsky rejette formellement le post-structuralisme et les critiques postmodernes de la science.
+L'adjectif éponyme « chomskyen » a été créé pour désigner ses travaux et ses idées, mais ce terme est peu apprécié par Chomsky lui-même qui considère la « personnalisation » comme indue dans le domaine de la science.
+« Depuis la publication en 1957 de Structures syntaxiques, [Chomsky] exerce sur la linguistique une influence considérable. » Structures syntaxiques introduisait la grammaire générative. Cette théorie considère que les expressions (séquences de mots) ont une syntaxe qui peut être caractérisée (globalement) par une grammaire formelle ; en particulier, une grammaire hors-contexte étendue par des règles de transformation. Les enfants sont supposés avoir une connaissance innée de la grammaire élémentaire commune à tous les langages humains (i.e. ce qui présume que tout langage existant en est une sorte de restriction). Cette connaissance innée est appelée « grammaire universelle ». Il est soutenu que la modélisation de la connaissance de la langue par une grammaire formelle explique la « productivité » de la langue : avec un jeu réduit de règles de grammaire et un ensemble fini de termes, les humains peuvent produire un nombre infini de phrases. Il existe et il existera donc toujours des phrases qui n'ont jamais été dites.
+The Principles and Parameters approach (P&P) (L'Approche des principes et des paramètres), développée dans les Conférences (Pise, 1979), publiées plus tard sous le titre Lectures on Government and Binding (LGB) s'inscrivent dans le prolongement du concept de grammaire universelle : les principes grammaticaux sous-tendant les langages sont innés et fixés, les différences entre les divers langages dans le monde peuvent être caractérisées en termes de paramètres programmés dans le cerveau (tel le paramètre d'élision, pro-drop parameter, qui indique quand un sujet explicite est toujours requis, comme en anglais, ou s'il peut être élidé, comme en espagnol) souvent comparés à des commutateurs (d'où le terme de principes et paramètres utilisé pour qualifier cette approche). De ce point de vue, un enfant qui apprend une langue a seulement besoin d'acquérir les items lexicaux nécessaires (mots, morphèmes grammaticaux et les tournures idiomatiques) et fixer les valeurs appropriées des paramètres, ce qui peut être fait sur quelques exemples clés.
+Les partisans de cette conception arguent du fait que la vitesse avec laquelle les enfants apprennent des langues est inexplicablement rapide, à moins que les enfants n'aient une capacité innée pour apprendre des langues. Les étapes semblables que suivent tous les enfants à travers le monde quand ils apprennent des langues, et le fait que les enfants commettent des erreurs caractéristiques quand ils apprennent leur première langue, tandis que d'autres types d'erreur apparemment logiques ne se produisent jamais (et, selon Chomsky, elles devraient être attestées si le mécanisme d'apprentissage utilisé était général plutôt que spécifique à une langue) est également perçu comme une raison de l'innéïté. Outre ces considérations générales, les arguments les plus convainquants en faveur de l'innéité d'un certain nombre d'aspects des systèmes linguistiques dérivent de l'analyse minutieuse de nombreuses propriétés linguistiques des langues les plus diverses qui suggèrent très fortement que ces propriétés, qui apparaissent de façon systématique chez les jeunes enfants, ne semblent pas découler de façon plausible des données linguistiques auxquelles ils ont été soumis au cours de leur phase d'acquisition du langage. Ce dernier type d'argument est connu sous le nom d'argument « de la pauvreté du stimulus ». Comme le résument Michael Siegal, Olivier Pascalis et Stephen C. Want du département de psychologie de l'Université de Sheffield : « Une expérience limitée avec le langage est suffisante pour permettre le développement d'un langage structuré chez l'enfant. Selon le principe de la "pauvreté du stimulus" proposé par Chomsky, il existe de nombreuses preuves que l'acquisition de la grammaire se fait indépendamment de l'intelligence non verbale. Malgré de grandes variations dans l'environnement langagier, l'apprentissage de la grammaire se fait dans un ordre fixe. »
+Plus récemment, dans son Minimalist Program (1995) (Programme minimaliste), tout en conservant le concept central des « principes et des paramètres », Chomsky tente une révision importante des machines linguistiques impliquées dans le modèle de LGB, les dépouillant de tout sauf des stricts éléments nécessaires, tout en préconisant une approche générale de l'architecture de la faculté du langage humain qui souligne les principes de l'économie et de la conception optimale, revenant à l'approche dérivationelle de la génération, en opposition avec la majeure partie de l'approche représentative du classique P&P .
+Les travaux de Chomsky ont exercé une forte influence sur l'étude de l'acquisition du langage, bien qu'une partie des chercheurs qui travaillent dans ce domaine aujourd'hui ne soutiennent pas ses théories et s'appuient davantage sur les processus d'émergence ou les théories connexionnistes, ramenant la langue à un cas particulier des processus généraux du cerveau.
+L'approche chomskyenne de la syntaxe, souvent qualifiée de grammaire générative, est contestée, surtout en dehors des États-Unis, mais bénéficie d'une certaine popularité. L'analyse de Chomsky, largement abstraite, repose en grande partie sur l'examen minutieux de l'interface entre constructions et ruptures grammaticales dans le langage (à rapprocher des cas pathologiques, qui jouent un rôle similaire en mathématiques). De telles analyses grammaticales ne peuvent être réalisées finement que dans une langue maîtrisée au mieux et les linguistes qui s'y intéressent se consacrent donc souvent à leur langue maternelle pour des raisons pratiques. Il s'agit généralement de l'anglais, du français, de l'allemand, du néerlandais, de l'italien, du japonais ou du mandarin. Cependant, comme le fait remarquer Chomsky : « La première application de cette approche a porté sur l'hébreu moderne, étudié de manière relativement précise vers 1949 - 50. La seconde, au milieu des années 1950, concernait un idiome américain indigène, le Hidatsa : elle fut la première grammaire générative exhaustive. Le turc fit l'objet de la première thèse de doctorat, au début des années 1960. Ces travaux furent ensuite adaptés à un large panel de langues. Le MIT devint de fait le centre international d'étude des langues aborigènes australiennes par l'approche générative [...] grâce aux travaux de Ken Hale, qui est également à l'origine de l'un des plus ambitieux programmes de recherche sur les langues indigènes américaines ; en fait, le premier programme faisant intervenir des indigènes, amenés à l'université pour se former à la linguistique afin qu'ils puissent travailler sur leurs propres langues, de manière bien plus profonde que tout ce qui avait jamais pu être réalisé auparavant. Cela s'est poursuivi par la suite et est devenu un travail de référence sur la collection de langues la plus variée du point de vue typologique. »
+La théorie de la grammaire générative se révèle parfois peu pertinente pour analyser des langues jamais étudiées auparavant. Cette approche a connu de nombreuses évolutions au fur et à mesure que le nombre de langues étudiées augmentait. La thèse des invariants (ou universaux) linguistiques connaît pourtant un soutien de plus en plus important ; dans les années 1990, Richard Kayne a par exemple suggéré que toutes les langues sous-tendent une structure Sujet-Verbe-Objet, ce qui aurait paru peu plausible dans les années 1960. L'une des principales motivations d'une approche alternative comme l'approche typologico-fonctionnelle (souvent associée à Joseph Greenberg) est de confronter les hypothèses d'invariances linguistiques à l'étude du plus grand nombre possible de langues, de classer les écarts constatés et d'en induire des lois théoriques. Bien qu'elle ait déjà été appliquée à un grand nombre de langues, l'approche de Chomsky est trop méticuleuse et nécessite une connaissance trop pointue des langues étudiées pour répondre à une telle méthodologie.
+Le modèle proposé dans Principes de phonologie générative (The Sound Pattern of English, 1968), écrit en collaboration avec Morris Halle, est aujourd'hui considéré comme dépassé, y compris par Chomsky lui-même.
+Chomsky s'est rendu célèbre en étudiant différentes sortes de langages formels et leur capacités respectives à intégrer des caractéristiques intrinsèques du langage humain. Ses travaux fondateurs sont à l'origine des « progrès de la linguistique moderne ». La hiérarchie de Chomsky décompose les grammaires formelles en catégories de pouvoir d'expression croissant, c'est-à-dire en groupes successifs pouvant chacun générer une variété de langages plus large que le groupe précédent. Il démontra formellement que certains aspects du langage humain nécessitent de recourir à une grammaire formelle plus complexe (en termes de hiérarchie chomskyenne) que pour d'autres. Par exemple, alors que le groupe des langages réguliers est suffisamment puissant pour modéliser la morphologie de la langue anglaise, il ne l'est pas assez pour en modéliser la syntaxe.
+La hiérarchie de Chomsky constitue le résultat le plus important de la branche primordiale de l'informatique théorique qu'est la théorie des automates. Chaque niveau de grammaire est strictement isomorphe à un type particulier d'automate, le niveau zéro correspondant aux machines de Turing, c'est-à-dire, à la puissance de calcul des ordinateurs.
+Les travaux linguistiques de Chomsky ont eu une influence majeure sur la psychologie et son orientation fondamentale dans la deuxième moitié du xxe siècle. Pour Chomsky, la linguistique est une branche de la psychologie cognitive, de véritables compétences en linguistique impliquent une compréhension concomitante des aspects du processus mental et de la nature humaine. Sa théorie de la grammaire universelle est vue par beaucoup comme un défi direct aux théories comportementalistes établies et a eu des conséquences majeures dans la compréhension de l'apprentissage du langage par les enfants et sur ce qu'est exactement la capacité d'interpréter le langage.
+Beaucoup des principes les plus fondamentaux de cette théorie ne sont pas acceptés par certains cercles de pensée (même si ce n'est pas le cas des théories les plus importantes basées sur les principes et paramètres décrits ci-dessus).
+En 1959, Chomsky publie un compte-rendu resté célèbre du livre de B. F. Skinner Verbal Behavior dans lequel Skinner donne une explication spéculative et comportementaliste du langage. Le comportement linguistique y est défini comme un comportement appris, avec pour conséquence caractéristique d'être transmis par le comportement déjà appris par d'autres individus ; cette théorie apporte une vision globale du comportement communicatif, bien plus large que celle généralement admise par les linguistes. L'approche de Skinner diffère considérablement de la plupart des théories linguistiques traditionnelles sur la mise en valeur des circonstances dans lesquelles le langage est utilisé ; par exemple, demander de l'eau a pour lui une utilisation fonctionnellement différente que d'associer l'eau au mot eau, ou encore que d'avoir à répondre à quelqu'un qui demande de l'eau... Ces utilisations fonctionnellement différentes demandant chacune une explication différente, l'approche contraste fortement avec les notions traditionnelles du langage et l'approche psycholinguistique de Chomsky qui se concentre sur les représentations mentales des mots et les mots acquis qui, une fois appris, peuvent apparaître dans toutes les fonctions.
+La critique de Chomsky dans son article de 1959, bien que touchant aux différentes fonctions verbales, se résume plus largement à une attaque de la base même de l'approche de Skinner, à savoir la psychologie comportementale qu'en 1969 Chomsky, au détour d'un de ses premiers écrits politiques, qualifie de « nouvelle idéologie coercitive, vaguement teintée de science »28. L'essence des arguments de Chomsky est que l'application des principes comportementalistes, issus de la recherche animale, n'a aucun sens lorsqu'il s'agit de l'appliquer à des humains hors d'un laboratoire, et que pour comprendre un comportement complexe il faut avant tout reconnaître qu'il y a dans le cerveau des entités inobservables qui en sont fondamentalement responsables.
+Cet article de Chomsky de 1959, qui remet en cause le comportementalisme radical de Skinner, a lui-même été critiqué entre autres dans un article intitulé On Chomsky's Review of Skinner's Verbal Behavior de Kenneth MacCorquodale en 1970. Ces différentes critiques notent des faits importants généralement non reconnus hors de la psychologie comportementale et estiment que Chomsky ne comprend ni la psychologie comportementale dans son ensemble ni comment le radicalisme comportementaliste de Skinner diffère des autres variantes comportementalistes et qu'il fait des erreurs embarrassantes. Ils indiquent aussi que les personnes les plus influencées par cet article de Chomsky étaient déjà substantiellement d'accord avec lui et ne l'ont peut-être même pas lu.
+La critique de Chomsky envers la méthodologie de Skinner a posé les jalons de la révolution cognitive. Dans son livre de 1966 Cartesian Linguistics et dans d'autres travaux, Chomsky explique que l'étude des facultés du langage humain est devenue un modèle pour les études dans d'autres domaines de la psychologie. La majorité des nouvelles conceptions émises sur le fonctionnement de l'esprit sont issues d'idées formulées par Chomsky.
+Parmi celles-ci, trois idées clés :
+Chomsky a postulé l'existence d'une « grammaire universelle » inscrite dans les tissus cérébraux. En 2003, des chercheurs italiens et allemands font état, dans Nature Neuroscience, de leur identification d'une subdivision de l'aire de Broca spécialisée dans le traitement de la grammaire.
+Niels Kaj Jerne, lauréat du prix Nobel de médecine en 1984, a utilisé le modèle génératif de Chomsky pour expliquer le système immunitaire humain, faisant le lien entre structures grammaticales et protéiques. Le discours de Jerne à la remise du Nobel s'est intitulé « la grammaire générative du système immunitaire ».
+Dans ses ouvrages Illusions nécessaires et La Fabrication du consentement, Chomsky s'attache à mettre en évidence les processus par lesquels les médias tendent à maintenir les sociétés démocratiques dans un carcan idéologique. Sa critique porte sur le fonctionnement global de l'institution médiatique dans ses rapports avec les pouvoirs économique et politique. Chomsky montre comment les médias noient la masse électorale sous un flot d'informations beaucoup trop dense pour servir de support de réflexion et qui converge, en définitive, vers des analyses à sens unique, fondées sur des présupposés que l'on évite soigneusement de remettre en question. C'est en particulier à travers l'analyse du traitement médiatique des conflits armés que Chomsky dévoile la dépendance des médias envers les pouvoirs économique et politique. En cherchant à démythifier la prétendue neutralité des médias, Chomsky entend oeuvrer pour l'émancipation et l'autodéfense intellectuelles de la société. Il prétend aussi que dans une société démocratique, la ligne politique n'est jamais énoncée comme telle mais est sous-entendue. Ainsi les « débats » se situent dans le cadre des paramètres implicites consentis et maintiennent dans l'ombre nombre de points de vue contraires. Avec Edward Herman il a proposé un modèle de propagande basé sur l'analyse du fonctionnement des médias américains.
+Noam Chomsky a été engagé politiquement dès sa jeunesse. Mais c'est son opposition à la Guerre du Viêt Nam dans les années 1960 qui l'a fait entrer dans la sphère du débat public. Il a formulé de nombreuses analyses sur la politique et les affaires internationales, notamment dans les nombreux livres qu'il a consacrés à ces questions. Elles ont été largement citées et font l'objet de débats. On peut notamment retenir :
+Deux mois après les attentats du 11 septembre, Chomsky publie chez une petite maison d'édition indépendante un petit livre intitulé 9 - 11. Il y explique notamment, comme le New York Times s'en fait l'écho, que ces attaques sont d'« horribles atrocités » mais que « nous ne pouvons considérer les États-Unis comme des victimes que si nous nous plaçons dans la perspective commode qui consiste à ignorer tout ce que ce pays et ses alliés ont fait »41. Le livre devient un best-seller avec 300 000 exemplaires écoulés en quelques semaines. Traduit en 23 langues et publié dans 26 pays, il est devenu « l'une des meilleures ventes d'aucun autre écrivain politique vivant, comptabilisant des millions d'exemplaires vendus aux États-Unis et à l'étranger ». Son second livre sur le sujet, Power and Terror. Post-9/11 Talks and Interviews, publié en mars 2003 chez le même éditeur, devient lui aussi un best-seller.
+En février 2002, Chomsky s'invite au procès de de son éditeur turc Fatih Tas poursuivi pour avoir publié des textes dans lesquels il dénonce ce qu'il qualifie d'opérations terroristes menées contre la minorité kurde par le gouvernement d'Ankara. Réclamant à être lui aussi placé sur le banc des accusés, il obtient l'acquittement de l'éditeur.
+Pour le journaliste Jean-Luc Porquet, qui rappelle que Chomsky « est un des intellectuels critiques les plus lus, écoutés [et] discutés au monde », « [il] ne cesse de passer son pays, et plus largement les démocraties libérales, à la question : s'agit-il d'authentiques démocraties ? »46. Pour l'universitaire Jean Bricmont, qui a co-dirigé un « Cahier de L'Herne » consacré à Chomsky, « dans un monde où des cohortes d'intellectuels disciplinés et de médias asservis servent de prêtrise séculière aux puissants, lire Chomsky représente un acte d'autodéfense. Il peut permettre d'éviter les fausses évidences et les indignations sélectives du discours dominant ». La Revue internationale et stratégique, dans un compte rendu de son recueil d'articles publié sous le titre De la guerre comme politique étrangère des États-Unis, souligne que « Chomsky permet au lecteur de tenir une réflexion critique sur les discours officiels, de ne pas se soumettre à la pensée dominante ».
+Stanley Cohen, professeur de sociologie à la LSE, explique que Chomsky ne cherche pas à s'adresser aux puissants - « the Kissingers of the world » - qui savent très bien ce qu'il en est, mais aux gens ordinaires qui ont besoin de savoir pour agir, et qu'il considère que « les intellectuels qui gardent le silence à propos de ce qu'ils savent, qui se désintéressent des crimes qui bafouent la morale commune, sont encore plus coupables quand la société dans laquelle ils vivent est libre et ouverte. Ils peuvent parler librement, mais choisissent de ne rien en faire 49. »
+Une des prises de position les plus controversées de Chomsky concerne l'« affaire Faurisson ». Ancien professeur de littérature à l'université de Lyon, Robert Faurisson fut suspendu de ses fonctions à la fin des années 1970 et poursuivi en justice parce qu'il avait, entre autres, nié l'existence des chambres à gaz pendant la Seconde Guerre mondiale. Une pétition pour défendre sa liberté d'expression fut signée par plus de cinq cents personnes, dont Chomsky. Pour répondre aux réactions que suscita son geste, Chomsky rédigea alors un petit texte dans lequel il expliquait que défendre le droit pour une personne d'exprimer ses opinions ne revenait nullement à les partager. Cette position en matière de liberté d'expression est celle des Lumières et du premier amendement de la Constitution américaine.
+Il donna son texte à un ami d'alors, Serge Thion, en lui permettant de l'utiliser à sa guise. Or Thion le fit paraître, comme « avis », au début du mémoire publié pour défendre Faurisson. Chomsky n'a cessé de rappeler qu'il n'avait jamais eu l'intention de voir publié son texte à cet endroit et qu'il chercha, mais trop tard, à l'empêcher. À ce propos, Chomsky explique : « J'appris plus tard que ma déclaration devait apparaître dans un livre dans lequel Faurisson se défend des charges qui devaient bientôt être retenues contre lui lors d'un procès. Bien que ceci ne fut pas mon intention, ce n'était pas contraire à mes instructions. Je reçus une lettre de Jean-Pierre Faye, un écrivain et militant anti-fasciste bien connu, qui était d'accord avec ma position mais me pressait de retirer ma déclaration car le climat de l'opinion en France était tel que ma défense du droit de Faurisson à exprimer son point de vue serait interprétée comme un soutien pour ce dernier. Je lui écrivis que j'acceptai son jugement, et demandais que ma déclaration n'apparaisse pas, mais il était alors trop tard pour stopper la publication. » Au sujet de sa demande de non publication de sa déclaration, Chomsky précise que « a posteriori, je pense que probablement je n'aurais pas dû faire cela. J'aurais dû dire "Ok, laissez [le texte] paraître ainsi car il doit paraître". Mais cela mis à part, je considère [ma prise de position] dans cette affaire comme non seulement anodine, mais surtout insignifiante comparée à d'autres positions que j'ai prises sur la liberté d'expression ».
+L'historien français Pierre Vidal-Naquet, spécialiste du négationnisme, considère cependant que la pétition signée par Chomsky allait plus loin que la simple défense de sa liberté d'expression (à laquelle par ailleurs l'historien français souscrit) : la pétition présentait la recherche et les conclusions de Faurisson comme sérieuses et respectables. De plus, Vidal-Naquet reproche à Chomsky d'avoir qualifié Faurisson de « sorte de libéral relativement apolitique » alors que les textes de ce dernier manifesteraient selon lui un antisémitisme patent : « Vous aviez le droit de dire : mon pire ennemi a le droit d'être libre, sous réserve qu'il ne demande pas ma mort ou celle de mes frères. Vous n'avez pas le droit de dire : mon pire ennemi est un camarade, ou un "libéral relativement apolitique". Vous n'avez pas le droit de prendre un faussaire et de le repeindre aux couleurs de la vérité. »52
+Pour Chomsky, comme l'analyse Justin Wintle, « la liberté d'expression est plus importante que n'importe quelle version des faits soutenue par l'ordre établi, quel que soit le rapport qu'elle puisse entretenir avec la vérité factuelle ».
+Aux États-Unis, il faut distinguer deux types qualitativement très différents de critiques : le premier, qui domine largement le second quantitativement, concerne les écrits et prises de position de Chomsky sur les questions de la politique américaine et l'usage de sa puissance militaire ; le second concerne ses travaux en lingustique qui, même s'ils sont largement reconnus comme fondamentaux, ont fait l'objet de débats scientifiques. Le linguiste Timothy Mason explique par exemple que « si vous parcourez la toile, vous découvrirez que la majorité des documents sur l'acquisition du langage - que ce soit pour une première ou une seconde langue - est fortement nativiste et souvent considère comme un fait accompli que Chomsky et Fodor ont, pris ensemble, balayé toute possibilité d'opposition. Dans le monde anglophone - les Français sont, par exemple, bien plus sceptiques - la Grammaire Universelle ou encore le module langagier règnent sans partage »55.
+Ses idées économiques et politiques ont été également critiquées par le Ludwig von Mises Institute qui considère que malgré le refus du marxisme par Chomsky, sa pensée est très inspirée de celle de Marx. En outre, il la considère comme contradictoire en ce qu'elle refuse le capitalisme tout en pensant pouvoir en conserver les fruits.
+Noam Chomsky essuie également quelques critiques du mouvement anti-guerre américain : le journaliste Jeffrey Blankfort lui reproche d'une part d'écarter les questions sur le 11-Septembre, d'autre part de s'être opposé au MIT à la campagne de désinvestissement et finalement de sous-estimer l'importance du Congrès sioniste sur le gouvernement américain (via notamment l'influence de l'AIPAC),61.
+En France, Emmanuel Todd, qui défend dans son essai Après l'empire la thèse que les États-Unis ne sont plus tout-puissants, considère Chomsky comme un « antiaméricain structurel » qui n'a « aucune conscience de l'évolution du monde » et pour lequel « après comme avant l'effondrement de la menace soviétique, l'Amérique est la même, militariste, oppressive, faussement libérale, en Irak aujourd'hui comme au Vietnam il y a un quart de siècle »62.
+Aux États-Unis, le journaliste Paul Bogdanor, a publié sur son site un document intitulé les « The Top 200 Chomsky Lies » (les « 200 plus gros mensonges de Chomsky »). Sur ce point Richard Dawkins, éthologiste reconnu, a cependant reproché à Bogdanor des erreurs, sa partialité et la faible crédibilité du document[réf. nécessaire]. Le politologue Philippe Moreau Defarges a parlé au début des années 1980 de « rage manichéenne » à propos des écrits de Chomsky et Edward Herman sur la « Washington Connection »64. Dans le même esprit, Richard Posner critique le caractère unilatéral des critiques chomskyennes et voit dans son « anarcho-pacifisme » un exemple de l'erreur classique - commise selon lui par de nombreux intellectuels issus de l'université - qui consiste à confondre la politique et l'éthique personnelle.
+Sa critique des médias a été qualifiée de « conspirationniste » par certains de ses critiques, bien que Chomsky lui-même s'en défende. Il ne prétend que produire une simple « analyse institutionnelle » et avance : « à mon avis, "théorie de la conspiration" est devenu l'équivalent intellectuel d'un mot de cinq lettres. C'est quelque chose que les gens disent quand ils ne veulent pas que vous réfléchissiez à ce qui se passe vraiment ». Des points de vue se sont opposés en France, au sein des gauches radicales, sur cette question.
+Au cours de sa carrière, Chomsky a été invité à donner des conférences dans de nombreuses universités : cycle de conférences sur John Locke à l'université d'Oxford (printemps 1969), conférence commémorative sur Bertrand Russell à l'université de Cambridge (janvier 1970), conférence commémorative Nehru à New Delhi (1972), conférence Huizinga à Leiden (1977), conférence commémorative Davie sur la liberté académique au Cap (1997).
+Chomsky a reçu des diplômes honorifiques de plus de trente universités un peu partout dans le monde. Il est membre de l'Académie américaine des arts et des sciences, de l'Académie nationale américaine des sciences et de la Société philosophique américaine. Il appartient également à d'autres associations et sociétés privées aux États-Unis et ailleurs, et est notamment récipiendaire du prix de la contribution scientifique de l'Association américaine de psychologie (1984).
+Il a reçu le prix Kyoto en 198868, la médaille Helmholtz, le prix de la paix Dorothy Eldridge, et la médaille Benjamin Franklin en sciences cognitives et de l'information. Il a reçu deux fois le prix Orwell accordé par le Conseil américain des professeurs d'anglais pour ses « éminentes contributions à la sincérité et la clarté du langage public » en 1987 et 1989 (« Distinguished Contributions to Honesty and Clarity in Public Language »).
+Chomsky a été reconnu « plus grand intellectuel vivant » par un sondage publié en 2005 par le magazine britannique Prospect. Il a réagi en déclarant qu'il ne faisait pas très attention aux sondages.
+Il a un nombre d'Erdos de quatre
+Contenu soumis à la GFDL
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+L'opération Barbarossa (en allemand, Unternehmen Barbarossa), nommée en référence à l'empereur Frédéric Barberousse, est le nom de code désignant l'invasion par le IIIe Reich de l'URSS pendant la Seconde Guerre mondiale. Déclenchée le 22 juin 1941, elle ouvre le front de l'Est qui devient le théâtre d'opération principal de la guerre terrestre en Europe (de 1941 à 1945, 80% des pertes de la Wehrmacht sont subies sur le front russe) et le facteur crucial dans le succès ou la défaite du Troisième Reich nazi. Ce front va être le théâtre des plus grandes et des plus sanglantes batailles terrestres de la Seconde Guerre mondiale. Cette invasion marque aussi un tournant dans la guerre, jusque-là, encore assez localisée et européenne. Elle va bientôt embraser le monde entier.
+La Wehrmacht possède une supériorité initiale considérable en hommes (de 2 contre 1 au minimum) et en équipements. Elle est mieux organisée, bien mieux commandée et dispose, au moins jusqu'à la gigantesque bataille de Koursk de juillet 1943, d'une incontestable supériorité tactique. Elle bénéficie de l'effet de surprise. L'Armée rouge, si elle est loin d'être préparée au choc avec l'Allemagne, décapitée par les Grandes Purges, dispose cependant d'importantes réserves humaines, d'avantages matériels certains (base industrielle, armements) et d'un patriotisme russe que Staline saura opportunément réactiver après vingt ans de répression sous la férule d'un État en guerre permanente contre sa propre société. Le nazisme, qui ne laissera aux « Untermenschen » d'autre alternative que la mort ou l'esclavage, jouera également un rôle important dans le sursaut patriotique.
+>Comme en 1914, l'Allemagne entend agir rapidement : le plan Barbarossa fixe à quatre mois le délai nécessaire à l'anéantissement militaire de la Russie, coeur névralgique de l'Union soviétique. En pratique, l'opération Barbarossa s'étendra de juin 1941 à janvier/février 1942, l'échec allemand de la bataille de Moscou étant le dernier épisode de la première phase du conflit sur le front russe.
+Les justifications de cette invasion sont historiques (l'échec du plan Schlieffen en 1914 qui a conduit au traité de Versailles ressenti comme une humiliation par l'Allemagne de 1919), stratégiques (la conquête du Heartland russe comme levier de la domination globale du continent européen) et idéologiques (la mise en oeuvre géopolitique du nazisme), l'aboutissement affiché de la politique nazie étant la conquête d'un espace vital à l'Est : le Lebensraum.
+La situation au printemps 1941 semble largement en faveur de l'Axe. La France a été vaincue en quelques semaines, le corps expéditionnaire britannique a été défait. Une majeure partie de l'Europe est occupée. À l'Est, Adolf Hitler a mis en place des régimes alliés de gré ou de force : Hongrie, Roumanie, Bulgarie, Slovaquie. Le seul ennemi en guerre qui lui tienne encore tête est la Grande-Bretagne et son empire, qui résistent en grande partie grâce à une volonté collective incarnée par Winston Churchill, mais elle n'a été sauvée jusque-là que par sa supériorité navale. Au demeurant, la Grande-Bretagne ne constitue pas, en Europe continentale, une menace militaire terrestre suffisamment significative pour inquiéter la Wehrmacht.
+Hitler connaît les risques d'attaquer l'Union soviétique, mais il estime qu'il doit agir immédiatement car, en 1941, l'Armée rouge est désorganisée et profondément affaiblie par les grandes purges staliniennes. Toujours pas en guerre, les États-Unis d'Amérique penchent cependant de plus en plus du côté des Alliés. Invaincue, la Wehrmacht, fait figure de première armée du monde en 1941. La situation semble donc favorable à la conquête du « Lebensraum ». Une seule puissance continentale peut encore empêcher cette conquête : l'Union soviétique. Depuis la signature du Pacte germano-soviétique (1939), dans lequel l'URSS voit un moyen de se protéger après les accords de Munich (Allemagne-France-Grande Bretagne) de 1938, et grâce auquel l'Allemagne et l'Union Soviétique se sont partagé le territoire de la Pologne, les deux pays, malgré l'opposition inconciliable des idéologies qui les dirigent, ont ostensiblement établi des relations amicales de façade, et des relations commerciales qui profiteront surtout au Troisième Reich jusqu'en juin 1941.
+En déclenchant l'opération Barbarossa, le régime nazi provoque l'ouverture d'un front auquel le Reich doit désormais consacrer l'essentiel de ses moyens militaires, de ses ressources industrielles et humaines. Engagée dans une guerre totale contre l'Union soviétique, l'industrie de guerre allemande « tournera » au maximum de ses capacités et ne cessera de se développer jusqu'au début de 1945 (ses dépenses militaires passeront de 35% de son PNB en 1940 à 65% en 1944). Non seulement l'Allemagne, première puissance industrielle du continent, affecte la totalité de ses ressources économiques à sa production de guerre, mais elle exploite également systématiquement à cette fin les ressources industrielles, économiques, démographiques de l'Europe occupée.
+Du déclenchement de « Barbarossa » aux dernières étapes de la guerre, en mars 1945, la Wehrmacht consacrera l'essentiel de ses ressources en hommes et en matériels au front de l'Est, sans jamais être en mesure, à partir de l'hiver 1941 - 1942, de prendre l'initiative, si ce n'est dans des secteurs de plus en plus étroits du front. En juillet 1943, lors de la gigantesque bataille de Koursk, à peine sept divisions et deux brigades (2,7% des forces allemandes) étaient engagées face aux Américains et aux Britanniques dans les affrontements de la guerre du désert. Le reste (91 divisions et 3 brigades) se trouvait cantonné dans les territoires de l'Europe occupée. Les Alliés prendront pied en Afrique du Nord en novembre 1942 (débarquement de 70 000 hommes à Alger et Oran), en Sicile en juillet 1943 (débarquement de 160 000 hommes), en Italie à Salerne (sud de Naples) en septembre 1943 et à Anzio en janvier 1944, mais les moyens engagés pèseront de peu de poids (la Wehrmacht aura 23 divisions en Italie début 1944) comparés à la démesure des effectifs et des matériels présents depuis juin 1941 sur le front russe. Durant les quatre années que dura le conflit germano-soviétique il y eut, en permanence, une moyenne de 9 millions d'hommes simultanément impliqués dans les opérations de ce front.
+Le cumul des pertes militaires de l'Union soviétique et de l'Allemagne nazie, dans sa guerre d'invasion de l'Union soviétique, se monte à 80% du total de toutes les pertes militaires enregistrées sur le théâtre d'opération européen de 1940 à 1945. C'est sur le front russe que la Wehrmacht aura les reins brisés, bien avant le débarquement des Alliés en France. Après le débarquement de Normandie d'un corps expéditionnaire en juin 1944, c'est encore à l'Est que les Allemands continueront à engager et à perdre la majorité de leurs hommes. La comparaison des pertes subies par la Wehrmacht sur les deux fronts à partir de juin 1944 montre la part presque exclusive du front russe même après ce débarquement. Du 1er juillet au 31 décembre 1944, pendant cinq mois, lors de la grande offensive soviétique contre le groupe d'armées du Centre, les Allemands perdront chaque mois en moyenne 200 000 soldats et près de 4 000 Hiwis, des auxiliaires étrangers (russes) de l'armée allemande. À l'Ouest, au cours de la même période, c'est-à-dire après le débarquement allié en France, la moyenne des pertes allemandes s'élèvera à 8 000 hommes par mois soit un rapport de 1 à 25.
+Les pertes en vies humaines seront colossales et sans précédent, les conditions de vie seront effroyables pour les deux camps. En 2001, les historiens russes estimaient les pertes du conflit germano-soviétique à 26,2 millions de tués (environ 16% de la population de l'Union soviétique de 1940) dont plus de 11 millions de soldats et officiers (6,8 millions de tués directs et 3,8 millions de prisonniers de guerre décédés entre les mains de la Wehrmacht), et surtout 15,6 millions de civils puisque l'importance sans précédent des pertes civiles est d'abord la conséquence d'une guerre d'anéantissement menée en Union soviétique par le Reich nazi. 34 millions de Soviétiques furent mobilisés dans les rangs de l'Armée rouge de 1941 à 1945. L'ampleur de l'engagement allemand fut gigantesque : quelques 20 millions d'Allemands portèrent, à un moment ou à un autre, l'uniforme de la Wehrmacht sur le front russe, de sorte que c'est toute la société allemande qui fut impliquée dans l'expérience de la guerre sur le front de l'Est. Celle-ci fut voulue comme une lutte à mort, exigeant un engagement sans limites, une obéissance absolue, la destruction totale de l'ennemi. À ce titre, la guerre totale déclenchée contre l'URSS constitue non seulement le sommet du régime nazi, mais aussi l'élément essentiel de son image dans la mémoire collective des Allemands après la guerre. Pour l'écrasante majorité des soldats allemands, l'expérience de la guerre fut celle du front russe.2
+À la fin du mois de mars 1945, la totalité des pertes de l'Ostheer (le nom de la Wehrmacht sur le front russe) s'élevait à 6 172 373 hommes (tués, mutilés, disparus), soit près du double de ses effectifs initiaux, au 22 juin 1941. Ce chiffre représente 80 % des pertes subies par la Wehrmacht sur tous les fronts depuis le déclenchement de l'invasion de juin 1941. En mai 1945, on dénombre plus de 3 millions de prisonniers allemands détenus en Union soviétique. Tous camps confondus, les tués de l'Armée rouge, hors les 3,8 millions de prisonniers de guerre soviétiques décédés après leur capture, constituent 52 % du total des pertes militaires en Europe, ceux de la Wehrmacht 28 % (moins de 2% pour l'armée nord-américaine). Les pertes militaires de l'Union soviétique représentent 85 % du total des pertes alliées en Europe (Royaume-Uni 3,7 % - France 2,9 % - États-Unis 2,6 %). Enfin, le front ouvert en juin 1944 en France aura, militairement, environ 11 mois d'existence contre 47 mois pour le front russe ouvert en juin 1941.
+Les motivations allemandes pour attaquer sont triples. Motivation historique (réparer l'humiliation de la défaite non reconnue de la Première Guerre Mondiale face à l'alliance russo-franco-britannique de 1914), motivation stratégique car l'existence même de l'Union soviétique fait peser une menace sur les plans de domination globale du Troisième Reich, et motivation idéologique et raciste car à la lecture de Mein Kampf d'Adolf Hitler, les projets allemands apparaîssent explicites s'agissant des ressortissants de la Russie soviétique. Les vastes espaces de l'Union soviétiques sont destinés à être le Lebensraum, l'espace vital allemand, une fois débarrassé de ses populations. Les populations urbaines doivent être exterminées par la famine, celles rurales mises en esclavage pour fournir des surplus alimentaires destinés à l'Allemagne et à la colonisation aryenne.
+L'idéologue du parti nazi Alfred Rosenberg a déjà prévu le découpage du territoire à conquérir. Quatre Reichskommissariat seront créés, à savoir : l'Ostland comprenant les pays baltes et la Biélorussie, celui d'Ukraine, le Kaukasus avec la zone autour des monts du Caucase et celui de Moskau pour le reste de la Russie européenne.
+Du fait de son caractère éminemment politique, l'opération est principalement une création d'Hitler. L'état-major de la Wehrmacht est alors réticent car il craint de devoir combattre sur deux fronts simultanément (un front terrestre contre la Russie, un front maritime et aérien contre la Grande-Bretagne). Mais le Führer, auréolé du prestige des victoires fulgurantes en Pologne et surtout en France, croit en son génie politique et militaire et refuse de leur prêter l'oreille. Opposé, lui aussi, par principe, à la division de ses forces sur deux fronts qui fut, à ses yeux, la grande erreur du Reich lors de la Première Guerre mondiale, il finit par se convaincre lui-même que le Royaume-Uni est à bout de souffle et demandera la paix une fois l'Union soviétique vaincue et démantelée car il ne veut pas différer plus longtemps sa grande conquête à l'Est. Il surestime ses forces, prenant en compte ses victoires éclairs contre la Pologne puis la France, et sous-estime celles de la Russie soviétique, du fait des faibles performances de l'Armée rouge au cours de la Guerre d'Hiver contre la Finlande (125 000 soldats soviétiques y périrent contre 48 000 hommes pour l'armée finlandaise). La préparation de l'armée allemande souffrira donc de plusieurs carences qui se révèleront fatales pour la réalisation des objectifs de l'opération Barbarossa quand il deviendra évident que la Blitzkrieg est inopérante en Russie.
+La première mention d'une invasion de la Russie soviétique apparaît dans la directive n°21 du Führer, mise en circulation restreinte fin 1940."Les armées allemandes, précisait la directive, doivent être prêtes, avant même la conclusion de la guerre contre l'Angleterre, à écraser la Russie soviétique à la faveur d'une rapide campagne"4. À l'époque, la Luftwaffe n'a pas encore été mise en échec au-dessus de l'Angleterre. La directive indique déjà la date de l'invasion : le 15 mai 1941. Dès ce document, le plan de conquête et les objectifs à atteindre sont tracés, avec la séparation en deux du champ de bataille : le nord et le sud des marais du Pripet. Les deux groupes d'armées au nord doivent dans un premier temps détruire le maximum de forces soviétiques en appliquant les tactiques de la Blitzkrieg, puis prendre d'abord Léningrad et son port de guerre de Kronstadt, et seulement ensuite la capitale Moscou. Le groupe sud, lui, doit progresser vers Kiev, son flanc droit étant couvert par l'armée roumaine et quelques divisions allemandes. Par la suite, les opérations au sud ont pour objectif l'occupation du bassin du Donets (et au-delà le pétrole du Caucase). Le plan préparé par Hitler est axé sur la destruction des forces soviétiques sur la frontière grâce à des encerclements réalisés à toute vitesse par des unités blindées et à la capture des grands centres économiques. Il rencontre une certaine défiance de la part d'une partie de l'état-major de la Wehrmacht, davantage attaché à des stratégies plus conventionnelles, où la capture de la capitale politique, objectif symbolique, est prédominante. Même si Hitler considère ces préoccupations d'un autre temps, il concèdera la poursuite simultanée des objectifs que sont Moscou et Léningrad. Lors de la mise en oeuvre de ce plan, le groupe Nord sera incapable de prendre Léningrad seul, malgré sa supériorité en effectifs et en artillerie sur la faible garnison qui protège la ville de Pierre le Grand et décidera de l'affamer.
+Hitler décide que le premier but à atteindre est l'anéantissement de l'Armée rouge le plus tôt possible, pour l'empêcher de se replier et d'appliquer la politique russe traditionnelle de défense devant toute invasion majeure : la terre brûlée. Pour ce faire, la Wehrmacht doit encercler, chaque fois qu'il sera possible, des portions importantes des forces soviétiques pour les anéantir.
+Le plan adopté est une sorte de mélange des deux stratégies. Il prévoit une attaque sur trois axes, avec du nord au sud :
+La campagne doit au final établir, avant l'hiver, un front qui partant de Léningrad suivrait le cours de la Volga, jusqu'à son embouchure. D'ici là, l'Allemagne compte sur une destruction complète de l'Armée rouge, car les effectifs engagés seront incapables de mener les tâches d'occupation du pays conquis et la tenue de ce gigantesque front, long de plusieurs milliers de kilomètres. Le 12 août 1941, le maréchal Wilhelm Keitel, chef de l'Oberkommando de la Wehrmacht, indique dans sa directive 34a le principal objectif opérationnel de l'offensive : L'objet des opérations doit être de priver l'ennemi, avant la venue de l'hiver, de son gouvernement, de son armement et de son centre de communication dans la région de Moscou, et de l'empêcher ainsi de reconstituer ses forces et de faire fonctionner de façon ordonnée ses organes de gouvernement.5
+Initialement fixée au 15 mai 1941, l'invasion est finalement reportée au 22 juin afin de terminer les opérations de conquête de la Grèce et de la Yougoslavie, rendues nécessaires, dans l'esprit de Hitler, par le putsch de Belgrade de mars 1941 (suite aux déboires de Mussolini en Grèce).
+L'inéluctabilité d'une guerre avec une Allemagne nazie qui considère l'URSS comme son "espace vital" (en allemand Lebensraum) ne fait guère de doutes en URSS. Des efforts colossaux sont faits pour essayer de rattraper le retard industriel et militaire sur l'Allemagne (on peut ranger au titre de ces "efforts" les purges au sein de l'Armée rouge, qui l'ont pourtant, au moins à court terme, fortement affaiblie). Staline, conscient de l'infériorité militaire de l'Union soviétique, espère parvenir à combler ce retard pendant le répit accordé par le pacte germano-soviétique. En particulier, il veille à ne céder à aucune provocation allemande, comme les violations de l'espace aérien soviétique par des avions de reconnaissance allemands, ainsi qu'à ne pas provoquer lui-même l'Allemagne en engageant des préparatifs de combats. En juin 1941, malgré les risques croissants d'une attaque allemande, il refuse les mesures les plus élémentaires de préparation au combat, comme la création de fortifications de campagne, la dispersion des matériels et la mise en alerte de l'Armée rouge. C'est donc dans un relatif état d'impréparation que l'attaque allemande du 22 juin surprend l'URSS.
+Vassili Grossman, témoin direct du front, raconte dans ses « Carnets de guerre » : "Au moment où la guerre a commencé, beaucoup de commandants en chef et de généraux étaient en villégiature à Sotchi. Beaucoup d'unités blindées étaient occupées à changer les moteurs, beaucoup d'unités d'artillerie n'avaient pas de munitions, pas plus que, dans l'aviation, on n'avait de carburant pour les avions.... Lorsque, depuis la frontière, on commença à avertir par téléphone les états-majors supérieurs que la guerre avait commencé, certains s'entendirent répondre : « Ne cédez pas à la provocation ». Ce fut une surprise, au sens le plus strict, le plus terrible du terme"6.
+La surprise ne fut pas totale pour le pouvoir soviétique puisqu'il a été établi que l'espion Richard Sorge et les analystes suédois menés par Arne Beurling avertirent Staline de la date exacte de l'invasion allemande. Plus de 80 avertissements furent transmis, d'une manière ou d'une autre, à Staline, qui préférait croire que l'Allemagne n'attaquerait que plus tard. Il semble que Staline se soit entêté dans l'idée qu'Hitler n'ouvrirait pas un second front sans en avoir fini avec l'Angleterre. Il refusa catégoriquement toute mesure risquant d'être perçue comme une provocation par le régime de Berlin.
+Les unités sont cruellement handicapées par le manque d'officiers correctement formés. L'armée a perdu la plupart de ses représentants les plus compétents. Après la « Grande Terreur » communiste de 1936 - 1938 (près de 750 000 Russes fusillés, et sans doute 200 000 morts dans les camps du Goulag) une grande partie de l'encadrement de l'Armée rouge a disparu. Ont été fusillés : 11 000 officiers sur 70 000 (et plus de 20 000 sont internés dans les camps), 154 généraux de division sur 186 (82%), 50 généraux de corps d'armées sur 57 (88%), 13 commandants d'armées sur 15 (87%), la quasi-totalité des maréchaux (90%) et des amiraux (89%). Khroutchev devait souligner que cette épuration massive des cadres de l'armée avait été l'une des causes principales de l'état d'impréparation des forces soviétiques en juin 1941 : "Tant d'hommes avaient été exécutés que le haut commandement avait été dévasté, ainsi que tous les échelons du corps des officiers"7. À noter que cette épuration continuait alors même que l'invasion allemande se développait, ce qui faisait dire à Stepan Anastasovich Mikoyan : "Une grande guerre s'était engagée, notre armée souffrait de lourdes pertes et essuyait des défaites, et, dans le même temps, des chefs militaires expérimentés, au lieu d'être appelés à sauver la situation, étaient mis à mort en toute hâte..."8.
+Les conséquences sur la qualité du corps des officiers sont tragiques. Au moment où l'armée française s'effondre sous les coups de l'armée allemande, à peine 7,1% des officiers soviétiques possèdent une formation militaire développée ; près de 25% sont dans des cours de formation accélérée et 12% n'ont aucune formation militaire. Plus d'un tiers des officiers soviétiques est donc incapable de remplir un commandement à la veille de l'attaque allemande. Le commandement est tétanisé. En outre, beaucoup des officiers en place en 1941 ont d'abord été choisis pour leur fidélité au régime et non pour leur compétence. S'ajoutant aux consignes de modération données à l'égard des préparatifs allemands, leur incompétence favorisa la désorganisation et le déploiement hasardeux des unités chargées de la défense de la frontière. Les troupes étaient, en effet, pour la plupart placées trop près de la frontière et s'appuyaient sur une ligne de fortification encore en cours de réalisation, la Ligne Molotov. Enfin, les officiers soviétiques de 1941 sont placés sous l'autorité des commissaires politiques de l'Armée rouge. Le contrôle de ces derniers sur les ordres d'opérations ne sera levé qu'à la mi-1943 (et après Stalingrad, l'Armée rouge remet en vigueur les grades et les épaulettes de l'Armée Impériale de la monarchie).
+En outre, le jour de l'invasion, beaucoup d'unités sont paralysées par des carences en matériels de guerre. Les armes individuelles ont été distribuées en quantités insuffisantes. Déjà, en mars 1941, 30% seulement des unités blindées disposaient des pièces de rechange nécessaires à leur fonctionnement. Un mois avant l'attaque allemande, les généraux signalaient que "l'exécution du plan pour la fourniture des équipements militaires dont l'Armée rouge a un besoin si aigu est extrêmement peu satisfaisante".
+Pourtant, l'Union soviétique de 1941 est loin d'être un pays faible : l'industrialisation forcée des années 1930 lui permet de n'être dépassée que par les États-Unis en termes de production industrielle (industrie lourde principalement). Ses matériels militaires sont souvent à la pointe de l'industrie mondiale, comme par exemple les chasseurs I-16 ou le char T-26. Cependant, depuis 1939, l'industrie d'armement du pays traverse une crise de transition, les nouveaux matériels ont beaucoup de mal à entrer en production de masse. Les décisions politiques ne sont généralement pas étrangères à ces difficultés. Le déclenchement de la guerre contraindra le système soviétique à davantage d'efficacité, comme le montre la rapide montée en puissance de nouveaux matériels de guerre performants. Considéré comme le meilleur char « tout emploi » de la Seconde Guerre Mondiale, le T-34 sera le tank le plus important des forces alliées. Il influencera nettement tous les chars conçus ultérieurement. Il sera le premier char capable de rivaliser et de surpasser ses adversaires tant par sa puissance de feu que par ses performances. Quand les premiers exemplaires de série sortirent en juin 1940, il n'avait pas d'équivalent. Produit en grand nombre dans différentes usines en fonction de l'avancée de la Wehrmacht en territoire soviétique (usines de Stalingrad, de Kharkov, de Nizhnij Tagil, d'Omsk, etc.), il pesait 32 tonnes et emportait un équipage de 4 hommes. Il existait à peine plus de 1 000 T-34 lorsque les Allemands attaquèrent la Russie. Seuls 10 % des chars soviétiques étaient alors des T-34, mais à la mi-1943 ce taux montait à 60 % avant que le T-34 n'ait totalement remplacé en 1944 les modèles les plus anciens. De 1941 à 1945, dans ses différentes versions, l'industrie russe en produisit près de 52 000 exemplaires.
+L'ampleur des épreuves qu'ont subi les Russes depuis la chute du tsarisme (guerre civile, suppression de la plupart des libertés politiques et économiques, collectivisation forcée, périodes de terreur, exécutions massives, déportations) ont fini par forger un peuple dur à la souffrance et ayant, malgré tout, appris à survivre dans les conditions les plus difficiles. Enfin, l'économie soviétique vit sous un régime permanent d'économie de guerre depuis l'avènement du bolchévisme, ce qui facilitera, à partir de 1942, la mobilisation totale des ressources économiques pour faire la guerre au Troisième Reich.
+Le dispositif d'invasion de l'Axe est sans équivalent dans l'histoire militaire (excepté l'immense offensive soviétique de conquête de l'Allemagne lancée le 12 janvier 1945 avec 6,7 millions de combattants). Hitler a mobilisé 3 millions de soldats du Reich qui commencent à se déployer en février, en Prusse-Orientale, en Pologne, en Slovaquie et en Moldavie. L'Ostheer inclut également des divisions hongroises, roumaines et finlandaises (500.000 hommes pour ces trois nationalités) et, par la suite, italiennes (l'Italie aura jusqu'à 200 000 hommes sur le front) : soit 201 divisions dont 42 de pays satellites, 3 650 chars d'assaut (85 % des disponibilités en blindés du Reich), 2 770 avions, plus de 47 000 canons et mortiers de campagne. L'Allemagne engage 159 divisions sur les 220 dont elle dispose alors (73 % des effectifs totaux de la Wehrmacht). Ce sont pour la plupart des troupes aguerries par les campagnes précédentes, bien équipées et bien motorisées (600 000 véhicules) grâce en particulier aux prises de guerre de la bataille de France. On note cependant l'utilisation en juin 1941 de 600 000 chevaux par les équipages du train.
+Si ces effectifs sont sans précédent dans une guerre de conquête, ils semblent insuffisants au regard du potentiel de l'Union soviétique et des immensités russes. L'armée d'invasion compte seulement 800 chars de plus qu'au déclenchement du "Fall Weiss" contre la France. Il reste que, sur les axes de pénétration et les points de percée, la supériorité de la Wehrmacht en matériels et en effectifs est écrasante, dans un rapport de 4/5 contre 1 et que l'armée allemande est remarquablement rompue au combat tactique, capacité qui fera cruellement défaut aux troupes soviétiques au moins jusqu'à la bataille de Koursk. La Blitzkrieg est donc la carte maîtresse qui décidera de l'issue du front que le Reich nazi décide d'ouvrir contre la Russie.
+L'Armée rouge dispose au total, en juin 1941, de 209 divisions d'infanterie dont 160 sont stationnées en Russie occidentale, soit en principe 2,3 millions de soldats à effectifs pleins (en 1941 la division d'infanterie allemande compte à effectif au complet 16 500 hommes contre 14 474 pour la soviétique). En réalité, 144 divisions comptent seulement la moitié de leurs effectifs et 65 un tiers. C'est donc à peine un peu plus d'un million de soldats, pris au dépourvu, qui vont devoir s'opposer à la déferlante allemande sur un front de plusieurs milliers de kilomètres. Les Soviétiques peuvent mettre en ligne 37 500 canons, 1 540 chasseurs de dernière génération, mais un nombre considérable de vieux avions (7 500) et de tanks sont déclassés. L'Armée rouge n'a plus, depuis leur dissolution par le pouvoir soviétique en 1939, de corps mécanisés à opposer à la Wehrmacht, corps blindés qui sont en grande partie une création du maréchal Mikhaïl Toukhatchevski (fusillé en juin 1937 - sa femme, sa mère et son fils, élève-officier, sont exécutés également en 1937). Enfin, l'Union soviétique doit se garder sur deux fronts : une quarantaine de divisions devront rester stationnées jusqu'en août 1945 en Extrême-Orient russe face aux armées japonaises qui occupent la Mandchourie.
+L'état-major allemand entend profiter à plein de la faiblesse militaire de la Russie soviétique. Hitler devait ainsi déclarer au général Jodl : " Nous n'avons qu'à donner un coup de pied dans la porte et toute cette structure pourrie s'effondrera"10. Pourtant, d'après le rapport entre les effectifs humains engagés et le nombre d'engins de guerre, la Wehrmacht sur le front russe (l'Ostheer) était moins moderne que son adversaire direct, l'Armée rouge, même si, comme leurs alliés occidentaux, les Soviétiques et ce, malgré les enseignements de Toukhatchevski, n'avaient pas encore appris à tirer le maximum de leur puissance matérielle. En juin 1941, sur les 3 648 chars qui se ruent sur la Russie soviétique seuls 444 appartiennent à un modèle relativement récent (Panzer IV). Face à eux, se trouvent un million d'hommes, soutenus par 15 000 chars sur un stock total de 24 000, soit plus que tous les chars du reste du monde réunis. Si la grande majorité de ces engins étaient des modèles périmés, 1 861 d'entre eux étaient des chars T-34 et des chars lourds KV, supérieurs aux meilleurs engins produits à l'époque en Allemagne.
+Les conditions sont donc très favorables pour l'Allemagne nazie. Le dimanche 22 juin 1941, le rouleau compresseur allemand s'ébranle. Les unités d'assaut franchissent la frontière et attaquent les premières lignes soviétiques. L'attaque terrestre est précédée par la plus gigantesque attaque aérienne de tous les temps, menée par la majorité des 2 770 avions engagés en appui de ce front. Cette attaque commence à 3 h 40 et vise 66 aérodromes soviétiques. Elle a des résultats désastreux pour l'Armée rouge, puisqu'elle donne à la Luftwaffe la maîtrise absolue du ciel soviétique pendant plusieurs semaines. Les bombardiers allemands trouvent les avions soviétiques alignés ailes contre ailes à leur base, généralement sans camouflage ni protection. La plupart du temps, l'alerte n'a même pas été donnée et peu d'avions de chasse peuvent décoller. Les pertes des VVS sont terribles : le soir, 1 489 appareils ont été détruits au sol et 389 autres abattus en vol. La Luftwaffe ne perd que 63 avions le 22 et 150 les deux premiers jours de l'offensive.
+À 4 h 15, l'artillerie allemande se met à pilonner les positions avancées de la défense soviétique sur la frontière et, à 4 h 45, les premières unités terrestres franchissent celle-ci. La surprise chez les Soviétiques est totale, la Stavka avait bien émis un ordre qui avertit les unités frontalières de l'imminence de la guerre, mais la plupart des unités ne l'avaient pas reçu. La première opération est menée sur le front central, par un coup de main d'un corps franc de la 3e Panzerdivision, qui s'empare du pont de Koden, sur le Bug. Dans la matinée, un pont de bateaux est lancé à Drohizyn, 80 km plus au nord. La tête de pont ainsi créée fut appuyée par l'emploi de 80 chars Pz-III submersibles. La résistance des Soviétiques est assez décousue sur la plus grande partie du front. Elle est acharnée sur quelques points, comme la citadelle de Brest-Litovsk défendue par les 6e et 42e divisions de tirailleurs, qui résistent, pratiquement sans eau, jusqu'à la fin juillet, bien qu'ayant été attaquée dès le matin du 22 juin. Sans appui d'aucune sorte, les soldats soviétiques de la citadelle sont totalement encerclés et sans espoir de secours puisque la nouvelle ligne de front est à 400 kilomètres plus à l'est. Ils continuent à se battre en dépit de la disproportion des forces et de l'emploi d'artillerie de siège lourde par les Allemands comme les mortiers de 620 mm. La seule 45e division d'infanterie affectée à la prise de la forteresse déplorera 482 tués (dont 80 officiers) et plus de 1 000 blessés. Les Russes perdront environ 2 000 à 2 500 tués et autant de prisonniers. Mais par son action, cette résistance ralentit considérablement le mouvement des unités d'infanterie qui doivent empêcher les troupes soviétiques de s'échapper de la poche de Bialystok-Minsk.
+Pendant ce temps, malgré quelques contre-attaques soviétiques, les unités mécanisées du groupe d'armée centre franchissent Bug, et s'enfoncent dans les arrières des unités de l'Armée rouge. Les deux groupes blindés du centre mènent alors, à partir du 26 juin, deux percées parallèles, pour finalement converger sur Minsk, le 9 juillet, créant la poche connue sous le nom de Bialystok-Minsk, où plus de 400 000 soldats soviétiques et d'énormes quantités de blindés et de matériels sont pris au piège. Relevés par l'infanterie des 2e, 4e et 9e armées, les blindés allemands continuent leur progression en direction de Smolensk. Ils franchissent la Bérézina le 28 juin, ayant parcouru 600 kilomètres depuis la frontière.
+Au Nord, le groupe d'armée de Leeb progresse très rapidement grâce à l'attaque très en profondeur du 56e corps d'armée motorisé du général Erich von Manstein, qui s'empare du pont d'Ariogala situé à 80 km dans la profondeur du dispositif soviétique, dès 19 h 00, le 22 juin et renouvela l'exploit le 26, avec celui de Dunaburg, lui à 350 kilomètres de la frontière, malgré une contre-attaque des chars du 3e corps mécanisé soviétique contre la 6e Panzerdivision au village de Rossiény. La bataille de chars qui résulte de la rencontre des forces blindées, fait rage pendant deux jours, l'Armée rouge y engage une centaine de chars de type KV-1 et KV-2, ce qui provoque une crise dans l'armée allemande, car ce char lourd est alors invulnérable aux canons des chars et aux armes antichar allemands, l'usage de pièces d'artillerie de 88 et 105 mm employées en tir direct permet néanmoins aux Allemands d'endiguer la résistance soviétique. L'offensive marque un temps d'arrêt, car Hitler et son état-major préférent que les blindés attendent l'infanterie avant de poursuivre leur progression vers Léningrad.
+Le groupe d'armée sud connaît pour sa part une progression bien plus difficile. Dans ce secteur sont massé le plus gros des chars de l'Armée rouge, dont de nombreux KV-1 et T-34. Bien que manquant complètement de coordinations, les contre-attaques blindées coûtent cher aux Allemands. De plus, la Roumanie n'intervient qu'à partir du mois de juillet. Le 28 juillet, la situation empire brusquement pour les Soviétiques quand le 1er groupe blindé et la 17e armée font leur jonction, à l'est d'Uman enfermant dans une poche, la majeure partie des 6e et 12e armées soviétiques. Les troupes encerclées résistent jusqu'au 8 août, mais elles sont contraintes à la reddition. Les pertes sont terribles pour l'Armée rouge, avec environ 200 000 tués et 100 000 prisonniers.
+Le 10 juillet, le groupe d'armées centre a commencé une opération d'encerclement contre les troupes défendant Smolensk, jalon important sur la route de Moscou; le Dniepr est atteint et franchi le 11 juillet ; Smolensk tombe le 16, les troupes soviétiques étant coupées de leurs arrières. Mais cette fois, la réduction de la poche formée (323 000 soldats soviétiques) va se révéler problématique : les troupes russes continuent à résister malgré leur isolement. Suite à une forte contre-attaque, l'encerclement est même rompu temporairement. Les combats vont durer jusqu'au 10 septembre, l'Armée rouge ramenant constamment de nouvelles troupes fraîches. Certes, ses pertes sont là aussi très importantes, mais la progression des Allemands est enrayée, et obligée de lutter pied à pied contre des troupes déterminées, l'armée allemande subit elle aussi une véritable hécatombe avec la perte de près de 250 000 hommes (tués et blessés). 310 000 soldats et officiers soviétiques sont faits prisonniers, beaucoup seront sommairement exécutés. La bataille du chaudron de Smolensk porte à la Wehrmacht un coup dur dans sa progression vers l'est. Le général Blumentritt relève que "le comportement des troupes russes dans la défaite contrastait terriblement avec celui des Polonais ou des Occidentaux. Mêmes encerclés, les Russes s'accrochaient et combattaient".
+À la mi-septembre, l'Armée rouge, suite aux terribles pertes qu'elle a subies, a été contrainte de se replier sur une ligne de défense derrière la Divna et le Dniepr. Les armées allemandes ont regagné leur liberté de mouvement avec la fin de la liquidation de la poche de Smolensk. Les généraux réclament une attaque en direction de Moscou, désormais à 400 km du front. Il semble certain aux généraux allemands que, compte tenu de l'ampleur énorme de ses pertes, l'Armée rouge sera incapable de résister à une poussée dans cette direction. Hitler n'est pas de leur avis, il veut s'emparer de la région industrielle du Donbass. Il voit également la possibilité d'en finir avec les forces armées soviétiques qui ont mission de défendre l'Ukraine. Les arguments avancés par Hitler pour soutenir une avancée blindée vers le Sud sont que les lignes d'approvisionnement de l'armée centre seraient exposées sur un flanc de plus de 800 km si l'offensive continuait vers Moscou. En conséquence, il ordonne au 2e groupe blindé de Guderian de se porter vers le sud pour rejoindre le 1er groupe blindé du feld-maréchal von Kleist qui remonte du sud après avoir traversé le Dniepr. Le 25 août, la 3e division blindée s'empare du point stratégique qu'est le pont sur la Desna, près de Novgorod-Severski. Lorsque les officiers d'état-major soviétiques prennent conscience du danger mortel qui se rue sur les armées du Sud, il est trop tard. Les deux pointes blindées allemandes se rejoignent à Lokhvitsa. Un gigantesque encerclement est réalisé autour de la région de Kiev et des marais du Pripet dans lequel plus de 500 000 soldats soviétiques sont pris au piège. Kiev, "la mère des villes russes" dans la culture slave, tombe le 19 septembre et le reste de la poche suit dans le mois. Seuls 15 000 soldats et officiers parviennent à franchir le cordon allemand dont Nikita Khrouchtchev, le général Semyon Timochenko et le maréchal Boudienny. C'est le plus vaste encerclement militaire de l'Histoire. C'est aussi la plus grande défaite militaire ponctuelle de l'histoire soviétique. Au terme de la bataille de Kiev, l'armée allemande a encore 200 000 tués, blessés et disparus mais les Soviétiques perdent près d'un million d'hommes (400 000 tués, 500 000 prisonniers exécutés sur place ou que les Allemands laisseront mourir de faim avant de déporter les survivants dans les camps d'Europe centrale).
+Partout, les unités de l'Armée rouge battent en retraite, dépassées par la rapidité de l'invasion. La plupart des habitants des zones envahies sont effondrés. "La population. Ils pleurent. Qu'ils soient en route, qu'ils soient assis, qu'ils soient debout près des palissades, à peine commencent-ils à parler qu'ils pleurent, et on a soi-même envie de pleurer malgré soi. Quel malheur!". Vassili Grossman. Pourtant, on commence à voir, çà et là, des habitants réserver un accueil prévenant aux troupes allemandes.
+La route du Donbass est ouverte pour le groupe d'armées sud, qui atteindra Rostov-sur-le-Don le 21 septembre, mais les divisions blindées et motorisées de la Wehrmacht sont très éprouvées par les deux féroces batailles de la fin de l'été, et ce n'est que le 30 septembre que la progression peut reprendre en direction de Moscou. La saison des boues, la rapoutitsa, rend les routes impraticables, et provoque alors un arrêt des opérations mobiles pendant près de quinze jours, obligeant à patienter jusqu'aux premières gelées pour reprendre le mouvement.
+Au Nord, les troupes allemandes, arrivent devant les premières lignes de défense de Léningrad, au début du mois de septembre. La prise de la ville, dont la défense est organisée par Joukov, s'avère vite impossible malgré les faibles moyens de défense de l'Armée rouge. Les Allemands s'abstenant d'un assaut direct, décident de l'investir progressivement pour l'affamer, avec l'aide des Finlandais, mais la ville, malgré des pertes humaines colossales (700 000 civils périrent de faim et des bombardements), résistera en fait jusqu'à son dégagement en 1944, au cours du siège le plus long et le plus impitoyable de l'histoire moderne.
+En quelques semaines à peine, les divisions allemandes ont progressé de 500 km vers le Nord, de 650 km vers l'Est, de 350 km vers le Sud-Est. De juin à octobre 1941, l'Ostheer (la Wehrmacht sur le front russe) a fait au total plus de 3 millions de prisonniers. Les premiers massacres en masse de Juifs, Russes et Tsiganes débutent quelques semaines seulement après le début de l'invasion.
+Les Allemands trouvent un pays las du soviétisme, mais les Einsatzgruppen massacrent systématiquement les Juifs (plus de 1 500 000 personnes, essentiellement des femmes et des enfants, seront assassinées de 1941 à 1944) et multiplient les atrocités dans le cadre de ce qui ressemble à une guerre d'anéantissement.
+La population devient de plus en plus hostile à un envahisseur qui apparaît comme un ennemi venu pour anéantir et non pour libérer. Si les premières villes capturées avaient semblé accueillir favorablement l'envahisseur (en Ukraine en particulier), du fait de la lassitude face à la férocité du régime stalinien et aux problèmes des nationalités, les très nombreux massacres de civils transforment rapidement cet a priori favorable. Les massacres de civils désarmés et l'intention déclarée de réduire les Slaves en esclavage retournent vite les populations. Le traitement inhumain réservé aux prisonniers de guerre a fini par filtrer. Les Allemands éprouvent des difficultés croissantes à capturer des prisonniers, les soldats russes préférant lutter jusqu'à la mort plutôt que de mourir sommairement exécutés. Les opposants au régime se persuadent qu'il s'agit d'une lutte à mort où ils n'ont guère le choix du camp.
+Les troupes allemandes traversent des régions affreusement pauvres et désertes, et l'étendue des espaces russes fait perdre tout son sens à la Blitzkrieg. Les lignes de communications de la Wehrmacht s'allongent démesurément. Assez rapidement, des groupes de partisans se forment sur les arrières de la Wehrmacht, obligeant celle-ci à consacrer un partie importante de ses forces au maintien de ses routes de ravitaillement. Ce dernier rencontre de nombreux problèmes, comme la différence d'écartement des voies de chemin de fer russes avec celles d'Europe occidentale. Après des centaines de kilomètres parcourus dans les plaines russes, le matériel est usé et en mauvais état. Surtout, le manque d'hommes disponibles, compte tenu de ses pertes, commence à poser un problème à la Wehrmacht. Après plus d'un mois de combats, elle a déjà perdu plus d'hommes qu'au cours de toutes ses campagnes à l'Ouest, tout en étant très loin d'avoir atteint ses objectifs opérationnels. En septembre 1941, les divisions combattantes, alors au nombre de 142, déclarent avoir perdu près de 50 % de leurs forces initiales en hommes et en matériel et, en novembre, la plupart des formations d'infanterie ont perdu la moitié de leurs effectifs.
+Début septembre, les Allemands, bloqués par les boues, tiennent plusieurs conseils de guerre pour prévoir la suite des opérations, dont la conférence d'Orcha, à laquelle participe Hitler. Il est désormais clair que malgré les pertes colossales infligées à l'Armée rouge, celle-ci n'a pas été détruite. Sa combativité, loin de s'écrouler, semble même s'accroître. Il apparaît que seul le groupe d'armées centre sera capable de reprendre la progression quand les routes seront de nouveau praticables. Malgré l'aide des Finlandais, le groupe nord est incapable de mener un action de vive force contre Léningrad, il arrive tout juste à maintenir un encerclement partiel et précaire, qui laisse passer le ravitaillement pour la ville par le lac Ladoga. Le groupe d'armées sud est soumis à une forte pression russe et le corps blindé de von Kleist a été contraint de passer à la défensive, voire de céder du terrain comme à Rostov-sur-le-Don, aux portes du Caucase, face aux contre-attaques de Semyon Timochenko : c'est le premier recul allemand depuis le déclenchement de l'invasion.
+Devant l'échec inéluctable de Barbarossa, on prépare une opération de rechange pour essayer d'en finir avant l'hiver, l'opération Taïfun (typhon). Hitler adopte, malgré ses idées précédentes, l'idée qui veut que la prise de la capitale de l'adversaire doit briser sa volonté de résistance. Les objectifs initiaux de Barbarossa (la ligne Arkhangelsk-Kouïbychev) sont abandonnés, ce qui rend désormais impossible la destruction de l'industrie de guerre soviétique mise à l'abri derrière l'Oural. De plus, Staline a acquis la certitude, par les renseignements fournis par le réseau Orchestre rouge et Richard Sorge, mais surtout par des communications qui ont été interceptées, que la politique d'expansion japonaise n'a plus que des visées vers le Sud-Est asiatique et que le Japon s'apprête à attaquer la flotte des États-Unis à Pearl Harbor. Les troupes fraîches et expérimentées qui gardent la frontière extrême-orientale en Sibérie vont pouvoir être rapatriées en Russie occidentale. De fin 1941 au début de 1942, près de 400.000 "Sibériens" sont ainsi transférés vers l'ouest à bord de trains spéciaux mettant de une à deux semaines pour arriver à destination (sur ce total 250.000 soldats furent assignés à la défense de Moscou).
+Fin octobre 1941, Adolf Hitler décide la bataille de Moscou, déclarant à ses généraux son intention de raser la ville jusqu'à ses fondations et d'en faire un immense lac artificiel. Il donne l'ordre le 14 octobre 1941 d'un double enveloppement de Moscou, avec pour objectif la jonction à Noginsk. Le Reich regroupe tous ses moyens disponibles en vue de l'assaut. Moscou renforce ses défenses : un demi-million d'hommes et de femmes creusent 8 000 km de tranchées, 100 km de fossés antichars.
+De novembre à décembre, la Wehrmacht engage 1,8 million d'hommes dans cette bataille (80 divisions mais à effectifs incomplets), soit plus de 50 % de toutes ses divisions, 30 % de son artillerie, sur un front de 600 km de large et de 250 km de profondeur. En deux semaines de combats, l'Armée rouge perd 700 000 prisonniers (poches de Viazma, d'Orel, de Briansk...), 1 200 chars et 5 000 canons. Le 7 novembre 1941, dans un discours resté célèbre, prononcé sur la place rouge devant les troupes qui partent au front, Staline délaisse l'idéologie et en appelle aux valeurs et aux grandes figures historiques de la nation russe. Le front ("front" ou groupe d'armées dans la terminologie soviétique) de Kalinine, au nord de Moscou, lance sa contre-attaque le 5 décembre dans une neige de plus d'un mètre d'épaisseur et par des froids de -20°C à - 30°C. L'offensive hitlérienne est stoppée à 30 kilomètres de Moscou (non loin du faubourg de Khimki, à proximité de l'actuel Aéroport international Cheremetievo), grâce également à un terrible hiver pour lequel elle n'est pas équipée. Une contre-offensive menée fin décembre par des bataillons sibériens casse enfin le front allemand et rejette de 100 à 200 km en arrière le groupe d'armées centre. Le 22 janvier, la bataille de Moscou est gagnée par Joukov. Guderian est contraint à une retraite précipitée, abandonnant une grande partie de son matériel. L'armée allemande perd encore 615 000 hommes. C'est le retour de balancier. Jusqu'en janvier 1942, la Wehrmacht recule partout.
+Une étude récente 12 réevalue la bataille de Moscou et fait de celle-ci "la bataille la plus importante de la Deuxième Guerre mondiale et, de façon indiscutable, le plus vaste engagement militaire de tous les temps. En additionnant les effectifs des deux camps, environ 7 millions d'hommes furent engagés, à un moment ou à un autre, dans ces combats. Sur ces 7 millions de soldats, 2,5 millions furent tués, faits prisonniers, portés disparus ou assez grièvement blessés pour être hospitalisés, avec des pertes beaucoup plus lourdes du côté soviétique que du côté allemand. Selon les archives militaires russes, 958.000 soldats soviétiques ont péri, ce qui comprend les tués, les disparus et les hommes faits prisonniers. Etant donné le traitement que leur réservaient les Allemands, la plupart des prisonniers de guerre soviétiques étaient, de fait, condamnés à mort. De plus, 938.500 de leurs camarades furent hospitalisés pour blessures, ce qui porte le total des pertes soviétiques à 1.896.500 hommes. Pour les Allemands, le total des pertes était de 615.000 hommes".
+Près de 2 millions de Soviétiques se rangèrent du côté des allemands (Baltes, Ukrainiens, Russes, quelques Polonais enrôlés de force entre autres) durant l'occupation de leur territoire, soit moins de 3 % de la population de la zone occupée par le Reich dans la partie ouest de l'Union soviétique. En 1943, certaines divisions allemandes comptaient plus de 20 % d'auxiliaires russes (les Hiwis). Il y eut 2 divisions SS russes, les 2 divisions de l'armée Vlassov et le 15e SS Kosaken-Kavalerie-Korps constitué de Cosaques du Don. Beaucoup agissaient par nationalisme, les pays baltes et l'est de la Pologne, qui faisaient partie de l'empire russe (monarchique) jusqu'en 1917, ayant été réannexés par l'Union soviétique en 1939.
+Exemple parmi d'autres du soutien que reçurent les envahisseurs de la part de certaines populations locales à certains endroits : les milices pro-germaniques étaient assez efficaces pour rendre inutiles des représailles. Tel était le cas du district administratif autonome de Lokot, dans la région d'Orel-Koursk, au sud de Briansk. Comptant 1 700 000 habitants, ce district fut défendu par une milice intégralement russe en 1941 - 1942. Ici, la base de la collaboration était de nature politique (anti-communisme) et la milice de Lokot créée par le général Rudolf Schmidt de la IIe Armée Panzer conjointement avec un ingénieur russe (remplacé plus tard par le fameux Bronislaw Kaminski), fut connue sous le nom de Russkaya Osvoboditelnya Narodnaya Armiya (Armée de libération russe). Certaines de ces milices, dans les pays baltes et en Ukraine en particulier, apportèrent aux autorités d'occupation un soutien non négligeable dans la politique d'extermination des populations juives.
+Un élément capital des transactions fut que les SS avaient interdiction d'opérer dans toute cette région où les Allemands acceptèrent de s'abstenir de toute action de représailles du fait des activités de la résistance qui se poursuivaient toujours. De tels arrangements, bien que généralement moins formels, étaient monnaie courante dans les régions occupées par les Allemands. Ils trouvaient des avocats fervents parmi les officiers de la Wehrmacht. Les SS s'y opposaient de façon tout aussi véhémente, car ils refusaient d'armer des « sous-hommes ». Par la suite, la situation ayant empiré pour le Reich nazi et le besoin d'effectifs devenant criant, les SS furent amenés à tempérer leur refus initial. Ils s'opposaient toujours à la création de milices, mais seulement parce qu'ils voulaient recruter tous les hommes disponibles pour leurs nombreuses unités « ethniques ».
+Les Allemands réussissent à stabiliser la ligne de front de la Baltique à l'Ukraine au prix de pertes énormes en hommes et en matériels (l'essentiel des 3 500 chars engagés est resté sur le terrain - 50 % du matériel roulant est hors d'état de marche). Les divisions aériennes ne disposent plus que de 25 à 50 % de leurs appareils de combat. La Luftwaffe se voit disputer la maîtrise du ciel avec la montée en ligne de nouveaux chasseurs russes (Mikoyan Mig 1, Sturmovik « tueur de chars »). L'infanterie d'invasion ne parvient pas à maintenir le contact avec ses fers de lance blindés sur de longues distances. Compte tenu de ses pertes et de l'étendue des espaces russes, l'armée allemande doit donc renoncer à la Blitzkrieg tout en devant faire face à un adversaire qui ne cesse de se moderniser. À ce moment, il apparaît que c'est à l'impréparation des armées soviétiques de juin 1941, à l'effet de surprise, que le Reich doit d'avoir évité de graves difficultés dans ses combats contre l'Armée rouge lors de l'invasion de juin 1941.
+Pour l'Allemagne, c'est en Russie que la Seconde Guerre Mondiale commence vraiment tant les pertes en hommes ont été faibles durant les campagnes de Pologne, de France ou des Balkans. Alors que pendant les deux premières années de la guerre (1939 et 1940), 1 253 officiers seulement étaient morts au combat, entre juin 1941 et mars 1942, 15 000 officiers furent tués, ce qui indique un changement radical dans l'évolution des pertes. Au cours des six premiers mois de l'invasion, les pertes de l'Ostheer (la Wehrmacht sur le front russe) s'élevèrent à 750 000 hommes, qui furent portées à un million à la fin de mars 1942 dont plus d'un tiers de tués ou de disparus. Au total, lors de la première année de la campagne de Russie, le Reich perd 1,3 million d'hommes, sans compter les malades, soit 40 % des 3,2 millions d'hommes de l'Ostheer. Le manque général d'hommes dans le Reich ne permet pas d'assurer les remplacements à une pareille échelle.
+À la fin de 1941, la Wehrmacht s'est enfoncée de 800 km en Union soviétique et a conquis plus d'un million cinq cent mille kilomètre-carrés de territoire soviétique, comptant 65 millions d'habitants (17 millions de personnes sont parvenues à fuir). En 1942, la longueur du front russe, de la Finlande au Caucase, passe à 6 200 km. L'Allemagne occupe alors l'Ukraine, la Biélorussie, une grande partie du nord de la Russie, soit plus de la moitié de la Russie d'Europe (qui concentre 80 % des industries lourdes et de la population), acculant les Russes sur des zones moins peuplées et les privant d'une grande partie de leur potentiel économique (de 60 à 70 %). Mais le Reich a perdu ses meilleures troupes.
+Les pertes de l'Armée rouge sont colossales : 1,5 million de tués, 4 millions de prisonniers dont 2 millions au moins seront anéantis. Fin 1941, les Allemands estiment avoir détruit plus de 20 000 blindés et 35000 canons soviétiques.
+C'est pourtant à ce moment que la société soviétique se lance dans une mobilisation de ses forces et de ses ressources, totale et éperdue, dans le cadre d'une économie de guerre d'une extrême rigueur. Le 3 septembre 1941, le pouvoir soviétique décrète la mobilisation de tous les hommes de plus de 18 ans. Dès l'automne 1941, plus de 2 000 groupes de partisans se constituent en territoire occupé. "Tout pour le front ! Tout pour la victoire !", "Encore plus d'armes pour le front" deviennent les slogans dans les usines. Les bureaux de recrutement de l'Armée rouge sont submergés par les volontaires désireux de se battre pour "la défense du sol natal". De nombreuses jeunes filles s'engagent dans l'Armée rouge (de 1941 à 1945 plus de 800 000 femmes ont combattu comme volontaires sur le front). La journée de travail monte à 12 heures par jour, voire davantage. Les décès par épuisement au travail ne sont pas rares dans les usines. La législation, déjà très dure, du 26 juin 1940 est encore aggravée par la loi du 26 décembre 1941, qui assimile tout changement de travail non autorisé, tout départ ou toute absence injustifiée à une désertion, passible des tribunaux militaires et sanctionnée d'une peine de 5 à 10 ans de camp (plus de 900 000 personnes furent condamnées en vertu de la loi du 26 décembre 1941). Un décret de février 1942 instaure la mobilisation totale des femmes âgées de 15 à 45 ans, femmes dont la part dans la main-d'oeuvre industrielle passa de 37 à 60% entre 1941 et 1945.
+Entre juillet 1941 et janvier 1942, en Russie d'Europe, 17 millions de personnes participent dans des conditions exténuantes au démontage et au transfert de plus de 1 500 grandes entreprises industrielles dans l'Oural, la Volga, l'Asie centrale (Kazakhstan surtout) et la Sibérie; transfert nécessitant la construction en quelques mois de plus de 10 000 km de voies ferrées. Plus de 2 600 usines auront été évacuées et reconverties dans l'industrie de guerre. Leur remise en route, en plein hiver, n'exigera pas un effort moins gigantesque. Au terme d'opérations titanesques d'une grande complexité logistique, plus de 10 millions d'ouvriers prennent le chemin de l'Oural et, dés le début de 1942, après cet effort pharaonique dont il n'existe aucun équivalent dans l'histoire industrielle de l'Europe, la production de guerre est remontée à 48 % de son niveau de 1940. Alors qu'en 1940, 358 chars de dernier modèle avaient été construits, au cours des six premiers mois de 1941 seulement leur nombre s'éleva à 1 503 et dans les six derniers mois de cette année-là, malgré l'occupation par les Allemands du coeur industriel de la Russie, 4 740 chars dernier modèle supplémentaires furent produits. Dés la fin de 1942, la Russie dépasse l'Allemagne dans sa production d'armements alors que la Wehrmacht occupe plus de 50 % de la Russie d'Europe. La production de blindés et d'avions est alors le double (50 000) de la production allemande, en 1944 celle de canons usinés est trois fois supérieure (122 000).
+L'opération Barbarossa se solde, fin 1941/début 1942, par une défaite stratégique considérable pour l'Allemagne puisqu'il apparaît, dès ce moment, que le Troisième Reich n'avait peut-être pas les moyens de vaincre l'Union soviétique en juin 1941. En mai 1945, les fantassins soviétiques planteront leur drapeau au sommet du Reichstag, au terme d'une bataille de Berlin, qui fera 78 000 tués dans leurs rangs.
+Le général Volkogonov, biographe de Staline, pouvait écrire en 1996 "Il serait difficile de trouver pire début à une guerre que ce mois de juin 1941. Toutes les autorités politiques et militaires majeures ont pensé que l'URSS ne pourrait pas survivre plus de trois mois. Mais le peuple soviétique leur a finalement donné tort. Pourtant, le mérite de cette incroyable capacité de résistance allait être attribué à la "sage direction" de Staline, la personne même la plus directement responsable de la catastrophe".15. Et Stepan Mikoyan de préciser : "Nous avons gagné la guerre en dépit de la dictature de Staline".16.
+Contenu soumis à la GFDL
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Le Pays basque ou Euskal Herria (parfois eskual herria) en basque est un territoire qui s'étend de part et d'autre des Pyrénées occidentales sur plusieurs régions administratives dont le statut politique et juridique de chacune des provinces historiques varie en France et en Espagne, et couvre 20 551 km² où habitent environ 3 millions de personnes.1
+Si par convention, on peut faire correspondre les 7 provinces traditionnelles (Zazpiak Bat), il est difficile d'en préciser avec exactitude les contours car les frontières administratives ne coïncident pas toujours avec les frontières ethniques et culturelles.2 Le Pays basque s'identifie que par convention et par construction sociale et politique, les provinces ont incontestablement un enracinement historique et politique mais celui-ci n'est pas fondé exclusivement ou même principalement sur un substrat culturel basque.2
+Le Pays basque se divise en 3 entités administratives : La Communauté autonome du Pays basque (également dénotée « País Vasco » en Espagne), est une communauté autonome espagnole composée des trois seuls territoires historiques d'Alava, Guipuscoa et Biscaye et qui constituent 72% de la population totale. La Navarre qui représente plus de 50% du territoire, et le Pays basque français inclus dans les Pyrénées-Atlantiques sont les deux autres entités administratives.
+Selon le contexte, l'expression « Pays basque » utilisée en langue française peut désigner l'ensemble de ce territoire ou seulement la partie nord des terres basques, soit le Pays basque français.
+C'est à l'unité linguistique d'une grande partie de ses habitants que l'ensemble doit sont nom. En basque, le nom du pays est aussi étroitement lié à celui de sa langue. Pays basque se traduit par Euskal Herria (Pays basque) = Euskararen Herria (le pays de la langue basque), et Basque par euskaldun = Euskara dun (celui qui possède la langue basque). Très peu de peuples se désignent et désignent leurs pays par la connaissance de leurs langues. Quant au mot Euzkadi, inventé par le père du nationalisme basque, Sabino Arana, au xixe siècle, il désigne la patrie basque. Les deux termes ont donc une portée différente. "Euskal Herria" est une notion plus géographique et culturelle, alors que "Euzkadi" est une notion politique : elle désigne la nation basque.
+À l'heure actuelle, Euskadi est le nom basque de la Communauté autonome du Pays basque formée les provinces de l'Alava, la Biscaye et le Guipuscoa.
+Le Pays basque dans son sens large comprend sept territoires historiques. Quatre au sud des Pyrénées forment le Pays basque sud (ou espagnol) (Hegoalde) et trois au nord forment le Pays basque nord (Iparralde).
+Le Pays basque espagnol (Hegoalde) ou Pays basque sud comprend :
+L'Alava, la Biscaye, le Guipuscoa forment la Communauté autonome du Pays basque (Euskal Autonomia Erkidegoa).
+Le Pays basque français (Iparralde) ou Pays basque nord comprend :
+Le Pays basque français forme une partie du département des Pyrénées-Atlantiques (le département ayant été constitué à partir de ces pays et du Béarn pour l'essentiel).
+La côte et les montagnes sont les paysages dominants du Pays basque.
+Trois provinces se partagent la côte basque : le Labourd côté français et le Guipuscoa et la Biscaye côté espagnol. La région est très marquée par l'influence maritime et Bilbao et Bayonne en sont les deux villes rayonnantes. La côte basque commence au sud de l'Adour avec des plages de sables fins qui correspondent au prolongement de la côte landaise. À Anglet, à la chambre d'Amour, les longues plages se terminent et laissent la place à des falaises de 30 à 50 m de hauteur et à des petites plages enfoncées dans des criques. Cette formation rocheuse provient du massif pyrénéen qui rencontre le golfe de Gascogne au niveau de la frontière franco-espagnole (Pointe Sainte Anne, Cabo Higuer). Les formations géologiques sont très hétérogènes le long de la côte. On rencontre du grès calcaire à la pointe Saint-Martin, des marnes bleues sur la côte des basques, ou du flysh vers Bidart, dans la baie de Loya, à Hendaye ou à Zumaya. La côte est alors très découpée et change inexorablement avec l'érosion des pluies et de la mer. Au milieu des ces falaises, on trouve des plages étroites, assez rares et parfois composées de galets et des estuaires qui sont devenus les lieux privilégiés d'urbanisme.
+On observe une différence nette entre la côte basque française et la "costa vasca" (côte basque espagnole). L'expansion de l'urbanisme est importante côté français à cause notamment du tourisme grandissant. Environ 5% de la côte est libre de construction. Côté espagnol, la côte est plus préservée et moins urbanisée. Cependant, la qualité de l'urbanisation est beaucoup plus mauvaise que côté français et dénature le littoral.
+La montagne domine tout le reste du territoire basque avec des hauteurs dépassant 400 m sur plus de la moitié du pays. Ce sont les Pyrénées qui sont dans le centre du Pays basque et coupent ce dernier en deux, formant la frontière entre la France et l'Espagne. Le point culminant des Pyrénées basques est le pic d'Orhy à 2 017 m. À l'est, les Pyrénées sont hautes et parsemées de forêt et de pâturages d'altitude avec des vallées assez profondes. À l'ouest, la chaine Pyrénéene est plus calme et forme des plateaux herbeux et des sommets arrondis jusqu'à l'Océan. Au nord du massif, en Iparralde, les collines vertes dominent jusqu'à l'Adour. On y trouve des prairies, des bois et des champs cultivés de maïs. Au-dessus de l'Adour se forme une plaine alluviale marécageuse appelée les barthes. Au sud de la chaine axiale, en Navarre, les Pyrénées sont présentes tout le long de la frontière et se prolongent jusqu'à la côte basque espagnole avec des vallées plus vertes et moins étroites. À l'ouest, dans la communauté autonome basque, on trouve la cordillère Cantabrique qui se prolonge vers Bilbao. Elle est formée d'une succession de sierras : la sierra d'Aralar, la sierra d'Urbasa et la sierra d'Andia. Enfin, vers l'Èbre, les plateaux disparaissent au profit d'une grande vallée.
+Le climat du Pays basque est varié et fortement influencé par l'océan Atlantique. Le littoral bénéficie de l'influence du Gulf Stream, qui donne un climat tempéré et des températures douces. La température annuelle moyenne est de 13 °C. Les vents dominants sont orientés d'ouest en est et amènent des précipitations régulières en hiver. Au sud, en Espagne, des vents du sud appelés localement haize hegoa permettent de réchauffer tout le pays. Les étés restent doux grâce à l'océan. Les pluies sont assez abondantes et tombent très rapidement sous forme d'orages ce qui donne une végétation riche et verte même en été. Vers le sud du Pays basque en Espagne, le climat devient plutôt méditerranéen voire presque continental avec des hivers secs et froids et une végétation plus désertique.
+La faune est très variée sur ce vaste territoire. Les oiseaux sont très présents sur le littoral. On retrouve l'hirondelle de rochers qui niche dans les falaises, l'océanite tempête qui est un oiseau devenu rare, ou le tournepierre à collier que l'on trouve très fréquemment sur les plages et les rochers. Le cormoran, le goéland, la mouette et l'huîtrier pie sont des oiseaux qui fréquentent les côtes basques. C'est aussi un lieu d'hivernage pour le macareux moine, le guillemot de Troïl et le pingouin torda. La montagne est le refuge de nombreux rapaces comme le milan noir, la buse variable ou le vautour fauve.
+Des mammifères sont familiers du Pays basque. Autrefois, l'ours brun peuplait les montagnes. Maintenant, on trouve des cerfs, des sangliers, des pottoks et des renards. De nombreux lapins de garenne font le bonheur des chasseurs de la région.
+La flore du Pays basque est variée et différente suivant l'altitude et le climat. Sur le littoral, la flore est adaptée aux conditions maritimes de vent et de sel. On y trouve de la lande et de la prairie maritime avec des ajoncs, de la bruyère, de la sérapia langue et du crithme marin. Sur la côte espagnole, les dunes sont fixées grâce à des plantations de pins maritimes, des tamaris et de l'eucalyptus. Le paysage de collines est dominé par des prairies herbeuses et de la lande. En paysage montagnard, on trouve essentiellement des forêts de chênes et de hêtres. Arbailles et Iraty sont les plus grandes forêts de hêtres d'Europe. Au-dessus de 1800 m, la lande reprend le relais ainsi que les pâturages d'estive. On y retrouve le rhododendron et la myrtille.
+L'histoire du Pays basque commence à la préhistoire tels en témoignent les objets retrouvés dans les grottes d'Isturitz et d'Oxocelhaya. De nombreux peuples côtoient l'actuel Pays basque. De nombreux historiens romains relatent aussi l'existence de nombreuses tribus différentes des Celtes ou des Gaulois : Autrigons, Caristes, Vardules, Bérones, Vascons et Aquitains. Ces derniers collaborent sans doute pleinement avec les Romains. Au Moyen Âge, les Romains sont supplantés par les Wisigoths qui ont envahi toute la péninsule et les Francs qui se trouvent au nord des Pyrénées. Au milieu se forme le territoire des Vascons. Ils ne se soumettent pas au roi des Francs et n'hésitent pas à piller les villages au sud comme au nord. La particularité basque d'une société indépendante et très égalitaire apparaît alors à cette période.
+Au viiie siècle, l'invasion musulmane provenant du sud prend le territoire des Basques. Se forme alors le royaume de Pampelune, prélude du royaume de Navarre. Charlemagne conquit la ville de Pampelune détruisant ses murailles. En 778 eut lieu la Bataille de Roncevaux, où les Vascons qui, pour se venger, attaquèrent l'arrière-garde de l'armée franque de Charlemagne, privant ainsi de sa protection la constitution d'une zone d'influence carolingienne dans la vallée de l'Èbre, similaire aux marches hispaniques de Catalogne. Cette bataille donna naissance à la fameuse Chanson de Roland.
+Au ixe siècle, c'est le début de la reconquête des terres prises par les musulmans (Reconquista) et le Pays basque fut alternativement partie du royaume de Navarre et du royaume de Castille. Des conflits existaient entre les commerçants du Pays basque espagnol et les commerçants de Bayonne. C'est aussi le moment de la mise en place des fueros (fors). En Espagne, il s'agit d'une charte accordant aux populations des privilèges et des libertés et issue d'une synthèse entre les lois romaines et wisigothes. Elles sont conclues entre le roi et une vallée, une ville ou un village. Dans les provinces basques, il s'agit au contraire d'un texte que le seigneur jure de respecter pour obtenir l'obéissance de son peuple. Les députés des provinces basques y mettent par écrit les libertés et les franchises que le peuple basque veut conserver.
+La province de Navarre sera la plus prospère sous le règne de Sanche le Grand au xie siècle s'étendant sur une partie de l'Aquitaine au nord et en Aragon à l'est. Au xiie siècle, elle éclate mais chaque province conserve son système de fueros. La Soule et le Labourd qui reviennent à l'Aquitaine tombent sous domination anglaise avec le mariage d'Aliénor d'Aquitaine et du roi d'Angleterre. Et durant la guerre de Cent Ans, le Pays basque est écartelé entre la France et l'Angleterre.
+À la fin du Moyen Âge, en 1521, la Navarre fut envahie par les troupes espagnoles et son territoire au sud des Pyrénées fut annexé à l'Espagne, moyennant promesse royale de respecter les fors de Navarre. Le royaume de Navarre sous domination de la Maison de Foix se réduisait alors aux territoires au nord des Pyrénées. En 1659 est signé le traité des Pyrénées à Hendaye qui marque le rapprochement de l'Espagne et de la France, et la reconnaissance implicite de la frontière au Pays basque, qui sépare donc définitivement en deux parties la Navarre.
+Pendant ce temps, les Basques participèrent à la conquête de l'Amérique grâce à la chasse à la baleine qui les emmena jusqu'aux terres de la Nouvelle-France. De nombreux marins et explorateurs sont issus des territoires basques.
+La large autonomie des provinces basques du nord toucha à sa fin avec la Révolution française, qui centralisa le gouvernement et abolit la totalité des libertés locales que garantissait l'Ancien Régime. Au sud, le pouvoir des fueros est contesté par des économistes qui y voient un frein au développement économique. Lors d'une guerre de succession entre Isabelle II d'Espagne et son oncle Don Carlos, les avis sont partagés sur les fueros entre ces deux héritiers du trône. C'est la première guerre carliste entre 1833 et 1876 qui déchirent l'Espagne. Des guérillas des populations basques s'opposent aux armées des gouvernements libéraux espagnols. Mais en 1876 les fueros sont abolis par ordre du roi et le pouvoir central est affirmé.
+Avec la fin des fueros, c'est le début du nationalisme avec rejet du pouvoir central qui veut étouffer la culture basque. En 1895, un premier mouvement nationaliste basque, EAJ/PNV, voit le jour et réclame le retour des fueros et l'autonomie des provinces basques. Au nord comme au sud, le sentiment d'unité basque est mis en valeur. Durant la Première Guerre mondiale, de nombreux basques se réfugient au sud. En 1930, des mouvements de gauche et du Front populaire émergent dans les deux pays. En 1931, la république est déclarée en Espagne et la droite prend le pouvoir.
+En 1936, débute la guerre civile espagnole. Les républicains pour s'assurer du soutien des basques déclarent l'autonomie du Pays basque. Mais, cela sème la discorde entre les partisans du Pays basque. La Navarre anti-républicaine soutient Franco tandis que la Biscaye et le Guipuscoa où le Parti nationaliste basque (PNV) est puissant, soutiennent le pouvoir républicain en place. Franco attaque le Pays basque en 1937 et le bombardement de Guernica (immortalisé par un célèbre tableau de Picasso) fait de nombreuses victimes civiles. Le gouvernement autonome présidé par José Antonio Aguirre (PNV) s'exile à Bayonne lorsque Bilbao est prise. De nombreux exilés rejoignent la partie française du Pays basque. 1939 marque la victoire de Franco et le début de la répression franquiste.
+La résistance basque rejoint les territoires du nord et en plus du PNV deux mouvements se forment : l'ETA (Euskadi ta Askatasuna) en 1959 au sud, vite influencé par les idées révolutionnaires, et Enbata en 1963 au nord. Les mouvements se radicalisent et appellent à la violence. C'est le début du terrorisme. Avec l'arrivée de Juan Carlos au pouvoir, des concessions sont faites par le gouvernement espagnol mais cela ne satisfait pas les révolutionnaires qui veulent un peuple basque libre et socialiste. En 1979, le statut de la communauté autonome basque est signé par les provinces sauf la Navarre. Depuis, des institutions basques (parlement, gouvernement, système éducatif, radio-TV) sont mises en place.
+Le tourisme est la principale économie du Pays basque surtout pour la partie nord. Il représente 20% du PIB pour le Pays basque français tandis que l'industrie réduit cette proportion à 4% au Pays basque espagnol. Le tourisme est apparu au xixe siècle avec l'arrivée des premiers touristes à Biarritz venant goûter aux bains marins. De nombreuses personnes célèbres comme Eugénie l'épouse de Napoléon III, le roi Édouard VII d'Angleterre, Edmond Rostand et bien d'autres vedettes se rendront dans le Pays basque afin de profiter des bienfaits de la mer et du thermalisme. Côté espagnol, la ville de Saint-Sébastien attire le plus grand nombre de touristes. Bilbao tire aussi son épingle du jeu avec notamment son musée Guggenheim. La renommée de Saint-Sébastien vient des premiers souverains espagnols puis des riches Espagnols qui allaient en vacances dans cette belle ville côtière. Enfin, les fêtes de San Fermin, qui se déroulent au mois de juillet à Pampelune, sont considérées comme l'une des plus grandes fêtes du monde, et attire plus de 2 millions de personnes chaque année.
+L'attrait du Pays basque s'explique aussi par son climat clément en été, mais aussi sa culture, ses traditions et son patrimoine. De nombreuses activités et de nombreux loisirs attirent les touristes. La nature permet de pratiquer la chasse et la pêche mais aussi les sports d'eau vive, la randonnée et le VTT.
+La pêche est une activité économique très présente en Pays basque comme en témoigne les nombreux ports que l'on y trouve. Autrefois, les basques pêchaient activement la baleine dont on extrayait de nombreux produits dérivés comme le savon et l'huile. Mais, avec la raréfaction des baleines et l'interdiction de sa chasse, les basques se tournent vers la pêche à la morue au xixe siècle. Le port de Saint-Jean-de-Luz est typique et permet de retrouver toute l'ambiance d'un port basque. Son activité fut essentiellement tournée vers la sardine et le thon malgré les rivalités avec les pêcheurs bretons sur ces produits.
+Au xxe siècle, des rivalités opposent les pêcheurs espagnols aux pêcheurs français qui détériorent les conditions de travail. De plus la réglementation européenne et la raréfaction des ressources provoquent une crise importante dans la profession. Les pêcheurs s'organisent alors en coopératives puis modifient leurs zones de pêche en se déplaçant vers les côtes africaines. Les bateaux-usines se développent pour permettre de réaliser de plus grandes campagnes de pêche. Il existe tout de même un fossé entre les pêcheurs français et espagnols car ces derniers pêchent beaucoup plus que les pêcheurs du Pays basque français.
+Quelques industries sont issues directement de l'artisanat du Moyen Âge comme la tannerie du cuir à Hasparren, l'espadrille à Mauléon, le linge de table et les textiles dans le Pays basque français.
+On trouve à Saint-Jean-de-Luz au moins trois entreprises mondialement connues : la marque Quiksilver, le groupe Olano et le groupe médical B. Braun. On y trouve aussi une grande clinique des yeux, première en Aquitaine, travaillant en collaboration avec celle de Toulouse.
+Au sud, l'ameublement et le travail du bois en Guipuscoa et en Biscaye sont très présents.
+Mais les plus grosses industries se situent autour du pôle Bayonne-Anglet-Biarritz et la côte espagnole. Cette dernière regroupe les mines de fer de Biscaye qui assurent 10% de la production mondiale et la sidérurgie à Bilbao. Côté français, le port de Bayonne est très dynamique et assure les livraisons de soufre et du pétrole de Lacq vers l'extérieur. Il est aussi la plate-forme européenne de distribution des véhicules Ford et General Motors fabriqués en Espagne et au Portugal. Enfin, on retrouve à Anglet l'usine de Dassault Aviation et la technopole de Izarbel.
+Côté financier, Bilbao et Vizcaya se sont unis afin de créer la deuxième place financière de l'Espagne.
+Le Pays basque est une région fortement rurale pour 90% de son territoire. Le maïs domine les cultures agricoles du Pays basque français et les Pyrénées-Atlantiques sont le deuxième département au niveau national en termes de production de maïs. Mais, La production est fortement concurrentielle et subit des baisses du cours. Certains producteurs préfèrent se tourner vers des productions plus rustiques et de qualité comme le piment d'Espelette, la cerise noire d'Itxassou, les pommes à cidre ou les produits biologiques.
+Le vin était très présent dans tout le Pays basque, seuls quelques terroirs demeurent aujourd'hui comme le vin d'Irouléguy les vins de la Rioja, de Navarre et le txakoli autour de Guetaria. Quelques cultures d'olivier (arbre)s sont visibles dans le bassin de l'Èbre. La Navarre est aussi une région de maraîchage.
+Les régions montagneuses sont propices à l'élevage pour la production de fromage. Le Pays basque est notamment réputé pour la diversité des fromages de brebis, tant du coté nord que du coté sud avec des appellations protégées telle que l'Ossau-Iraty, le Roncal ou l'Idiazabal.
+Outre un grand nombre de petits producteurs artisanaux, de grands groupes industriels sont installés notamment en Pays basque français telle que Lactalis (fromagerie Pyrénéfrom à Larceveau produisant le fromage Istarra ou le Petit Basque) ou le groupe Bongrain (fromagerie des Chaumes à Mauléon avec l'Etorki). Parmi les races ovines typiques de la région, l'on trouve la manech tête noire, la manech tête rousse ou encore la basco-béarnaise.
+Interrogation d'apparence provocatrice qui ouvre l'introduction de l'Histoire générale du Pays basque de Manex Goyenetche, cette question mérite en effet d'être discutée au préalable à l'étude de ce territoire. Dépourvu d'unité administrative et n'ayant jamais constitué dans l'histoire un territoire politiquement uni, ne se confondant pas avec l'aire d'expansion de la langue basque, ce « Pays basque » d'aspect un peu artificiel est-il bien un concept qui fait sens ? Quand et comment s'est constituée cette idée d'un territoire transfrontalier lié à l'identité nationale basque ? Il convient donc de situer la genèse de cette idée d'Euskal Herria selon la terminologie basque pour en apprécier la pertinence.
+Dans la littérature, plusieurs points de vue sur le sujet sont disponibles. Un auteur proche du nationalisme basque, Jean-Louis Davant ouvre avec une certaine ironie son Histoire du peuple basque en rapportant dans l'introduction un propos que lui aurait tenu en 1965 le préfet des Pyrénées-Atlantiques : « Le Pays basque, Monsieur, ça n'existe pas. » Implicitement présente dans les critiques des milieux les plus opposés au nationalisme basque, sans doute davantage en Espagne qu'en France, cette position « extrême » ne semble guère soutenue dans la littérature savante récente.
+De façon opposée, le même Jean-Louis Davant cite Fernando de Sarrailh de Yhartz, un nationaliste basque des plus virulents, pour qui le Pays basque doit être une « grande Vasconie » incluant toutes les terres qui auraient été basques un jour : Gascogne, région de Jaca, Rioja et Bureba, tout en concédant que ces vues sont des plus minoritaires. En basque, le concept a une dénomination spécifique : c'est le « Orok Bat », qui signifie « Toutes unies ».
+Plus commune est la définition du Pays basque à partir d'un critère linguistique, autre choix qui conduit à refuser la définition la plus courante du concept et à en retirer notamment le sud de l'Alava et de la Navarre. Sur ce critère par exemple, la Grande Encyclopédie de Berthelot peut écrire au xixe siècle que « ni Bayonne, ni Pampelune, ni Bilbao ne sont basques ». Tout en rapportant ce point de vue, Manex Goyenetche souligne qu'il n'est plus commun de nos jours où l'idée d'ethnicité basque est largement acceptée et s'est nettement disjointe des critères d'appartenance linguistique.
+Le concept de « Pays basque » le plus couramment utilisé aujourd'hui au sens culturel, c'est donc bien celui dont traite l'article, le « Zazpiak Bat », les « sept provinces » selon sa description traditionnelle. L'historique du concept est instructif : sa progressive montée en puissance est nettement postérieure à celle de l'appellation courante de « Basques » pour dénommer les habitants du lieu. Si celle-ci est attestée dès la Renaissance, la première description géographique du pays semble remonter à 1643 dans le traité de religion Gero de Pedro de Axular, première source connue à énumérer les « sept provinces » qui constituent le Pays basque. Elle reste isolée, une occurrence suivante apparaissant dans l'Histoire des Basques rédigée pendant la période de 1761 à 1766 par le Chevalier de Béla, et qui est la première à décrire cette liste comme celle des « sept provinces » (ou « pays particuliers ») en lesquelles il convient de « diviser » les Basques.
+C'est surtout au dernier tiers du xixe siècle que le concept prend son essor, sous son nom basque d'Euskal Herria (même en espagnol, souvent contracté en Euskalherria) dans une littérature qui dépasse largement la sphère nationaliste, tandis que se répand l'intérêt pour les traditions régionales. L'expression « Pays basque » au singulier pour désigner la totalité de l'aire culturelle basque se répand à la même époque dans les textes français.11
+Les Aquitains (Comme les Gascons), les Vardules, les Autrigons, les Caristes et surtout les Vascons sont à l'origine de la culture basque actuelle qui au cours des siècles, a subi d'innombrables influences mais dont la langue ainsi que certaines us et coutumes en sont les fondements. De nos jours, la culture basque vit un véritable renouveau.
+L'identité basque est comme partout, complexe et différente selon les individus. Elle est à géométrie variable selon le lieu et le concept d'appartenance. L'influence navarraise, française ou espagnole est omniprésente et avoir une deux, voire trois identités différentes est très répandu dans la population. En Alava, par exemple où seulement un quart de la population est bascophone, 79% se considèrent Basque, donc la langue est un facteur identitaire parmi d'autres.
+La langue basque, ou euskara est une des composantes importantes de la culture basque. C'est une langue vivante qui est parlée par plus de 800 000 personnes. On peut présumer de son origine au paléolithique si l'on se réfère aux récentes recherches génétiques et scientifiques, combinées à la linguistique qui démontrent que les Basques d'aujourd'hui sont les descendants les plus fidèles d'un groupe humain qui vivait dans le Pays basque actuel durant cette période et qui survécut à la dernière glaciation. On retrouve pourtant des liens grammaticaux avec de nombreuses langues de contrées lointaines (Caucase, Inde dravidienne, Sibérie) mais aucun lien d'échanges linguistiques avec la langue basque n'a encore été prouvé. Le basque est complexe car sa structure grammaticale est basée sur les déclinaisons. Tous les mots d'une phrase se déclinent et leur terminaison est différente suivant leur rôle dans la phrase. De plus, le basque est une langue agglutinante, c'est-à-dire que l'on peut ajouter de nombreux suffixes pour en affiner sa compréhension et son sens.
+Dans la communauté autonome basque et le nord de la communauté forale de Navarre, la langue basque est officielle avec l'espagnol, avec respectivement 99,4 % des enfants qui sont scolarisés dans une école où le basque est enseigné et 41,4 % en Navarre. Les médias aussi favorisent son expansion et son utilisation. Au contraire, en France, la langue est considérée comme une langue minoritaire et seules des associations locales font des efforts de sauvegarde et de transmission de la langue. Seuls 21,7 % des enfants français du Pays basque sont scolarisés dans une école basque dont les écoles maternelles représentent plus de 35,5 % du total pour l'année scolaire 2004 - 2005.
+Le Pays basque est connu pour ses fêtes et festivals qui se déroulent toute l'année. Cette particularité peut s'expliquer par la vie autrefois rurale des habitants du Pays basque, par le catholicisme et aussi par un renouveau traditionnel encouragé par le tourisme important de la région.
+La Soule est notamment réputée pour sa pastorale, représentation théâtrale. Elle est organisée chaque année par un village différent.
+Il existe une communauté basque aux États-Unis (près de 100 000 personnes), essentiellement regroupée dans les États de la Californie, le Nevada et l'Idaho. La ville d'Elko dans l'État du Nevada organise chaque mois de juillet un festival basque (National Basque Festival) avec des danses traditionnelles, des spécialités culinaires, des courses de taureaux et des épreuves de force. D'autres festivals tel que celui de Boise dans l'Idaho sont également réputés. Il existe aussi une fête basque à Saint-Pierre-et-Miquelon, car des familles de pêcheurs basques y sont venues s'établir.
+Par ailleurs, la plus grande concentration de Basques se situe en Argentine (près de 3 millions et demi de personnes soit 10 % de la population totale du pays), qui organise chaque année, la Semana Nacional Vasca (la Semaine Nationale Basque). Trente pour cent de la population chilienne porte un nom de famille basque et 30 % de la population uruguayenne a des origines basques.
+Grâce à sa pêche traditionnelle on trouve sur les marchés du Pays basque une très grande variété de produits de la mer (anchois, daurades, louvines, crabes, araignées de mer...)
+Avec une agriculture traditionnelle faite de petites exploitations, un climat et une géographie exceptionnels, le Pays basque dispose d'un large éventail de produits du terroir (fromages, agneau, piments, vins...) Cependant, des influences gasconnes et béarnaises se font sentir du côté de la France tandis qu'au sud on retrouve des influences espagnoles avec l'huile d'olive, la tomate et les poivrons.
+Dans la culture basque les sociétés gastronomiques ont toujours joué un rôle primordial. Lieux de rencontre, les sociétés gastronomiques sont des associations de village, de quartier, ou socioprofessionnelles qui allient les différentes structures de la culture basque (la langue basque, les danses et les chants basques, les sports basques, et bien sûr la gastronomie basque). La réputation légendaire des Basques pour les défis et les concours fit le reste. Toutes les fêtes et rassemblements populaires sont prétextes à des concours de cuisine, entre quartiers, villages, villes, sociétés gastronomiques ou entre amis. C'est ainsi que les tapas et pintxos (véritables plats traditionnels en miniatures) se sont développés. Dans les bars de Donostia (Saint-Sébastien) comme dans tout le Pays basque on rivalise d'ingéniosité pour créer les meilleures tapas et gagner les différents concours.
+La cuisine basque utilise des produits de la mer comme le thon rouge (marmitako, plat d'origine galienne) frit généralement servi avec une piperade (une compote de tomates, de poivrons ou idéalement de piments doux, d'ail et d'oignons). La morue est cuisinée à la Biscaye avec des tomates et des poivrons. D'autres spécialités à base de poissons sont cuisinées dans le Pays basque : le merlu koxkera, la daurade d'Oihartzun, le ttoro (soupe de poisson spécialité de Saint-Jean-de-Luz), les chipirons (sorte d'encornets cuisinés avec leur encre) et le txanguro qui est un crabe farci.
+Le porc et l'agneau sont les viandes les plus consommées du Pays basque. Dans le Pays basque du sud, l'agneau est servi avec de la piperade et à Espelette on cuisine l'axoa qui est un plat à base de viande de veau avec du piment d'Espelette. La viande de porc est du cochon-pie qui a été élevé en semi-liberté et nourri de glands. Le poulet est consommé à la basquaise c'est-à-dire avec de la piperade.
+Le fromage basque est un fromage de brebis frais au lait cru. Trois appellations contrôlées distinguent les fromages basques : l'Ossau-Iraty, le roncal et le Idiazabal. Le jambon dit "de Bayonne" est en réalité béarnais et fabriqué à partir de porcs des vallées d'Ossau et d'Aspe. Ce jambon était historiquement salé à Salies-de-Béarn puis exporté via l'Adour depuis le port de Bayonne d'où l'appellation abusive jambon de Bayonne qui perdure aujourd'hui. Aujourd'hui d'ailleurs, l'essentiel du jambon de Bayonne est fabriqué dans le Béarn. Le porc, et en particulier le porc noir, n'a été introduit dans le Pays basque que dans les années 1960 pour faire face à une grave crise agricole. Le foehn, vent sec de cette région, permet lors du séchage de faire pénétrer le sel à l'intérieur du jambon. Enfin, moins connus, les chichons, sorte de rillons et la ventrèche, poitrine séchée et pimentée sont aussi des spécialités locales.
+Côté alcool, quatre appellations existent dans le Pays basque : le vin d'Irouléguy appellation du Pays basque nord, le vin blanc de txakoli, les vins de la Rioja et les vins rouges de la région de Tudela, Tafalla et Estella. L'izarra et le patxaran sont des liqueurs basques.
+Au Pays basque les activités traditionnelles, force basque ou pelote basque côtoient les activités plus contemporaines comme le golf (8 parcours) ou le surf 14. La pelote basque est un sport très ancien possédant de nombreuses spécialités avec autant de règles particulières. Le jeu de base se joue à main nue
+La maison basque ou etxe est typique et représentative du Pays basque. Mais, on observe des différences régionales comme en Labourd où la maison est asymétrique au niveau de sa toiture ou en Basse-Navarre ou en Soule. Elle servait à accueillir les hommes et les bêtes sous le même toit.
+Contenu soumis à la GFDL
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+La pédophilie désigne une préférence sexuelle d'un adulte envers les enfants prépubères ou en début de puberté. Un pédophile est une personne éprouvant ce type de préférence.
+Selon le critère de l'OMS, les adolescents de 16 ou 17 ans sont aussi classés comme pedophiles, s'ils ont une préférence sexuelle persistante ou prédominante vers les enfants prépubères au moins cinq ans plus jeunes qu'eux.
+En France, comme dans la plupart des sociétés modernes, ce type de préférence est considéré comme une perversion sexuelle (paraphilie) et les activités s'y rapportant sont condamnées par la loi. Les passages à l'acte de pédophiles, soit les relations sexuelles entre un adulte et un enfant au-dessous de la majorité sexuelle constituent, juridiquement, des atteintes sexuelles sur mineur ou des agressions sexuelles sur mineur.
+Dans le langage courant, le terme pédophilie a une forte connotation péjorative : il est utilisé par extension pour désigner l'abus sexuel sur mineurs au-dessous de la majorité sexuelle, la pornographie infantile et la consommation de celle-ci3.
+La pédophilie est classée comme trouble de la préférence sexuelle (maladie mentale) par la classification internationale des maladies (CIM) et comme paraphilie par le manuel diagnostic et statistique des troubles mentaux (DSM).
+Le mot pédophilie est formé sur les radicaux grecs paidos de XXXXXXX, "enfant" et philia de XXXXX, "amitié". Il est apparu en 19686 et dérive du nom commun « pédophile » (fin XIXe), qui lui-même provient du néologisme « pedophilia erotica » proposé par le psychiatre autrichien Richard von Krafft-Ebing en 1886 dans son ouvrage Psychopathia Sexualis pour qualifier une attirance sexuelle envers les personnes impubères ou en début de puberté qui domine la sexualité d'un individu sa vie durant.
+Si le mot pédérastie existe depuis 2 500 ans, le mot pédophilie date des années 1970.
+Il a été créé par un courant socio-politique post-soixante-huitard, proche de « l'éducation alternative », et qui réfléchissait sur la place de l'enfant dans la société et les relations adultes-enfants. On y trouvait des sociologues, des philosophes, des architectes, des écrivains, des éducateurs, des enseignants, des médecins, qui avaient en commun une curiosité pour les organisations sociales qui mettaient l'enfance au centre de leurs préoccupations.
+Malgré une absence de tabous toute scientifique, ce courant intellectuel a voulu se démarquer de la pédérastie, et évacuer la dimension sexuelle des relations adultes-enfants. Il a donc inventé le mot « pédophilie » qui, comme dit dans la définition étymologique, vient du grec « paidos », « enfant » et « philein », « aimer ».
+Ce petit cercle intellectuel ne pouvait maintenir longtemps le sens sémantique du mot pédophilie dans sa stricte étymologie. Dès que la langue vernaculaire a adopté ce mot, elle en a fait l'équivalent de « pédérastie », réintroduisant une dimension sexuelle que ses créateurs voulaient justement exclure. L'usage a rapidement adopté ce sens nouveau, qui avait l'avantage de ne plus faire référence à la pédérastie culturelle grecque, et qui faisait plus « moderne ».
+Ainsi dévoyé et débarrassé du passé, le mot a eu un certain succès dans diverses publications savantes des années 1980, notamment auprès des psychiatres (qui voyaient ressurgir là la « pedophilia erotica » de la classification de Richard von Krafft-Ebing au xixe siècle), en particulier dans la communauté scientifique québécoise, qui en a fait grand usage . Il permettait de parler des relations sexuelles adultes-enfants comme d'une perversité médicale contemporaine, coupée de toute antériorité culturelle.
+Repassé dans le langage courant par ces publications, les médias s'emparaient du vocable dans les années 1990, pour qualifier de neuf les affaires judiciaires de moeurs entre adultes et enfants. À ce stade de diffusion publique incontrôlable, bien peu savaient ce qu'il signifiait exactement. Les médias utilisèrent largement la déclinaison « pédophile », pour qualifier les prévenus concernés.
+Vu la gravité des affaires judiciaires de ces dernières années (entre autres les cas Dutroux, Fourniret...), le mot « pédophile » a aujourd'hui pris le sens sémantique courant de « violeur d'enfants », voire d'assassin. Il est largement usité par les médias, dont les titres font parfois des amalgames, certains « crimes pédophiles » contemporains ne concernant pas des mineurs. Quant à la « pédophilie », la compréhension courante du mot aujourd'hui associe le champ des relations adultes-enfants, et celui de la contrainte sexuelle sur autrui, qu'il s'agisse de sollicitation, de viol ou de meurtre.
+Par ailleurs, des dérives dans l'emploi du terme tendent à s'appliquer à ce qui relève en fait de la pédérastie dans des affaires judiciaires ou médiatiques concernant des adolescents pubères.
+Loin de leur origine, le mot « pédophilie » - et sa déclinaison « pédophile » - sont aujourd'hui du registre du vocabulaire médiatico-judiciaire. Dans beaucoup de législations le terme « pédophilie » n'est pas utilisé pour qualifier un crime ou un délit. Par exemple, en droit français il ne figure dans aucun texte de loi. (La position de la justice vis-à-vis des différentes réalités auxquelles peut se référer ce terme est précisée plus bas.)
+Les deux termes sont également utilisés par des groupes de pression pour faire valoir leur point de vue dans un contexte émotionnel très fort. Cet écho renforce soit le sens de contrainte sexuelle sur l'enfant et souligne les aspects néfastes de la pratique pédosexuelle sur l'enfant. D'autres groupes plus libéraux voient au contraire un bienfait pour l'enfant et militent pour une reconnaissance de ce principe. Selon eux, le problème est mal étudié et relève de trop de présupposés moraux et sociaux discutables à leur goût. La sérénité du débat serait aveuglée par une législation aveugle et des comportements viscéraux. .
+Les milieux médicaux considèrent que la pédophilie relève de la maladie, de la déviance, de la perversité, en un mot de la psychiatrie, et peut-être du soin. Il s'agit de la thèse la plus reprise dans le discours psychiatrique sur le sujet.8
+D'autres y voient enfin une menace pour nos sociétés, et souhaitent s'en protéger activement, voire radicalement. Des associations diverses s'y emploient, par une prévention auprès des enfants, voire du « dépistage », en faisant pression auprès des législateurs pour intensifier « la lutte contre la pédophilie ».
+La pédophilie rassemble en psychiatrie tout ce qui a trait aux relations sexuelles adultes-enfants. Elle peut être hétérosexuelle, homosexuelle, ou mixte. Elle concerne des hommes comme des femmes de tous âges. Elle peut coexister avec une sexualité par ailleurs normale de l'adulte en cause, ou s'associer à une impuissance, une anomalie anatomique. Elle peut s'exercer au sein des familles, souvent dans le cadre de relations incestueuses, ou dans le cadre d'une fréquentation usuelle des enfants, comme l'école, les mouvements de jeunes - ce que les psychiatres appellent des « structures facilitantes », mais aussi au hasard des rencontres.
+Elle ne fait pas forcément l'objet d'un passage à l'acte, ou pas systématiquement. Le simple désir de relations sexuelles avec un enfant, même frustes, entre dans le cadre de la pédophilie. Elle peut aussi dépasser le cadre de relations purement sexuelles, et s'associer à des vexations, des atteintes à la personne, voire des meurtres. Elle peut être un acte isolé, ou une habitude.
+En tous cas, elle se manifeste à la société par un désir ou un acte transgressif qui ne respecte pas la norme. L'adulte qui désire ou commet ce raptus social a en principe conscience de la gravité de son désir ou de son acte, du fossé creusé avec le reste de la société, du renvoi à sa marginalité, son isolement.
+La conscience de cette transgression - potentielle ou réelle - est le plus souvent une culpabilité douloureuse, et entraîne chez l'adulte des mécanismes de résolution variés sur le mode névrotique.
+Dans le cas du pédophile névrosé, on peut distinguer :
+Le pédophile peut ne jamais passer à l'acte, retenu par la conscience de l'interdit ou la peur de la répression, se contenter d'images ou de fantasmes érotiques. S'installe alors progressivement une dépression, résolutive de la mauvaise conscience et de la tension psychologique que leur inspire leur sentiment de culpabilité. Ils peuvent alors demander spontanément l'aide de la psychiatrie (rare) pour partager leur fardeau et s'en débarrasser, ou enfin trouver une résolution plus définitive de leur contradiction intérieure dans le suicide ou le passage à l'acte ;
+Certains pédophiles peuvent fonder leurs fantasmes sur des images enfantines très diverses : cela peut aller de la simple photographie d'enfant classique à la pornographie, en passant par des photographies familiales à la plage parfois « naturiste », des photographies de catalogues pour vêtements d'enfants, des reportages sur des peuplades où les enfants vivent nus, ou encore des représentations artistiques parfois suggestives. Cette consommation d'images masturbatoires peut devenir une compulsion obsessionnelle et maladive.
+Enfin, certains pédophiles peuvent chercher une sublimation de leurs désirs dans des dérivatifs sociaux, culturels, artistiques ou pédagogiques.
+Parfois le passage à l'acte est circonstanciel, et l'adulte n'a nullement cherché à réunir les conditions de ce passage à l'acte. Il s'est simplement laissé aller, sans avoir spécialement conscience de désirs pédophiles, dérapant devant un enfant dont il pouvait interpréter l'attitude comme séductrice et la relation une fois consommée (généralement de simples attouchements dans ces cas-là), l'adulte prend brutalement conscience de ce qu'il vient de commettre. Une tendance préalable à la pédophilie est très probablement en cause ;
+Certains adultes fourvoyés ainsi accidentellement et échaudés s'en tiendront là, et le silence retombera sur ce qui est probablement le cas le plus banal, le plus répandu et le plus discret de relations pédophiles, dont la publicité ne dépassera pas le cercle familial. Ces relations isolées ne sont pas systématiquement mises en évidence comme constitutives de traumatismes psychologiques graves pour l'enfant, elles sont souvent de découverte fortuite ultérieure.
+L'acte commis, l'adulte peut aussi le nier à sa conscience, souvent par des constructions mentales qui visent à accréditer la thèse d'un désir de l'enfant ou d'un consentement supposé, visant à requalifier l'acte comme normal et naturel (« je n'avais pas conscience de faire du mal »). Ainsi justifié, l'acte pédophile peut se reproduire sans aucune mauvaise conscience, voire avec l'idée (assez fréquente) que cela « fait du bien à l'enfant ».
+Il existe par ailleurs des structures de personnalité, notamment perverses (au sens psychiatrique), très différentes des cas ci-dessus. Il s'agit de sujets qui n'intègrent pas les interdits sociaux ou qui les contestent. L'acte pédophile peut être un moyen de transgression sociale, volontaire et délibérée, il est revendiqué.
+Ces pédophiles ont souvent un discours parfaitement structuré, voire prosélyte, pour justifier leur conduite, présentée comme éducative et saine pour l'enfant. Le pervers pédophile recherche volontairement la relation sexuelle avec un ou des enfants, parfois de façon systématique en passant des uns aux autres au fil du temps ou en entretenant des relations avec plusieurs enfants en même temps.
+Enfin, en dehors des pédophiles présentant une personnalité névrotique, psychotique ou perverse, il existe aussi des pervers sadiques, capables d'atteintes physiques graves envers les personnes, voire de meurtre. Peu d'entre eux s'attaquent aux enfants, même si les cas de ce genre provoquent une émotion considérable, ils restent en réalité exceptionnels. Les psychiatres les considèrent d'abord comme des psychopathes, auteurs de crimes sexuels (Marc Dutroux), pas comme des pédophiles comparables aux précédents, même quand les enfants sont leurs victimes préférentielles.
+L'acte névrotique justifié, parfois répétitif, et l'acte pervers revendiqué ou systématique, représentent la cohorte principale des cas judiciarisés. En général, il y a plusieurs victimes successives, car l'absence de violences directes sur l'enfant fait longtemps ignorer la situation. De plus, il s'agit souvent de personnes qui organisent leur vie dans des « contextes facilitants » en fréquentant les structures de jeunes, qu'elles soient scolaires, sportives, etc. Les psychiatres s'accordent à reconnaître que de tels pédophiles usent rarement de violence mais plutôt de séduction, et qu'en tous cas ils ne tuent pas. C'est sans doute là qu'on peut parler de « pédomanie » (mot forgé par les mouvements de lutte contre la pédophilie), c'est-à-dire de consommation compulsive d'enfants, au sens psychiatrique d'une manie.
+On a récemment évoqué comme étiologie de la pédophilie le fait que certains sujets ont pu être traumatisés dans leur enfance, en étant eux-mêmes l'objet de raptus pédophiliques. Si cela est souvent évoqué devant les tribunaux comme circonstance atténuante de la responsabilité, le peu d'études actuellement disponibles, souvent controversées, ne permet pas de trancher avec certitude.
+La psychiatrie descriptive, dont Richard von Krafft-Ebing est le précurseur, n'apporte aucune réponse à la question. Même si le catalogue encyclopédique des perversions sexuelles, illustrées par des cas cliniques, s'est modifié depuis, la psychiatrie clinique descriptive n'explique pas la pédophilie, et ne prétend à aucune thérapie. La Classification internationale des maladies de l'OMS définit la pédophilie (code F65.4) comme une « préférence sexuelle pour les enfants, généralement d'âge prépubère ou au début de la puberté ».
+Restent la psychiatrie comportementale et la psychiatrie biologique. Elles proposent des solutions, mais beaucoup de psychiatres restent dubitatifs sur le fondement des méthodes et les résultats. La psychiatrie comportementale propose le reconditionnement, auquel on reproche son côté « Orange mécanique » violant la personne sans limite éthique claire, et la psychiatrie biologique propose la castration chimique, difficile à maîtriser même avec l'accord de l'intéressé. Rappelons que la castration chirurgicale, proposée également, est illégale en France.
+Dans les deux cas, il y a une sérieuse difficulté pour garantir durablement la « guérison », et surtout prévenir les récidives. Malgré l'arsenal de mesures d'accompagnement thérapeutique que le droit a créé récemment, la pratique carcérale consiste souvent à attendre 55 - 60 ans avant d'envisager des libérations conditionnelles, en se disant que la chute de la libido est la plus sûre garantie.
+Du reste, les experts-psychiatres spécialisés dans ces affaires, souvent contestés par leurs confrères, qui leur reprochent leurs prises de positions sans nuances et dictées par l'institution judiciaire, partagent entre eux cette conviction : « pédophile un jour, pédophile toujours ».
+Le psychanalyste Serge André, dans une conférence princeps sur la pédophilie faite à Lausanne en 1999 (lire l'article) apporte un certain nombre d'éléments de réponse sur le sujet de la pédophilie, mais s'interroge longuement sur l'attitude de la société à ce propos, en particulier sur les manifestations monstres qui se sont produites sous le nom de « marches blanches ». On peut en rapprocher le fait, quand on tape « pédophilie » sur un moteur de recherche Internet, de récolter une écrasante majorité de réponses d'associations ou de particuliers qui tiennent des discours enflammés sur le sujet, pour une large minorité de réponse dans le champ de la psychiatrie ou de la psychanalyse.
+Ainsi, pour Serge André, comme pour les autres psychanalystes qui participent au débat (et dont certains appartiennent à l'institution carcérale), plus que la pédophilie en elle-même c'est l'attitude ambiguë de la société qui pose problème - celle-ci se manifestant par différents phénomènes d'idolâtrie sociale envers les enfants : jeunisme, adulescence mais aussi publicités équivoques, etc. Il leur semble que l'importance qu'a prise cette question dans la société en fait un des éléments-clefs d'une reconstruction du pacte social contemporain.
+Beaucoup de psychanalystes expriment des réticences, voire un refus de traiter des pédophiles, ce en quoi Serge André constitue un cas à part.
+Au-delà de ce recadrage - signifiant - du sujet, les psychanalystes s'accordent à considérer les pédophiles comme des pervers essentiellement (au sens psychanalytique), ni névrotiques, ni psychotiques, sans que cela soit pour autant pathologique. Il s'agit pour eux de structure de personnalité, et non de maladie. Ils n'excluent pas les actes pédophiles dans un cadre névrotique ou psychotique, mais la personnalité perverse leur semble par essence coïncider idéalement avec l'analyse qu'ils font des conduites pédophiles. Ils parlent de « perversion pédophile », sans rien y voir de péjoratif.
+Si les psychanalystes trouvent compréhensible qu'on réprime l'abus sexuel et qu'on en enferme les auteurs, ils rechignent à apporter leur concours à l'institution judiciaire comme le font les psychiatres, car ils ne sont pas d'accord avec l'approche judiciaire, ni même psychiatrique, de la question.
+Ils ne contestent pas, du moins pour les rares qui acceptent de prendre en charge de tels patients, comme Serge André et ses collègues, qu'ils puissent obtenir des résultats « thérapeutiques » intéressants. Mais ils se refusent à toute systématisation de « la pédophilie », qu'ils estiment illusoire, pour ne prendre en compte que l'auteur des faits (ou du désir), personne unique, dont l'histoire personnelle reste à dénouer, entre autres sur ce comportement qui fait problème à la société.
+Il s'agit là de l'attitude du courant le plus récent de la psychanalyse, à savoir les lacaniens. Il est impossible de résumer ici l'ensemble des débats engendrés par cette conférence.
+Il y est fait au passage référence à la violence symbolique des contes pour enfants, pain bénit de la psychanalyse. Sans évoquer ici la sexualité de Lewis Carroll (Alice au pays des merveilles), ou l'ouvrage de Bruno Bettelheim, Psychanalyse des contes de fées, on peut quand même citer quelques figures de l'inconscient collectif qui ont à voir avec le sujet : l'archétype de l'Ogre, dont Gilles de Rais, le sadique pédophile, tend la main au Roi des aulnes, version Michel Tournier, sans oublier Le Joueur de flûte de Hamelin des frères Grimm.
+Les théories de Sigmund Freud et certaines conclusions controversées du rapport Kinsey indiquent que le désir de plaisir physique - assimilable à une forme de plaisir sexuel - existe chez l'enfant. Les relations sexuelles chez les mineurs de moins de quinze ans (âge moyen de la majorité sexuelle) sont aussi un phénomène pouvant survenir, et ont fait l'objet de différentes études. Aucun élément n'indique cependant qu'un enfant prépubère puisse avoir la maturité nécessaire pour désirer consciemment avoir une relation sexuelle, et encore moins la désirer avec un adulte, ou résister au désir éventuel de celui-ci.
+Les relations sexuelles entre un adulte et un enfant sont généralement considérées comme représentant pour ce dernier un évènement traumatique, potentiellement porteur de lourdes séquelles psychologiques.
+Deux principes liés au sujet font consensus dans les démocraties occidentales :
+Un autre principe est lui assez largement partagé :
+Dans l'étendue des choses qu'il traite en matière de droit des personnes, et pour éclairer le sujet, le droit peut s'analyser en deux notions complémentaires :
+Cette analyse dichotomique appelle trois remarques :
+La médecine contribue au débat en répondant à la question de la maturité biologique par rapport à la sexualité. Elle apporte la notion de puberté, laquelle recouvre l'ensemble des modifications du corps humain qui le rendent apte à la reproduction. Ces modifications sont de l'ordre de l'anatomie (développement des organes et des caractères sexuels), et de la physiologie (existence d'hormones induisant l'appétence pour les activités sexuelles, apparition des règles). L'âge d'apparition et de fin de la puberté est en fait très variable selon les individus, mais il y a consensus pour dire qu'elle commence rarement avant 10 ans, et qu'elle est généralement achevée à 15 ans, avec un âge médian vers 12 - 13 ans.
+Au-delà de la simple maturité du corps envisagée par la médecine, se pose la question de la maturité psychologique de l'individu. C'est une notion assez vague, où l'on peut distinguer deux aspects :
+Ce qu'on peut en tout cas affirmer sur les deux alinéas précédents, c'est qu'ils sont très dépendants de l'éducation et des circonstances de vie de chacun. Il existe des familles unies et sans histoires, au sein desquels les enfants sont protégés et choyés, et qui considèrent l'éducation sexuelle comme un tabou qu'on remet régulièrement à plus tard. Il existe des mineurs à l'abandon, très tôt confrontés à de dures réalités d'adultes, voire à une simple survie dans la solitude, qui deviennent adultes par nécessité avant l'âge ordinaire dans nos sociétés. Entre ces deux tableaux extrêmes, tous les intermédiaires existent, et il n'y a que des cas particuliers.
+Les approches explicitées ci-dessus forment l'essentiel des principes qui justifient la manière dont nos sociétés perçoivent la pédophilie et sa pratique.
+Certaines fournissent des critères très clairs d'appréciation, et prennent le dessus, d'autres sont plus difficilement utilisables.
+Elles reconnaissent les principes du droit à la protection de l'enfant qui ne peut pas avoir de libre arbitre et de capacité de choix devant son manque de maturité sexuelle et qui doit donc être protégé de certaines perversions. Le développement de sa sexualité doit se faire dans un milieu équilibré et sécurisé.
+En cas de relations sexuelles adulte-enfant, il est victime, a subi un dol, a droit à réparation. L'adulte doit être puni, et mis hors d'état de nuire.
+Ce sentiment très largement partagé fait de la pédophilie une transgression majeure et intolérable de la norme de nos sociétés, donc une déviation et plus généralement une perversion sexuelle.
+La relation sexuelle effective entre adulte et enfant, soit le passage à l'acte d'un pédophile, est très fortement condamnée dans la plupart des législations du monde, et reconnue comme un grave délit ou crime, une transgression majeure des droits fondamentaux de l'enfant sous le terme d'« abus sexuel sur mineur ». Il en va de même de la pornographie enfantine, aujourd'hui très largement condamnée y compris lorsqu'elle est d'imagination 12.
+Si les abus sexuels sur mineurs sont longtemps restés méconnus ou sous-estimés dans les sociétés modernes, c'est à cause du silence qui les entourait. La nouveauté tient au fait que, de nos jours, on écoute les enfants parler des relations sexuelles qui peuvent leur être imposées par les adultes. Longtemps on crut que l'essentiel de ces récits relevaient du fantasme. Ainsi en était-il de Freud qui, dans le cas Bertha Pappenheim, crut discerner le fantasme quand elle lui parlait de son oncle attoucheur.
+Dans la majorité des législations la simple attirance sexuelle ainsi que les fantasmes ne sont pas réprimés par la loi, car ils appartiennent au domaine de la pensée et du ressenti personnel.
+En revanche, dans la plupart des législations du monde l'acte sexuel entre un adulte et un enfant est illégal et sévèrement réprimé vis à vis de l'adulte, considéré comme seul coupable et responsable. Contrairement aux lois sur l'agression sexuelle d'un adulte, l'absence de consentement de l'enfant n'est pas requis pour que l'infraction soit constituée : la relation sexuelle en elle-même est illégale. La séparation entre ces deux formes de traitement de l'infraction sexuelle dans la loi est généralement fondée sur une limite d'âge, appelée majorité sexuelle, qui diffèrent en fonction des pays et des orientations sexuelles (la relation homosexuelle est souvent autorisée plus tardivement que l'hétérosexuelle).
+Il existe également des lois réprimant la simple incitation d'un enfant à un acte sexuel. Par ailleurs, la production, consommation, échange et simple détention de matériel pornographique impliquant des enfants sont souvent interdites. Dans certains pays, cette dernière loi s'applique également pour des oeuvres d'imagination (dessins, images virtuelles, etc.) Par exemple, l'article 163.1 du code criminel canadien interdit « toute représentation photographique, filmée, vidéo ou autre, réalisée ou non par des moyens mécaniques ou électroniques ». D'autres législations sont plus floues ou sujettes à interprétation sur ce point, comme l'article 227 - 23 du Code Pénal français qui incrimine toute représentation d'un mineur lorsqu'elle possède un caractère pornographique 14 : stricto sensus celà s'applique également à des images imaginaires, mais la jurisprudence reste floue. Voir l'article Lolicon pour plus de détails. En France, les textes pédopornographiques ne sont par contre pas interdits.15
+Eut égard à l'émotion importante que causent les affaire d'abus sexuels sur enfants dans la plupart des sociétés, certaines législations adoptent des lois d'exception parfois extrêmes pour réprimer avec plus de force les infractions sexuelles concernant des mineurs.
+En droit français, le terme de pédophilie n'apparaît pas dans les codes et règlement du droit et de la justice : les termes utilisés pour décrire l'infraction de relations sexuelle entre un majeur et un mineur sont atteinte sexuelle pour une relation avec consentement de l'enfant, agression sexuelle ou viol lorsque le consentement n'est pas reconnu. Il existe également des infractions de corruption de mineur pour l'incitation de mineur à des actes sexuels. L'âge limite du mineur qui caractérise l'infraction sexuelle (âge de majorité sexuelle) est de 15 ans en général, 18 ans si le majeur est une personne ayant autorité sur le mineur (professeur, parent...).
+La production, diffusion et détention d'images pornographiques impliquant des mineurs de moins de 18 ans est illégale en France. L'article de loi tel qu'il a été écrit en mai 2002 ne parle pas seulement de photographie, mais de tout type d'image : dessin, peinture, images virtuelles, etc. La jurisprudence a depuis fixé quelques exceptions, afin de protéger certains objets d'art ou historiques : peintures explicites datant de la Grèce antique, oeuvres d'art, etc. Toutefois la loi reste floue et sujette à interprétation sur ce point, ce qui pourrait attirer des problèmes à certaines professions comme l'édition ou la conservation de musées, et de faire évoluer la jurisprudence.
+Enfin, plusieurs lois d'exceptions existent pour les crimes ou délits de nature sexuels concernant les enfants : possibilité de poursuivre en France un citoyen Français pour des crimes ou délits sexuels sur mineurs commis à l'étranger (par exemple dans le cadre du tourisme sexuel), levée du secret professionnel en cas de connaissance d'une infraction, inscription spécifique dans un fichier d'empreintes génétiques sur condamnation ou simple mise en examen, prescription courant à partir de la majorité de la victime, obligation de soins une fois la peine de prison purgée, détention dans un centre socio-médico-judiciaire une fois la peine purgée, pour une durée d'un an reconductible, si la probable dangerosité du criminel est décrétée.
+D'autres lois d'exception, souvent extrêmes, sont régulièrement proposées par des acteurs sociaux ou politiques au gré de l'émotion causée par l'actualité : annulation de toute prescription, inscription des crimes sexuels comme crimes contre l'humanité, rétablissement de la peine de mort, etc.
+Tous les textes législatifs français peuvent être consultés sur ce site, plus particulièrement dans la section Code pénal.
+Le viol est un crime, jugé en Cour d'Assises alors que les autres infractions citées sont des délits, jugés en tribunal correctionnel.
+Prescription : La prescription pour viols, agressions sexuelles, atteintes sexuelles sur un mineur de moins de 15 ans par un ascendant ou par une personne ayant autorité est de 20 ans à partir de la majorité de la victime. Articles 7 et 8 du Code de procédure pénale.
+Par ailleurs, l'âge légal à partir duquel le mariage est autorisé est de 18 ans pour filles et garçons depuis 2005 (il était de 15 ans pour les filles auparavant). La loi française n'établit aucune relation particulière entre les dispositions concernant la majorité sexuelle et celles concernant le mariage.
+La législation a été nettement durcie par une loi d'avril 2002 intégrée dans l'article 197 du code pénal. Désormais le téléchargement sur un disque dur et la copie de clichés illicites, sur divers supports peuvent être assimilés à des cas de fabrication déjà réprimés sous l'ancien droit et s'ils sont obtenus depuis un site étranger, ils constituent également un acte d'importation pouvant être sanctionné. En revanche, une simple consultation non conservée ne serait pas directement sanctionnée. Sans compter que les navigateurs (comme Safari) offrent désormais une option permettant de ne pas laisser de trace.
+Arrêt 6P.117/2004 et 6S.311/2004 du 11 octobre 2004
+Décision-cadre 2004/68/JAI du Conseil du 22 décembre 2003 relative à la lutte contre l'exploitation sexuelle des enfants et la pédopornographie
+Depuis la célèbre affaire Dutroux, les médias traitent de plus en plus souvent d'affaires dites de pédophilie, contrastant ainsi avec un certain désintérêt qui avait cours auparavant à ce sujet.
+Aujourd'hui les médias sont souvent accusés de traiter ce thème de façon trop émotionnelle, imprécise et sans réel travail journalistique, surtout lors de certaines affaire très médiatiques - par exemple l'affaire ado 71 et l'affaire d'Outreau, où ils ont été accusés d'enfreindre régulièrement la présomption d'innocence et d'instaurer un climat hystérique peu propice à une justice sereine et équitable. Lors de ces affaires plusieurs prévenus se sont suicidés avant même leur jugement (dont certains qui se sont révélés innocents par la suite). Les médias ont été accusés par un certain nombre de personnes (dont la Ligue des Droits de l'Homme) d'avoir provoqué ces actes extrêmes par leur manque de précautions et leurs accusations sans fondement.
+Parmi les injustices que cet emballement médiatique et politique a provoqué, on note l'affaire Alain Hodique, époux de la directrice de l'école de Bucquoy est accusé en 2001 d'attouchement sur des élèves de son épouse et incarcéré un an. En 2007, la cour de cassation l'innocente. Cette affaire a eu d'autant plus de répercussions que le ministre de l'Education d'alors, Jack Lang 17, avait repris à son compte les accusations d'une partie des villageois contre Alain Hodique.
+La stigmatisation sociale de la pédophilie, et la gravité des peines encourues en justice, en font parfois un moteur de chantage ou d'instrumentalisation.
+Depuis longtemps, les ballets roses ou bleus, expression désignant des orgies au cours desquelles des adultes se livrent à des jeux sexuels avec des mineurs, filles (ballets roses) ou garçons (ballets bleus), ont formé la trame d'affaire réelles, comme l'affaire des ballets roses en France en 1959, ou fantasmées, telle que l'affaire des ballets roses en Belgique dans les années 1970.
+On a constaté des cas d'instrumentalisation judiciaire de la pédophilie par des parents en instance de divorce. De la même, il est arrivé que des enfants « règlent leur comptes » à un enseignant (comme décrit dans le livre Les Risques du métier). Il arrive aussi que de jeunes délinquants, arrêtés pour de petits délits, accusent des adultes de pédophilie ou de recours à la prostitution de mineurs, pour se transformer en victimes.
+En France, l'affaire d'Outreau a défrayé la chronique pour des charges abandonnées au bout de plusieurs années de prison préventive . Sans oublier néanmoins que des enfants furent bien victimes et que leurs tortionnaires furent condamnés.
+L'instrumentalisation peut aussi être politique : Daniel Cohn-Bendit, en évoquant son passé soixante-huitard dans un livre, a été accusé de pédophilie des années plus tard (voir cet article).
+Certains artistes évoquent la pédophilie dans leurs oeuvres, ce qui provoque souvent des scandales. Des écrivains comme Gabriel Matzneff (Les Moins de seize ans) ou Tony Duvert (Prix Médicis en 1973 pour Paysage de fantaisie) ont régulièrement été accusés de faire l'apologie de la pédophilie dans leurs oeuvres. Le Bon Sexe illustré, écrit par ce dernier, se veut une critique féroce du carcan normatif de l'éducation sexuelle contemporaine. Plus récemment, en septembre 2002, la sortie du roman Rose Bonbon de Nicolas Jones-Gorlin a provoqué une polémique suite à la plainte déposée par une association de protection de l'enfance. D'autres auteurs, qui ont provoqué des scandales à leur époque, ont été absouts par leur célébrité ou leur décès : par exemple Vladimir Nabokov (Lolita), Roger Peyrefitte (Les Amitiés particulières), André Gide (L'Immoraliste) ou encore Henry de Montherlant (La Ville dont le prince est un enfant).
+Sur le plan de l'image, certains artistes dépeignent la figure de l'enfant sous un jour teinté d'érotisme ou de sensualité : on peut citer en matière de photographie les travaux de Bernard Faucon, Sally Mann ou Mike Tedder. Beaucoup d'artistes ont élu l'enfant pour sujet principal ou occasionnel de leurs oeuvres, sans pour autant qu'il faille nécessairement parler d'art à caractère pédophile dès que de la sensualité se dégage. L'intention de l'artiste et les circonstances de la création d'une oeuvre sont des données difficiles à établir. Une oeuvre d'art n'existe toutefois pas que par son auteur, et peut se transformer parfois de façon spectaculaire, entre autres par catharsis chez le pédophile amateur d'art.
+En 2001, Emmanuelle Bercot écrit et réalise le film Clément dans lequel elle s'attribue le rôle principal, celui de Marion, une trentenaire qui s'éprend d'amour pour un ami de son filleul de treize ans, Clément.
+En 2006, Yann Queffélec publie Mineure (ISBN 2846281378), un roman dans lequel Sibylle, une jeune fille de treize ans, tente de séduire Michel, un homme de cinquante-cinq ans, marié et père de jumelles du même âge. Il ne veut pas céder, mais finira progressivement par succomber à son charme.
+Depuis quelque années l'abus sexuel sur mineur, qui peut être une conséquence de la pédophilie, bénéficie d'une attention sociale intensive. De nombreuses associations se sont créées dans le but proclamé de protéger les enfants et de lutter contre l'abus sexuel. L'expression lutte contre la pédophilie est souvent évoquée, bien que la pédophilie soit une attirance sexuelle : l'action sociale peut lutter contre des actes d'abus sexuel, mais seule une approche médicale ou psychologique peut éventuellement travailler à la disparition ou l'évolution d'attirances pédophiles chez un être humain.
+Dans les années 1970, certains mouvements de militantisme pro-pédophile ont vu le jour en Europe du Nord et aux États-Unis. D'abord très actifs, ils ont subi un certain nombre de revers dans diverses affaires judiciaires et médiatiques, au point de quasiment disparaître dans les années 1990. À partir de la fin du XXe siècle, l'avènement d'Internet leur a donné une nouvelle force. Aux Pays-Bas existe un parti favorable à la pédophilie, le PNVD, fondé par Ad Van den Berg, et comptant à ce jour trois membres connus : il demande l'abaissement de la majorité sexuelle à 12 ans, et, à terme, son abolition « à terme, cette limite d'âge devra disparaître totalement », ainsi que la légalisation de la pornographie enfantine dans un contexte bien précis et encadré.
+Contenu soumis à la GFDL
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Le réchauffement climatique, également appelé réchauffement planétaire, ou réchauffement global, est un phénomène d'augmentation de la température moyenne des océans et de l'atmosphère, à l'échelle mondiale et sur plusieurs années. Dans son acception commune, ce terme est appliqué au changement climatique observé depuis environ 25 ans, c'est-à-dire depuis la fin du xxe siècle.
+Le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) est chargé d'établir un consensus scientifique sur cette question. Son dernier et quatrième rapport, auquel ont participé plus de 2 500 scientifiques de 130 pays, affirme que la probabilité que le réchauffement climatique depuis 1950 soit d'origine humaine est de plus de 90 %3. Ces conclusions ont été approuvées par plus de 40 sociétés scientifiques et académies des sciences, y compris l'ensemble des académies nationales des sciences des grands pays industrialisés.
+Le climat global de la Terre connait des modifications plus ou moins cycliques de réchauffements alternant avec des refroidissements qui diffèrent par leur durée (de quelques milliers à plusieurs millions d'années) et par leur amplitude. Depuis 800 000 ans, le climat terrestre a connu plusieurs de ces cycles. Plusieurs cycles de 100 000 ans environ se sont répétés au cours de cette période. Chaque cycle commence par un réchauffement brutal suivi d'une période chaude de 10 000 à 20 000 ans environ, appelée période interglaciaire. Cette période est suivie par un refroidissement progressif et l'installation d'une ère glaciaire. À la fin de la glaciation, un réchauffement brutal amorce un nouveau cycle. Nous vivons actuellement depuis plus de 10 000 ans dans une période interglaciaire (voir figure).
+Grâce à l'étude des carottages de glace et plus précisément de l'analyse de la composition isotopique de l'oxygène piégé dans la glace, les températures atmosphériques des cycles glaciaires de l'ère quaternaire ont pu être reconstituées. La carotte glaciaire la plus profonde a été forée dans le cadre du projet Epica, en Antarctique, à plus de 3 500 mètres de profondeur et permettant de remonter l'histoire du climat en Antarctique jusqu'à 800 000 ans. Les carottes de glace contiennent des bulles d'air et des indications sur la teneur en gaz de l'atmosphère d'autrefois, ce qui montre que les températures globales sont liées à la quantité de gaz à effet de serre dans l'atmosphère[réf. nécessaire].
+Les variations du climat sont corrélées avec celles de l'insolation, des paramètres de Milankovic, de l'albédo, des cycles solaires et des concentrations dans l'atmosphère des gaz à effet de serre comme le dioxyde de carbone et des aérosols.
+Au cours du quaternaire, l'amplitude thermique a été de l'ordre de 10 °C, mais avec des hausses de température n'ayant jamais dépassé de plus de 4 °C la température moyenne annuelle de la fin du xxe siècle.
+En revanche pour les cycles plus anciens, comme durant le Permien, la température moyenne globale a atteint 22 °C soit 8 °C de plus par rapport à la moyenne actuelle, comme on peut le voir sur le graphique ci-contre. Durant ces périodes chaudes qui ont duré plusieurs dizaines de millions d'années, la Terre était dépourvue de calottes polaires.
+À l'intérieur des grandes fluctuations climatiques terrestres, se trouvent des variations plus brèves et plus limitées en intensité. Ainsi, au cours du dernier millénaire, est apparu une période chaude aux xe et xie siècles appelée « optimum climatique médiéval » : c'est l'époque où les navigateurs vikings découvrent et baptisent le Groenland (littéralement « Pays vert ») et fondent des colonies à l'extrême sud de l'île. De même, l'époque des Temps Modernes (1550 - 1850) connut une période de refroidissement que les historiens appellent le « petit âge glaciaire » caractérisé par des hivers très rigoureux, dont le terrible hiver 1708 - 1709. Cette année là, les céréales manquèrent dans la plus grande partie de la France, et seuls la Normandie, le Perche et les côtes de Bretagne ont pu produire assez de grain pour assurer les semences. Dans la région parisienne le prix du pain atteignit, en juin 1709, 35 sous les neuf livres au lieu de 7 sous ordinairement. De nombreux arbres gelèrent jusqu'à l'aubier, et la vigne disparut de plusieurs régions de la France. Du 10 au 21 janvier, la température sous-abri se maintint à Paris aux environs de -20 °C, avec des minima absolus de -23 °C les 13 et 14 janvier ; le 11, le thermomètre s'abaissa jusqu'à -16 °C à Montpellier et -17 °C à Marseille.
+Selon les reconstitutions de températures réalisées par les climatologues, la dernière décennie du xxe siècle et le début du xxie siècle constituent la période la plus chaude des deux derniers millénaires (voir graphique). Notre époque serait même un peu plus chaude (de quelques dixièmes de degrés) que ne le fut l'optimum climatique médiéval.
+Les mesures terrestres de température réalisées au cours du xxe siècle montrent une élévation de la température moyenne. Ce réchauffement se serait déroulé en deux phases, la première de 1910 à 1945, la seconde de 1976 à aujourd'hui. Ces deux phases sont séparées par une période de léger refroidissement. Ce réchauffement planétaire semble de plus corrélé avec une forte augmentation dans l'atmosphère de la concentration de plusieurs gaz à effet de serre, dont le dioxyde de carbone, le méthane et le protoxyde d'azote.
+L'élévation de la température moyenne du globe entre 1906 et 2005 est estimée à 0,74 °C (à plus ou moins 0,18 °C près), dont une élévation de 0,65 °C durant la seule période 1956 - 2006.
+La température moyenne planétaire de 2001 à 2007 est de 14,44°C soit 0,21°C de plus de 1991 à 2000. À ce rythme l'augmentation est de 2,5°C en 100 ans.
+Plusieurs changements ont été observés dans le monde qui semblent cohérents avec l'existence d'un réchauffement climatique planétaire. Cependant, le lien entre ce réchauffement et les observations faites n'est pas toujours établi de façon sûre. En France c'est l'ONERC qui coordonne les observations.
+Selon le troisième rapport du GIEC, la répartition des précipitations s'est modifiée au cours du xxe siècle. En particulier, les précipitations seraient devenues plus importantes aux latitudes moyennes et hautes de l'hémisphère Nord, et moins importantes dans les zones subtropicales de ce même hémisphère. D'autres experts estiment toutefois les données actuelles trop rares et incomplètes pour qu'une tendance à la hausse ou à la baisse des précipitations puisse se dégager sur des zones de cette ampleur. On observe également depuis 1988 une diminution notable de la couverture neigeuse printanière aux latitudes moyennes de l'hémisphère nord. Cette diminution est préoccupante car cette couverture neigeuse contribue à l'humidité des sols et aux ressou
+Plusieurs études indiquent que les banquises sont en train de se réduire. Le satellite spécialisé CryoSat-215, qui sera mis en orbite en 2009 après l'échec du premier satellite CryoSat en 2005, fournira des informations plus précises sur les quantités de glace polaire.
+Des observations par satellite montrent que ces banquises perdent de la superficie dans l'océan Arctique. Par ailleurs, un amincissement de ces banquises, en particulier autour du pôle nord, a été observé. L'âge moyen des glaces sur la période 1988 - 2005, est passé de plus de six ans à moins de trois ans. La réduction de l'étendue moyenne de la banquise arctique depuis 1978 est de l'ordre de 2,7 % par décennie (plus ou moins 0,6 %), son étendue minimale en fin d'été diminuant de 7,4 % par décennie (plus ou moins 2,4 %)12. Le réchauffement dans cette région est de l'ordre de 2,5 °C19 (au lieu de 0,7 °C en moyenne sur la planète), et l'épaisseur moyenne des glaces a perdu 40 % de sa valeur entre les périodes 1958 - 1976 et 1993 - 1997. 2007 marque un minimum de la banquise en été. Cette année-là, les observations satellitaires constatent une accélération de la fonte de la banquise arctique, avec une perte de 20 % de la surface de la banquise d'été en un an22. Les observations menées pendant l'expédition Tara dirigée sous l'égide du programme européen Damoclès (Developping Arctic Modelling and Observing Capabillities for Long-term Environmental Studies) de septembre 2006 à décembre 2007 indiquent que les modifications entamées dans l'océan Arctique sont profondes et irréversibles. Par ailleurs, le Groenland a vu ses glaciers se réduire de 230 à 80 milliards de tonnes par an de 2003 à 2005, ce qui contribuerait à 10 % de l'élévation du niveau des mers.
+En Antarctique, les mesures par satellites, faites depuis 1979 ne montrent pas actuellement de diminution de surface, contrairement à la banquise Arctique. Cependant, on observe un certain nombre de phénomènes exceptionnels. Ainsi, 3 500 km2 de la banquise Larsen B, (l'équivalent en surface des deux tiers d'un département français), se sont fragmentés en mars 2002, les premières crevasses étant apparues en 1987. Cette banquise était considérée comme stable depuis 10 000 ans. Au mois d'avril 2009, la plaque Wilkins, dont la superficie était naguère de 16 000 km2 s'est également détachée.
+À quelques exceptions près, la plupart des glaciers montagnards étudiés sont en phase de recul.
+Les glaciers de l'Himalaya reculent rapidement et pourraient disparaître dans les cinquante prochaines années, selon des experts réunis à Katmandou pour une conférence sur le réchauffement climatique le 4 juin 2007[réf. nécessaire]. Les températures dans cette région ont crû de 0,15 °C à 0,6 °C tous les 10 ans au cours des 30 dernières années. De nombreux travaux documentent ce recul et cherchent à l'expliquer. Un tel recul semble tout à fait cohérent avec un réchauffement du climat. Cependant, cette hypothèse n'est pas certaine, certains glaciers ayant commencé à reculer au milieu du xixe siècle, après la fin du petit âge glaciaire. L'avancée ou le recul des glaciers sont récurrents et liés à de nombreux facteurs, parmi lesquels les précipitations ou le phénomène El Niño jouent un rôle important. Par exemple le recul actuel de la mer de Glace à Chamonix découvre des vestiges humains du Moyen Âge, preuve que le glacier a déjà reculé davantage que de nos jours à une période historiquement proche.
+Il faut également souligner la quasi-absence de données sur les glaciers himalayens. Par exemple, des données fiables n'existent que pour 50 glaciers indiens, sur plus de 9 500.33
+Le climat, et en particulier les températures, ont un effet sur la date des récoltes agricoles. Dans de nombreux cas, les dates de vendanges sont régulièrement avancées, comme en Bourgogne. De plus ces phénomènes peuvent être décrits sur plusieurs décennies car ces dates de vendanges ont été consignées dans le passé et archivées. De tels documents sont utilisés pour déterminer les températures à des périodes où les thermomètres n'existaient pas ou manquaient de précision. Un réchauffement climatique depuis le xxe siècle est clairement établi par l'étude de ces archives (ainsi, la date de début des vendanges à Châteauneuf-du-Pape a avancé d'un mois en cinquante ans).
+Plusieurs équipes de chercheurs ont observé une modification de l'aire de répartition de différentes espèces animales et végétales. Dans certains cas, en particulier lorsque cette aire se déplace vers le nord ou vers de plus hautes altitudes, le réchauffement climatique planétaire est parfois proposé comme cause de ces modifications. Par exemple, l'extension actuelle de l'aire de répartition de la chenille processionnaire du pin, qui a atteint Orléans en 1992 et Fontainebleau en 2005, pourrait être due au réchauffement climatique.
+Le consensus scientifique dans le dernier rapport AR4 du GIEC est que l'intensité des cyclones tropicaux va probablement augmenter (avec une probabilité supérieure à 66%).
+Une étude publiée en 2005, remise en question depuis par une seconde étude, indique une augmentation globale de l'intensité des cyclones entre 1970 et 2004, le nombre total de cyclones étant en diminution pendant la même période. Selon cette étude, il est possible que cette augmentation d'intensité soit liée au réchauffement climatique, mais la période d'observation est trop courte et le rôle des cyclones dans les flux atmosphériques et océaniques n'est pas suffisamment connu pour que cette relation puisse être établie avec certitude. La seconde étude publiée un an plus tard ne montre pas d'augmentation significative de l'intensité des cyclones depuis 198642,43. Ryan Maue, de l'université de Floride, dans un article intitulé "Northern Hemisphere tropical cyclone activity", observe pour sa part une baisse marquée de l'activité cyclonique depuis 2006 dans l'hémisphère nord par rapport aux trente dernières années. Il ajoute que la baisse est probablement plus marquée, les mesures datant de trente ans ne détectant pas les activités les plus faibles, ce que permettent les mesures d'aujourd'hui. Pour Maue, c'est possiblement un plus bas depuis cinquante ans que l'on observe en termes d'activité cyclonique.
+Par ailleurs, les simulations informatiques ne permettent pas dans l'état actuel des connaissances de prévoir d'évolution significative du nombre de cyclones lié à un réchauffement climatique.
+On observe un réchauffement des océans, qui diminue avec la profondeur. On estime que les océans ont absorbé à ce jour plus de 80 % de la chaleur ajoutée au système climatique. Ce réchauffement entraîne une montée du niveau de la mer par dilatation thermique des océans. Différentes données obtenues à l'aide de marégraphes et de satellites ont été étudiées. Leur analyse suggère que le niveau de la mer s'est élevé au cours du xxe siècle de quelques dizaines de centimètres, et qu'il continue à s'élever régulièrement. Le GIEC estime que le niveau de la mer s'est élevé de 1,8 mm par an entre 1961 et 2003,48. Cette élévation du niveau de la mer peut aussi être observée indirectement par ses conséquences sur l'environnement, comme c'est le cas au Nouveau-Brunswick.
+Dans le cadre du "système ARGO", 3000 balises automatiques ont été réparties dans tous les océans en 2007 et permettront de suivre la température et la salinité des océans jusqu'à 2000 mètres de profondeur. En Atlantique Nord, des chercheurs de l'Ifremer Brest ont confirmé les tendances au réchauffement dans les couches de surface.
+Une étude menée conjointement par le Centre français de recherche pour l'ingénierie de l'agriculture et de l'environnement (Cemagref) et par l'Institut Leibniz pour les sciences marines de Kiel, rendue publique le 20 juillet 2009 dans les Comptes-rendus de l'Académie américaine des Sciences, a conclu que la masse corporelle de certains poissons d'eau douce des fleuves et rivières européens (truites, barbeaux...), ainsi que certaines populations de la mer Baltique et de la mer du Nord, a diminué en moyenne de moitié en un quart de siècle, et ce en raison de l'élévation, due au phénomène de réchauffement climatique, de la température des eaux.
+Selon le GIEC, le réchauffement climatique est largement attribué à un effet de serre additionnel dû aux rejets de gaz à effet de serre produits par les activités humaines, et principalement les émissions de CO252,53. L'origine humaine des gaz à effet de serre est confirmée entre autres par l'évolution des composantes isotopiques du carbone dans l'atmosphère. Les concentrations actuelles de CO2 dépassent de 35 % celles de l'ère préindustrielle, surpassant de loin les taux des 600 000 dernières années. Elles sont passées de 280 ppm à l'époque pré-industrielle à 379 ppm en 2005, et celles de méthane ont augmenté de 150 %55.
+On assiste à une augmentation de 40 % de la vitesse de croissance du CO2 dans l'atmosphère, augmentant de +1,5 ppm par an de 1970 à 2000, et de +2,1 ppm par an entre 2000 et 2007.
+Des experts du GIEC ont confirmé le 2 février 2007 que la probabilité que le réchauffement climatique soit dû à l'activité humaine est supérieure à 90 %3. Leurs conclusions sont tirées des résultats d'expériences avec des modèles numériques. En particulier, l'augmentation de la température moyenne mondiale depuis 2001 est en accord avec les prévisions faites par le GIEC depuis 1990 sur le réchauffement induit par les gaz à effets de serre. Enfin, un réchauffement uniquement dû à l'activité solaire n'expliquerait pas pourquoi la troposphère verrait sa température augmenter et pas celle de la stratosphère.
+L'hypothèse d'un lien entre la température moyenne du globe et le taux de dioxyde de carbone dans l'atmosphère a été formulée pour la première fois en 1894 par Svante Arrhenius. Mais c'est en 1979, lors de la première conférence mondiale sur le climat, à Genève, qu'est avancée pour la première fois sur la scène internationale l'éventualité d'un impact de l'activité humaine sur le climat.
+L'effet de serre est un phénomène naturel : une partie du rayonnement infrarouge émis par la Terre vers l'atmosphère terrestre reste piégée par les gaz dits « à effet de serre », qui augmentent ainsi la température de la basse atmosphère (troposphère). Ces gaz sont essentiellement de la vapeur d'eau, et une infime partie est d'origine humaine. Sans cet effet, la température de surface de la Terre serait en moyenne de -18 °C ! Actuellement ce phénomène naturel se renforce car la quantité de gaz à effet de serre a augmenté ces dernières années, en particulier le CO2, naturellement en très faible concentration dans l'atmosphère par rapport à la vapeur d'eau ou au diazote (N2), ce qui déséquilibre le bilan radiatif de la Terre. Il a été prouvé par l'étude isotopique du carbone dans l'air que cette augmentation des quantités de gaz à effet de serre est due à la combustion de matière carbonée fossile.
+Selon les conclusions du rapport de 2001 des scientifiques du GIEC, la cause la plus probable de ce réchauffement dans la seconde moitié du xxe siècle serait le « forçage anthropique », c'est-à-dire l'augmentation dans l'atmosphère des gaz à effet de serre résultant de l'activité humaine. Selon les prévisions actuelles, le réchauffement planétaire se poursuivrait au cours du xxie siècle mais son amplitude est débattue : selon les hypothèses retenues et les modèles employés, les prévisions pour les 50 années à venir vont de 1,8 à 3,4 °C.
+Les modèles numériques ont été utilisés pour estimer l'importance relative des divers facteurs naturels et humains au travers de simulations menées sur des supercalculateurs, pour identifier le ou les facteurs à l'origine de la brutale hausse de température. Plusieurs hypothèses ont été testées :
+Certaines de ces causes sont d'origine humaine, comme la déforestation et la production de dioxyde de carbone par combustion de matière fossile. D'autres sont naturelles, comme l'activité solaire ou les émissions volcaniques.
+Les simulations climatiques montrent que le réchauffement observé de 1910 à 1945 peut être expliqué par les seules variations du rayonnement solaire (voir changement climatique) En revanche pour obtenir le réchauffement observé de 1976 à 2006 (voir graphique), on constate qu'il faut prendre en compte les émissions de gaz à effet de serre d'origine humaine. Les modélisations effectuées depuis 2001 estiment que le forçage radiatif anthropique est dix fois supérieur au forçage radiatif dû à des variations de l'activité solaire, bien que le forçage dû aux aérosols soit négatif. Le point essentiel est que le forçage radiatif net est positif.
+De nombreux scientifiques estiment même que ce rapport n'est pas assez clair et qu'il faudrait dès maintenant un programme international pour réduire drastiquement les deux sources principales de gaz à effet de serre, le transport routier et les centrales à charbon.
+Bien qu'il existe un fort consensus dans la communauté scientifique sur le rôle prédominant des activités humaines dans le réchauffement climatique du dernier demi-siècle, sa probabilité étant estimée à plus de 90 %3 par le dernier rapport du GIEC en 2007, des personnalités contestent tout ou partie de cette thèse et attribuent le réchauffement à des causes naturelles, liées à l'activité du Soleil. Par ailleurs, des critiques et controverses portent également sur les conséquences du réchauffement (voir le paragraphe Poursuite du réchauffement climatique plus bas) et les actions à mener pour lutter contre (voir la section Réponse des États plus bas).
+La prévision par les scientifiques de l'évolution future du climat est possible par l'utilisation de modèles mathématiques traités informatiquement sur des superordinateurs. Ces modèles, dits de circulation générale, reposent sur les lois générales de la thermodynamique et simulent les déplacements et les températures des masses atmosphériques et océaniques. Les plus récents prennent aussi en considération d'autres phénomènes, comme le cycle du carbone.
+Ces modèles sont considérés comme valides par la communauté scientifique lorsqu'ils sont capables de simuler des variations connues du climat, comme les variations saisonnières, le phénomène El Niño, ou l'oscillation nord-atlantique. Les modèles les plus récents simulent de façon satisfaisante les variations de température au cours du xxe siècle. En particulier, les simulations menées sur le climat du xxe siècle sans intégrer l'influence humaine ne rend pas compte du réchauffement climatique, tandis que celles incluant cette influence sont en accord avec les observations.
+Les modèles informatiques simulant le climat sont alors utilisés par les scientifiques pour prévoir l'évolution future du climat, mais aussi pour cerner les causes du réchauffement climatique actuel, en comparant les changements climatiques observés avec les changements induits dans ces modèles par différentes causes, naturelles ou humaines.
+Ces modèles sont l'objet d'incertitudes de nature mathématique, informatique, physique, etc. Les trois principales sources d'incertitude mentionnées par les climatologues sont :
+De façon plus générale, ces modèles sont limités d'une part par les capacités de calcul des ordinateurs actuels, et le savoir de leurs concepteurs d'autre part, la climatologie et les phénomènes à modéliser étant d'une grande complexité. L'importance des investissements budgétaires nécessaires sont aussi un aspect non négligeable de la recherche dans le domaine du réchauffement climatique. Malgré ces limitations, le GIEC considère les modèles climatiques comme des outils pertinents pour fournir des prévisions utiles du climat.
+Pour les climatologues regroupés au sein du GIEC (IPCC en anglais), l'augmentation des températures va se poursuivre au cours du xxie siècle. L'ampleur du réchauffement attendu le plus probable est de à 1,8 à 3,4 °C.
+L'ampleur du réchauffement prévu est incertaine ; les simulations tiennent compte :
+Afin de prendre en compte ce dernier paramètre dans leurs prévisions, les climatologues du GIEC ont utilisé une famille de 40 scénarios d'émission de gaz à effet de serre détaillés dans le rapport SRES. Dans certains scénarios, la croissance de la population humaine et le développement économique sont forts, tandis que les sources d'énergie utilisées sont principalement fossiles. Dans d'autres scénarios, un ou plusieurs de ces paramètres sont modifiés, entrainant une consommation des énergies fossiles et une production de gaz à effet de serre moindres. Les scénarios utilisés comme hypothèse de travail pour l'élaboration du troisième rapport du GIEC (2001) ne prennent pas en compte l'éventualité d'une modification intentionnelle des émissions de gaz à effet de serre à l'échelle mondiale.
+Les incertitudes liées au fonctionnement des modèles sont mesurées en comparant les résultats de plusieurs modèles pour un même scénario, et en comparant les effets de petites modifications des scénarios d'émission dans chaque modèle.
+Les variations observées dans les simulations climatiques sont à l'origine d'un éparpillement des prévisions de l'ordre de 1,3 à 2,4 °C, pour un scénario (démographique, de croissance, de « mix énergétique mondial », etc.) donné. Le type de scénario envisagé a un effet de l'ordre de 2,6 °C sur le réchauffement climatique simulé par ces modèles et explique une bonne partie de la marge d'incertitude existant quant à l'ampleur du réchauffement à venir.
+Les prévisions d'augmentation de température pour l'horizon 2 100 données par le GIEC (SPM du AR4 2007) s'échelonnent de 1,1 à 6,3 °C. Les experts du GIEC affinent leurs prévisions en donnant des valeurs considérées comme « les meilleures estimations », ce qui permet de réduire la fourchette de 1,8 à 4,0 °C. Et en éliminant le scénario A1F1, considéré comme irréaliste, l'augmentation de température serait comprise entre 1,8 et 3,4 °C.
+Les scientifiques du GIEC considèrent que ces prédictions sont les meilleures prédictions actuellement possibles, mais qu'elles sont toujours sujettes à des réajustements ou à des remises en cause au fur et à mesure des avancées scientifiques. Ils considèrent qu'il est nécessaire d'obtenir des modèles plus réalistes et une meilleure compréhension des phénomènes climatiques, ainsi que des incertitudes associées.
+Cependant, de nombreux climatologues pensent que les améliorations à court terme apportées aux modèles climatiques ne modifieront pas fondamentalement leurs résultats, à savoir que le réchauffement planétaire va continuer et que son ampleur sera plus ou moins importante en fonction de la quantité de gaz à effet de serre émis par les activités humaines au cours du xxie siècle, et ce en raison de l'inertie des systèmes climatiques à l'échelle planétaire.
+Les derniers articles scientifiques montrent que l'année 199874 a été la plus chaude de toute l'histoire de la météorologie, que le réchauffement s'accélère - 0,8 °C en un siècle, dont 0,6 °C sur les trente dernières années -, mais aussi d'après l'analyse de sédiments marins, que la chaleur actuelle se situe dans le haut de l'échelle des températures depuis le début de l'holocène, c'est-à-dire 12 000 ans.
+Les modèles utilisés pour prédire le réchauffement planétaire futur peuvent aussi être utilisés pour simuler les conséquences de ce réchauffement sur les autres paramètres physiques de la Terre, comme les calottes de glace, les précipitations ou le niveau des mers. Dans ce domaine, un certain nombre de conséquences du réchauffement climatique sont l'objet d'un consensus parmi les climatologues.
+Une des conséquences du réchauffement planétaire sur lesquelles s'accordent les scientifiques est une montée du niveau des océans. Deux phénomènes engendrent cette élévation :
+Selon le troisième rapport du GIEC, le niveau de la mer s'est élevé de 0,1 à 0,2 m au xxe siècle. La montée du niveau des eaux est due principalement au réchauffement des eaux océaniques et à leur dilatation thermique. L'effet de la fonte des glaciers ne se ferait sentir qu'à beaucoup plus long terme, et celle des calottes polaires à l'échelle de plusieurs siècles ou millénaires. De même que pour les températures, les incertitudes concernant le niveau de la mer sont liées aux modèles, d'une part, et aux émissions futures de gaz à effet de serre, d'autre part.
+L'élévation entre 1993 et 2003 est estimée à 3,1 mm par an (plus ou moins 0,7 mm). L'élévation prévue du niveau de la mer en 2100 est de 18 à 59 cm, selon le 4e rapport du GIEC. Elle pourrait être de 2 mètres en 2300.
+Une montée des eaux de quelques centimètres n'a pas d'impact très visible sur les côtes rocheuses, mais peut avoir des effets très importants sur la dynamique sédimentaire des côtes plates : dans ces régions, qui sont en équilibre dynamique, la montée des eaux renforce les capacités érosives de la mer, et déplace donc globalement l'équilibre vers une reprise de l'érosion qui fait reculer les côtes. La montée du niveau moyen de la mer a ainsi des effets beaucoup plus importants que la simple translation de la ligne de côte jusqu'aux courbes de niveau correspondantes.
+Selon le dernier rapport du GIEC, une augmentation des précipitations aux latitudes élevées est très probable tandis que dans les régions subtropicales on s'attend à une diminution, poursuivant une tendance déjà constatée, de sorte qu'à l'horizon 2025, un tiers de la population mondiale pourrait se trouver en état de stress hydrique.
+La circulation thermohaline désigne les mouvements d'eau froide et salée vers les fonds océaniques qui prennent place aux hautes latitudes de l'hémisphère nord. Ce phénomène serait, avec d'autres, responsable du renouvellement des eaux profondes océaniques et de la relative douceur du climat européen.
+En cas de réchauffement climatique, le moteur qui anime les courants marins serait menacé. En effet, les courants acquièrent leur énergie cinétique lors de la plongée des eaux froides et salées, et donc denses, dans les profondeurs de l'océan Arctique. Or, l'augmentation de la température devrait accroître l'évaporation dans les régions tropicales et les précipitations dans les régions de plus haute latitude. L'océan Atlantique, en se réchauffant, recevrait alors plus de pluies, et en parallèle la calotte glaciaire pourrait partiellement fondre (voir Événement de Heinrich). Dans de telles circonstances, une des conséquences directes serait un apport massif d'eau douce aux abords des pôles, entraînant une diminution de la salinité marine et donc de la densité des eaux de surface. Cela peut empêcher leur plongée dans les abysses océaniques. Ainsi, les courants tels que le Gulf Stream pourraient ralentir ou s'arrêter, et ne plus assurer les échanges thermiques actuels entre l'équateur et zones tempérées. Pour le xxie siècle, le GIEC considérait dans son rapport 2007 comme très probable un ralentissement de la circulation thermohaline dans l'Atlantique, mais comme très improbable un changement brusque de cette circulation.
+Selon certaines thèses[réf. nécessaire], un phénomène d'arrêt du Gulf Stream, dû au réchauffement climatique, pourrait engendrer un effet paradoxal : par son inégale distribution de la chaleur, une ère glaciaire en Europe et dans les régions à hautes latitudes. En effet, l'Europe se situe à la même latitude que le Québec, et la seule différence de climat semble résider dans le fait que l'Europe profite de l'apport thermique du Gulf Stream[réf. nécessaire]. L'équateur, à l'inverse, accumulerait alors de la chaleur stimulant de ce fait la formation continuelle d'ouragans amenant des précipitations de grande ampleur.
+Cette hypothèse d'un refroidissement de l'Europe qui suivrait le réchauffement global n'est cependant pas validée. En effet, il n'est nullement établi que le Gulf Stream soit la seule cause des hivers doux en Europe. Ainsi, Richard Seager a publié en 2002 une étude scientifique sur l'influence du Gulf Stream sur le climat. Ses conclusions sont sans appel : l'effet du Gulf Stream est, selon lui, un mythe et a un effet mineur sur le climat en Europe. La différence entre les températures hivernales entre l'Amérique du Nord et l'Europe est due au sens des vents dominants (vent continental glacial du nord sur la côte Est de l'Amérique du Nord et vent océanique de l'ouest en Europe) et à la configuration des Montagnes Rocheuses. Même en cas d'arrêt du Gulf Stream, le climat de l'Europe occidentale serait comparable à celui de la côte Ouest des États-Unis plutôt qu'à celui de la côte Est.
+Les scientifiques du GIEC prévoient, pour le xxie siècle une diminution de la couverture neigeuse, et un retrait des banquises. Les glaciers et calottes glaciaires de l'hémisphère nord devraient aussi continuer à reculer, les glaciers situés à moins de 3 400 m d'altitude pouvant être amenés à disparaître.
+LesEn revanche, l'évolution de la calotte glaciaire antarctique au cours du xxie siècle est plus difficile à prévoir.
+Une équipe de chercheurs a récemment mis en évidence un lien entre l'activité humaine et l'effondrement de plates-formes de glace dans l'Antarctique. Les réchauffements locaux seraient dus à un changement de direction des vents dominants, cette modification étant elle-même due à l'augmentation de la concentration de l'air en gaz à effet de serre et la dégradation de la couche d'ozone en Antarctique à cause des CFC d'origine humaine.
+Toutefois, selon une lettre envoyée au journal Nature, ces réchauffements ne s'observent que localement. En effet, l'Antarctique connait globalement un climat de plus en plus froid et sa couverture glacée est en expansion, les élévations de la température dans ces secteurs très froids se révélant favorables à une augmentation des précipitations neigeuses donc à terme, à une augmentation des volumes de glace.
+Cependant, la quantité de glace de l'Antarctique déversée dans les mers a augmenté de 75 % durant les dix années précèdant 2008. Ce phénomène risque de s'amplifier en raison de la disparition de la banquise qui cesse alors d'opposer un obstacle au déversement des glaciers dans l'océan.
+Le quatrième rapport d'évaluation du GIEC énonce que « le réchauffement anthropique de la planète pourrait entraîner certains effets qui sont brusques ou irréversibles, selon le rythme et l'ampleur des changements climatiques ».
+Des visions prospectives optimistes et moins optimistes cohabitent en 2009 : certains insistent sur le fait que les solutions techniques existent, et qu'il ne reste qu'à les appliquer (les maisons pourraient être isolées, et produire plus d'électricité qu'elles n'en consomment, les transports maîtrisés, les villes pourraient être plus autonomes et dépolluer l'air). Au contraire, d'autres - tout en invitant à appliquer au plus vite ces solutions voire une décroissance soutenable et conviviale - réalertent, constatent que de 1990 à 2009, la tendance a été la réalisation des fourchettes hautes d'émission de gaz à effet de serre, conduisant aux scénarios-catastrophe du GIEC, et estiment qu' il est temps de cesser de parler de « changement » pour décrire une catastrophe
+La majorité des climatologues pensent que les phénomènes induits par l'émission des gaz à effet de serre vont se poursuivre et s'amplifier. Le troisième rapport du GIEC insiste en particulier sur les points suivants :
+Les récentes observations dans la zone arctique menées sous l'égide du programme européen Damoclès (Developping Arctic Modelling and Observing Capabillities for Long-term Environmental Studies) ont créé une véritable surprise dans le monde scientifique. En effet, celles-ci montrent une différence importante avec les prévisions issues des différents modèles et sur lesquelles sont basées les conclusions du GIEC : ceci se traduit par une nette accélération des effets dus à l'augmentation des gaz à effet de serre en Arctique (fonte totale de la banquise en été d'ici 2020) 99,100.
+Les scientifiques nomment ainsi des emballements du système climatique lorsqu'un seuil est dépassé. On parle aussi de bombe à carbone. De telles rétroactions ont déjà été observées lors de précédents réchauffements climatiques, à la fin d'une ère glaciaire ; le climat peut ainsi, en quelques années, se réchauffer de plusieurs degrés. Un exemple concerne les hydrates de méthane. Le méthane (CH4, qui n'est autre que le gaz naturel, à quelques « impuretés » près), est un gaz à effet de serre 23 fois plus réchauffant que le CO2. Il se forme lorsque la décomposition de la matière organique s'effectue avec un manque d'oxygène, et sous l'action de bactéries, un processus nommé méthanisation. Les sols humides (marais) sont très propices à cette création de méthane, qui est alors libéré dans l'atmosphère (cela peut donner lieu à des inflammations spontanées et l'on peut observer des feux follets). Si le sol est gelé, le méthane reste piégé dans la glace sous la forme d'hydrates de méthane. Le sol de Sibérie est ainsi un immense réservoir de méthane (sans doute trop diffus pour être exploité industriellement) : le département des études géologiques des États-Unis a évalué que ce réservoir pouvait être de la même ampleur que tout le gaz, le pétrole et le charbon réunis. Cependant, le magazine Science & Vie d'avril 2006 donnait plutôt comme valeur 1 400 Gt, comparativement à 5 000 Gt pour l'ensemble des combustibles fossiles. Si le sol se réchauffe, la glace fond et libère le méthane déjà présent initialement, ce qui a pour conséquence un effet de serre plus marqué, et par suite un emballement du réchauffement climatique, qui fait fondre la glace encore plus vite... D'où le nom de rétroaction.
+Une autre rétroaction serait le ralentissement et la modification des courants océaniques. L'océan capte aujourd'hui le tiers du CO2 émis par les activités humaines. Mais si les courants océaniques ralentissent, les couches d'eau superficielles peuvent se saturer en CO2 et ne pourraient plus en capter comme aujourd'hui. La quantité de CO2 que peut absorber un litre d'eau diminue à mesure que l'eau se réchauffe. Ainsi, de grandes quantités de CO2 peuvent être relarguées si les courants océaniques sont modifiés. En outre, l'accumulation de CO2 dans les océans conduit à l'acidification de ces derniers, ce qui affecte l'écosystème marin et peut induire à long terme un relargage de CO2.
+Les moteurs de la circulation océanique sont de deux types : l'eau en se rapprochant des pôles se refroidit et devient donc plus dense. De plus, l'eau de mer qui gèle rejette son sel dans l'eau liquide (la glace est constituée d'eau douce), devenant au voisinage des calottes glaciaires encore plus dense. Cette eau plonge donc et alimente la pompe : l'eau plus chaude de la surface est aspirée. L'eau du fond (froide) remonte dans les zones des tropiques et / ou équatoriales et se réchauffe, ceci en un cycle de plus de 1 000 ans.
+Si les calottes de glace fondent, la pompe se bloque : en effet, l'eau qui plonge provient de la calotte et non plus de l'eau refroidie en provenance des tropiques. Un effet similaire est observé si les précipitations augmentent aux hautes latitudes (ce qui est prévu par les modèles) : l'eau qui plongera sera l'eau douce de pluie. À terme, une forte perturbation du Gulf Stream est envisageable.
+Au-delà des conséquences directes, physiques et climatiques, du réchauffement planétaire, celui-ci influera sur les écosystèmes, en particulier en modifiant la biodiversité. D'après le GIEC, la capacité de nombreux écosystèmes à s'adapter naturellement sera probablement dépassée par la combinaison sans précédent des :
+Le déséquilibre naturel qui s'en suivra pourrait entraîner la disparition de plusieurs espèces animales et végétales. C'est une préoccupation dont les États, comme la France, commencent à tenir compte. Pour l'ensemble des populations humaines, ces effets « physiques » et « écologiques » auront de fortes répercussions. La très grande complexité des systèmes écologiques, économiques et sociaux affectés par le réchauffement climatique ne permet pas de faire des prévisions chiffrées comme pour la modélisation physique de la Terre.
+Au niveau biologique et écologique, un consensus scientifique a été atteint sur les points suivants :
+Le GIEC prévoit des conséquences négatives majeures pour l'humanité au xxie siècle :
+Elles sont aussi associées au réchauffement prévu au xxie siècle :
+En ce qui concerne la France, l'élévation de température risque d'augmenter le nombre de canicules en 2100. Alors que le nombre de jours de canicule est actuellement de 3 à 10 par an, il pourrait s'élever à une moyenne de 20 à 40 en 2100, rendant banale la canicule exceptionnelle de 2003,112.
+Les précipitations seraient plus importantes en hiver, mais moindres en été. Les régions connaissant des durées de plus de 25 jours consécutifs sans pluie, actuellement limitées au sud-est de la France, s'étendraient à la moitié ouest du territoire.
+La végétation connaitrait une remontée vers le nord. L'épicéa risquerait de disparaitre du Massif Central et des Pyrénées. Le chêne, très répandu dans l'Est de la France, verrait son domaine réduit au Jura et aux Vosges, mais le pin maritime, actuellement implanté sur la façade Ouest, s'étendrait sur la moitié ouest de la France et le chêne vert s'étendrait dans le tiers sud, marquant une étendue du climat méditerranéen.
+Les cultures du midi méditerranéen, telles que celle de l'olivier, pourraient s'implanter dans la vallée du Rhône. On peut désormais trouver des oliviers en tant qu'arbres d'ornement sur toute la façade sud-ouest de l'océan Atlantique, et ce jusqu'en Vendée. Par contre, faute d'eau suffisante, la culture du maïs serait limitée à la partie nord et nord-est du territoire. Les céréales verraient leur rendement augmenter si l'élévation de température ne dépasse pas 2 °C. Par contre, si elle était supérieure, les plantes cultivées auraient du mal à s'adapter et on pourrait craindre des difficultés agricoles.
+Les chutes de neige seront moins abondantes, entraînant un moindre approvisionnement en eau des fleuves, mais également des difficultés d'ordre économique pour l'économie de montagne. Par exemple, les stations de ski situées à moins de 1 500 m d'altitude seraient amenées à fermer leurs pistes et à se reconvertir.
+Face au réchauffement climatique, l'Académie des Sciences américaine note, dans un rapport de 2002 : « il est important de ne pas adopter d'attitude fataliste en face des menaces posées par le changement de climat. (...) Les sociétés ont dû faire face à des changements du climat graduels ou abrupts durant des millénaires et ont su s'adapter grâce à des réactions diverses, telles que s'abriter, développer l'irrigation ou migrer vers des régions plus hospitalières. Néanmoins, parce que le changement du climat est destiné à continuer dans les prochaines décennies, dénier la possibilité d'événements climatiques abrupts ou minimiser leur impact dans le passé pourrait s'avérer coûteux. ».
+Nombre de chercheurs prédisent des conséquences désastreuses en cas d'un réchauffement de 1,5 à 7 °C, mais la plupart estiment qu'en limitant le réchauffement global à 1 °C, les conséquences seraient de grande ampleur mais resteraient acceptables.
+La montée du niveau de la mer, due essentiellement à la dilatation thermique des océans, est évaluée entre 18 et 59 cm d'ici 2 100 par le 4e rapport du GIEC. Elle inquiète les populations de certaines îles de l'océan Pacifique ou de l'océan Indien qui pourraient se voir complètement submergées. À ce phénomène de montée des eaux s'ajoute un phénomène encore plus important de subduction (enfoncement des terres dans l'Océan) (voir notamment l'article sur l'archipel des Tuvalu et les écoréfugiés).
+Mais cette montée des eaux apparemment minime menace également les 20 % de la population mondiale vivant sur les littor
+L'accroissement de l'évaporation devrait augmenter localement la pluviosité, sauf dans les pays méditerranéens qui verraient la sècheresse s'accentuer, dans un contexte où la violence et / ou la fréquence et gravité des aléas climatiques pourraient croître.
+En zone tempérée (hors des zones arides qui pourraient le devenir encore plus) et circumpolaire, dans un premier temps, la conjonction du réchauffement et de l'augmentation du taux de CO2 dans l'air et les pluies pourrait accroître la productivité des écosystèmes. L'agriculture du Nord des États-Unis, du Canada, de la Russie et des pays nordiques pourraient peut-être en profiter, mais des signes de dépérissement forestier semblent déjà visible dans ces zones.
+Les satellites montrent que la productivité de l'hémisphère Nord a augmenté depuis 1982, du fait de ce réchauffement et de l'enrichissement de l'atmosphère en CO2, mais aussi en partie à cause de l'eutrophisation des écosystèmes, les engrais d'origine humaine (phosphates et nitrates notamment) étant entrainés là où ces substances étaient beaucoup plus rares autrefois. L'augmentation de la biomasse n'est par ailleurs pas nécessairement bénéfique et comporte le risque de s'accompagner d'une régression de la biodiversité. Enfin, au-delà d'un certain seuil, les modèles du GIEC calés sur des tests en laboratoire et en extérieur, prédisent qu'un taux de CO2 ne bénéficierait plus aux plantes, les effets négatifs pouvant alors l'emporter.
+Dans le sud de l'Amérique du Nord, de la Chine, du Japon et de l'Europe, de longues sécheresses, avec des épisodes répétés de canicules pourraient induire des phénomènes d'aridification puis de désertification et salinisation empêchant l'agriculture, détruisant les récoltes ou les rendant très coûteuses.
+De graves incendies pourraient massivement détruire les cultures (en 2007, le feu a détruit en Grèce de vastes zones agricoles dont des oliveraies). Même sans incendies, l'augmentation de l'évapotranspiration en été, liée à une productivité dopée par le CO2, pourrait augmenter la sensibilité d'un milieu aux sécheresses et aggraver de ce fait le risque d'incendies de forêts et de stress et maladies des arbres et des plantes cultivées.
+Une augmentation de la biomasse totale ne compenserait probablement pas un recul d'espèces cultivées, pêchées et chassées. Le bilan global ne peut à ce jour être estimé, mais il pourrait être désavantageux, même dans les zones où les effets positifs se feraient le plus sentir. Pour le GIEC, mis en balance avec les effets négatifs, ces quelques aspects positifs ne permettent pas de considérer le réchauffement climatique comme globalement bénéfique.
+On ignore aussi à partir de quand les écosystèmes (marins notamment) réagiront négativement à l'acidification des eaux qu'entraîne la dissolution de quantités croissantes d'acide carbonique.
+Le Comité économique et social européen dans son avis du 3 février 2009 note que des études comparatives concluent à un bilan de l'agriculture bio en moyenne meilleur (au regard de la consommation de matières premières et d'énergie et au regard du carbone stocké ou des émissions de gaz à effet de serre) que celui de l'agriculture dite conventionnelle, même si l'on tient compte des rendements moindres de l'agriculture bio, ce qui a justifié que le gouvernement allemand, l'intègre parmi les moyens de lutter contre le changement climatique). LE CESRE rappelle aussi qu'une agriculture réorientée et adaptée pourrait selon divers spécialistes et ONG aussi contribuer à tamponner ou freiner les effets du réchauffement (Cool farming)). Le comité ne cite pas les agrocarburants comme une solution, citant le climatologue Paul Crutzen selon qui les émissions de protoxyde d'azote induites par la culture et production de biodiesel, suffisent, dans certaines conditions à faire que le méthylester de colza puisse avoir des effets climatiques pires que ceux du diesel fait avec du pétrole fossile. Le comité, pose aussi la question des fumures traditionnelles et se demande « si l'utilisation intégrale des plantes, telle qu'elle est prévue dans le cadre des biocarburants de la deuxième génération, ne risque pas de porter atteinte aux objectifs fixés en matière de développement de la couche d'humus », c'est-à-dire de contribuer à encore épuiser la matière organique des sols. Le comité repose la question de l'écobilan des biocarburants en citant une étude comparative, de l'Empa qui a conclu qu'une Volkswagen Golf nécessitait 5 265 m2 de colza pour parcourir 10 000 km avec du biodiesel, alors que 37 m2 de panneaux solaires (1/140ème de la parcelle de colza précédente) suffirait à produire assez d'électricité pour parcourir la même distance.
+Selon une étude récente, en 30 ans, un réchauffement moyen de 0,5 °C a déjà doublé le taux de mortalité des arbres des grandes forêts de l'ouest américain, en favorisant les sècheresses et pullulations de ravageurs (dont scolytes qui ont par exemple détruit environ 1,4 million d'hectares de pins dans le nord-ouest du Colorado). Le manque de neige induit un déficit hydrique et un allongement des sècheresses estivales, avec multiplication des incendies, alertent les auteurs qui craignent des impacts en cascade sur la faune et les écosystèmes. L'augmentation de la mortalité touche des arbres (feuillus et conifères) de toutes les tailles et différentes essences et à toutes les altitudes. Dans le nord-ouest américain et le sud de la Colombie britannique (Canada), le taux de mortalité dans les vieilles forêts de conifères a même doublé en 17 ans (c'est une fois et demie plus rapide que la progression du taux de mortalité des arbres des futaies californiennes où ce taux a été multiplié par deux en 25 ans). L'accélération de la mortalité a été moindre dans les forêts de l'ouest ne bordant pas le Pacifique (dans le Colorado et l'Arizona), mais « un doublement de ce taux de mortalité finira par réduire de moitié l'âge moyen des arbres des futaies, entraînant une diminution de leur taille moyenne », estime T Veblen qui craint aussi une moindre fixation du CO2 de l'atmosphère et qui appelle à « envisager de nouvelles politiques permettant de réduire la vulnérabilité des forêts et des populations », notamment en limitant l'urbanisation résidentielles dans les zones vulnérables.
+En France, selon les prévision de l'INRA, plusieurs essences ne survivront pas dans la moitié sud de la France et plusieurs ravageurs des arbres pourraient continuer remonter vers le nord.
+Une diminution des glaces polaires arctiques ouvrirait de nouvelles routes commerciales pour les navires, et rendrait accessibles des ressources sous-marines de pétrole ou de matières premières, mais avec des conséquences néfastes sur nombre d'espèces, comme le plancton ou les poissons à haute valeur commerciale.
+L'accès à ces matières premières en des zones aujourd'hui non accessibles risque d'être source de conflit entre pays côtiers de l'océan Arctique. Ainsi, les États-Unis et le Canada ont-ils protesté lorsque, le 2 août 2007, la Russie planta son drapeau au fond de l'océan sous le pôle Nord.
+Un rapport de 700 pages de sir Nicholas Stern, économiste anglais, estime que le réchauffement climatique entrainerait un coût économique de 5 500 milliards d'euros en tenant compte de l'ensemble des générations (présente et futures) ayant à en subir les conséquences.
+En 2007, pour la première fois, le World monuments fund (WMF, Fonds mondial pour les monuments) a introduit les modifications climatiques dans la liste des menaces pour 100 sites, monuments et chefs-d'oeuvre de l'architecture menacés, les autres menaces principales étant les guerres et conflits politiques, et le développement industriel et urbain anarchique.
+Des conséquences des phénomènes climatiques sont redoutées, non seulement sur l'économie, mais également sur la santé publique : le quatrième rapport du GIEC met en avant certains effets sur la santé humaine, tels que « la mortalité associée à la chaleur en Europe, les vecteurs de maladies infectieuses dans diverses régions et les allergies aux pollens aux latitudes moyennes et élevées de l'hémisphère Nord ».
+Les changements climatiques pourront modifier la distribution géographique de certaines maladies infectieuses. Des températures élevées dans les régions chaudes pourraient réduire l'extension du parasite responsable de la bilharziose. Mais le paludisme fait sa réapparition au nord et au sud des tropiques. Aux États-Unis, cette maladie était en général limitée à la Californie, mais depuis 1990, des épidémies sont apparues dans d'autres États, tels le Texas, la Floride, mais aussi New York. Il est également réapparu dans des zones où il était peu fréquent, telles le sud de l'Europe et de la Russie ou le long de l'océan Indien. On constate également que les moustiques et les maladies qu'ils transmettent ont gagné en altitude.
+Sous les climats tempérés, le réchauffement climatique réduirait le nombre de décès induit par le froid ou les maladies respiratoires. Cependant, l'augmentation de la fréquence des canicules estivales augmenterait le nombre de décès en été. Il est difficile de savoir quel sera le bilan global, et si une diminution de l'espérance de vie en découlera.
+Selon un rapport de 2003 commandé par le Pentagone et selon un rapport de 2007 de l'UNEP, le réchauffement climatique pourrait entraîner des phénomènes de déstabilisation mondiale, avec des risques de guerre civile.
+La réalité du risque et du phénomène fait maintenant presque consensus. Nicholas Stern, en 2006, reconnaissait lui-même avoir sous-estimé l'ampleur du problème
+« La croissance des émissions de CO2 est beaucoup plus forte que prévue, les capacités d'absorption de la Planète se réduisent et la vitesse des changements climatiques est plus rapide qu'envisagée. »+
Face au problème, trois approches se complètent : lutte contre les émissions de GES, puits de carbone, et adaptation.
+L'effort international a d'abord visé à réduire le CO2 (gaz à longue durée de vie), alors qu'une action urgente sur les polluants à courte durée (dont le méthane, l'ozone troposphérique et le « carbone noir ») pourrait mieux réduire le réchauffement de l'Arctique. La réduction du CO2 est aussi importante, mais ses effets se feront sentir à plus long terme (après 2 100).
+La prospective éclaire les gouvernements, entreprises et individus, qui grâce à la connaissance des tendances générales peuvent prendre des décisions politiques et stratégiques plus pertinentes pour limiter les impacts du changement climatique.
+Les rapports du GIEC sont la principale base d'information et discussions, dont dans le cadre du protocole de Kyoto et de ses suites (Bali, décembre 2007, etc.). L'augmentation prévue de 1,5 à 7 °C pour le siècle à venir, pourrait être moindre si des mesures environnementales sévères étaient prises ou qu'un réel compétiteur aux énergies fossiles émergeait. En dépit des succès dans le secteur des énergies renouvelables, du nucléaire et surtout d'un changement de mode de vie et de consommation, la recherche n'a pas encore offert d'alternative à court terme aux carburants fossiles. Énergie éolienne, énergie hydroélectrique, énergie géothermique, énergie solaire, méthanisation, énergie hydrolienne, pile à combustible, énergie nucléaire, stockage géologique du dioxyde de carbone sont néanmoins en rapide développement. Le gisement d'économies d'énergie - les négawatts - est encore considérable.
+La société civile propose aussi des réponses, notamment via les campagnes et actions de lobbying des ONG et associations locales.
+En France, les ONG de protection de l'environnement et les associations concernées se sont regroupées au sein du Réseau Action Climat (RAC).
+Le réchauffement climatique devrait se traduire par un temps plus instable (vagues de chaleur ou de froid, inondations ou sécheresse, tempêtes et cyclones). De plus, d'après le GIEC, la capacité à s'adapter naturellement de nombreux écosystèmes sera probablement dépassée, causant massivement l' extinction des espèces, par la combinaison sans précédent de :
+Par conséquent, afin de contrer les effets et les menaces du réchauffement climatique les mesures à prendre devront concerner :
+La Convention Cadre des Nations unies sur les changements climatiques a été signée en 1992 lors du sommet de la terre à Rio de Janeiro. Elle est entrée en vigueur le 21 mars 1994. Elle a été ratifiée à ce jour par 192 États. Les parties à la convention cadre sur les changements climatiques se sont fixés comme objectif de stabiliser la concentration des gaz à effet de serre dans l'atmosphère à « un niveau qui empêche toute perturbation anthropique dangereuse du climat ». Les pays développés ont comme objectif de ramener leurs émissions de gaz à effet de serre en 2010 au niveau de 1990, cet objectif n'est pas légalement contraignant.
+En 1997, les parties à la Convention cadre sur les changements climatiques des Nations unies (UNFCCC) ont adopté le protocole de Kyoto, dont la nouveauté consiste à établir des engagements de réduction contraignants pour les pays dits de l'annexe B (pays industrialisés et en transition) et à mettre en place des mécanismes dit « de flexibilité » (marché de permis, mise en oeuvre conjointe et mécanisme de développement propre) pour remplir cet engagement. Le protocole de Kyoto est entré en vigueur le 16 février 2005 suite à sa ratification par la Fédération de Russie.
+En juillet 2006, le protocole de Kyoto a été ratifié par 156 États. Les États-Unis et l'Australie (voir infra) ne sont pas signataires. Les États-Unis sont pourtant le deuxième émetteur (20 % des émissions de gaz à effet de serre). Les pays de l'annexe B se sont engagés à réduire leurs émissions de six gaz à effet de serre (CO2, CH4, N2O, SF6, HFC, PFC) de 5,2 % en 2008 - 2012 par rapport au niveau de 1990. Cet objectif représente en réalité une diminution d'environ 20 % par rapport au niveau d'émissions anticipé pour 2010 si aucune mesure de contrôle n'avait été adoptée. Les objectifs de réduction par pays vont d'une réduction de 8 % pour l'Union européenne à une possibilité d'augmentation de 10 % pour l'Islande.
+Après la victoire des travaillistes aux élections législatives australiennes du 24 novembre 2007, le nouveau premier ministre Kevin Rudd a annoncé avoir ratifié le protocole de Kyoto.
+Des pays en voie de développement fortement contributeurs aux émissions comme l'Inde, 5e émetteur mondial, et la Chine, 1re émettrice, n'ont pas d'objectifs de réduction car ils étaient considérés comme insuffisamment industrialisés et parce que leurs niveaux d'émissions ramenés au nombre d'habitants sont extrêmement faibles. Le mécanisme dit « de développement propre » (MDP), instauré par le protocole de Kyoto, permet aux investisseurs, en contrepartie d'un investissement propre dans un pays en développement, de gagner des « crédits carbone ». Ce mécanisme permet aux pays développés d'avoir accès aux réductions à bas coûts des pays en développement et donc de diminuer le coût de leur engagement. Il permet aux pays en développement de bénéficier d'investissements propres. Il encourage les transferts de technologie. Le MDP apparait cependant insuffisant pour infléchir profondément les trajectoires d'émissions de ces pays. L'absence d'engagement de réduction des pays en développement est une des raisons avancées par les États-Unis pour justifier leur refus de ratifier le protocole. C'est pourquoi un des enjeux majeurs pour la période après Kyoto est de définir des modalités d'association de ces pays à l'effort commun de réduction.
+L'Union européenne reste le 3e pollueur mondial après la Chine et les États-Unis, mais dispose d'atouts pour lutter contre le réchauffement.
+L'UE a lancé en 2005 le marché de permis européen (1er marché de permis contraignant au niveau mondial). La Commission européenne va en 2007 - 2008 activer son observatoire de l'énergie, restée embryonnaire, et publier (prévu en 2007) un « Livre vert » sur l'adaptation de l'UE au changement climatique, support de débat avant une prise de décision en 2008. La Directive sur le système européen d'échange de droits d'émission sera modifiée en 2008, pour inclure notamment les émissions de l'aviation. La proposition sur les limites d'émission des voitures (120 g de CO2 par km soit 12 kg de CO2 / 100 km147; rappelons que chaque automobile parcourt en moyenne 15 000 km/an) devrait être publiée au second semestre de 2007. La DG Recherche doit proposer en novembre un plan européen, et des propositions de législation sur les piles à combustibles et les avions « propres ». Des appels d'offre sur l'énergie et le climat devraient être publiés avant mi 2007. Le 29 juin 2007, la commission publie et met en consultation un Livre vert sur la question et sur les possibilités d'action de l'UECOM(2007) 354 final). Il prône à la fois l'adaptation et l'atténuation, l'amélioration des connaissances (y compris sur les besoins et coûts d'adaptation - Cf. 7e programme-cadre de recherche de l'UE (2007 - 2013), l'élaboration de stratégies et d'échanges de bonnes pratiques entre pays, de nouveaux produits assurantiels (« dérivés climatiques », « obligations catastrophe », l'adaptation des marchés européens des assurances (cf. directive « Solvabilité II ») et des fonds « catastrophes naturelles » ainsi que des politiques agriculture et pêche, avec le développement d'une solidarité interne à l'UE et avec les pays extérieurs touchés. 50 millions E sont réservés par la Commission pour 2007 - 2010 pour favoriser le dialogue et l'aide à des mesures d'atténuation et d'adaptation ciblées, dans les pays pauvres.
+La France a également (juillet 2007) publié une Stratégie nationale d'adaptation au changement climatique et envisagerait une gouvernance adaptée, notamment dans le cadre du Grenelle de l'Environnement.
+L'UE dispose de ressources en éolien terrestre et offshore (déjà 66 % de la puissance éolienne installée dans le monde en 2006, essentiellement au Danemark qui produit ainsi près de 40 % de sa puissance électrique) devant les États-Unis (16 %), l'Inde (8 %) et le Japon (2 %), en technologies solaires et d'un tiers du parc nucléaire mondial. Cela la rend moins dépendante des énergies fossiles que la Chine et les États-Unis. La France, pays le plus nucléarisé, reste cependant loin du record de 1961 où 51 % de son énergie électrique venait du renouvelable (hydroélectrique).
+L'UE encourage aussi tous les acteurs à préparer leur adaptation au changement climatique.
+Deuxième pays pollueur derrière la Chine, les États-Unis via l'administration de George W. Bush refusèrent de présenter de nouveau en juillet 2005 le traité pour ratification parce qu'ils considèrent que cela freinerait l'économie nationale et que le combat contre le réchauffement climatique doit se faire non pas avec une simple réduction des gaz à effet de serre, mais par une meilleure gestion de leur émission.
+De nombreux États des États-Unis ont néanmoins pris des mesures de restriction sur les gaz à effet de serre.
+Depuis 2001, les États du Texas, de la Californie, du New Hampshire, ont instauré un dispositif de contrôle des émissions de gaz pour différents secteurs industriels et énergétiques. Le dispositif adopté par la Californie, qui s'appliquera à partir de 2009, prévoit réduire les émissions de gaz polluants de 22 % en moyenne d'ici 2012 et de 30 % d'ici 2016.
+En outre, le principe des marchés des permis d'émission consiste à accorder aux industriels « pollueurs » gratuitement, à prix fixe ou aux enchères, des quotas d'émissions de CO2, que ceux-ci peuvent ensuite s'échanger. Chaque émetteur de CO2 doit alors vérifier qu'il détient autant de permis d'émission que ce qu'il va émettre. Dans le cas contraire, il se trouve contraint ou bien de diminuer ses émissions, ou bien d'acheter des permis. Inversement, si ses efforts de maitrise des émissions lui permettent de posséder un excédent de permis, il peut les vendre.
+De tels procédés ont été réalisés pour réduire les pluies acides aux États-Unis et ont connu des succès (programme « Acid rain »). Ce système des marchés de permis d'émission fait partie du dispositif du Protocole de Kyoto qui à la date de juillet 2006[13] n'est toujours pas ratifié par les États-Unis.
+En 2004, le sénateur républicain John McCain et le démocrate Joseph Lieberman déposent un projet de loi visant à limiter les rejets dans l'atmosphère ; soutenu par les grandes entreprises Alcoa, DuPont de Nemours et American Electric Power, il n'est pourtant pas adopté.
+Les États-Unis financent avec la Chine, le Japon, la Russie et l'UE, le projet ITER (International Thermonuclear Experimental Reactor), projet de recherche sur la fusion nucléaire contrôlée, mené à Cadarache (Sud de la France). Toutefois la production nette d'énergie par fusion nucléaire chaude reste à l'état d'espoir lointain : les prévisions les plus optimistes des partisans du projet parlent de plusieurs dizaines d'années. Certains voient plus d'espoir dans la production d'énergie par réactions nucléaires en matière condensée.
+Le 8 juillet 2008, George Bush signe un texte engageant les États-Unis à réduire de moitié des émissions des GES d'ici à 2050, à Toyako (Japon), dans le cadre d'une réunion du G8.
+Les décisions pour réduire les émissions de CO2 sont prises par les états fédérés : en 2005, 18 de ces états obligeaient les producteurs d'électricité à utiliser en partie des sources d'énergie renouvelables.
+En 2005, les maires de 136 villes américaines, ont pris l'engagement d'appliquer les normes du protocole de Kyoto et à réduire d'ici 2012 leurs émissions de gaz à effet de serre de 7 % par rapport à 1990.
+L'état du Nevada a pour objectif d'atteindre le seuil de 20 % de sa consommation en énergie renouvelable, d'ici 2015, notamment grâce aux centrales solaires installées dans le désert.
+En outre, à l'initiative du maire de Seattle, 166 grandes villes américaines, dont New York et Boston, se sont engagées solennellement à respecter le protocole de Kyoto en mars 2005.
+Alors que la population californienne représente 12 % de la population américaine, elle ne consomme que 7 % de l'électricité produite dans le pays ; ainsi, la Californie se trouve à la première place pour la rentabilité énergétique par personne. L'État s'est engagé à limiter les émissions de gaz à effet de serre : les objectifs annoncés sont une diminution de 11 % avant 2010 et de 87 % avant 2050. Le 30 août 2006, le gouvernement et le Parlement de Californie signent un accord pour diminuer la production de gaz à effet de serre, mettant l'État en conformité avec le protocole de Kyoto. La décision AB32 (Global Warming Solutions Act) a été prise de réduire d'un quart les émissions de gaz à effet de serre d'ici 2020. Des sanctions financières seront prises contre les industries qui ne respectent pas cet engagement. Un marché de permis d'émissions sera créé et contrôlé par l'Air Resources Board.
+La Californie s'est aussi engagée à respecter des règles plus strictes sur la consommation et les pots d'échappement de véhicules neufs ; cette politique est imitée par deux autres États de l'Ouest : Washington et Oregon. Le 20 septembre 2006, Bill Lockyer le ministre de la Justice de Californie, lance des poursuites judiciaires contre trois constructeurs automobiles américains et trois japonais, et leur demande des dommages et intérêts pour la pollution qu'ils engendrent. Selon lui, les véhicules automobiles représentent 30 % des émissions de dioxyde de carbone de l'État.
+En 2005, le gouverneur républicain Arnold Schwarzenegger proposait que le budget de l'État de Californie finance à hauteur de 6,5 millions de dollars la construction de stations pour les véhicules roulant à l'hydrogène.
+Le code d'éducation de la Californie (chapitre IV, sections 8700 à 8784) insiste pour que les élèves soient sensibilisés aux problèmes de l'environnement.
+Grâce à son bon ensoleillement, la Californie développe l'énergie solaire : l'État abrite des collecteurs cylindro-paraboliques dont la puissance atteint 80 MW, la plus grande centrale à tour comme Solar one puis Solar 2 ne dépasse pas 10 MW.
+Un projet de loi oblige les promoteurs immobiliers à installer un système d'énergie solaire sur 15 % des nouvelles maisons construites en Californie à partir de 2006. Le projet de loi prévoit que, d'ici 2010, 55 % des maisons seront équipées en panneaux solaires. Le gouverneur Arnold Schwarzenegger avait fait campagne pour inciter à installer des systèmes solaires dans la moitié des maisons de l'État à partir de 2005.
+La centrale thermo-solaire Nevada Solar One est en construction depuis le 11 février 2006 à Boulder City. À terme, elle développera une puissance de 64 MW et sera la troisième du monde. Selon ses concepteurs, la centrale devrait permettre d'éliminer un volume de pollution équivalent à la suppression d'un million de voitures en circulation sur le territoire des États-Unis.
+La Californie a adopté une loi qui contraint les grands groupes automobiles à vendre des véhicules respectant des normes strictes de rejets de CO2.
+La Californie est l'État où l'énergie éolienne est la plus développée avec une capacité de production de plus de 2040 MW installés en 2004, loin devant le Texas (1293 MW). La principale région de production se trouve au nord de l'État, à l'est de San Francisco.
+À 150 km au nord de San Francisco, 19 centrales géothermiques (350 puits) sont contrôlées par la société Calpine dans les comtés de Lake et de Sonoma. Elles produisent environ 850 mégawatts, c'est-à-dire presqu'autant qu'une petite centrale nucléaire.
+Un point de débat est à quel degré les nouveaux pays industrialisés tel que l'Inde et la Chine devraient restreindre leurs émissions de CO2. Les émissions de CO2 de la Chine ont dépassé celles des États-Unis en 2007,166 alors qu'elle ne produit que 5,4 fois moins de richesses que l'UE ou les États-Unis, et elle n'aurait dû, en théorie, atteindre ce niveau qu'aux alentours de 2020. En 2007, la Chine est le premier producteur et consommateur de charbon, sa première source d'énergie, qui est extrêmement polluante. De plus, l'augmentation du niveau de vie accroît la demande de produits « énergivores » tels que les automobiles ou les climatisations.
+La Chine a répondu qu'elle avait moins d'obligations à réduire ses émissions de CO2 par habitant puisqu'elles représentent un sixième de celle des États-Unis. L'Inde, également l'un des plus gros pollueur de la planète a présenté les mêmes affirmations, ses émissions de CO2 par habitants étant près de vingt fois inférieures à celle des États-Unis. Cependant les États-Unis ont répliqués que s'ils devaient supporter le coût des réductions de CO2, la Chine devrait faire de même
+L'humanité rejette actuellement 6 Gt (gigatonne = milliard de tonnes) d'équivalent carbone par an dans l'atmosphère, soit environ une tonne par habitant. On estime que les océans en absorbent 3 Gt et qu'il faudrait donc abaisser les émissions de gaz à effet de serre de moitié pour arrêter d'enrichir l'atmosphère, ce qui représente une émission moyenne de 500 kg d'équivalent carbone par habitant. Chaque Français en émet environ deux tonnes, soit quatre fois plus qu'il ne faudrait. En dehors de mesures collectives, des personnalités ont esquissé les gestes quotidiens à mettre en oeuvre, dès aujourd'hui, pour limiter le réchauffement climatique comme Jean-Marc Jancovici ou Al Gore.
+Quelques mesures relèvent des économies d'énergie, en particulier des énergies fossiles :
+Éviter de prendre l'avion. Un km en avion long courrier émet 60 g d'équivalent carbone par personne. Un voyage intercontinental représente près des 500 kg d'équivalent carbone. A fortiori, pour les voyages court-courrier (100 g d'équivalent carbone par km et par personne), préférer le train ;
+Utiliser le moins possible les véhicules automobiles (préférer la bicyclette ou les transports en commun chaque fois que possible). Une voiture émet entre 100 et 250 g d'équivalent CO2 par km parcouru, soit entre 30 et 70 g d'équivalent carbone. 20 000 km par an représentent entre 600 et 1 400 kg d'équivalent carbone. Si une automobile est nécessaire, choisir le modèle le moins polluant et le plus efficace possible (par exemple, certains constructeurs ont annoncé des véhicules consommant moins de 1,5 L/100 km176,177) ;
+Atteindre une isolation optimale des bâtiments, au mieux par le recours à l'architecture bioclimatique qui réduit au maximum les besoins de chauffage (15 kWh/m2/an, les anciennes maisons étant à 450 kWh/m2/an) et supprime le besoin de climatisation active, tout en améliorant le confort de vie.
+Contenu soumis à la GFDL
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Le scandale du Watergate est à l'origine une affaire d'espionnage politique qui débouche, en 1974, sur la démission du président des États-Unis Richard Nixon. L'affaire commence avec la révélation par des journalistes du Washington Post de la pose de micros dans les locaux du Parti démocrate dans l'immeuble du Watergate à Washington en 1972. Elle se développe ensuite avec de nombreuses ramifications. Les investigations de journalistes et une longue enquête sénatoriale lèvent le voile sur des pratiques illégales à grande échelle au sein de l'administration présidentielle.
+L'affaire est à ce point marquante dans l'histoire américaine qu'il est devenu courant d'utiliser le suffixe -gate pour désigner d'autres scandales politico-financiers, comme par exemple le Coingate, l'Irangate, le Plamegate et le Nipplegate.
+L'année 1972 est une année d'élection présidentielle aux États-Unis. Dans le camp républicain, Richard Nixon se présente pour un second mandat. Il peut se vanter d'une politique étrangère inspirée par Henry Kissinger et menée avec succès : détente avec l'URSS (accords SALT), préparation de la « paix dans l'honneur » au Viêt Nam (concrétisée par la signature du traité de Paris en janvier 1973), en attendant le rétablissement des relations diplomatiques avec la Chine. Cependant, le coût en vies humaines dû à la politique menée en Asie du Sud-Est, notamment l'invasion du Cambodge en 1970, suscite une vive agitation parmi la jeunesse, s'exprimant par des manifestations parfois violemment réprimées (fusillade de Kent State University).
+Sur le plan intérieur, la politique de son administration se fonde sur le slogan de « la loi et l'ordre », impliquant une justice stricte et répressive. Le Parti républicain avait subi une écrasante défaite lors de l'élection de 1964, mais son candidat d'alors, Barry Goldwater, a recentré le parti sur des valeurs plus conservatrices, qui à terme, se sont davantage ancrées dans les stratégies électorales du Parti républicain. En outre, l'instauration des Droits civiques signés par le président Johnson (Civil Rights Act en 1964 et Voting Rights Act en 1965), améliorant le statut de la minorité afro-américaine, a détourné l'électorat traditionnellement démocrate du Vieux Sud (Deep South), favorable à la ségrégation, qui a basculé du côté républicain. Les chances de l'emporter sont donc excellentes pour Nixon, qui avait échoué en 1960, après avoir été vice-président d'Eisenhower pendant huit ans.
+En face, le camp démocrate est affaibli par ses querelles internes. La présidence de Lyndon Johnson (1963 - 1969) a été marquée par la guerre du Viêt Nam ; des émeutes raciales dans les ghettos noirs (hot summers) ; et le projet de la Great Society, développant l'État-providence (éducation, sécurité sociale, lutte contre la pauvreté) au prix de coûteuses dépenses. En 1968, quatre tendances s'affrontent lors des primaires démocrates. Hubert Humphrey a l'appui des syndicats et de l'appareil du parti ; Robert Kennedy séduit les minorités noire et catholique ; Eugene McCarthy porte les revendications des étudiants et des pacifistes ; et enfin George Wallace, ségrégationniste du Sud, opposé aux Droits civiques, se présente comme candidat indépendant. Robert Kennedy part favori, mais est assassiné en juin 1968 (deux mois après le leader noir Martin Luther King). C'est Humphrey qui est investi, au cours de la convention démocrate de Chicago en août 1968, au milieu d'affrontements entre la police et des émeutiers anti-guerre, dont les « leaders » seront jugés au cours du procès tumultueux dit des Chicago seven (septembre 1969-mars 1970). Hubert Humphrey est battu par Nixon lors de l'élection présidentielle de 1968 d'une courte tête alors que George Wallace, le troisième homme, rafle cinq États du Sud.
+En 1972, le candidat le plus soutenu par l'appareil du parti au début de la primaire démocrate, Edmund Muskie s'effondre, notamment des suites de mauvais coups (dirty tricks) concoctés par les hommes du Président, en particulier un scandale provoqué par une lettre livrée à la presse (Canuck letter). Celle-ci se révèlera plus tard être un faux, dans laquelle un « simple citoyen » dit avoir été témoin d'une attitude anti-canadiens français de la part de Muskie, lettre publiée avant les primaires dans le Massachusetts où les Américains d'origine franco-canadienne sont nombreux. C'est donc un candidat initialement inattendu, George McGovern, qui est investi lors de la Convention démocrate en juillet 1972. Il est un liberal (au sens américain, c'est-à-dire de gauche), et à ce titre, ses chances de vaincre sont réduites. Ses adversaires le dépeignent comme le « candidat des trois A » pour amnesty, abortion and acid (amnistie, avortement et acide). De plus, sa campagne commence mal : son candidat à la vice-présidence, Thomas Eagleton, doit renoncer lorsque la presse révèle qu'il a effectué des séjours dans des hôpitaux psychiatriques.
+En mai 1972, John Edgar Hoover, directeur du FBI, meurt. Il occupait cette fonction, dépendant du département de la Justice (équivalent du ministère de la Justice) depuis 1924, ayant servi sous huit présidents. C'est lui qui a développé cette agence gouvernementale, concentré ses moyens pour la lutte contre le communisme, notamment pendant la période du maccarthysme, tandis qu'il niait l'existence de la mafia, et généralisait les écoutes clandestines comme moyen d'investigation ou d'espionnage. En mai 1969, Nixon a mis à contribution le FBI pour enquêter par des écoutes clandestines sur les fuites dans la presse concernant les bombardements secrets sur le Cambodge qu'il a autorisés en février.
+Depuis sa création, aux lendemains de la Seconde Guerre mondiale et dans le contexte de la Guerre froide, la CIA a utilisé son savoir-faire dans plusieurs « coups », dont les plus retentissants sont réalisés dans les années 1950, lorsqu'Allen Dulles en est le directeur. En 1961, à la suite de l'échec du débarquement de la baie des Cochons, initiée sous la présidence Eisenhower, Dulles est démis de ses fonctions par le président John Kennedy. Son successeur est plus modéré, mais avec Richard Helms à partir de 1966, on en revient à un style et une motivation anticommuniste plus proches de ceux de Dulles. Avec l'arrivée au pouvoir de Nixon, la CIA intensifie son programme de surveillance de milliers de citoyens américains (Operation CHAOS), bien que toute activité de renseignement de la CIA sur le territoire américain soit interdite.
+Ces activités, quasiment inconnues du grand public américain, commencent à apparaître au grand jour au début des années 1970, dans la presse, et au cours d'enquêtes, à partir de 1970, du sous-comité judiciaire des droits constitutionnels du Sénat. En juin 1971, le New York Times, puis le Washington Post, publient des extraits d'un rapport secret, les Pentagon Papers, qui lui ont été remis par Daniel Ellsberg, un expert de la RAND Corporation, think tank travaillant pour le département de la Défense. Ces documents éclaircissent les prises de décisions gouvernementales et militaires pendant la guerre du Viêt Nam, informant par exemple de la volonté du président Johnson d'intensifier le conflit, quand il promettait de ne pas s'y impliquer davantage. Il s'ensuit un bras de fer juridique entre le gouvernement de Nixon, qui veut interdire la diffusion d'informations confidentielles, et les deux journaux, qui obtiennent finalement gain de cause, après décision de la Cour suprême, au nom du Premier amendement de la Constitution, qui garantit la liberté de la presse.
+Le scandale du Watergate commence lorsque, dans la nuit du 17 juin 1972, cinq « cambrioleurs » (dont deux Cubains), repérés par un agent de sécurité, sont arrêtés par la police dans l'immeuble du Watergate, au siège du Parti démocrate. Transportant du matériel d'écoute, des micros contact BTK Electronik de fabrication française, ces hommes ressemblent plus à des agents secrets qu'à des cambrioleurs. Sur des carnets d'adresses retrouvés en leur possession, on trouve les coordonnées d'un certain Howard Hunt. L'un d'entre eux, James McCord, attire particulièrement l'attention : c'est un colonel réserviste de l'armée de l'Air, un ancien du FBI et de la CIA, et surtout un membre du Comité pour la réélection du Président. Le FBI, dont le directeur Gray vient d'être nommé par Nixon, ne poursuit pas l'enquête malgré ces éléments troublants.
+Le 22 juin, le président Nixon évoque pour la première fois l'affaire en déclarant : « La Maison Blanche n'est impliquée en aucune manière dans cet incident là. » Pendant les six mois qui suivent, l'affaire est oubliée, et lors de l'élection présidentielle de novembre 1972, Richard Nixon remporte contre le démocrate George McGovern la deuxième plus écrasante victoire électorale de toute l'histoire des États-Unis.
+Deux journalistes du Washington Post, Carl Bernstein et Bob Woodward, enquêtent pour démêler un écheveau compliqué dont tous les fils conduiront à la Maison Blanche, à travers le Comité pour la réélection du président (CRP; se prononce "creep") de Richard Nixon. Jeunes journalistes d'investigation, ils utilisent beaucoup le téléphone et n'hésitent pas à contacter plusieurs centaines d'interlocuteurs, creusant des pistes qui avaient d'abord semblé maigres. Dans un premier temps, à partir des informations recueillies directement sur les cambrioleurs, ils parviennent à remonter les fils du financement occulte de la campagne électorale de Nixon en 1972, opéré notamment par le biais d'intermédiaires au Mexique. Des informations essentielles leur sont alors communiquées par un informateur secret surnommé Gorge Profonde (Deep Throat), qui ne révélera publiquement son identité que 30 ans plus tard. Il s'agissait de Mark Felt, le n°2 du FBI.
+Obsédés par l'affaire et suivis par leurs confrères, Woodward et Bernstein (surnommés Woodstein) parviennent à éclairer l'affaire, avant qu'elle soit traitée par la justice américaine (le Department of justice étant contrôlé par la maison Blanche), puis par une commission d'enquête sénatoriale indépendante. C'est l'un des cas les plus évidents, dans l'histoire américaine, de l'influence du « quatrième pouvoir ».
+En janvier 1973, le juge du district de Columbia, John Sirica préside le procès des cinq cambrioleurs, ainsi que celui de leur chef, Howard Hunt (ancien agent de la CIA) et de leur commanditaire direct, Gordon Liddy (ancien du FBI et membre du Comité pour la réélection du président). Persuadé qu'ils ne disent pas toute la vérité, le juge prolonge l'enquête. L'un des accusés, James McCord, écrit au juge une lettre dans laquelle il affirme s'être parjuré devant le tribunal, à cause de pressions émanant de la Maison Blanche, et indiquant que de hauts responsables sont impliqués.
+Une commission sénatoriale, dirigée par le démocrate Sam Ervin, est alors mise sur pied pour enquêter sur l'affaire, avec les démocrates (majoritaires au Sénat) Herman Talmadge, Joseph Montoya, Daniel Inouye, et les républicains Howard Baker, Edward Gurney, Lowell Weicker. Ils sont assistés par les conseillers Sam Dash (démocrate) et Fred Thompson (républicain).
+La commission d'enquête sénatoriale met en oeuvre des subpoena, c'est-à-dire des injonctions à comparaître, avec l'éventualité de poursuites par une juridiction en cas de parjure ou si un quelconque acte illégal est révélé.
+La Commission sénatoriale parvient, au cours d'une instruction qui dure un an et demi (mars 1973-août 1974) à la conclusion que certains proches de Richard Nixon ont été coupables d'obstructions à la justice, faux témoignages, écoutes clandestines, détournements de fonds, etc.23
+L'enquête a démontré que ce type de pratiques ne se résumait pas à des cas isolés. L'affaire des Papiers du Pentagone en 1971, en fut également la démonstration, quand un expert du Pentagone, Daniel Ellsberg fournit à la presse une copie d'un long rapport secret dévoilant des aspects dissimulés de la guerre du Viêt Nam. Le psychiatre d'Ellsberg avait ainsi été cambriolé par la même équipe que celle du Watergate, menée par Howard Hunt. Cette équipe, spécialisée dans la pose de matériel d'écoute, est surnommée, au cours de l'affaire, l'équipe des « plombiers ».
+On apprit lors de l'enquête que des membres de ces équipes, dont Howard Hunt, avaient été dépêchés, le 18 juillet 1969, à Chappaquiddick, Massachusetts, aussitôt après l'accident de voiture du sénateur démocrate Ted Kennedy, qui coûta la vie à l'une de ses collaboratrices, et brisa à jamais les ambitions présidentielles du frère de l'ancien président Kennedy.
+Il fut également établi que l'administration Nixon avait constitué une liste noire informelle d'adversaires présumés, à faire harceler par le fisc ou à discréditer par des poursuites judiciaires. Cette liste a été compilée par Charles Colson, conseiller spécial du président, accusé par John Dean d'avoir également projeté de placer une bombe dans les locaux de la Brookings Institution, pour y voler des documents.
+Sur la fin, la commission sénatoriale s'intéresse aux mouvements financiers liés aux campagnes électorales, concernant notamment une contribution du milliardaire Howard Hughes de 100 000 dollars, et son détournement par Bebe Rebozo, intermédiaire et ami intime de Nixon. Cette partie de l'enquête ne fut pas menée jusqu'à son terme.
+Les audiences, retransmises en direct à la télévision à partir du 18 mai, ou faisant l'objet de larges comptes rendus dans les journaux, sont suivies par une grande partie du public américain, qui se passionne pour les multiples rebondissements qui se succèdent et qui révèlent un aspect inconnu des pratiques de l'institution suprême.
+Au cours de l'enquête, trois témoignages successifs sont des grands tournants du scandale, de véritables bombes. Le premier, celui de James McCord, a révélé l'existence d'une équipe d'espions au service de membres du staff de la Maison Blanche. Le deuxième, celui de John Dean, conseiller juridique de la présidence, révèle, en juin, les conspirations s'étant tramées dans le Bureau ovale. Le troisième, celui d'Alexander Butterfield, haut-fonctionnaire, révèle en juillet qu'un système d'écoute secret pourrait permettre d'en savoir plus.
+Tout part donc des aveux de James McCord, en février 1973, qui, dans un premier temps, mettent en cause John Mitchell, ancien procureur général, John Dean, conseiller juridique du président, et Charles Colson. John Mitchell est le premier haut responsable mis en cause, en tant que président, en 1972, du Comité pour la réélection du président, qui a servi d'intermédiaire entre la Maison Blanche et les cambrioleurs, notamment pour le financement de leurs opérations. Sa femme, Martha, se répand alors en accusations contre l'administration présidentielle devant les journalistes.
+Le 27 avril, le directeur du FBI, Patrick Gray, démissionne, après qu'il a été révélé, à la suite de son audition devant le Sénat pour ratifier sa récente nomination, qu'il a détruit des documents relatifs à l'enquête sur le cambriolage.
+Le 30 avril, Bob Haldeman, chef de cabinet de la Maison Blanche, et John Ehrlichman, conseiller pour les Affaires intérieures, démissionnent. Surnommés ensemble « le mur de Berlin », à cause de leur tendance à faire barrage autour du président en écartant des collaborateurs ou visiteurs, ils étaient les deux principaux conseillers de Nixon. Il fut établi par l'enquête qu'ils étaient à l'origine, avec Charles Colson, qui a démissionné le 10 mars, des ordres donnés à l'équipe des « plombiers », aussi bien pour le Watergate que pour le cas Ellsberg en 1971. John Dean est quant à lui renvoyé par la Maison Blanche, après avoir refusé de signer un texte reconnaissant sa responsabilité dans l'affaire du Watergate.
+Le même jour, l'Attorney General Richard Kleindienst démissionne également. Kleindienst est remplacé par le secrétaire à la Défense Elliot Richardson, qui nomme aussitôt un procureur spécial indépendant pour enquêter sur le Watergate. Archibald Cox, ancien n°3 du département de la Justice sous Kennedy, accepte ce poste le 18 mai 1973.
+Le 3 juin, John Dean, qui refuse de servir de bouc émissaire, commence à témoigner devant la Commission. Il compromet plusieurs membres de l'administration Nixon, dont Mitchell, Haldeman, Ehrlichman, Colson, et le président lui-même. Il révèle notamment que plusieurs réunions ont eu lieu entre Nixon, Haldeman et Ehrlichman, pour superviser l'étouffement de l'affaire du Watergate, et discuter des sommes pouvant être engagées pour inciter au silence les « plombiers » arrêtés.
+Le 16 juillet 1973, Alexander Butterfield, adjoint de Bob Haldeman et témoin surprise, révèle qu'il existait un système d'écoute sophistiqué enregistrant toutes les conversations, à l'insu des personnes concernées, au sein du bâtiment de l'exécutif suprême. De tels enregistrements étaient déjà ponctuellement pratiqués sous l'administration de Kennedy. Cette information est largement diffusée par la presse, et implique la dissimulation de preuves de l'implication de Richard Nixon et de ses collaborateurs dans les événements du Watergate. Le président tente de soustraire à l'enquête les bandes magnétiques comportant les enregistrements des conversations menées dans le bureau ovale, et rapportées par les témoins.
+Le procureur spécial indépendant, Archibald Cox, demande à la Maison Blanche la restitution, pour l'enquête, des bandes magnétiques, afin de confirmer les aveux de John Dean. Nixon s'y oppose, au nom du « privilège de l'exécutif », et demande à l'Attorney General, Elliot Richardson, de destituer Cox. Richardson, qui avait nommé Cox, refuse, ainsi que son second, William Ruckelshaus. Ils démissionnent le 20 octobre 1973. Cet épisode, qui a provoqué une profonde indignation dans l'opinion publique, reste célèbre dans l'histoire américaine sous le nom de « massacre du samedi soir ».
+Archibald Cox, finalement démis de ses fonctions par Robert Bork, numéro 3 du département de la Justice, est aussitôt remplacé par Leon Jaworski, lequel réclame à son tour les bandes, 64 d'entre elles précisément. Nixon essaie de gagner du temps. Le 30 octobre 1973, il fait parvenir une partie des bandes, mais il y a un trou de 18 minutes ½ sur l'une d'entre elles. La secrétaire de Nixon, Rose Mary Woods, témoigne qu'il s'agit d'une erreur de manipulation. Le 10 janvier 1974, un comité d'expert désigné par le juge John Sirica, conclut à un effacement délibéré. Nixon tente alors, dans les mois qui suivent, de ne remettre que des retranscriptions écrites de ces enregistrements, certains passages étant censurés ou prétendument inaudibles. Dans ces retranscriptions rendues publiques, de nombreux passages où l'on entend le président sont très ambigus, moralement compromettants, voire révélateurs, mais pas suffisamment pour envisager des poursuites judiciaires.
+La résistance de Nixon concernant la restitution des bandes s'explique non seulement par le souci de dissimuler des informations compromettantes confirmant les déclarations des témoins, mais probablement aussi par l'image dégradante des dessous du pouvoir et du président lui-même qu'elles pouvaient révéler. « J'ai trouvé tout cela dégoutant », déclare John Sirica, juste après avoir enfin entendu le contenu des bandes. Selon le journaliste et prix Pulitzer Seymour Hersh, les bandes auraient révélé l'alcoolisme de Nixon et le rôle du conseiller à la sécurité nationale (puis secrétaire d'État) Henry Kissinger, qui se serait chargé d'affaires urgentes lorsque le président était en incapacité de les gérer.
+Jaworski finit par demander à la Cour suprême de se prononcer sur la légitimité du président Nixon à s'opposer à la restitution des bandes magnétiques. Le 24 juillet 1974, bien que formée de quatre juges sur neuf nommés par Nixon, elle se prononce à l'unanimité (moins une abstention) pour la restitution des bandes.
+Nixon est alors définitivement et complètement isolé politiquement. Le dos au mur et sans autre recours légal, la Maison Blanche remet donc les bandes fin juillet. L'une d'entre elles est surnommée Smoking Gun Tape. Il s'agit d'une conversation tenue six jours après le cambriolage, le 23 juin 1972, entre Nixon et Haldeman. On entend le président autoriser explicitement ses collaborateurs à approcher le directeur de la CIA, Richard Helms, pour qu'il demande au directeur du FBI, Patrick Gray, d'enterrer l'enquête fédérale sur le cambriolage pour des raisons de sécurité nationale.
+C'est la preuve décisive, non seulement des mensonges, mais surtout de la culpabilité juridique de Nixon dans une conspiration criminelle ayant pour but de faire obstruction à la justice, motif justifiant amplement une procédure d'impeachment (destitution par le Congrès), qui a de fortes chances d'aboutir. Les membres de son propre parti, dont Barry Goldwater, le pressent de démissionner. Au fur et à mesure des révélations, des foules de plus en plus nombreuses se sont présentées devant les grilles de la Maison Blanche ou au cours des déplacements du président, pour réclamer son départ.
+Les 27, 29 et 30 juillet, les membres de la Commission judiciaire de la Chambre des Représentants votent sur les articles de l'impeachment du président, et retiennent les charges d'obstruction à la justice, abus de pouvoir et outrage au Congrès.
+Nixon n'a jamais cessé de plaider son innocence, plaidée jusqu'au bout par son porte-parole et conseiller en communication Ron Ziegler. Le 17 novembre 1973, le président avait prononcé un discours célèbre, déclarant : I am not a crook (Je ne suis pas un escroc).
+Après s'être farouchement défendu, il préfère néanmoins donner sa démission quand l'impeachment est engagé contre lui. Nixon est le seul président de l'histoire des États-Unis à avoir démissionné. Il quitte ses fonctions le 9 août 1974, une semaine après le déclenchement de la procédure. Après un discours devant le personnel de la Maison Blanche et les journalistes, il quitte en direct la Maison Blanche à bord d'Army One, l'hélicoptère présidentiel de l'US Army.
+Le vice-président Spiro Agnew ayant démissionné en 1973 pour une affaire de corruption distincte, c'est le nouveau vice-président, Gerald Ford, nommé par Nixon qui lui succède immédiatement. Sa première action officielle, très controversée, est de gracier Richard Nixon, ce qui a pour effet de stopper toute procédure. Nixon, avocat, n'en est pas moins radié du barreau de l'État de New York en 1976.
+Quant aux enregistrements qui ont suscité d'interminables batailles juridiques, le président Ford en donne le contrôle à Nixon, qui est le seul habilité à donner les autorisations pour leurs consultations.
+À l'issue du procès des cambrioleurs en janvier 1973, plaidant coupable, Howard Hunt passe 33 mois en prison. Gordon Liddy, lui, est condamné à une peine de 20 ans, mais est amnistié 4 ans plus tard par le président Jimmy Carter.
+En novembre 1973, John Dean plaide coupable, devant le juge Sirica, d'obstruction à la justice. Il témoigne contre Mitchell, Haldeman et Ehrlichman et bénéficie alors du même programme de protection que celui des témoins contre le crime organisé ; il passe 4 mois en prison.
+Le 1er mars 1974, sept collaborateurs de Nixon, dont Haldeman, Ehrlichman, Colson et Mitchell, sont inculpés pour conspiration dans le cadre de l'affaire du Watergate. En juin 1974 Charles Colson plaide coupable d'obstruction à la justice dans l'affaire Ellsberg. Il évite ainsi d'autres poursuites, et ne passe que 7 mois en prison. En janvier 1975, John Ehrlichman et Bob Haldeman sont reconnus coupables de conspiration, obstruction à la justice et parjure ; ils passent 18 mois en prison. En février 1975, John Mitchell est reconnu coupable des mêmes crimes ; il passe 19 mois en prison.
+En tout, plus de 70 personnes ont été poursuivies en justice dans le cadre de ce scandale.
+L'identité de l'informateur « Gorge profonde » (surnom donné par Woodward en référence au film pornographique du même nom ayant connu un grand succès en 1972) est un sujet qui a fait couler beaucoup d'encre. Au cours de l'affaire, plusieurs personnalités politiques célèbres, dont Henry Kissinger, George H. W. Bush, Ron Ziegler, John Dean, Alexander Haig ou Pat Buchanan ont été présentées comme étant cet informateur secret,70,71.
+Les seules personnes connaissant son identité sont les deux journalistes et leur rédacteur en chef de l'époque, Benjamin Bradlee. La véritable identité de Gorge profonde est finalement révélée par le magazine américain Vanity Fair du 31 mai 2005. Il s'agissait de W. Mark Felt, directeur adjoint du FBI sous Richard Nixon. Âgé de 91 ans, il déclare souhaiter « libérer sa conscience ». Le Washington Post confirme l'information quelques heures plus tard. Bob Woodward raconte qu'il connaissait Mark Felt depuis 1970, et que les relations entre le FBI et la Maison Blanche s'étaient sérieusement dégradées. Il a également été fait mention du dégoût de Felt pour les méthodes de l'équipe de Nixon et de son dépit de ne pas avoir été nommé à la tête du FBI à la mort de John Edgar Hoover.
+Le Watergate est devenu l'une des plus célèbres affaires de l'histoire des États-Unis et est irrémédiablement attaché au nom de Nixon. Il a durablement terni l'image de la fonction présidentielle et accru la méfiance des Américains envers leurs dirigeants, d'autant plus que l'administration Nixon se réclamait de « la loi et l'ordre ».
+Le scandale du Watergate en lui-même a en fait mis au jour toute une série de scandales commis par l'administration Nixon, dont le mode de fonctionnement est devenu, au fil des révélations, « le » grand scandale. Selon l'historien américain Melvin Small, « les scandales de Nixon ont révélé une tentative pour subvertir tout le système politique américain ».
+Cette affaire a redonné un souffle au journalisme d'investigation, dont Woodward et Bernstein sont devenus les symboles. Elle a aussi alimenté significativement le cynisme dans les commentaires politiques.
+Le scandale, et en particulier les leçons de l'épisode du « massacre du Samedi soir » et ses conséquences sur l'opinion publique, ont accru de facto l'importance du rôle du procureur spécial indépendant. Un aspect en est le renforcement de l'indépendance du pouvoir judiciaire. Mais cette évolution a parfois été jugée excessive, notamment lors de l'instrumentalisation politique de la fonction, avec par exemple l'enquête menée par le procureur Kenneth Starr contre Bill Clinton, lors du Monicagate.
+Les révélations du Watergate ont poussé à remettre en cause l'intégrité de l'administration et notamment des agences gouvernementales de renseignement. Ce climat aboutit, en 1975 - 1976, à des commissions d'enquête au Congrès, la Commission Pike (Chambre des représentants) et la Commission Church (Sénat), qui révèlent certaines activités illégales de la CIA, comme le Projet MKULTRA, ou l'implication dans le renversement de plusieurs chefs d'État, dont l'assassinat fut légalement interdit sous la présidence de Gerald Ford. Les moyens opérationnels de la CIA en sortent réduits, et son rôle dans l'appareil de renseignements américain diminue au profit de la National Security Agency.
+Le discrédit du camp républicain profita aux démocrates, et notamment au candidat inattendu Jimmy Carter, gouverneur de la Géorgie et propriétaire d'une plantation de cacahuètes, lors de l'élection présidentielle de 1976. Le courant conservateur du Parti républicain en a également profité pour gagner plus d'influence au sein du parti et porter l'un des siens, Ronald Reagan, au pouvoir en 1980.
+Plusieurs commentateurs ont avancé que ce scandale a affaibli la présidence américaine, voire la puissance américaine elle-même dans les années qui ont suivi. La chute de Saigon, en 1975, en serait une illustration. L'indépendance du Sud Viêt Nam était garantie par le traité de Paris signé en 1973 pour le retrait des troupes américaines, et Gerald Ford n'a pas donné l'ordre à l'armée américaine d'intervenir contre les troupes du Nord Viêt Nam lorsque celles-ci ont envahi le Sud. Nixon n'avait pas hésité à ordonner des bombardements très destructeurs lors d'une offensive du Nord au printemps 1972, pendant les négociations de paix.
+Pour d'autres commentateurs de la gauche américaine, comme Noam Chomsky, l'impeachment ne fut prononcé contre Nixon que parce qu'il s'était attaqué à aussi puissant que lui et non pour avoir utilisé des méthodes illégales largement utilisées contre d'autres éléments de la société jugés trop subversifs pour l'ordre établi.
+Suite à ce scandale, les médias américains ont pris l'habitude d'utiliser le suffixe « -gate » pour désigner des affaires d'État, des actions illégales ou des mensonges des autorités gouvernementales américaines : Irangate, Monicagate, etc. Cette habitude est également parvenue en France où une affaire des ventes d'armes à l'Angola a été nommée « Angolagate » (terme créé par Le Monde en janvier 2001)87. Le mot « gate » signifie porte en anglais. Ce suffixe a même atteint le monde du sport, avec l'icegate, terme utilisé pour qualifier le scandale ayant entouré le résultat de la compétition de couples en patinage artistique aux Jeux Olympiques de Salt Lake City en 2002.88
+Le film d'Alan J. Pakula, Les Hommes du président (All the President's Men), tiré du livre du même nom, raconte l'histoire des journalistes qui ont dévoilé le scandale, et sorti deux ans seulement après la fin du scandale. Le rôle de Bob Woodward est repris par Robert Redford, et celui de Carl Bernstein par Dustin Hoffman.
+Le film de Robert Zemeckis, Forrest Gump, fait un clin d'oeil à cet événement, lorsque Forrest Gump de la fenêtre de sa chambre à Washington, surprend en pleine nuit « des lumières » dans l'immeuble Watergate.
+Le film biographique d'Oliver Stone, Nixon, octroie une large place aux épisodes du Watergate vus de l'intérieur de la Maison Blanche, en reprenant implicitement les thèses selon lesquelles les bandes auraient dévoilé le langage grossier et agressif du président, et contenaient des références à des opérations occultes de la CIA.
+Le film historique Frost/Nixon du réalisateur Ron Howard offre une large place à l'opposition entre Richard Nixon et David Frost, qui réalise une série d'entretiens du 37e président des États-Unis où ce dernier déclare au sujet du Watergate que, quoi que fasse le président, cela est légal et que son administration avait abandonné le peuple américain.
+Un reporter, « l'inventeur » du journalisme gonzo Hunter S. Thompson, qui ne cache pas son mépris envers Nixon et ses hommes, donne une analyse décalée et non moins passionnée des auditions du Watergate pour le magazine Rolling Stone.
+Contenu soumis à la GFDL
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+La Scientologie, ou « Église de Scientologie », est une organisation dont les principes furent développés aux États-Unis en 1952 par L. Ron. Hubbard. La première église de Scientologie fut établie au New Jersey en décembre 1953. La Scientologie promeut une méthode appelée « dianétique » par son fondateur et propose plus largement un ensemble de croyances et de pratiques relatives à la nature de l'homme et de sa place dans l'univers. Son statut juridique et l'appréciation de sa qualité de religion suscitent de nombreuses polémiques. Des États l'ont officiellement reconnue comme telle, alors que dans d'autres pays elle est considérée comme une secte ou encore comme une simple organisation commerciale. Ses pratiques, au travers notamment de ses différentes organisations satellites, ont également fait l'objet de controverses et de procédures judiciaires.
+Lafayette Ronald Hubbard (13 mars 1911, 24 janvier 1986), mieux connu sous le nom de Ron Hubbard, était un auteur de science-fiction et fantasy américain .
+Le premier article de Ron Hubbard sur la dianétique parut en mai 1950 dans le magazine Astounding Science-Fiction dont il était un auteur habituel. L'article avait été annoncé depuis plusieurs mois par le rédacteur en chef John W. Campbell qui le présentait comme un travail scientifique important 3.
+En parallèle paraissait, le 8 mai 1950, le livre Dianétique : la science moderne de la santé mentale. Ron Hubbard y déclare avoir identifié la source des maladies psychosomatiques, après plusieurs années de recherches personnelles. Pour lui, la dianétique correspond à une approche scientifique et rationnelle de la psychologie.
+La méthode de dianétique connut un succès rapide. Dès juillet, le livre était un best-seller et des « clubs de dianétique » se créèrent un peu partout aux États-Unis pour expérimenter la méthode d'audition décrite par Hubbard. À ce moment, l'association psychiatrique américaine exigea que la dianétique soit soumise à une enquête scientifique.
+En 1952, Hubbard élargit la dianétique en une philosophie laïque qu'il appela « scientologie » et la déclara comme une religion en décembre 1953, date à laquelle la première église de scientologie fut fondée à Camden au New Jersey.
+À la fin des années 1950, l'Église de scientologie s'implante progressivement dans d'autres pays : en Nouvelle-Zélande, en Afrique du Sud puis en France, à Paris, en 1959.
+En 1958, le fisc américain remit en cause le statut religieux de la scientologie.
+Hubbard s'établit à cette époque en Grande-Bretagne et, en 1959, acheta le manoir géorgien de Saint Hill, situé près de la ville d' East Grinstead au Sussex, qui devint alors le siège mondial de la scientologie.
+La scientologie devint le sujet de controverses dans le monde anglophone vers le milieu des années 1960. Dans l'État de Victoria en Australie, après la constitution d'un rapport sur les activités du mouvement, une loi sur les pratiques psychologiques mène à l'interdiction de la scientologie dans cet État en 1965. Deux autres États australiens feront de même, mais ces lois furent déclarées inconstitutionnelles en 19695.
+À la même époque, la Grande-Bretagne tenta d'interdire l'accès du pays aux scientologues étrangers et donc l'accès au centre de formation du siège international après un rapport de la Chambre des communes britannique critiquant les méthodes psychothérapeutiques de la scientologie et la considérant comme nuisible à la société et à la santé des individus.
+La Nouvelle-Zélande, l'Afrique du Sud et la province de l'Ontario au Canada menèrent également des enquêtes publiques sur les activités de la scientologie.
+À partir de 1966, Hubbard commença à se désengager de la direction du mouvement. Il démissionna en 1967 du poste de directeur exécutif, et fonda la « Sea Organisation » ou « Sea Org », qui devint le groupe de gestion internationale de la Scientologie. L'office du gardien fut fondé en 1966.
+La Sea Org fut jusqu'en 1975 une organisation maritime dirigée par Hubbard ; à cette date elle s'installa à Clearwater en Floride, qui devint le nouveau siège mondial de l'Église de scientologie.
+En 1977 éclata aux États-Unis l'« affaire Snow White », révélant une opération montée par l'Église pour purger les dossiers défavorables sur la scientologie et son fondateur L. Ron Hubbard. Ce projet incluait une série d'infiltrations et de vols de 136 organismes gouvernementaux, ambassades et consulats, ainsi que d'organismes privés critiques à l'égard de la Scientologie, réalisée par des membres de l'Église dans plus de trente pays.
+À cette occasion, le FBI découvrit des dossiers que l'Église constituait sur ses ennemis potentiels,7, afin de les mettre hors d'état de lui nuire.
+Onze cadres haut placés de l'Église furent inculpés. Ils plaidèrent coupables ou furent reconnus comme tels par la Cour fédérale pour les délits d'obstruction à la justice, de cambriolage de bureaux du gouvernement, et de vol de documents et biens de l'État, et furent condamnés à des peines de quatre à cinq ans de prison, et à des amendes de 10 000 dollars 8.
+En 1978, trois dirigeants du siège français, ainsi qu'Hubbard, furent convaincus d'escroquerie par le tribunal de Paris, lors d'un procès qualifié de « procès du siècle » par l'Église.
+Suite à l'affaire Snowhite, l'Office du gardien fut supprimé, et les scientologues impliqués dans l'affaire furent démis de leurs responsabilités dans l'organisation. Le mouvement entreprit alors une restructuration : en 1981 est créée l'Église scientologue internationale, qui est l'organe de direction, et en 1982 le Centre de technologie religieuse, sa structure religieuse, à qui Hubbard céda ses droits sur les marques scientologues.
+Dans les années 1980, après la tragédie de Guyana et les plaintes des associations de familles concernant l'Église de l'Unification, les États-Unis puis les États européens s'inquiétèrent des dangers des « nouveaux mouvements religieux » .
+De nouveaux rapports étudiant les risques sectaires de divers mouvements furent alors produits, comme le rapport Vivien en France, qui pointait des pressions morales endettant les adeptes de la scientologie.
+En 1993, la situation changea aux États-Unis où l'Église de Scientologie fut reconnue comme religion par les services fiscaux 12.
+Cependant, en France, le rapport parlementaire de 1995 qui dressait une liste indicative des sectes très controversée y désignait la scientologie comme une secte. Un rapport de 1999 de la MILS la classait comme secte « absolue » et recommandait sa dissolution.
+Un rapport de la Chambre des représentants belge (proposition de loi de deux parlementaires) n° 313/7 - 95/96 en date du 28 avril 1997 la classe comme faisant partie des mouvements sectaires nuisibles.
+En République fédérale d'Allemagne également, une commission d'enquête parlementaire fédérale sur les « sectes et psychogroupes » la considère comme un « mouvement politique extrémiste » dont la forme de pensée totalitaire est explicitement rapprochée de la pensée nazie.
+Les États-Unis réagirent en 1999 en publiant un « rapport sur la liberté religieuse dans le monde » très critique envers ces politiques nationales.
+Un rapport du parlement européen notait en 1997 que le reproche le plus répété envers la Scientologie est de tenter de noyauter les organes de l'État, mais qu'il n'avait pu être réellement prouvé. Il concluait que dans la plupart des pays d'Europe, les modifications de l'arsenal juridique n'étaient pas nécessaires. C'est le point de vue qui fut adopté par la plupart des pays, qui choisirent de ne pas créer de législation spécifique, mais de ne traiter le phénomène sectaire qu'au travers de l'atteinte à l'ordre public.
+Dans ses écritures, la Scientologie se donne comme but : « Une civilisation sans folie, sans criminel et sans guerre, dans laquelle les gens capables puissent prospérer et les gens honnêtes puissent avoir des droits, et dans laquelle l'homme soit libre d'atteindre des sommets plus élevés. »17. La Scientologie se considère comme une « philosophie religieuse appliquée ». En d'autres termes elle se présente comme une religion, tout en offrant des « solutions pour les problèmes » de ses adeptes. La Scientologie, qui se définit elle-même comme une religion traditionnelle, se fonde sur la croyance selon laquelle l'homme a été créé pour travailler à son propre salut spirituel, et que ce n'est que dans cette optique qu'il peut comprendre pleinement sa relation avec Dieu. La Scientologie affirme aussi que l'homme est fondamentalement bon mais qu'à cause de son mental réactif, source d'irrationalité, il peut être conduit à agir de manière mauvaise. Ainsi, son « salut spirituel » dépendrait de sa relation avec lui-même, avec ses semblables et du fait d'arriver à une « fraternité avec l'univers ». La Scientologie affirme donner à l'individu le moyen de résoudre par lui-même ses problèmes, mettre de l'« ordre dans sa propre vie » et également lui permettre d'aider efficacement les autres. Le résultat obtenu se manifesterait par des progrès concrets visant à débarrasser la société de ce que la Scientologie estime être ses fléaux (les drogues, l'illettrisme, le crime, la violence et l'intolérance). Les Églises de Scientologie constitueraient alors, selon elles-mêmes, des points centraux, dont émaneraient programmes et activités.
+La scientologie considère que la motivation fondamentale de la vie est la survie, elle-même étant située sur une échelle graduée allant de la mort à l'immortalité potentielle. Cette motivation est appelée la dynamique. Cette dynamique ou impulsion fondamentale se sépare en 8 dynamiques (symbolisées par la croix à 8 branches de la scientologie). L'homme aurait une impulsion à survivre sur chacune d'entre elles.
+Toutes ces dynamiques sont des divisions arbitraires de la dynamique fondamentale qui les englobe toutes.22.
+Selon les critères de la Scientologie, la vie des scientologues est censée s'améliorer graduellement. De même, les scientologues affirment « progresser spirituellement » petit à petit. Ron Hubbard affirmait avoir développé une voie précise d'étude religieuse, consistant en une série d'étapes progressives et payantes, effectuées dans une séquence précise qui aiderait l'individu à atteindre un état d'« existence très élevée ». Cette « ascension » en scientologie permettrait à l'individu de comprendre de mieux en mieux ce que la Scientologie estime être « la nature spirituelle de l'homme » et sa relation avec ce que ce mouvement pense être « l'Être suprême » (à définir). Les adeptes sont censés « améliorer leur vie » grâce à la Scientologie. Ils seraient plus heureux et auraient des relations et une vie de famille plus « positives », et ils réussiraient mieux dans leur travail. Et à leur tour, grâce au prosélytisme scientologiste, ils apporteraient leur contribution à la société en « améliorant les conditions de vie ».
+L'étude des ouvrages de Ron Hubbard fait partie de la vie des scientologues, qu'ils participent à des services religieux dans une église de scientologie ou qu'ils poursuivent leur étude des « Écritures » de la scientologie à domicile. (la collection complète des livres de R. Hubbard coûte 3175E 23) Ils les étudient dans toutes les Églises de scientologie, sous la surveillance de superviseurs de cours, et sont encouragés à continuer leur étude de la religion à domicile, en suivant des cours par correspondance par exemple.
+L'audition constitue, aux yeux des scientologues, une « technologie spirituelle » dont l'application permet d'« améliorer sa propre condition et son existence, ainsi que celles des gens de son entourage ». Selon les scientologues, l'audition constitue la pratique essentielle de la scientologie. Elle peut être dispensée à des groupes de personnes lors d'un office dominical ou lors d'autres rassemblements religieux, ou à une seule personne lors de séances dirigées par un ministre de scientologie, l'« auditeur ». Quand l'audition est donnée individuellement, l'auditeur, par des questions répétées, aiderait la personne auditée à examiner un moment particulier de son existence. Celle-ci deviendrait plus heureuse, plus confiante, plus consciente, plus maîtresse de sa vie. L'auditeur utilise un « électropsychomètre » ou électromètre qui est supposé pouvoir mesurer l'état ou les changements d'état spirituel de la personne. L'électromètre permettrait également à l'auditeur d'aider la personne à localiser des domaines de détresse ou d'angoisse. Lorsque ces moments sont localisés et examinés par la personne auditée, ceux-ci cesseraient d'avoir une influence indue sur leur vie présente et la personne y gagnerait soulagement et autodéterminisme. L'audition est aussi dispensée à des groupes lors d'offices du Dimanche et lors d'autres rassemblements, selon le même principe : l'auditeur dirige les activités de toute l'assistance. L'église de scientologie affirme augmenter considérablement le niveau de communication, de conscience et d'aptitude de tous les membres de l'assistance. L'audition de groupe permettrait aux participants de bénéficier gratuitement et régulièrement des avantages de l'audition. En fait, l'audition de groupe est gratuite lors des offices du dimanche, et peut être payante en dehors de ce cadre.
+Arnaud Palisson dans sa thèse de l'université de Cergy-Pontoise en droit pénal a tenté de démontrer que le caractère extrême de certains exercices place la scientologie à la limite de la légalité (exercice illégal de la médecine, droit de l'enfance, code du travail, etc.). Pour le psychiatre Louis Jolyon West, cette technique est surtout une forme d'hypnose apte à faire entrer le sujet en transe 25. Certains détracteurs soutiennent que l'Église de Scientologie, contrairement aux psychothérapies, à la médecine ou à la confession catholique n'a pas de règles déontologiques lui interdisant d'exploiter les secrets que ses adeptes ont confiés lors d'auditions ou en remplissant des questionnaires. L'organisation dément ces accusations et affirme considérer les communications entre un ministre de l'église et un paroissien comme sacro-saintes, ceci étant stipulé par le « Code de l'auditeur » qui régit toute séance d'audition.
+À l'inverse, les universitaires spécialistes des religions ayant étudié la scientologie, comme Bryan Wilson et Régis Dericquebourg, décrivent l'audition comme une forme de conseil pastoral permettant une plus grande compréhension de sa spiritualité et de sa relation avec l'être suprême. Ils y voient une sorte de « méthodisme » spirituel.28
+Dans la dianétique et la scientologie, l'état Clair correspond à une condition dans laquelle une personne n'est plus soumise à des influences non souhaitées provenant de souvenirs passés, ni à des émotions et épisodes traumatiques passés. Une personne Claire est donc « débarrassée de ces influences néfastes ».
+Le fondateur, L. Ron Hubbard, définit le stade de « Clair » comme celui d'une personne qui n'aurait plus son propre « mental réactif »29 et qui ne souffrirait donc plus des effets que ce mental réactif peut causer. Ce stade de Clair serait atteint aux moyens de l'« audition » en dianétique et scientologie.
+Un Clair serait rationnel dans ce sens qu'il formerait les meilleures solutions possibles à partir des données qu'il détient et de par son propre point de vue. Le Clair n'aurait donc plus d'« engrammes ».30 Ceux-ci, lorsqu'ils sont « restimulés », feraient dévier la justesse des raisonnements en y faisant entrer des données fausses et cachées. Le Los Angeles Times rapporte que L. Ron. Hubbard a écrit qu'il y a 75 millions d'années notre univers fut organisé en une Confédération galactique de 76 planètes, dirigée par le tout-puissant seigneur galactique Xenu. Xenu aurait fait expédier sur Terre par fusées - ressemblant à des DC-8 - les 13,5 trillions d'habitants, les aurait mis dans des volcans, aurait fait exploser d'énormes bombes H et aurait ensuite soudé ensemble ces âmes désincarnées, qu'il appelle des « thétans de corps ». Les humains ne seraient donc pas seuls dans leur corps mais seraient composés d'eux-mêmes et de milliers de ces âmes parasites. Par ailleurs, il faut environ 200 000 euros pour apprendre à se débarrasser de ces « thétans de corps» . D'après un opposant s'appuyant sur un témoignage, l'histoire sur l'origine de l'humanité aurait été conçue à une époque à laquelle Hubbard aurait consommé beaucoup de drogue.
+L'histoire de Xenu ferait partie des doctrines secrètes qui seraient enseignées seulement aux membres avancés de l'Eglise. Cette dernière n'évoque pas ouvertement ce mythe et va parfois jusqu'à nier son existence dans la pensée scientologue. Naturellement, les personnes qui croient à cette cosmogonie sans être des adeptes de la scientologie sont très rares. Il convient ici de rappeler qu'avant de fonder la Scientologie, Hubbard était un écrivain de science-fiction. L'auteur américain de science-fiction et patron de presse Lloyd Eshbach, raconte que Hubbard lui aurait dit : « J'aimerais créer une religion. C'est là où se trouve l'argent ». L'Église de Scientologie réfute cette affirmation et soutient sur son site qu'« une fausse attribution fut reconnue par des tribunaux de justice en Allemagne ».
+Tous les dimanches, l'aumônier conduit des services du culte ouverts à « tous les individus qui partagent l'espoir que l'homme vivra mieux et sera plus heureux dans le futur ». L'aumônier célèbre aussi des mariages, des baptêmes et des funérailles pour ses adeptes et les membres de leur famille.
+Dans les pays appliquant une séparation des églises et de l'état, dans les états laïques (comme la France, ou la Belgique), ou dans les pays ayant une religion officielle, ces cérémonies n'ont pas de valeur légale.
+De nombreuses fêtes scientologiques (en) ponctuent l'année civile, parmi lesquelles :
+Née dans le monde anglophone, la scientologie a aujourd'hui une envergure mondiale. En 2008, elle essaye de s'étendre dans toute l'Afrique (l'Afrique du Sud notamment, où l'Église de scientologie est reconnue comme association d'utilité publique depuis le 3 décembre 2007).
+Le statut juridique de la Scientologie diffère selon les pays où elle est installée : elle se présente selon les États comme une organisation commerciale, une religion, un centre culturel de dianétique ou bien une simple technique de développement personnel.
+Frédéric Lenoir soulignait en 1998 la différence de statut entre certains pays d'Europe dont la France, où l'organisation était listée comme « secte absolue », et celle en Amérique du Nord, où l'Église de Scientologie a été reconnue comme religion par les services fiscaux des États-Unis en 1993,40, et où s'affichent parmi ses membres des personnalités telles que les acteurs John Travolta et Tom Cruise, les actrices Juliette Lewis et Catherine Bell, sans oublier Katie Holmes ainsi que les musiciens Isaac Hayes, Chick Corea et Beck... Ces Very Important People bénéficient d'un traitement à part au sein de l'organisation qui a créé pour eux des Celebrity centers.
+En septembre 2004, Nicolas Sarkozy, alors ministre du Budget, avait reçu à Bercy de façon très médiatisée l'acteur Tom Cruise, scientologue avéré. Durant des interviews pour l'émission "90 minutes" diffusée le 31 mai 2005 sur la chaine française canal+, Claude Guéant déclare que la scientologie n'est pas un danger pour les personnes et Nicolas Sarkozy ne peut se décider si la scientologie est une secte ou non. En février 2008 « Emmanuelle Mignon, alors directrice de cabinet du président de la République, [...] s'était interrogée sur la pertinence de qualifier ce mouvement de "secte" »46
+L'Église de scientologie chercherait à être reconnue comme une religion et effectue des demandes en ce sens dans de nombreux pays, avec des résultats divers. En Suède, au Portugal et au Venezuela, elle a été reconnue officiellement comme une religion.
+Dans plusieurs pays, l'organisation a fait appel à la justice pour obtenir cette reconnaissance. En Espagne, en 2005 le ministère de la Justice avait refusé l'inscription de l'Église de Scientologie au registre des associations religieuses. En novembre 2007, après deux ans d'instruction, l'Audience Nationale, haute instance juridique espagnole, a obligé le ministère de la Justice à enregistrer l'Église sur le registre des associations religieuses, conférant à cette dernière les mêmes privilèges qu'aux catholiques.50,51
+Suite à cette décision de l'Audience nationale, la justice espagnole a inscrit la scientologie au registre légal des religions le 19 décembre 2007. 52 La ville de Moscou refusant d'enregistrer l'Église comme association religieuse, la Cour européenne des droits de l'homme a considéré, à l'unanimité, qu'il s'agissait d'une violation de l'article 11 (liberté de réunion et d'association) de la Convention européenne des droits de l'homme combiné avec l'article 9 (liberté de pensée, de conscience et de religion) 53. D'après l'arrêt, « Les autorités n'ont pas agi de bonne foi et ont manqué à leur devoir de neutralité et d'impartialité envers la communauté religieuse représentée par l'Église requérante ».
+L'organisation scientologue a également obtenu le droit de célébrer les mariages dans plusieurs pays ce qu'elle considère comme une reconnaissance officielle de ce qu'elle serait une religion à part entière notamment en Afrique du Sud en Australie, en Inde, en Italie, au Mexique, en Nouvelle-Zélande, à Taïwan, en Tanzanie et au Zimbabwe.
+En Suisse, plusieurs tribunaux lui ont refusé l'appellation « religion » et l'ont désignée comme exclusivement commerciale.
+En Grande-Bretagne, les services fiscaux considèrent depuis 2000 l'Église de scientologie comme une organisation sans but lucratif et l'ont exemptée de TVA. Suite à cela, en 2006, un tribunal a tranché en faveur de l'Église face aux services fiscaux qui refusaient de rembourser la TVA versée de manière indue depuis 1977.59
+La situation de la scientologie présente des caractéristiques assez similaires en France et en Belgique, où elle est régulièrement qualifiée de secte depuis les travaux parlementaires respectivement en 1995 et 1997, sans que ce terme ne renvoie à une définition légale précise; et où elle est également poursuivie en justice dans des procès pour escroquerie durant depuis une dizaine d'années. En France les différentes organisations de scientologie ont le statut d'association à but non lucratif, certaines se déclarent association cultuelle mais n'ont pas demandé à bénéficier des avantages attachés à ce statut 60 définis par la loi de 1905; de même elles sont constituées en associations sans but lucratif en Belgique.
+En 1997, la Cour d'appel de Lyon a considéré que, pour juger des faits qualifiés d'escroqueries ou de complicités d'escroqueries, commis dans le cadre d'activités de scientologues, « il est vain [...] de s'interroger sur le point de savoir si l'Église de Scientologie constitue une secte ou une religion ».
+Suite à des perquisitions effectuées en 1999 dans le cadre d'un procès pour escroquerie, l'Église de Scientologie a fait appel en mars 2001 à l'intervention des Nations unies pour intervenir dans ce qu'elle considère comme une « campagne d'intimidation et de harcèlement » que les autorités belges lui feraient subir, en prenant pour cibles ses paroissiens belges et son bureau européen des Droits de l'Homme 62. Dans ce même procès, le parquet fédéral a annoncé en septembre 2007 le renvoi devant la justice de douze personnes physiques et de deux personnes morales : l'ASBL « Église de Scientologie de Belgique » et le « Bureau des droits de l'homme de l'Église de Scientologie » .
+En Allemagne, considérée comme une secte en 1997, l'Église de Scientologie inquiète le gouvernement fédéral qui l'accuse de chercher à « exercer une influence totalitaire sur les institutions et la société 64 ». Elle fut déchue par le gouvernement fédéral de son statut de communauté religieuse et placée sous la surveillance de l'État, celui-ci jugeant que certaines activités de l'organisation de la Scientologie pouvaient porter atteinte à la démocratie et aux droits de l'homme. Considérée comme une entreprise commerciale, toute mesure fiscale en sa faveur furent interdites et elle fut assujettie au régime des entreprises commerciales 65.
+En 1999, la Dianetic Stuttgart eV, sous-organisation de l'Église de Scientologie, est reconnue par la Cour administrative de Stuttgart comme une association à but idéaliste et non comme une entreprise commerciale.
+En janvier 2003, le Bureau fédéral des finances a accordé aux neuf églises de Scientologie une exonération sur l'argent donné pour soutenir l'Église de Scientologie internationale (l'église mère basée à Los Angeles 67). Ces exemptions fiscales partielles sont liées à sa reconnaissance d'utilité publique aux États-Unis. En effet, il existe un accord entre les deux pays qui permet d'éviter la double imposition 68. La Scientologie n'est pas, pour autant, reconnue comme religion en Allemagne où elle fait toujours l'objet de surveillance de la part des services de renseignement.
+Le 11 novembre 2004, le Tribunal administratif de Cologne a rejeté un recours de la Scientologie demandant la fin de cette surveillance. À ce sujet, le 24 mars 2004, 3 scientologues perdent un procès intenté contre l'Allemagne devant l'ONU 70.
+Le 13 janvier 2007, l'ouverture d'une filiale de l'Église de Scientologie de 6 étages sur 4000 m² à Berlin suscite de vives réactions de la part du gouvernement et de la CDU, le parti de la chancelière Angela Merkel, concernant la politique du Sénat berlinois vis-à-vis des sectes. Le Land de Berlin est le seul des seize Länder à avoir refusé, depuis 2003, de surveiller les agissements de l'Église de Scientologie sur son territoire.
+En 2008, la conférence des ministres de l'Intérieur de l'État et des Länder avait demandé à l'organisme chargé de la protection de la constitution une enquête sur la scientologie pour déterminer si elle représentait une menace à la constitution allemande. Dans son rapport de 46 pages remis aux ministres de l'intérieur, les protecteurs de la constitution ont parlé d'une « image de la situation pleine de lacunes » véhiculée par les anti-scientologues. Ils mettent en garde contre une « perte de réputation pour les organismes gouvernementaux concernés » lors d'une procédure contre la scientologie, et concluent que les statuts ni les autres prises de position de la scientologie « ne permettent de conclure que l'association poursuit des buts répréhensibles ».
+L'Église de scientologie internationale est depuis 1981 l'organe de direction de la scientologie. Les Églises implantées dans les différents pays du monde sont rattachées à elle.
+Le Centre de technologie religieuse (Religious Technology Center ou RTC) est présenté comme la structure ecclésiastique de la scientologie. Il a été créé en 1982 et est dirigé depuis 1987 par David Miscavige.
+L'Office des affaires spéciales (Office of Special Affairs ou OSA) est le service de communication de la scientologie.
+Il succède à l'Office du gardien, impliqué en 1979 dans le scandale de l'opération Blanche Neige, une tentative d'infiltration du gouvernement américain pour laquelle plusieurs scientologues furent condamnés à des peines de prison 73.
+Selon les organisations de lutte contre les sectes 74, il serait le bureau officiel de la propagande scientologiste et constituerait même des fichiers.
+Une des caractéristiques de l'église de scientologie est l'extrême diversification de ses activités : écoles de dessin, de musique ou de management, groupes de pression à but humanitaire.
+Certains de ses détracteurs considèrent que l'Église de Scientologie fait feu de tout bois et change de statut en fonction des protections légales que cela lui offre : elle est une organisation commerciale lorsqu'elle peut attaquer pour violation de copyright ceux qui publient ses ouvrages confidentiels 78, elle est une religion dans les pays où la liberté de culte permet tout, elle devient technique de développement personnel lorsqu'il s'agit d'approcher les entreprises ou dans les pays qui se défendent contre les sectes. Elle déclare aussi être une Association ou Centre culturel de dianétique (en Argentine, Colombie et Espagne), un Collège Hubbard d'indépendance personnelle (en Écosse), un Centre culturel de dianétique ou d'Amérique latine (au Mexique), et un Institut de philosophie appliquée ou de technologie de dianétique (au Mexique).
+Souvent, les noms choisis par l'organisation ressemblent aux noms d'autres organismes publics ou privés : pour les opposants à la Scientologie, ces noms sont destinés à faire passer les organismes scientologues pour des services officiels ou pour des organismes aux noms semblables et déjà connus du grand public, et ces activités sont soupçonnées de servir de tremplin pour le recrutement de nouveaux adeptes, qui s'engageraient dans une activité en ignorant les liens entre la Scientologie et ces organismes.
+Dans une vidéo officielle, l'Église de Scientologie joue de ces ambigüités en présentant des personnes qui la soutiennent. Les légendes incrustées aux images mentionnent (sans jamais donner un nom) des fonctions vagues telles que « membre du cabinet du maire de Marseille » ou « Conseil des communautés européennes »
+Chaque centre ou Église de Scientologie, nommé en interne « org (-anisation) », met à la disposition de ses adhérents de nombreux services et ouvrages considérés comme des livres à caractère religieux selon les adeptes : cinq cent mille pages, trois mille conférences enregistrées, et une centaine de films, tous attribués au fondateur de la scientologie, Ron Hubbard. Les cours et ouvrages fournis constituent un ensemble de méthodes, censées permettre de devenir plus « apte », de méthodes pour faire survivre la Scientologie en tant que mouvement et de mythologie propre a la Scientologie (dont les textes sur Xenu qui coûteraient près de 50 000 euros[réf. nécessaire], et dont des versions sont diffusées sur Internet ou Usenet principalement par des détracteurs mais aussi par des défenseurs de la Scientologie).
+Récemment, l'Église a entièrement réédité ses ouvrages car la grande majorité avait été altérée et rendue incompréhensible par les éditeurs (erreurs de transcription, de traduction, de ponctuation, pages mélangées, chapitres mélangés, paragraphes ajoutés/supprimés/mélangés, etc.). Le travail sur la réédition des ouvrages a été entamé en 2000 et a été annoncée mondialement le 14 juillet 2007 lors d'un event (fête ou littéralement événement) vidéo où les nouveaux livres ont été vendus pour la première fois. Un test aurait été effectué sur des scientologues qui ont lu les premiers les livres réédités. Le temps de lecture des livres s'est réduit de plusieurs jours en moyenne pour les anciens livres incompréhensibles considérés comme ardus par les scientologues eux-mêmes à quelques heures pour les livres récemment réédités et retraduits. Le prix des livres varie entre 12 et 30 euros.81
+La critique la plus commune est que la scientologie ferait miroiter à ses adeptes la possibilité d'atteindre un état qu'ils n'atteindront jamais, se contentant d'une progression perpétuelle. Les adeptes, pour passer d'un grade à un autre, doivent suivre des stages et acheter des documents. À titre d'exemple pour un premier contact, une série de 15 CD (conférences d'une heure par CD) datant de 1956, enregistrée en pleine guerre froide, Le Congrès de Washington sur les radiations et la confrontation est vendue actuellement environ 200 euros. Nombre de témoignages montreraient la surprise, une fois passé un niveau, de s'entendre dire que ce n'était qu'une étape alors que ce devait enfin être l'état d'illumination attendu. Le coût financier de l'étape suivante serait bien plus élevé.
+D'après une enquête du mensuel Capital de mai 2009, l'Eglise de scientologie incite aussi ses adeptes à acheter toute une série de produits et services à prix prohibitifs comme l'électromètre -qui n'est en fait qu'un ohmmètre- (3800 euros), le stage de purification (1464 euros) ou l'heure d'audition (jusqu'à 400 euros). Selon Gilles Tanguy, le journaliste de Capital qui s'y est inscrit pour les besoin de l'enquête, chaque Eglise de scientologie fait ses comptes le jeudi. Et "la paie des vendeurs dépend directement" du chiffre d'affaires qu'ils ont facturé aux adeptes. D'après un site antiscientologue, le coût financier imposé à une personne pour atteindre le niveau « OT8 », le plus élevé dispensé actuellement, pourrait être estimé grossièrement (2005) à 400 000 euros.
+La Scientologie préconise l'abstinence de drogues et médicaments psychiatriques, et l'aspirine est déconseillée avant d'être auditée. Cette attitude vis-à-vis de la médication correspond à une attitude plus large de rejet de certaines connaissances scientifiques conventionnelles, lesquelles sont remplacées par la doctrine scientologique.
+La Scientologie rejette catégoriquement la psychiatrie et la considère comme étant une « industrie mortuaire ». Dans une exposition tenue à Jefferson City en janvier 2007, la Scientologie a accusé les psychiatres d'abuser sexuellement de leurs patients et d'être responsables de l'existence des attentats-suicide, dont ceux du 11 septembre 2001. La Scientologie affirme dénoncer depuis 1952 de nombreuses pratiques concernant le domaine de la santé mentale : lobotomie et électrochocs en particulier, mais aussi toutes les pratiques consistant à traiter des problèmes d'origine mentale simple avec des psychotropes ou des opérations chirurgicales au niveau du cerveau entraînant de graves troubles de comportement chez ceux qui les subissent. Ses adeptes arguent aussi que ces dénonciations continues auraient provoqué des réactions de défense de la part de groupes dont les intérêts étaient concernés.
+Les idées de la Scientologie en la matière sont principalement diffusées par la Commission des citoyens pour les droits de l'homme (CCDH), qui serait à l'origine de propositions parlementaires relatives à la santé mentale ; ce qui explique que d'autres critiques de la psychiatrie tentent de se démarquer de la Scientologie. L'Église de Scientologie dispose également, à Bruxelles, d'un Bureau européen des affaires publiques et des droits de l'homme. Le Collectif des médecins et des citoyens contre les traitements dégradants de la psychiatrie est rattaché à la Scientologie. Il s'agit d'une association non déclarée en préfecture de médecins scientologues. Les opposants à la Scientologie considèrent cela comme une guerre contre la psychiatrie et la psychologie de la part de la Scientologie. D'après eux, la Scientologie se positionne comme une concurrente de ces sciences, par le développement de compétences et de techniques d'analyse des pratiques de communication et de soin des problèmes mentaux des psychiatres. Ils l'accusent de mal plagier des techniques psychiatriques et d'utiliser des techniques dangereuses. Selon les scientologues, les psychologues et surtout les psychiatres cherchent à régler des problèmes mentaux en s'attaquant à la matière (médicaments qui entraînent des changements chimiques, opérations, etc.).
+Les détracteurs sont appelés dans le jargon de la Scientologie les « suppressifs ». Quand un adepte a un problème, les scientologues suspectent la présence d'un suppressif dans ses relations, cherchent à savoir qui par l'audition, et en général préconisent de ne plus rencontrer cette personne. De nombreuses histoires de séparations entre mari et femme, parents et enfants, liées à la scientologie en témoignent. D'un autre coté, des observateurs indépendants soulignent la faiblesse des arguments de certains de ces détracteurs ; ainsi, Marco Frenschkowsky (universitaire allemand), quoique opposé lui-même à la scientologie, a écrit qu'il y avait peu de marchés plus lucratifs en Allemagne que d'être un ex-scientologue et d'attaquer la scientologie.88 D'après lui ces « apostats », après quelques semaines de scientologie et sans avoir presque rien lu de cette philosophie publient de longs exposés (pour le compte du « marché antisecte ») qui se ressemblent tous.
+Il existe de nombreux opposants à la scientologie à travers le monde. Pour la francophonie, citons Roger Gonnet, ancien membre de la scientologie et créateur d'un site antiscientologue 89 où il lui reproche entre autres d'ériger la diffamation (propagande noire selon les termes de Ron Hubbard) en principe de défense, ainsi que l'existence d'une société secrète et d'un pouvoir centralisé dont la simple existence elle-même est à la limite de la légalité. Il signale des condamnations pour escroquerie comme dans le cas de contrats de travail d'une durée de 5 000 ans, qui peuvent s'apparenter à une forme d'esclavage ; les contrats ont parfois même une durée supérieure à un milliard d'années. Il est régulièrement attaqué par l'Église de Scientologie à divers titres (diffamation sur des forums, absence de déclarations à la CNIL). L'église de Scientologie a déjà été condamnée à indemniser Roger Gonnet après avoir été déboutée, et il a aussi été condamné à plusieurs reprises.92
+Des journalistes ou des chercheurs étudiant la Scientologie se sont plaints d'être l'objet de harcèlement et de graves menaces : Paulette Cooper, auteur du premier livre critique connu sur le sujet, aurait été harcelée dans le but de la pousser au suicide, de la faire interner ou incarcérer dans le cadre d'une opération appelée Freakout ; Paul Ariès, auteur en 1999 de La Scientologie, une secte contre la république, affirme avoir reçu des menaces de mort. D'après les détracteurs, une fois passé un certain nombre d'étapes on pourrait se retrouver dans l'administration centrale de la scientologie, autrefois située sur un bateau. Là, la scientologie entretiendrait une milice armée. Là aussi seraient centrés les organismes de police de la scientologie : espionnage, spécialistes de la diffamation. Ces organisations scientologiques auraient souvent recours aux cambriolages, aux vols de courrier. On trouverait dans les textes d'Hubbard les ordres et la justification de tels actes.
+En 2006, la série animée américaine South Park diffusée sur Comedy Central diffuse un épisode nommé Piégé dans le placard, qui parodie notamment les préceptes de l'église concernant Xenu, ainsi que l'utilisation de stars au profit de l'image de la secte (Tom Cruise et John Travolta). L'épisode rappelle également que L. Ron Hubbard était auteur de science-fiction. La fin se réfère au caractère procédurier de l'église, et tous ceux qui ont participé à l'épisode sont crédités John Smith et Jane Smith.
+Début 2008, suite aux pressions et aux menaces de procès de l'organisation pour faire retirer de Youtube une vidéo montrant Tom Cruise en train de s'exprimer devant une assemblée de scientologues, un groupe d'internautes, sous le pseudonyme collectif « Anonymous », annonce déclarer la guerre à la scientologie. Sous le nom de Projet Chanology, diverses attaques visant à perturber les sites Internet de l'organisation se sont succédé à partir du 14 janvier, en particulier des dénis de service, des google bombing et la publication sur Internet de milliers de documents et rapports internes récupérés via le réseau. Peu de temps après, ce petit groupe est devenu une force planétaire qui entend user de méthodes pacifiques et festives pour dénoncer les mensonges de la scientologie.
+Une procédure a été ouverte en 1983 en France contre l'Église de Scientologie, et une autre en 1989 pour « escroquerie » et « exercice illégal de la médecine ». L'instruction de cette dernière affaire, confiée à la juge Marie-Paule Moracchini (désaisie le 18 octobre 2000), avait tant traîné que les faits ont été déclarés prescrits par la juge d'instruction parisienne Colette Bismuth-Sauron en juillet 2002, soit 13 ans plus tard. Cette décision a été qualifiée à l'époque de « nouvelle victoire » par l'Église de Scientologie.99 Au cours de cette instruction, un tome et demi de pièces du dossier avaient mystérieusement disparu en plein Palais de Justice de Paris.100
+À la suite d'une nouvelle enquête commencée en 1998, deux structures proches de la Scientologie, l'Association spirituelle de l'église de scientologie et la librairie Scientologie espace liberté ont été renvoyées en correctionnelle le 8 septembre 2008 par un juge parisien pour « escroquerie en bande organisée »101,102. Le Parquet avait requis un non-lieu, estimant que « l'information n'a pas permis d'établir que les remises de fonds effectués par les plaignants aient procédé de démarches frauduleuses » et « qu'il ne peut être considéré que l'incitation à faire du sauna, prendre des vitamines et courir pour se "purifier" constitue un délit d'exercice illégal de la médecine ».103Ceci a été présenté par l'avocat des parties civiles comme une « attitude complaisante » laissant entrevoir des motivations politiques. L'ordonnance de renvoi de l'Église de scientologie en tant que personne morale devant le tribunal comporte les accusations suivantes : « multiples manipulations bancaires », « surfacturations de produits vendus par les scientologues », « dissimulation de ses gains », et retient la circonstance de bande organisée concernant les dirigeants français de la scientologie. L'ordonnance cite également des documents internes de la scientologie qui, selon elle, « ne laissent aucun doute sur la finalité commerciale de l'action scientologue, dénotant une véritable obsession pour le rendement financier ». Le procès pour « escroquerie en bande organisée » se tient à Paris en mai 2009. Une condamnation pourrait rendre possible la dissolution du mouvement en France, en application de la loi About-Picard. Le jugement sera rendu le 27 octobre 2009.
+Contenu soumis à la GFDL
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+En biologie, la sélection naturelle est l'un des mécanismes qui guident l'évolution des espèces. Ce mécanisme est particulièrement important du fait qu'il explique l'adaptation des espèces aux milieux. La théorie de la sélection naturelle permet d'expliquer et de comprendre comment l'environnement influe sur l'évolution des espèces et des populations en sélectionnant les individus les plus adaptés et constitue donc un aspect fondamental de la théorie de l'évolution.
+De façon sommaire, la sélection naturelle désigne le fait que les traits qui favorisent la survie et la reproduction, voient leur fréquence s'accroître d'une génération à l'autre. Cela découle logiquement du fait que les porteurs de ces traits ont plus de descendants, et aussi que ces derniers portent ces traits (puisqu'ils sont héréditaires).
+Alors que plusieurs théories évolutives existaient déjà sous le nom de transformisme, Charles Darwin (1809 - 1882) propose ce mécanisme que l'on désigne sous le terme de darwinisme ou sélection darwinienne. Le terme "sélection naturelle" a été imaginé par Darwin par analogie avec la sélection artificielle pratiquée par les humains depuis des millénaires : les agriculteurs ou éleveurs choisissent à chaque génération les individus présentant les meilleurs caractéristiques pour les faire se reproduire. Le mécanisme de sélection darwinienne permet donc d'expliquer de façon naturaliste la complexité adaptative des êtres vivants, sans avoir recours au finalisme ni à une intervention surnaturelle, d'origine divine, par exemple.
+La théorie de la sélection naturelle telle qu'elle a été initialement décrite par Charles Darwin, repose sur trois principes :
+En général, dans une population d'individus d'une même espèce, il existe des différences plus ou moins importantes entre ces individus. En biologie, on appelle caractère, tout ce qui est visible et peut varier d'un individu à l'autre. On dit qu'il existe plusieurs traits pour un même caractère. Par exemple, chez l'être humain, la couleur de la peau, la couleur des yeux sont des caractères pour lesquels il existe de multiples variations ou traits. La variation d'un caractère chez un individu donné constitue son phénotype. C'est là, la première condition pour qu'il y ait sélection naturelle : au sein d'une population, certains caractères doivent présenter des variations, c'est le principe de variation.
+Certains individus portent des variations qui leur permettent de se reproduire davantage que les autres, dans un environnement précis. On dit qu'ils disposent d'un avantage sélectif sur leurs congénères :
+Dans les deux cas, l'augmentation de la capacité à survivre et à se reproduire se traduit par une augmentation du taux de reproduction et donc par une descendance plus nombreuse, pour les individus porteurs de ces caractéristiques. On dit alors que ce trait de caractère donné offre un avantage sélectif, par rapport à d'autres. C'est dans ce principe d'adaptation uniquement, qu'intervient le milieu de vie.
+ +La troisième condition pour qu'il y ait sélection naturelle est que les caractéristiques des individus doivent être héréditaires, c'est-à-dire qu'elles puissent être transmises à leur descendance. En effet certains caractères, comme le bronzage ou la culture, ne dépendent pas du génotype, c'est-à-dire l'ensemble des gènes de l'individu. Lors de la reproduction, ce sont donc les gènes qui, transmis aux descendants, entraîneront le passage de certains caractères d'une génération à l'autre. C'est le principe d'hérédité.
+Ces trois premiers principes entraînent donc que les variations héréditaires qui confèrent un avantage sélectif seront davantage transmises à la génération suivante que les variations moins avantageuses. En effet les individus qui portent les variations avantageuses se reproduisent plus. Au fil des générations, on verra donc la fréquence des gènes désavantageux diminuer jusqu'à éventuellement disparaître, tandis que les variations avantageuses se répandront dans la population, jusqu'à éventuellement être partagées par tous les membres de la population ou de l'espèce. Par exemple, dans la population humaine, la bipédie est un caractère commun à tous les êtres humains modernes.
+Cette histoire amusante n'a d'autre but que de bien fixer un point important de la théorie darwinienne.
+Deux brontosaures voient un T-Rex avancer dans leur direction et se mettent à courir aussi vite qu'ils le peuvent. Puis l'un des deux dit à l'autre :
+« Pourquoi nous fatiguons-nous au juste ? Nous n'avons de toute façon pas la moindre chance d'arriver à courir plus vite qu'un T-Rex ! »+
Et l'autre lui répond cyniquement :
+« Je ne cherche pas à courir plus vite que le T-Rex. Je cherche juste à courir plus vite que toi ! »+
L'idée est de rappeler que le processus concerne moins une compétition entre espèces, qu'une compétition à l'intérieur de chaque espèce. C'est à partir de ce constat et de la découverte du conflit sexuel que Thierry Lodé développe l'hypothèse que le conflit au sens large (conflit sexuel, conflit de reproduction, coévolution) serait un puissant vecteur d'évolution, né de multiples interactions antagonistes. En fait, le rôle des interactions et des mécanismes coévolutifs est encore probablement sous-estimé.
+Lorsqu'on observe des espèces dans leur milieu de vie, elles semblent toutes être profondément adaptées à chacun de leur milieu : le long cou et les longues pattes de la girafe sont en effet bien adaptés pour attraper des feuilles hautes des acacias des savanes africaines. On pourrait tout aussi bien dire que ce sont les organismes non adaptés qui n'ont pas survécu dans ce milieu.
+En outre, certaines variations avantageuses dans un environnement donné peuvent devenir néfastes sous d'autres conditions. Par exemple, dans un milieu enneigé, une fourrure blanche permet de ne pas être vu par ses futures proies ou ses prédateurs, mais si le milieu devient forestier et plus sombre, il n'y aura plus de camouflage et les individus porteurs de fourrure blanche perdront leur avantage sélectif. La conséquence de ce phénomène est donc qu'au fil des générations, par la sélection naturelle, les caractères observés dans une population seront plus ou moins adaptés aux évolutions de son écosystème.
+Autres exemples, chez les humains la couleur de la peau est une adaptation due à la sélection naturelle, et non à un bronzage qui se serait « fixé » à tout jamais dans certaines populations. En zones ensoleillées les individus à la peau claire ont plus de risque de développer un cancer de la peau à cause des rayons UV, ils sont donc désavantagés car leur espérance de vie est moindre. En zones moins ensoleillées ces individus seraient avantagés car la lumière du soleil permet au corps de produire de la vitamine D, et de plus le corps économise de l'énergie et des nutriments en fabriquant moins de mélanine, le pigment de la peau.
+Les facteurs de l'environnement qui peuvent donc entraîner une sélection naturelle peuvent être :
+L'adaptation des espèces à leur niche écologique peut parfois conduire deux espèces qui occupent un milieu similaire, à acquérir des ressemblances qui ne sont alors pas dues à leur éventuelle parenté. On parle dans ce cas d'évolution convergente. Ce phénomène s'interprète comme le fait que les mêmes contraintes du milieu mènent aux mêmes « solutions adaptatives ».
+Les yeux des vertébrés et des céphalopodes constituent l'un des exemples les plus frappants de convergence alors même que l'ancêtre commun de ces deux taxons ne possédait pas d'yeux complexes. ces deux lignées ont évolué vers des systèmes optiques qui présentent une très forte similarité. La différence résidant surtout dans l'orientation des cellules sensorielles dans la rétine
+De tels cas de convergence évolutive sont souvent mis en avant pour argumenter en faveur d'une conception adaptationniste de l'évolution par sélection naturelle selon laquelle l'essentiel des caractéristiques observées dans les espèces vivantes ne sont pas dues au hasard mais sont le résultat de diverses pressions de sélection au cours de l'histoire évolutive des espèces.
+Pour qu'il y ait sélection, encore faut-il que plusieurs variations d'un même caractère soient présentes dans la population afin que l'individu le plus adapté l'« emporte » sur les autres. En effet, dans l'exemple ci-dessus, si la totalité des individus sont identiques et porteurs de la variation phénotypique « fourrure blanche », en cas de réchauffement climatique aucun individu ne pourra survivre, et l'espèce s'éteindra. En cas de modification de l'environnement, pour qu'une espèce survive, il faut qu'elle s'adapte par la sélection naturelle. Il est donc indispensable, qu'avant le changement du milieu elle présente en son sein une diversité génétique importante.
+La diversité génétique dans une population d'individus a pour origine des modifications de l'information génétique dans l'ADN des cellules. Il s'agit :
+On peut ajouter aux modifications du génome citées plus haut, une autre source de diversité génétique, soient les migrations par lesquelles le stock génétique dans une population donnée se voit renouvelé par l'arrivée d'autres membres de l'espèce porteuse d'un pool génétique différent.
+Les modifications génétiques sont aléatoires : ce n'est pas l'environnement qui « dicte » quel gène doit muter, mais bien le hasard. C'est pour cela qu'on observe dans les populations beaucoup de variations inadaptées au milieu de vie (par exemple, les maladies génétiques rares). Une erreur courante consiste à croire que les modifications génétiques sont une conséquence de la sélection naturelle. En revanche la sélection naturelle a bien le pouvoir de cumuler les innovations adaptées, ce qui aboutit à des adaptations complexes.
+C'est donc parmi la grande diversité génétique des individus, que vont ensuite être sélectionnés les phénotypes et les allèles les plus adaptés à l'environnement. Pour en faire la démonstration on pourrait simplement montrer que les phénotypes nouveaux étaient présents avant le changement du milieu. Ceci n'est pas toujours évident et quand bien même ce serait le cas, un mécanisme d'induction d'une mutation donnée par l'environnement n'est pas à exclure. C'est grâce à une astuce mathématique que Luria et Delbrück montrent que ce sont bien les mutations préexistantes dans une population de bactéries qui sont sélectionnées quand on ajoute un virus.
+La génétique moléculaire n'existant pas à son époque, Darwin ne pouvait prendre en compte les mécanismes moléculaires à l'origine des nouveaux caractères. Sa théorie de la sélection naturelle incluait donc l'hypothèse de la transmission des caractères acquis. Dans son ouvrage de 1868, La variation des animaux et des plantes sous l'effet de la domestication, il alla même jusqu'à proposer une théorie pour cette transmission des caractères acquis..
+Dans la théorie initiale de Darwin telle qu'il l'expose dans L'Origine des espèces, ces variations entre les individus trouvent leur origine dans le fait que des individus acquièrent des caractéristiques différentes au cours de leur vie. Ces caractères acquis seraient alors transmis à leur descendance et cela expliquerait les variations observées et l'évolution des caractéristiques de l'espèce. Toute autre source de variation reste pourtant acceptable, comme par exemple le hasard; en revanche, le problème qui se poserait alors serait de savoir comment empêcher la dilution, puis l'éventuelle disparition de ces caractères s'ils ne sont pas "entretenus".
+La théorie de l'hérédité des caractères acquis a été considérée comme invalidée par August Weismann à la fin du xixe siècle. En réponse aux néo-lamarckiens qui soutenaient le contraire, il montra que des mutilations n'étaient pas transmises. On en déduisit abusivement qu'aucun caractère acquis ne pouvait se transmettre, alors qu'une mutilation ne peut être assimilée à une acquisition par l'organisme de fonctions nouvelles comme le voulait Lamarck. On ne peut prouver avec certitude l'impossibilité d'hérédité de caractères acquis (une inexistence ne peut être prouvée qu'en mathématiques, par l'absurde). On peut à défaut en chercher s'il existe quelque exemple réel réfutant cette impossibilité. Ce qui serait le cas chez les oiseaux où un seul ovaire, le gauche, peut se développer. Il a bien fallu que des caractères acquis soient devenus héréditaires pour orienter l'Évolution. Plusieurs recherches ont été menées en ce sens au début du xxe siècle, notamment par Paul Kammerer. Cela qui fait aussi l'objet de recherches dans le domaine de l'immunologie.
+Les caractères innés sont bel et bien transmis au cours de la reproduction mais avec des variations qui suivent les lois de l'hérédité mendélienne, du nom de leur découvreur, Gregor Mendel (1822 - 1884) dont les travaux sur les lignées de pois ne furent redécouverts qu'au début du xxe siècle et étaient malheureusement ignorés de Darwin. Mendel apporte pour le coup la réponse au problème de la dilution : un caractère ne s'affaiblit pas; il est simplement transmis en tant que dominant, transmis en tant que récessif, ou éliminé; mais chez les individus qui le portent, il reste totalement présent, ce qui assure sa pérennité s'il est favorable à son porteur (ou, pour être plus précis, à la descendance de son porteur).
+La convergence entre la théorie darwinienne et la théorie de l'hérédité donnera alors naissance au cours des années 1930 à la génétique des populations, en particulier grâce aux travaux théoriques de Ronald Fisher. À la même période, grâce aux expériences de Thomas Morgan et Theodosius Dobzhansky sur les mouches drosophiles, les mécanismes moléculaires responsables des phénomènes d'hérédité génétique commenceront à être identifiés. L'une des découvertes majeures de la biologie sera alors de montrer que la diversité génétique qui garantit la variété des phénotypes est due à des modifications aléatoires du génotype (mutations, recombinaisons génétiques, ...) en particulier lors de sa transmission d'une génération à l'autre, au moment de la reproduction.
+Même si ce n'est pas le mécanisme qui avait été envisagé par Darwin dans sa théorie de la sélection naturelle, il n'en reste pas moins que ces processus permettent de rendre parfaitement compte de la sélection naturelle dans le cadre de ce qui est considéré comme la théorie centrale de la biologie moderne, la théorie synthétique de l'évolution ou synthèse néo-darwinienne qui fait le lien entre les mécanismes au niveau de la génétique moléculaire et les phénomènes d'évolution à l'échelle des populations.
+Ainsi la sélection naturelle peut se "mesurer" grâce à des calculs statistiques.
+Il apparaît aujourd'hui évident que tout organe ayant une fonction définie, par exemple la nageoire du poisson, est une adaptation à un milieu et le résultat d'une sélection naturelle. Cependant la démonstration scientifique doit, elle, passer par la mise en évidence d'une corrélation chiffrée entre les variations d'un caractère héréditaire et celles d'un paramètre précis de l'environnement. Parmi les exemples les plus célèbres, on peut citer :
+La sélection naturelle produit aussi ses effets dans l'espèce humaine :
+L'homme peut aussi exercer involontairement une pression de sélection sur certains organismes dont l'évolution, en retour, peut être néfaste pour l'économie ou la santé humaine :
+Dans les exemples précédents, il s'agit d'espèces évoluant au gré des améliorations techniques humaines mais ce phénomène peut aussi s'observer dans les interactions biologiques entre deux espèces. Un exemple très étudié d'une telle coévolution est le parasitisme de ponte chez les coucous. Dans ces espèces, le parent pond ses oeufs dans le nid d'autres oiseaux. Dès sa naissance, le jeune coucou expulse les oeufs présents afin d'être le seul à bénéficier des soins prodigués par les parents de l'espèce hôte ainsi trompés. Parmi les espèces parasitées, certaines ont évolué des stratégies antiparasitiques, en l'occurrence une aptitude à distinguer les oeufs de coucou de leurs propres oeufs. Cela a créé une pression de sélection pour certaines espèces de coucou qui ont évolué une forme de mimétisme des oeufs de telle sorte que ceux-ci ressemblent étonnamment aux oeufs de leurs hôtes. À leur tour, les espèces parasitées (comme la pie-grièche écorcheur) ont développé des capacités accrues de discrimination de leurs propres oeufs des oeufs mimétiques du coucou, capacité qui est absente chez des espèces non ou moins parasitées.
+De tels phénomènes de coévolution sont fréquemment observés dans les cas de parasitisme mais parfois aussi dans certains cas de compétition interspécifique ou dans le cadre compétition intraspécifique de la sélection sexuelle. La coévolution inter-sexes s'observent souvent en réponse à la sélection sexuelle post-copulatoire : par exemple, dans certaines espèces d'oiseaux et d'invertébrés, les pénis des mâles ont une forme hélicoïdale qui fonctionne comme un goupillon éliminant la semence des autres mâles et leur permettant de déposer leurs propres gamètes au plus profond du vagin des femelles avec lesquelles ils s'accouplent afin de s'assurer la paternité de la progéniture ; dans ces mêmes espèces, on observe une augmentation proportionnelle de la taille du vagin avec une morphologie tout en sinuosités qui contrecarre les stratégies reproductives des mâles.
+L'adjectif naturelle s'oppose chez Darwin au concept de sélection artificielle connue et pratiquée depuis quelques milliers d'années par les éleveurs. En effet les animaux d'élevage domestiques ou les espèces de plantes cultivées (vaches, chiens, roses...) constituent autant de variations « monstrueuses » absentes dans la nature. Elles sont le fruit de la lente sélection d'individus intéressants (pour les rendements, ou du point de vue esthétique) par les éleveurs et les agriculteurs (voir élevage sélectif des animaux). C'est cette observation qui permit à Darwin d'émettre l'hypothèse d'une sélection opérée par la nature sur les espèces sauvages.
+Par exemple :
+La sélection artificielle, malgré son intense pression (élimination de tout géniteur qui ne répond pas aux critères du choix), ne parvient pas, après des pratiques millénaires, à faire naître de nouvelles espèces. Les races ne s'isolent pas et peuvent s'hybrider sans perte ou baisse de fécondité. La domestication et la culture révèlent les limites, assez étroites entre lesquelles l'espèce varie sans courir de péril, mais elles n'impriment pas un mouvement évolutif aux espèces qu'elles concernent.
+La sélection darwinienne s'appuie sur de deux mécanismes conjoints. Le premier est la sélection utilitaire (ou sélection de survie ou sélection écologique) le second est la sélection sexuelle. Dans le grand public, ce dernier aspect de sélection sexuelle est souvent ignoré et on identifie la sélection naturelle avec la sélection de survie. Or c'est une erreur car ces deux mécanismes sont bien à l'oeuvre dans le monde vivant.
+La sélection utilitaire correspond à un processus de tri entre individus en vertu de leur capacité à survivre et/ou à être féconds 10. Ce terme désigne plus spécifiquement le mécanisme qui fait évoluer les espèces sous la pression "externe" de l'environnement ou "interne" de la compétition intraspécifique. En effet, elle repose sur l'idée que pour pouvoir se reproduire, il faut d'abord survivre. Ce type de sélection favorise donc les individus capables d'échapper ou de se protéger des prédateurs mais aussi de résister aux parasites : c'est la compétition interspécifique. Il existe aussi une compétition intraspécifique : les individus d'une même espèce étant en compétition entre eux pour trouver des ressources dans l'environnement, qu'il s'agisse de proies ou d'autres ressources non-nutritives comme des abris (terrier, nid, ...). Enfin, il y a des facteurs dits abiotiques qui sélectionnent les individus les mieux capables de résister à l'environnement biotopique, aux conditions climatiques, etc.
+La sélection sexuelle est un phénomène qui a lieu à une étape différente de la vie de l'individu. Elle désigne le fait qu'il y a aussi une compétition au sein de chaque espèce pour accéder aux partenaires sexuels dans le cadre de la reproduction sexuée. Cet aspect de la théorie fut pleinement développé par Darwin dans son ouvrage intitulé La Descendance de l'Homme. Dans le cadre de la sélection sexuelle, il va donc se produire une compétition intra-sexe, entre les individus d'un même sexe, mais aussi inter-sexe, entre les sexes (les individus d'un sexe devant choisir avec quel individu de l'autre sexe ils vont s'accoupler). La sélection sexuelle permet donc d'expliquer des caractères ou des comportements qui pénalisent la survie quand ils sont analysés en dehors du contexte reproductif, comme la queue du paon, les bois des mégacéros.
+Rétrospectivement, les modifications successives au cours des générations des populations peuvent sembler orientées, comme si ces modifications étaient "tirées" ou "poussées" dans une certaine direction. Par exemple, en suivant les observations de Darwin sur les pinsons des Galapagos, on peut observer que certaines espèces semblent suivre une tendance vers un élargissement du bec qui devient de plus en plus massif alors que chez d'autres espèces de pinsons, la tendance est plutôt vers un affinement du bec.
+Ce phénomène qui se manifeste comme une tendance apparente dans l'évolution d'une ou plusieurs espèces a reçu le nom de pression de sélection. Ces pressions de sélection sont 'orientées' par les pressions dites intérieures à l'espèce (sélection sexuelle, compétition intraspécifique) et les pressions dites extérieures à l'espèce (limitation des ressources, modifications de l'environnement, prédateurs, parasites...), bref, tout ce qui influence la survie et la reproduction des individus.
+Les pressions de sélection s'exercent différemment d'une espèce à l'autre ou d'un milieu écologique à un autre, voire d'une sous-population d'individus à une autre. Ainsi il peut se produire au sein d'une même espèce une divergence si deux sous-populations sont soumises à des pressions de sélection légèrement différentes. Ces deux populations évolueront vers des formes différentes qu'on appelle morphes et si le phénomène se poursuit dans le temps on peut aboutir à la formation de deux espèces distinctes, c'est la spéciation sympatrique. Les deux espèces occupent alors des niches écologiques suffisamment distinctes pour qu'elles n'entrent plus directement en compétition l'une avec l'autre et suivent alors des "trajectoires" évolutives différentes en réponse aux pressions de sélection spécifiques auxquelles elles sont soumises.
+Les systèmes vivants apparaissent comme très complexes et sont des adaptations tellement poussées à un milieu que les humains y trouvent une source d'innovations techniques et industrielles (par exemple, les attaches scratch ou velcro, les industries pharmaceutique, et chimique). voir :bionique.
+Cette complexité n'a pu voir le jour sans le pouvoir qu'a la sélection naturelle d'accumuler les « bonnes » innovations génétiques :
+Chaque innovation évolutive apparaît de manière aléatoire. La sélection naturelle favorise ensuite chacun de ces petits "sauts" évolutifs (a, puis ab, puis abc... puis abcde). Elle permet ainsi l'apparition d'adaptations de plus en plus poussées (abcde). En effet, si le caractère (a) n'avait pas été sélectionné, le caractère (abcde) ne serait jamais apparu. Car (c) dépend de (a). Un caractère complexe, comme une enzyme, résulte d'une accumulation d'innovations sélectionnées successivement, et non de simples apparitions indépendantes, au hasard des innovations génétiques (même si certains "sauts" évolutifs peuvent être plus ou moins importants ou graduels, voir équilibre ponctué). Donc la sélection naturelle ne fait pas que favoriser les adaptations les plus complexes ; elle permet aussi leur apparition.
+Cela n'est valable que si la sélection naturelle s'opère de manière continue, ce qui est envisageable par une compétition intra-spécifique, que Malthus et Darwin estiment inévitable dans une population. En effet les êtres vivants ont une tendance naturelle et universelle à se reproduire en plus grand nombre qu'à la génération précédente.
+Les simples innovations dues au hasard sur quelques générations ne suffisent pas à rendre compte de la complexité des êtres vivants et de leur adaptation à leur milieu. Il faut la sélection naturelle pour accumuler les petites innovations et pour en arriver à un organe aussi complexe que l'oeil de mammifère, par exemple.
+Cela peut être une réponse aux critiques de certains néo-créationnistes, qui affirment que les systèmes vivants (enzymes...) sont trop complexes et harmonieux pour que leur apparition ne soit due qu'à des mutations aléatoires, et que donc selon eux il n'aurait pas eu d'évolution.
+Comme toutes les autres espèces animales, l'espèce humaine est le produit de l'évolution et de la sélection naturelle. Par exemple, on peut penser que la bipédie a offert dans le passé un tel avantage sélectif aux individus capables de se déplacer debout que les gènes associés à ce mode de locomotion se sont répandus dans toute la population humaine.
+Il reste néanmoins difficile de reconstruire le détail de l'histoire évolutive de notre espèce et en particulier d'identifier quels facteurs exacts et quels processus précis ont pu intervenir dans l'évolution humaine (e.g., sélection sexuelle, sélection de groupe, sélection culturelle, dérive génétique ...) Dans certains cas, il est néanmoins possible d'identifier les pressions de sélection et les adaptations résultant de la sélection naturelle dans les populations humaines. L'un des exemples les plus documentés est la capacité de résistance au paludisme. Les individus porteurs d'un gène entraînant une anomalie de leurs cellules sanguines résistent mieux au parasite qui cause cette maladie. Par contre, leurs enfants courent le risque de souffrir de drépanocytose s'ils héritent de ce gène des deux parents. L'avantage sélectif fournit par la résistance au paludisme permet donc d'expliquer pourquoi dans les populations humaines où ce parasite est endémique (Afrique) se maintient l'allèle d'un gène pouvant entraîner une maladie relativement grave.
+L'une des tentatives les plus décriées d'appliquer la théorie darwinienne à l'espèce humaine fut l'utilisation qu'il fut faite de la sociobiologie développée par E.O. Wilson pour expliquer le comportement des espèces ultra-sociales (fourmis, termites, abeilles, ...). En effet, même s'il est vrai que l'une des caractéristiques de l'être humain (et aussi d'autres primates) est son mode de vie très social, la théorie de Wilson nécessite aussi un mode de reproduction et d'organisation sociale très particulier dite eusocialité, très différents de ce qu'on observe chez les humains. Comme s'en défend Wilson lui-même, il est donc absurde de vouloir appliquer directement les conclusions des travaux menés sur ces espèces à l'espèce humaine. Toutefois certains outils théoriques développés initialement dans le cadre de la sociobiologie peuvent se révéler parfaitement pertinents pour l'étude de l'homme.
+Le défi majeur de la paléoanthropologie reste néanmoins de parvenir à un cadre théorique pour expliquer l'évolution humaine au moyen de mécanismes plus riches que la seule sélection naturelle. Or l'importance de phénomènes comme la culture, la sélection sexuelle, la dérive génétique reste difficile à évaluer :
+« Ainsi, même dans le cadre des théories modernes de l'évolution, qu'on appelle néodarwinisme ou théorie synthétique de l'évolution, les évolutionnistes s'efforcent de réserver une place à part à l'homme, étant entendu que si son corps a évolué, il reste que ce qui fait l'humain échappe aux lois de l'évolution. »+
Un exemple récent d'une telle difficulté concerne le rôle de la sélection de groupe. Alors que ce mécanisme qui "favorise la survie du groupe au détriment de la survie de l'individu" a été très critiqué dans l'évolution animale. Il semble que l'une des particularités de l'espèce humaine est que justement, des phénomènes de sélection multi-niveaux ont pu jouer un rôle important au cours de son évolution et en particulier dans l'évolution de sa psychologie.
+Tout comportement a une composante génétique et héréditaire. Il a été démontré que l'environnement pouvait agir sur l'évolution d'un comportement héréditaire et inné, chez certains animaux.
+Quant à la culture qui ne se transmet pas par l'ADN, mais par l'apprentissage, elle peut également être sujette à une sélection. Par exemple, si j'ai un comportement qui m'apporte de la satisfaction, comme m'habiller à la mode, je le reproduirai et je l'enseignerai ou on m'imitera. Et inversement, ce comportement ne sera pas transmis, si cela ne donne pas satisfaction. La théorie de la mémétique émise par Richard Dawkins, désigne ces entités, qu'on appelle mèmes, comme éléments de base de la sélection que subit la culture, au même titre que le sont les gènes pour l'évolution du vivant.
+En retour la culture peut entraîner de nouvelles conditions de vie, et donc modifier la sélection naturelle. Par exemple l'utilisation de lait de vache dans l'alimentation a favorisé les génotypes tolérants à la digestion du lactose (sucre présent dans le lait).
+Ainsi, l'évolution de la culture serait le produit d'une interaction entre une sélection naturelle et une sélection culturelle [réf. nécessaire].
+Ainsi on peut envisager que ce modèle d'évolution faisant jouer des rétroactions puisse suivre un cercle vicieux ou vertueux, ce qui entraîne une évolution perpétuelle et continue. À condition que les rétroactions soient positives. Ce modèle est corroboré par les observations : la culture humaine suit bien une évolution continue [réf. nécessaire], et les structures anatomiques qui ont permis cette évolution (volume crânien, structure du cortex) ont aussi évolué de manière continue depuis 2 millions d'années, au moins.
+La culture humaine, qui fait toute la singularité de notre espèce, pourrait donc être le résultat d'un tel modèle d'évolution, avec une certaine indépendance vis-à-vis de l'environnement, si on ne tient pas compte des modifications engendrées par les humains eux-mêmes.
+E.O. Wilson parle de co-évolution des gènes et de la culture. Mais cette approche est critiquée[réf. nécessaire].
+Cela est expliqué par certains scientifiques dans la théorie de la construction de niche : le comportement ou une autre activité peut influencer sur l'environnement immédiat (la niche écologique) et, en retour, modifier la pression de sélection naturelle.
+Lorsque les fréquences de certaines variations héréditaires changent uniquement à cause du hasard, on parle de dérive, voire (si le groupe est très réduit) d'effet fondateur. Ces caractères doivent être relativement neutres pour la sélection naturelle (il n'y a ni avantage, ni désavantage sélectif). Si une même évolution se produit de manière répétée dans un même milieu au cours des générations, ce n'est pas la dérive, mais on peut parler de sélection.
+Dans le cadre de cette théorie, tout système dans lequel s'observeraient ces trois premiers principes donnerait lieu à un phénomène d'évolution par sélection naturelle. Dans le monde vivant, la transmission héréditaire de l'information génétique, qui obéit à ces trois principes, résulte donc dans une évolution des espèces par sélection naturelle. Cependant, d'un point de vue théorique, l'évolution par sélection naturelle ne dépend pas de la nature précise des mécanismes qui permettent l'apparition de variations, la transmission héréditaire et la traduction de l'information héréditaire en caractères phénotypiques. Le fait que Darwin lui-même ignorait jusqu'à l'existence des gènes illustre bien le distinguo qu'il convient de faire entre le cadre théorique de la sélection darwinienne et ses manifestations observables dans les écosystèmes terrestres.
+Par conséquent, les phénomènes évolutionnaires observés dans le monde vivant pourraient tout à fait se manifester dans d'autres systèmes qui mettraient en oeuvre les trois principes fondamentaux de la sélection darwinienne. C'est par exemple, l'hypothèse faite en exobiologie selon laquelle des formes de vie extraterrestres pourraient être apparues sur la base de mécanismes fondamentaux différents de ceux que l'on connait de la biologie terrestre. Au sein de telles formes de vie évoluant par sélection naturelle, on devrait donc observer des phénomènes similaires à ceux que l'on connait sur Terre : adaptation, coévolution, reproduction sexuée...
+Les plus adaptationnistes des biologistes de l'évolution (comme Simon Conway Morris) ont ainsi proposé que les contraintes environnementales sont suffisamment fortes et similaires pour que les formes de vie extraterrestres devraient présenter d'importantes convergences évolutives avec la vie terrestre ; parmi lesquelles la présence d'yeux, l'eusocialité, ou des capacités cognitives complexes.
+Plus près de nous, l'application des principes de la sélection naturelle à la sphère culturelle humaine a donné lieu à la mémétique qui cherche à expliquer les variations, la transmission, et la stabilisation des phénomènes culturels par analogie avec les espèces vivantes. Dans ce cadre théorique, les mèmes sont les unités de sélection, ou réplicateurs, des phénomènes culturels. La sélection intervient sur les mèmes en fonction de leur capacité à "survivre" c'est-à-dire à persister dans l'esprit des individus et de leur capacité à "se reproduire", c'est-à-dire à passer d'un individu à un autre par l'imitation, la communication, l'enseignement, etc. À chaque reproduction, un mème peut donc "muter" : à force d'être racontée, une même histoire sera par exemple déformée, c'est le principe du téléphone arabe. Ainsi, malgré les différences notables entre la nature des réplicateurs biologiques et culturels, certaines analogies peuvent être envisagées : coévolution (y compris entre gène et mème) ou formation de complexes de mèmes. La pertinence de l'application de la théorie darwinienne aux phénomènes culturels reste néanmoins très débattue.
+Enfin on peut aussi citer l'exemple des algorithmes évolutionnaires utilisés dans le domaine de l'optimisation en ingénierie. Ceux-ci permettent de rechercher une solution à un problème donné en mettant en compétition une population de solutions potentielles dont seules les meilleures sont conservées pour être recombinées et donner naissance à une nouvelle génération de solutions.
+Étant donné que dans cette méthode la sélection est le résultat d'une intervention humaine, ce cas relève plutôt de la sélection artificielle.
+Contenu soumis à la GFDL
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Les télécommunications sont définies comme la transmission à distance d'informations avec des moyens à base d'électronique et d'informatique. Ce terme a un sens plus large que son acception équivalente officielle « communication électronique ». Elles se distinguent ainsi de la poste qui transmet des informations ou des objets sous forme physique.
+Dans les débuts des télécommunications modernes, des inventeurs comme Antonio Meucci, Alexander Graham Bell ou Guglielmo Marconi ont mis au point des dispositifs de communication comme le télégraphe, le téléphone ou la radio. Ceux-ci ont révolutionné les moyens traditionnels tels que les pavillons ou le télégraphe optique Chappe.
+A l'époque actuelle, les télécommunications concernent généralement l'utilisation d'équipements électroniques associés à des réseaux analogiques ou numériques comme le téléphone fixe ou mobile, la radio, la télévision ou l'ordinateur. Celles-ci sont également une partie importante de l'économie et font l'objet de régulations au niveau mondial.
+Le mot télécommunications vient du préfixe grec tele- (XXXX-), signifiant loin, et du latin communicare, signifiant partager. Le mot télécommunication a été utilisé pour la première fois en 1904 par Édouard Estaunié, ingénieur aux Postes et Télégraphes, directeur de 1901 à 1910 de l'école professionnelle des Postes et Télégraphes (ancêtre de l'École nationale supérieure des télécommunications), dans son Traité pratique de télécommunication électrique.
+Les télécommunications (abrév. fam. télécoms), sont considérées comme des technologies et techniques appliquées et non comme une science.
+On entend par télécommunications toute transmission, émission et réception à distance, de signes, de signaux, d'écrits, d'images, de sons ou de renseignements de toutes natures, par fil électrique, radioélectricité, liaison optique, ou autres systèmes électromagnétiques.
+Les moyens simples naturels anciens comme la parole ou les signaux à vue, permettent de communiquer à courte distance. Le besoin de communiquer à plus grande distance dans les sociétés humaines organisées a amené très vite à développer des télécommunications primitives : tambours, signaux de fumée, langage sifflé, etc..
+Certains de ces types de communications, comme les pavillons, sémaphores ou héliographes sont encore utilisés dans la marine, même si cet usage est devenu marginal.
+Bien que la communication par signaux optiques entre des points hauts soit très ancienne, on doit à l'ingénieur Claude Chappe la création à partir de 1794 du premier réseau simple et efficace de transmission optique de messages. Ce réseau qu'il a nommé « télégraphe » fut développé sur les grands axes français et resta en service jusqu'en 1848.
+Le premier service commercial de télégraphe électrique fut construit par Charles Wheatstone et William Fothergill Cooke, et ouvrit en 1839. C'était une amélioration du télégraphe électromagnétique déjà inventé. Samuel Morse développa indépendamment une version de télégraphe électrique, qu'il montra le 2 septembre 1837. Le code Morse était une avance importante sur le télégraphe de Wheatstone.
+Le premier câble télégraphique transatlantique fut achevé le 27 juillet 18665. Sa longueur était de 4200 km pour un poids total de 7000 tonnes.
+Le téléphone classique fut inventé indépendamment par Alexander Bell et Elisha Gray en 1876. Cependant, c'est Antonio Meucci qui inventa le premier dispositif permettant la transmission de la voix à l'aide d'une ligne parcourue par un signal.
+Le domaine des télécommunications est un lieu de convergence et d'interaction entre les différentes technologies et disciplines scientifiques.
+Les mathématiques et plus particulièrement les mathématiques appliquées sont à la base du développement des théories du traitement du signal (modernisation des télécommunications), de la cryptologie (sécurisation des échanges), de la théorie de l'information et du numérique.
+La physique a permis grâce au développement des mathématiques d'édifier la théorie de l'électromagnétisme. Sont apparus alors les premiers postes à galène, puis les tubes à vides, les semi-conducteurs et l'opto-électronique, qui sont à la base de l'électronique.
+La chimie, par le biais de l'affinement des processus chimiques, a permis de réduire le poids et d'allonger l'autonomie des batteries, autorisant l'emploi d'appareils portatifs de télécommunications. De même, l'invention du laser a ouvert la voie aux communications par fibres optiques modernes.
+L'informatique fondamentale et appliquée quant à elle a révolutionné le monde de la communication à distance par le développement des langages de programmation et des programmes informatiques (génie logiciel) associés à la micro-éléctronique.
+Une liaison de télécommunications comporte trois éléments principaux :
+Par exemple, en radiodiffusion, l'émetteur de radiodiffusion émet grâce à son antenne la voix ou la musique, qui passe dans l'espace sous forme d'onde électromagnétique, jusqu'à un récepteur AM ou FM qui la restitue.
+Les liaisons de télécommunications peuvent être monodirectionnelles, comme en radiodiffusion ou télévision, ou bidirectionnelles, utilisant alors un émetteur-récepteur. Quand plusieurs liaisons sont interconnectées entre plusieurs utilisateurs, on obtient un réseau, comme par exemple le réseau téléphonique ou internet.
+La transmission s'effectue par différents médias selon les systèmes. Historiquement le fil téléphonique fut le premier support de télécommunication et permit le développement du télégraphe et du téléphone. Il est toujours le média principal pour le raccordement aux réseaux téléphonique et aux réseaux informatiques (téléphone, fax, minitel, internet, ...), sous forme de paire(s) torsadée(s).
+Le câble coaxial était le média du haut débit avant l'apparition des fibres optiques, il est toujours utilisé dans les réseaux industriels en raison de sa robustesse face aux perturbations. C'est aussi le support de prédilection pour les raccordement en radiofréquence à l'intérieur d'un équipement, parfois remplacé par le guide d'onde pour les transmissions de micro-ondes de forte puissance.
+La fibre optique, qui raccorde progressivement les abonnés en ville, est aussi le média des câbles sous-marins modernes. C'est un fil en verre ou en plastique très fin qui a la propriété de conduire la lumière.
+La « radio », qui peut être définie comme toute communication par l'intermédiaire de l'espace hertzien, a révolutionné les télécommunications au début du xxe siècle. C'est le média de la radiodiffusion de programmes, des services de communications en radiotéléphonie, des réseaux de téléphonie mobile, du Wi-Fi, des loisirs radio comme le radioamateurisme, des liaisons par satellite de télécommunications ou par faisceau hertzien, aussi bien que des simples télécommandes domestiques. La radioélectricité étudie la transmission hertzienne, la propagation des ondes, les interfaces avec l'émetteur et le récepteur par l'intermédiaire des antennes.
+Les liaisons optiques dans l'espace, donc non guidées par fibres, sont utilisées en communications par satellites, ainsi que dans des applications aussi simples que les télécommandes audio-vidéo.
+Enfin, certains milieux ne peuvent être traversés que par des ondes acoustiques, c'est le cas des communications dans les mines, ou entre plongeurs, qui s'effectue par ondes ultra-sonores.
+Quel que soit le média de transmission, un émetteur convertit l'information en signal électrique, optique ou radioélectrique adapté au média, en le modulant et en l'amplifiant. Inversement, un récepteur convertit le signal transmis en information utilisable.
+La technique de ces fonctions d'interface est donc très dépendante du média, de la fréquence d'utilisation, et surtout de la puissance nécessaire pour compenser les pertes de propagation. Ainsi, la transmission sur une ligne Ethernet par exemple n'utilise que quelques circuits intégrés et du câble de faible section, alors qu'une liaison vers une sonde planétaire demande des émetteurs de forte puissance et des antennes de plusieurs dizaines de mètres.
+Dans un canal de transmission hertzien, le signal porté par l'onde radioélectrique est atténué par la perte d'espace, les absorptions atmosphériques et les précipitations, et dégradé par les diffractions et réflexions. L'Équation des télécommunications inclut tous ces facteurs et détermine la puissance et les antennes nécessaires.
+L'antenne radioélectrique convertit les signaux électriques en onde radioélectrique à l'émission, et inversement en réception. De nombreux types d'antennes ont été développées, selon la fréquence d'utilisation, le gain nécessaire et l'application, depuis les antennes miniatures intégrées aux téléphones mobiles, jusqu'aux paraboles géantes de radioastronomie.
+Dans les applications bidirectionnelles, comme la radiotéléphonie, les deux fonctions peuvent être combinées dans un émetteur-récepteur. Un récepteur suivi d'un émetteur constituent un répéteur, par exemple sur un satellite de télécommunication, ou dans un câble sous-marin.
+Le partage du média entre utilisateurs se fait par les techniques d'affectation, de multiplexage et d'accès multiple.
+L'affectation de fréquences par bande et par service sur le média hertzien est la première technique apparue pour empêcher les brouillages mutuels.
+À l'intérieur d'une bande de fréquences, le multiplexage fréquentiel est la division d'un média de transmission en plusieurs canaux, chacun étant affecté à une liaison. Cette affectation peut être fixe, par exemple en radiodiffusion FM, une station émet à 96,1 MHz, une autre à 94,5 MHz. L'affectation des fréquences peut être dynamique comme en FDMA (Accès multiple par division en fréquence), utilisée par exemple lors de transmissions par satellite. Chaque utilisateur du canal y reçoit dans ce cas une autorisation temporaire pour une des fréquences disponibles.
+En communications numériques, le multiplexage peut également être temporel ou par codage :
+Le fonctionnement de ces techniques d'accès multiple nécessitent des protocoles pour les demandes d'affectation, les adressages, dont le plus connu est le TCP/IP d'Internet.
+Le traitement du signal permet d'adapter l'information (sous forme de signal analogique ou numérique) au média de transmission et de la restituer après réception.
+À l'émission, les techniques de compression permettent de réduire le débit nécessaire, idéalement sans perte de qualité perceptible, par exemple sur la musique (MP3) ou sur la vidéo (MPEG), les codages transforment le signal d'information binaire en une forme adaptée à la modulation.
+À la réception, les opérations inverses sont effectuées : démodulation, décodage, correction et décompression. La correction d'erreur permet, grâce à un ajout d'information redondante par un code correcteur, de diviser de plusieurs ordres de grandeur le taux d'erreur.
+Ces techniques varient selon que les signaux à transmettre sont analogiques, comme la musique, la voix, l'image, ou numériques, comme les fichiers ou les textes. Un signal analogique varie continûment alors qu'un signal numérique est une succession d'états discrets, binaires dans le cas le plus simple, se succédant en séquence.
+Dans de nombreuses applications (TNT, téléphonie mobile, etc), le signal analogique est converti en numérique, ce qui permet des traitements plus efficaces, en particulier le filtrage du bruit 8. Seuls la modulation, l'amplification et le couplage au média restent alors analogiques.
+Un ensemble de liaisons et de fonctions permettant d'assurer un service, constitue un système de télécommunications.
+Ainsi le système de satellites Inmarsat, destiné aux communications mobiles, comporte plusieurs satellites, plusieurs type de liaisons d'utilisateurs selon les débits et usages, des milliers de terminaux adaptés, et des liaisons de télémesure et de télécommande permettant le contrôle des satellites depuis les stations terrestres, celles-ci étant également connectées par des liaisons terrestres dédiées.
+Un système de télécommunications peut avoir une architecture :
+Un réseau de radiotéléphonie de secours est un réseau simple entre un central et des mobiles, géré par des procédures radio et des opérateurs.
+Un réseau commuté comme le réseau téléphonique comporte des liaisons individuelles d'abonné comme une ligne analogique ou une ligne RNIS, des centraux téléphoniques pour établir un circuit entre deux abonnés et des liaisons haut débit pour relier les centraux téléphoniques.
+Un réseau par paquet, comme Internet, comporte des routeurs qui aiguillent les paquets d'information d'une machine vers une autre désignée par son adresse IP.
+Le transport de la voix par la téléphonie, fut la première avancée des télécommunications, juste après les premiers télégraphes. Le téléphone est l'appareil qui sert à tenir une conversation bidirectionnelle avec une personne lointaine. Il est utilisé à titre privé, pour garder le contact avec ses proches ou à titre professionnel, pour échanger des informations orales sans avoir à se rencontrer physiquement.
+La téléphonie qui repose sur le réseau téléphonique permet également des services plus avancés tels que la messagerie vocale, la conférence téléphonique ou les services vocaux. La ligne téléphonique sert aussi de solution d'accès à Internet, d'abord avec un modem en bas débit, puis en haut débit grâce à l'ADSL.
+La radiotéléphonie, c'est à dire la communication à distance sans fil, a d'abord été appliquée aux communications maritimes pour en accroître la sécurité, puis militaires dès la première guerre mondiale, avant de devenir un media populaire avec la TSF. La radiotéléphonie est encore le moyen principal de communication du contrôle aérien, des liaisons maritimes par la radio maritime et des liaisons de sécurité (police, secours). C'est aussi l'activité principale du radioamateurisme.
+La radiodiffusion est la distribution de programmes à partir d'un émetteur vers des auditeurs équipés d'un récepteur. D'abord en modulation d'amplitude en basse fréquence (GO) et moyenne fréquence (PO), puis en modulation de fréquence en VHF, elle évolue vers la radio numérique, diffusée par satellite ou en VHF terrestre.
+La téléphonie mobile est la possibilité de téléphoner sans connexion filaire soit par une solution terrestre basée sur des zones de couverture de relais, soit par satellite. Le développement de ce moyen de communication est un phénomène de société remarquable de la fin du xxe siècle. Le geste de téléphoner dans la rue devient banal, au point d'inquiéter sur ses risques sanitaires et de créer un langage particulier, le langage SMS. En attendant de voir partout les programmes de télévision sur mobile en cours de développement, l'accès à Internet est déjà facile sur les dernières générations de téléphones.
+La transmission d'images fixes par ligne téléphonique remonte au bélinographe, et est toujours utilisée sous le nom abrégé de fax, comme échange de pages photocopiées, documents commerciaux ou technique. Le radiofacsimilé qui permet de transmettre des images par radio est utilisé surtout pour la diffusion de cartes météo, soit directement depuis les satellites d'observation, soit retransmises vers les navires ou les terrains d'aviation.
+Après le téléphone et la radio, la télévision est présente dans tous les foyers. Les forêts d'antennes yagi et de paraboles ont envahi les villes, les chaînes satellites, d'abord analogiques puis numériques ont multiplié les programmes nationaux et internationaux.
+Les récepteurs modernes à plasma ou LCD fournissent des images de haute qualité et la télévision numérique terrestre augmente encore le choix des usagers.
+La transmission d'images simultanées à une liaison de téléphonie est possible grâce à la visioconférence utilisant des canaux à haut débit dédiés, par la transmission à balayage lent analogique ou SSTV, immortalisée par les premiers pas sur la lune, et par les techniques numériques nouvelles, webcam sur internet ou téléphone mobile de dernière génération.
+Le télégraphe est l'ancêtre des transmissions de données et la première application des télécommunications : transmettre des caractères, donc un message, par signaux optiques, puis sur une ligne puis par ondes radio (radiotélégraphie). Le télétype puis le radiotélétype l'ont automatisé.
+Un réseau informatique est un ensemble d'équipements reliés entre eux pour échanger des informations. Quoique l'internet ne soit pas le seul système de réseau informatique, il en est presque devenu synonyme. La structure d'internet est complexe et peut se séparer en plusieurs parties :
+La télémesure, terrestre comme en hydrologie ou en métérologie, ou spatiale comme les images météosat ou celles des sondes planétaires lointaines, permet la surveillance des installations industrielles, augmente notre connaissance de l'environnement, du climat ou de l'univers.
+La télécommande, la plus simple comme en domotique ou en HiFi et vidéo, ou la plus complexe comme celle des robots martiens, est la commande à distance sans fil, optique ou radio, généralement couplée à la télémesure.
+Le signal radioélectrique peut contenir d'autres informations, comme des paramètres permettant les calculs de position, le temps universel, la détection de cibles ou la cartographie du terrain.
+Quoique le radar ne soit pas à proprement parler un système de communication, mais de télédétection, ses techniques combinent micro-onde, traitement du signal, radioélectricité, et peuvent être rattachées au monde des télécommunications.
+Initialement développé pour la détection des raids aériens, le radar fut très vite installé sur les navires, puis les avions.
+D'abord militaire puis civil, le contrôle aérien et maritime utilisent intensivement le radar pour la sécurité. Enfin le radar météorologique permet de cartographier les pluies et nuages, y compris depuis les satellites d'observation.
+La radionavigation a permis, dès les débuts de la radio, d'aider à la navigation maritime puis aérienne, grâce à la radiogoniométrie et aux radiophares, puis aux systèmes hyperboliques comme le LORAN. Les systèmes de navigation par satellite comme le GPS sont devenus un équipement courant des véhicules, en attendant le développement du futur Galileo.
+Les systèmes d'identification automatique comme l'AIS et de détection d'obstacle améliorent la sécurité de la navigation.
+La diffusion du temps universel et de signaux horaires est intégrée aux signaux de radionavigation GPS actuels, mais a longtemps été un service spécifique d'aide à la navigation astronomique, ou de synchronisation scientifique, par émissions HF comme le WWV, ou BF comme l'émetteur d'Allouis ou le DCF.
+Pour leurs télécommunications, les militaires utilisent des méthodes de discrétion comme l'évasion de fréquence, et de cryptage, sur des réseaux de radiotéléphonie HF et VHF, ou des satellites dédiés, comme Syracuse. les gouvernements utilisent également les techniques radioélectriques dans un but de renseignement électromagnétique, comme le système Echelon d'écoute satellitaire 9, ou des systèmes de brouillage et de contre-mesures radioélectriques.
+Les télécommunications représentent un secteur d'activité économique significatif.
+Les télécommunications sont un élément crucial de la société moderne. En 2006, l'industrie des télécommunications représentait un revenu de 1 200 milliards de dollars, soit 3 % du revenu mondial.
+À l'échelle microéconomique, les entreprises utilisent les télécommunications pour construire leur activité, comme les ventes en ligne, ou améliorer leur efficacité, comme les magasins traditionnels. Dans le monde entier, des services à domicile peuvent être obtenus sur simple appel téléphonique, des livraisons de pizzas au dépannage. Dans les communautés les plus pauvres, le téléphone mobile sert aussi bien au Bangladesh qu'en Côte d'Ivoire pour négocier les ventes agricoles au meilleur prix du marché.
+En raison des avantages économiques d'une infrastructure correcte de télécommunications, à laquelle une grande partie du monde n'a pas accès, l'écart de développement par manque de télécommunications, ou fracture numérique, peut se creuser.
+Les télécommunications modernes permettent de transmettre de l'image, du son et du texte dans le monde entier. Ces moyens techniques sont neutres par rapport à leur contenu. Cependant, les télécommunications sont à l'origine de débats en termes d'uniformisation de la culture, d'identité nationale ou, au contraire, de nouvelles possibilités d'expression, de communication permettant de s'affranchir des frontières et des espaces traditionnels.
+Le développement des moyens de transmission hertzien, terrestre puis satellitaire, a favorisé le déploiement à grande échelle des médias de masse (radio, télévision...) dans les sociétés 14, modifiant ainsi les modes de pensée et les schémas culturels traditionnels. Par exemple, pendant la guerre froide, la radio reçue internationalement en ondes courtes depuis les émetteurs américains vers la RDA, russes vers l'Europe ou chinois installé en Albanie, a servi de média de propagande entre deux idéologies. La télévision par satellite dont les paraboles garnissent les immeubles des banlieues européennes, permet aux communautés minoritaires de garder leur lien culturel.
+Enfin, la convergence des réseaux numériques et des infrastructure de télécommunications mondiales permet de se connecter au Web par le biais du réseau Internet presque en tout point de la surface terrestre. Ce nouveau mode de communication transforme progressivement les manières d'échanger, de communiquer et de travailler 15 non seulement dans une société mais aussi entre sociétés de cultures différentes.
+Cependant, on trouve aussi sur le Web par exemple des albums CD et des films avant leur mise en vente, ce qui provoque des réactions restrictives, voire policières, des grands distributeurs. Les informations vraies ou fausses peuvent circuler en quelques jours, les groupes extrémistes ou criminels peuvent s'organiser sans limitation.
+Les industriels des télécommunications conçoivent et produisent des équipements et des logiciels destinés aux télécommunications. Ils participent aussi à la normalisation en proposant de nouvelles solutions aux organismes de standardisation.
+Les constructeurs peuvent être des entreprises multinationales issues de plusieurs fusions-acquisitions comme Aastra, Alcatel-Lucent, Nokia-Siemens, ou des start-up comme Fortinet. Ils sont majoritairement d'Amérique du Nord : Cisco, 3Com, Nortel, d'Europe : Alcatel-Lucent, Ericsson, Nokia ou de Chine (ROC ou RPC) : Huawei, ZTE,D-Link.
+Certains constructeurs se focalisent sur une technologie comme Extreme Networks sur l'Ethernet. D'autres, comme Cisco, essayent de couvrir toutes les technologies, tous les marchés (particulier, entreprise, opérateur de télécommunications), tous les services (support, installation, architecture, etc).
+Un opérateur de télécommunications est une entreprise qui commercialise des services en utilisant les infrastructures de télécommunications. Ce peut-être une entreprise indépendante, ou une filiale d'un constructeur, qui loue une capacité sur un réseau pour vendre des abonnements et des connexions individuelles, ou encore une entreprise publique proprétaire du réseau, comme les opérateurs historiques européens.
+L'interopérabilité entre équipements ou systèmes différents nécessite des standards et des protocoles de télécommunications précis qui évoluent en versions successives selon les avances techniques. Un fabricant dont une ou plusieurs innovations sont à la base d'une norme ou d'un standard, est assuré de prendre une avance significative sur son marché, les constructeurs d'équipements tissent donc des liens très étroits avec les organismes de normalisation et de standardisation.
+Parmi les principaux organismes de normalisation-standardisation mondiaux, citons :
+Pour optimiser l'utilisation du spectre de fréquence et limiter les interférences entre systèmes, les états s'accordent au niveau international :
+Chaque pays gère ces règlementations internationales à l'intérieur de ses frontières, sous le contrôle d'administrations nationales :
+Le secteur des télécommunications était historiquement lié à la puissance publique de chaque état et exploité par cet état. Depuis les années 1980 - 1990, un mouvement mondial de dé-règlementation (ou dé-régulation) du secteur des télécommunications est intervenu, amenant par exemple au dégroupage du réseau téléphonique.
+Contenu soumis à la GFDL
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Le RMS Titanic est un paquebot transatlantique britannique de la White Star Line, construit sous l'initiative de Joseph Bruce Ismay en 1907. Il a été conçu par l'architecte Thomas Andrews des chantiers navals Harland & Wolff. La construction débute en 1909 à Belfast en Irlande du Nord et se termine en 1912. C'est le plus luxueux et le plus grand paquebot jamais construit au moment de son lancement. Il appartient à la classe Olympic avec ses deux sister-ships, l'Olympic et le Britannic. Le Titanic est pourvu de seize compartiments étanches servant à protéger le navire d'avaries importantes. Les médias lui ont ainsi donné une réputation de navire insubmersible.
+Lors de son voyage inaugural de Southampton à New York, il percute un iceberg sur le flanc tribord le 14 avril 1912 à 23 h 40 et coule le 15 avril 1912 à 2 h 20 au large de Terre-Neuve. Entre 1 490 et 1 520 personnes périssent, ce qui fait de cet événement une des plus grandes catastrophes maritimes en temps de paix et la plus grande pour l'époque.
+Son épave est localisée le 1er septembre 1985 par le professeur Robert Ballard. Elle git à 3 843 mètres de profondeur à 650 km au sud-est de Terre-Neuve. L'histoire du paquebot a marqué les mémoires, entraînant la rédaction de nombreux ouvrages (historiques ou fictionnels) et la réalisation de films dont Titanic de James Cameron, sorti en 1997, qui a entraîné un regain d'intérêt considérable au sujet du navire.
+Durant la fin de l'été 1907, pour concurrencer le Lusitania et le Mauretania, deux rapides paquebots de la Cunard Line, Lord William James Pirrie, associé de la société des chantiers navals Harland & Wolff à Belfast, et Joseph Bruce Ismay, directeur général de la compagnie maritime White Star Line, prennent la décision de construire une série de trois paquebots capables de surpasser en confort, sécurité et élégance ceux des autres compagnies maritimes concurrentes, qu'elles soient britanniques ou allemandes. Leurs noms, Olympic, Titanic et Gigantic (rebaptisé Britannic après le naufrage de son jumeau) sont choisis par la suite.
+Les plans du Titanic et de l'Olympic (la construction du Gigantic doit débuter plus tard) sont dessinés dans les bureaux des chantiers navals Harland & Wolff sur Queen's Island à Belfast, en Irlande du Nord. À la tête des opérations se trouvent Alexander Montgomery Carlisle, directeur général des chantiers navals et responsable des aménagements, de la décoration et des dispositifs de sauvetage des paquebots et Thomas Andrews, chef du Département Dessin et architecte naval. Au départ en retraite d'Alexander Montgomery Carlisle, en 1910, Thomas Andrews prend sa place et devient ainsi Directeur Général des chantiers et de la conception.
+Le 31 juillet 1908, Joseph Bruce Ismay approuve le projet lors d'un déplacement à Belfast et signe une lettre d'accord avec les chantiers navals. Dans ce contrat est mentionné le fait que les meilleurs produits doivent être utilisés, et que les constructeurs doivent faire preuve de la plus grande maîtrise professionnelle.
+À l'automne 1908, les plans sont achevés et les approvisionnements spéciaux ainsi que les équipements non réalisables par les chantiers Harland & Wolff sont commandés. Lord Pirrie fait agrandir les chantiers navals, notamment par la construction d'un immense portique qui est le plus grand échafaudage du monde à l'époque (256 m de long, 82 m de large et 52,60 m de haut ainsi que des grues de 69,50 m)13. Le 16 décembre 1908, la quille de l'Olympic est posée sur la cale de construction no 2. Elle porte le numéro de chantier 400, la 400e commande reçue par Harland and Wolff.
+Le 22 mars 1909, la quille du Titanic est posée sur la cale no 3, le numéro de chantier étant le 401. Les chantiers avancent très vite et deux ans plus tard, au printemps 1911, la coque du Titanic est achevée, elle est constituée de 2 000 tôles de trois centimètres d'épaisseur maintenues par 3 millions de rivets.
+L'Olympic est lancé le 20 octobre 1910 et le Titanic le 31 mai 1911, jour de l'anniversaire de Lord et Lady Pirrie qui assistent à la mise à l'eau du paquebot avec plus de 100 000 personnes : les employés des chantiers et leurs familles, des visiteurs, quelques personnalités et la presse sont présents. Pour aider le Titanic à « glisser » dans l'eau, 20 tonnes de suif, d'huiles de vidange, de graisse de baleine et de savon sont étalés sur 2 cm le long des cales.
+Le Titanic, après avoir réussi son lancement, est stoppé par six ancres retenues elles-mêmes par vingt-trois aussières en acier de 80 tonnes chacune et remorqué à quai par cinq remorqueurs. Après le lancement, invités, représentants de la presse et personnalités sont conviés à un déjeûner donné au Grand Central Hôtel de Belfast. Au menu, pas moins de six plats et cinq desserts ou mises-en-bouche de cuisine française sont servis. Quant à Joseph Bruce Ismay et John Pierpont Morgan, ils quittent le repas pour se rendre sur l'Olympic qui doit subir ses essais en mer.
+Entre juin 1911 et mars 1912, plus de 3 000 professionnels (mécaniciens, électriciens, plombiers, ébénistes, peintres, décorateurs, ...) équipent le Titanic des dernières techniques navales et l'aménagent avec des éléments décoratifs et un mobilier somptueux. Le 18 septembre 1911, on annonce la date du voyage inaugural du paquebot, le 20 mars 1912.
+Mais, le 20 septembre, suite à une collision entre le croiseur de la Royal Navy, Hawke et l'Olympic lors de sa cinquième traversée transatlantique, le Titanic doit être déplacé et les 14 000 ouvriers travaillant à sa construction sont affectés aux travaux de réparation de l'Olympic, ce qui retarde considérablement la construction du paquebot. La White Star Line reporte le voyage inaugural au 10 avril. Le 30 novembre, une fois les réparations de la coque de l'Olympic terminées, celui-ci reprend son service et le Titanic rejoint sa cale sèche où son armement se poursuivit. En janvier 1912, on installe les 4 cheminées et le 3 février, les 3 imposantes hélices sont posées sur le navire. Le 24 mars 1912, le Titanic est immatriculé à Liverpool, son port d'attache.
+Le 2 avril 1912, 78 chauffeurs et soutiers ainsi que 41 officiers et membres d'équipage se trouvent à bord. À 6 h 00, le Titanic quitte son dock, tiré par quatre remorqueurs appartenant à la Red Funnel Line, sous le commandement d'Edward Smith, précédemment commandant de l'Olympic. Toute la journée, le Titanic procède à des essais de vitesse et de manoeuvrabilité (arrêts d'urgence, mesures des qualités manoeuvrières à différentes vitesses). Durant ces essais, le Titanic montre qu'il peut stopper sur une distance de seulement trois fois sa longueur.
+À midi, les ingénieurs, les représentants du chantier et les représentants du ministère du commerce britannique inaugurent, en y déjeûnant, la salle à manger de 1re classe. Après d'autres essais, le Titanic rentre à Belfast vers 18 h 00. Le nouveau paquebot ayant rempli toutes les exigences du gouvernement britannique, Francis Carruthers signe le certificat de navigabilité no 131428, valable pour une durée d'un an19. Vers 20 h 00, le paquebot vire de bord et met le cap sur Southampton où il est attendu dans la nuit du 3 au 4 avril.
+Après avoir parcouru les 570 milles qui l'en séparent, le Titanic arrive, peu avant minuit, au port de Southampton où six remorqueurs de la Red Funnel Line l'attendent. Le navire accoste le quai no 44. Durant l'escale les cheminées sont repeintes ainsi que le flanc bâbord de la coque. Une fois achevé, le Titanic a coûté 1,5 million de livres soit 7,5 millions de dollars américains à l'époque (150 millions aujourd'hui).
+Le 10 avril 1912, à 12 h 15, le Titanic appareille de Southampton en Angleterre avec à son bord 953 passagers dont 31 trans-Manche et 886 membres d'équipage. Lors de son départ, il manque de peu de heurter le paquebot New York amarré à un quai. Les remous causés par les hélices du Titanic font rompre les amarres du New York, et ce dernier se rapproche rapidement du Titanic jusqu'à ce qu'il n'y ait plus que 2 mètres qui les séparent. Le commandant Edward Smith donne alors l'ordre de mettre les machines en arrière toute, ce qui a pour effet de repousser le New York. Le Titanic quitte enfin Southampton avec une heure de retard. À 18 h 35, arrivé à Cherbourg en Normandie, 24 passagers trans-Manche débarquent et 274 embarquent, principalement des 1re classe. Cependant le Titanic ne peut pas atteindre le port, car celui ci n'est pas assez profond pour la taille du paquebot. Ce sont donc deux navettes de la White Star Line, le Nomadic et le Traffic, qui se chargent de transborder les 274 passagers qui embarquent sur le Titanic. À 20 h 10, le paquebot appareille de Cherbourg pour Queenstown (aujourd'hui Cobh) en Irlande.
+Le 11 avril 1912, à 11 h 30, le Titanic arrive à Queenstown où débarquent sept passagers inter-ports et 120 passagers embarquent. Les passagers qui embarquent à ce moment là sont en grande majorité des passagers de 3e classes immigrant vers les États-Unis. À 13 h 30, le RMS Titanic quitte Queenstown pour New York avec à son bord 1 316 passagers et 885 membres d'équipage. Le capitaine Edward Smith envisageait de prendre sa retraite après cette traversée ; il ne devait donc assurer le commandement du Titanic que pour cette unique fois.
+Le 12 avril 1912, à 19 h 45, le Titanic reçoit un message de La Touraine lui signalant un brouillard dense, une couche de glace épaisse, des icebergs et un navire abandonné sur plusieurs points de l'Atlantique Nord. Ce message a été immédiatement remis au commandant Edward Smith.
+Dans la journée du 13 avril 1912, le Titanic reçoit plusieurs messages lui signalant des icebergs, des growlers (petits icebergs de 1 mètre par 5) et quelques champs de glace. Dans l'après-midi, un incendie est éteint dans la salle des chaudières no 5. Il faisait rage depuis plusieurs jours (peut-être depuis le 2 avril) et avait été décelé le jour du départ. Il ne s'agissait pas d'un fait inhabituel sur les navires de l'époque mais celui-ci était d'une rare intensité et une douzaines d'hommes ont été nécessaires pour le maîtriser. À 22 h 30, le paquebot reçoit un avis du Rappahannock lui signalant un épais champ de glace et plusieurs icebergs, la réception de ce message fut effectuée par un officier.
+Le 14 avril 1912, alors que le Titanic a déjà parcouru 1 451 milles (2 335 kilomètres), le Caronia signale, vers 9 h 00, des glaces à 42°N, 49°O jusqu'à 51°O25. En début d'après-midi, d'autres navires, dont le Baltic dela White Star signalent des glaces à peu près au même endroit. Dans la soirée, le Californian, envoie le même message. À 19 h 30, le paquebot reçoit trois nouveaux messages du Californian lui signalant de grands icebergs. À 22 h 00, la température extérieure devient nulle ainsi que celle de l'eau une demi-heure plus tard. À 22 h 55, le Californian, alors pris dans la glace à 20 milles au nord du Titanic, envoie un message à tous les navires alentour, parmi lesquels le Titanic.
+À 23 h 40, par 41°46' N et 50°14' O26, alors que le Titanic avance à 22,5 noeuds (41,7 km/h)27, le veilleur Frederick Fleet aperçoit un iceberg droit devant et le sigale à la passerelle. Le 1er officier William Murdoch, alors de quart, essaie de faire virer le navire vers bâbord et fait stopper les machines pour faire marche arrière. Quelque 37 secondes plus tard, le navire vire mais l'iceberg le heurte par tribord et le choc fait tomber les rivets ouvrant ainsi une voie d'eau dans la coque sous la ligne de flottaison. Les portes étanches sont alors immédiatement fermées par Murdoch afin d'éviter une voie d'eau plus importante. Mais l'eau commence à envahir les cinq premiers compartiments du bateau. Or, le Titanic ne peut flotter qu'avec au maximum quatre de ses compartiments remplis d'eau. À 23 h 50, le niveau de la mer est déjà monté de 4 mètres à la proue, les cinq premiers compartiments étanches commencent à être inondés ainsi que la chaufferie no 5.
+À 0 h 05, le commandant fait enlever les tauds des embarcations et rappeler l'équipage. À 0 h 15, le premier appel de détresse est envoyé en signal CQD. À 0 h 25, l'ordre est donné de faire monter les femmes et les enfants en premier dans les canots de sauvetage. À 0 h 45, le canot no 7 est affalé avec seulement 28 passagers contre 65 possibles et le signal CQD est transformé en SOS. Les officiers s'occupent de faire monter les femmes et les enfants en priorité dans les canots, et les premières et secondes classes, étant plus près des canots, y ont plus facilement accès. Mais la capacité des canots de sauvetage du Titanic n'est que de 1 178 personnes au total et il y a environ 2 200 personnes à secourir sur le paquebot. À intervalles réguliers, jusqu'à 1 h 40, des fusées de détresse sont envoyées. Il en est de même pour les SOS qui sont envoyés jusqu'à 2 h 17.
+À 2 h 17 l'orchestre s'arrête de jouer juste avant la chute de la cheminée avant. Peu après, la grande verrière se brise en entraînant la destruction du Grand Escalier et donnant accès à l'eau à toutes les pièces de l'avant. À 2 h 18, les lumières du Titanic clignotent une dernière fois puis s'éteignent. Un instant plus tard, le paquebot se brise en deux. Alors que la partie avant coule, la partie arrière flotte pendant quelques instants et se remplit d'eau lentement jusqu'à ce qu'elle sombre à 2 h 2032{{}}33,34. La température de l'eau est alors de -3°C35.
+Beaucoup plus tard, à 3 h 30, les passagers des canots aperçoivent les feux du Carpathia. 40 minutes plus tard, le premier canot, le no 2, est récupéré par le navire d'assistance. À 5 h 30, le Californian prévenu par le Frankfürt arrive sur les lieux du désastre. Le dernier canot, est récupéré à 8 h 30, le second officier Charles Lightoller est le dernier à monter à bord. Le Carpathia met ensuite le cap sur New York à 8 h 50.
+Le lendemain du naufrage, le roi du Royaume-Uni, George V, adresse ses condoléances aux familles des victimes par un télégramme envoyé à Ismay. George V envoie à son tour un télégramme au président américain William Howard Taft. Armand Fallières, président français, envoie un télégramme à George V pour exprimer lui aussi ses condoléances.
+Le 18 avril 1912, à 21 h 30, le RMS Carpathia débarque à New York sous une pluie battante, les rescapés de 3e classe débarquent en dernier vers 23 h 00. Certains sont accueillis par leur famille, d'autres sont hébergés par des hôtels le temps de retrouver leurs proches ou de regagner le Royaume-Uni aux frais de la White Star Line. Certains rescapés de 1re classe rentrent à leur domicile par train privé.
+Le naufrage du Titanic fait environ 1 500 morts, les chiffres variant entre 1 491 et 1 51336,37,23 naufragés. Il y a donc environ 700 rescapés. Les membres d'équipages sont les plus touchés puisque 76 % d'entre eux sont morts. Également 75 % des troisième classe ont trouvé la mort. D'une façon plus générale, la principale différence se situe entre les hommes et les femmes. Seul 25 % des femmes sont mortes dans le naufrage contre 82 % des passagers masculins. Cependant, plus de la moitié des rescapés sont des hommes. Les enfants sont davantage victimes que les femmes, 53 des 109 enfants à bord ayant péri.
+Le naufrage du Titanic a de nombreuses causes, tant naturelles qu'humaines. Son bilan, qui est l'un des plus lourds de l'histoire maritime, s'explique également par plusieurs facteurs.
+Les circonstances du naufrage sont en effet particulières. Il est en effet rare de trouve des icebergs dans cette région de l'Atlantique au mois d'avril, mais la présence de nombreuses glaces cette année là s'explique par un hiver particulièrement doux. Ceci explique que le Titanic, qui navigue pourtant plus au sud que la route conseillée, se soit dirigé droit vers un champ de glaces. De plus, la nuit est sombre, sans Lune et sans vent, ce qui rend plus difficile le repérage des icebergs. Ceci est aggravé par l'absence de jumelles dans le nid-de-pie, suite à une négligance des officiers : selon Frederick Fleet, le veilleur qui a appreçu l'iceberg, des jumelles auraient permis de le voir à temps.
+De plus, les compartiments étanches ne montent pas assez haut pour empêcher la progression de l'eau, et l'acier composant certaines parties de la coque est très cassant. La vitesse du navire au moment du choc était également trop élevée pour les circonstances (bien qu'en accord avec les règles de l'époque). Malgré une tentative de la part de la commission américaine, aucune preuve n'a pu être fournie sur le fait qu'Ismay ait poussé le commandant à aller plus vite.
+Enfin, le nombre élevé de morts s'explique par le faible nombre de canots de sauvetage du navire, qui ne peuvent contenir que 1 178 personnes, mais aussi par le manque d'organisation dans leur chargement. Certains canots, comme le no 147, partent complètement vides et refusent de revenir sur les lieux du naufrge. Ceci explique que les canots soient, au final, remplis au trois quarts.
+Lors de la première conférence sur la sécurité en mer à Londres, le 12 novembre 1913, les mesures suivantes sont prises :
+Le désastre est un choc pour la communauté internationale car il prouve à tous les peuples que l'homme et ses réussites technologiques peuvent être dépassés par les puissances de la nature. Il met également la lumière sur les insuffisances techniques de l'époque : les examens modernes montrent en effet que l'acier de la coque et encore davantage les rivets autres que sur la partie centrale de la coque, continent trop de soufre mais pas assez de manganèse, ce qui le rend trop cassant. L'attitude désinvolte et insouciante de ceux qui décident de la route et de la vitesse, basée sur leur confiance exagérée dans l'« insubmersibilité » du bateau, contribue fortement à la perte du navire. Cependant, la plupart des marins expérimentés de l'époque considèrent que, par temps clair, il est plus sûr de naviguer vite.
+Une légende affirme que le gouvernail était trop petit et qu'un plus grand aurait pu sauver le paquebot. Bien qu'un gouvernail plus important eût peut-être aidé à éviter la catastrophe, celui du Titanic n'était pas trop petit au regard de la législation pour un navire de cette envergure. En fait, les dimensions du gouvernail pour un bateau de la taille du Titanic seraient toujours conformes aux normes navales en vigueur actuellement. Si le paquebot avait amorcé son virage cinq secondes plus tôt ou plus tard quand l'iceberg fut détecté, il n'aurait probablement pas sombré. De plus, une autre légende affirme que le Titanic est le seul navire de son époque à être déficient au regard du nombre de canots de sauvetage. En réalité, non seulement le navire est en conformité avec la réglementation britannique concernant le nombre de canots à bord, mais il va même au-delà de cette réglementation. Le nombre minimum de canots de sauvetages est basé, non sur le nombre de passagers mais sur le tonnage du navire ; le Titanic aurait pu se contenter de seize canots de sauvetage, or il en possède vingt. Tous les autres paquebots de l'époque offrent également un nombre de canots de sauvetage très insuffisant, mais l'objectif n'est pas de pouvoir contenir l'ensemble des passagers en cas de naufrage mais simplement d'assurer le transit vers un autre bateau dans le cadre d'une opération de sauvetage. La catastrophe du Titanic change définitivement cet état d'esprit. Néanmoins, même si le nombre de canots avait été suffisant pour embarquer tous les passagers, cela n'aurait probablement pas permis de sauver beaucoup de vies. En effet, durant le naufrage, qui est pourtant assez lent, l'équipage a juste le temps de mettre à l'eau tous les canots dont il dispose.
+Le Titanic est long de 269 mètres, large de 28 mètres et haut de 53 mètres, de la quille aux cheminées. Son tonnage brut est d'environ 46 000 tjb, soit 1 000 de plus que l'Olympic. Il nécessite environ 885 membres d'équipage, et peut transporter 2 371 passagers répartis en trois classes. Le paquebot transporte également du courrier. C'est pour cette raison qu'il porte parfois le sigle RMS.
+Les dix ponts du Titanic permettent de l'élever au rang de plus grand paquebot jamais construit à son époque. Sept de ses ponts (les ponts abritant des cabines destinées aux passagers) sont désignés par des lettres, de A à G (A étant en haut et G en bas). Au dessus du pont A se trouve le pont des embarcations (ou pont supérieur). Le pont des ballast sert de base au navire, ainsi qu'aux salles des chaudières et des machines qui s'étendent jusqu'aux ponts Orlop et G. Ces deux ponts comprennent également les cales et les réserves d'eau et de nourriture du navire.
+Le Titanic, comme ses sister-ships de classe Olympic, est propulsé par une combinaison de deux types de machines. On trouve dans les profondeurs du paquebot 29 chaudières regroupées dans six salles, qui alimentent en vapeur les machines alternatives à triple expansion situées dans la salle des machines (à l'arrière des salles des chaudières), puis la turbine de la salle suivante. Les premières actionnent les deux hélices latérales à trois pales du paquebot, tandis que la turbine fait tourner l'hélice centrale à quatre pales. L'énergie électrique nécessaire au fonctionnement des différents équipements du navire est fournie par quatre dynamos de 400 kW56. La vapeur est ensuite évacuée par les trois cheminées avant. La quatrième, factice, sert quant à elle à améliorer l'esthétique du paquebot et à évacuer la vapeur des cuisines.
+La passerelle de navigation du Titanic se trouve sur le pont supérieur, à environ 60 mètres de la proue. Elle s'étend sur toute la largeur du navire, et comprend deux timoneries (une fermée et une seulement couverte), deux ailerons de manoeuvre, une salle de navigation et la salle des cartes. En arrière de la passerelle se trouvent les quartiers des officiers qui bénéficient de logements proportionnels à leur rang : le commandant Edward Smith bénéficie pour sa part d'une suite avec salon et salle de bains. À l'arrière de la première cheminée se trouve une salle de radiotélégraphie sans fil dont la veille est assurée par deux opérateurs radio (Jack Phillips et Harold Bride lors de l'unique traversée du paquebot) dont les quartiers sont attenants. Les quartiers des chauffeurs et soutiers se trouvent quant à eux dans la proue du navire, et ceux-ci accèdent à leur lieu de travail par un tunnel.
+La veille est assurée depuis le nid-de-pie situé sur le mât avant, et le navire dispose également d'une passerelle d'accostage sur le pont de poupe. Une ligne téléphonique permet de communiquer entre le nid-de-pie, la timonerie, la plage arrière, la salle des machines et le compartiment arrière, améliorant la rapidité des manoeuvres du navire. Une autre ligne permet à certains passagers de première classe de communiquer avec différents services, notamment les offices.
+La coque du Titanic est divisée en seize compartiments étanches. La fermeture des douze portes étanches, situées aux endroits ou un passage est nécessaire à la bonne marche du navire, peut se faire par le biais d'un interrupteur situé sur la passerelle. Elle peut également se faire automatiquement en cas de voie d'eau. Cependant, si les compartiments avant et arrière montent jusqu'aux ponts D à B, les compartiments centraux ne dépassent pas le pont E. Ainsi, il est considéré que si deux compartiments adjacents sont inondés, le navire peut rester à flot. Cette limite va jusqu'à quatre comprtiments si ce sont les compartiments avant du navireNote 4,65.
+Le navire est également équipé d'un double-fond De plus, huit pompes capables d'évacuer 400 tonnes d'eau par heure se trouvent à bord. Tout ceci entraîne des rumeurs d'une prétendue « insubmersibilité » du navire que la compagnie ne dément pas.. Cependant, de telles rumeurs sont loin de ne concerner que le Titanic : la compagnie avait déjà qualifié le Cedric, neuf ans plus tôt, de « pratiquement insubmersible ». La rumeur veut également qu'au moment de son lancement, un employé ait déclaré : « Dieu lui-même ne pourrait pas couler ce paquebot ».
+Le Titanic est également équipé de 20 canots de sauvetage : 16 canots d'une capacité de 65 personnes, deux canots « de secours » pour 47 personnes et quatre radeaux pliables de type Engelhardt ayant également une capacité de 47 personnes. Les vingt canots peuvent ainsi contenir un total de 1 178 personnes, soit un tiers de la capacité du navire. Ce faible nombre est toutefois supérieur à ce que demandent les lois de l'époque. L'idée de mettre des canots supplémentaires a été envisagée par Alexander Carlisle, l'un des concepteurs du navire, mais Ismay rejetta l'idée, pour ne pas encombrer le pont supérieur, et ne pas affaiblir l'image de fiabilité de la compagnie. Cependant, pour éviter un coût supplémentaire lors d'un éventuel changement de règlementation, Carlisle réussit à convaincre Ismay d'installer des bossoirs de type Wellin capables de faire descendre successivement plusieurs canots. Lors du naufrage, le 15 avril 1912, les canots de sauvetage n'embarquent que 711 des 2 200 personnes qui se trouvent à bord. Par la suite, les lois sont modifiées pour obliger toutes les compagnies maritimes à avoir des canots de sauvetage en nombre suffisant.
+Le Titanic présente un luxe et un confort inégalés pour l'époque. Les installations de première classe s'étendent du pont des embarcations au pont E, et comprennent gymnase, fumoir, Restaurant à la Carte, Café véranda, piscine, bains turcs et salon de lecture et de correspondance, ainsi qu'une promenade couverte. Certaines cabines sont équipées de salles de bains, et deux d'entre elles disposent même d'une promenade privée. Toutes ces cabines et installations sont reliées par deux somptueux escaliers, celui situé à l'avant étant associé à trois ascenceurs deservant les ponts A à E. La vaste salle à manger de première classe se situe sur le pont D.
+Les passagers de deuxième classe ne sont pas en reste et bénéficient de cabines souvent équivalentes à la première classe d'autres navires, à l'arrière des ponts D à G. Un escalier et un ascenceur desservent la totalité de la hauteur du navire, leur donnant accès u pont des embarcations, à leur fumoir (pont B), leur bibliothèque (pont C), et leur salle à manger (pont D). Ils diposent également d'une promenade couverte.
+La troisième classe offre également un bon niveau en comparaison des autres navires, avec des cabines proposant de 4 à 8 couchettes, et de petits dortoirs pour les hommes célibataires, à l'avant. Les femmes seules voyagent quant à elles à l'arrière, et les familles sont regroupées au centre. La salle à manger de troisième classe se trouve au pont F et dispose de sa propre cuisine (les deux autres classes partagent la leur), et les passagers disposent de deux espaces communs et d'un fumoir, ainsi que du pont de poupe.
+Sur les 1 316 passagers, 325 font partie de la première classe, 285 de la seconde et la dernière accueille 706 personnes, 922 passagers embarquent à Southampton ( Angleterre), 274 à Cherbourg ( France) et 120 à Queenstown ( Irlande).
+Les huit musiciens de l'orchestre (tous morts dans le naufrage) ne font pas partie de l'équipage mais sont comptés comme passagers de seconde classe.
+Le Titanic a à son bord un nombre important de personalités. Ainsi voyagent à bord Joseph Bruce Ismay (président de l'international Mercantile Marine Company et de la White Star Line) et Thomas Andrews (concepteur du navire), tous deux dans le but d'apprécier les qualités et défauts du navire. Plusieurs grands noms américains de la finance voyagent à bord : John Jacob Astor, l'homme le plus riche à bord (colonel, écrivain, inventeur, propriétaire d'hôtels), Benjamin Guggenheim, le « Roi du Cuivre », Charles Hays, président d'une compagnie de chemin de fer canadienne, George Widener (héritier de la plus grande fortune de Philadelphie), Isidor Straus, propriétaie du grand magasin Macy's de New York, John Tayer, vice président d'une chemin de fer de Pennsylvanie, Henry Birkhardt Harris, producteur de théâtre, Charlotte Cardeza, riche épouse d'un procureur et Margaret Brown, militante des droits de la femme et épouse (séparée) d'un propriétaire de mines,92.
+Des aristocrates britanniques sont éaglement du voyage, comme Sir Cosmo Duff Gordon et son épouse, Lucy, créatrice de mode, ainsi que la comtesse de Rothes. Des militaires de carrière sont égalements présents, comme les américains Archibald Gracie (colonel et historien de la Guerre de Sécession), Archibald Butt (major, aide de camp des présidents Roosevelt et Taft), ainsi que le suédois Mauritz Hakån Björnström-Steffansson.
+Des artistes et hommes de lettres sont également à bord, comme Jacques Futrelle, auteur de nouvelles policières, Dorothy Gibson, actrice de cinéma muet, Francis David Millet, peintre et Helen Churchill Candee, écrivain, tous américains, ainsi que Paul-Romain Marie Léonce Chevré sculpteur français. Le prêtre irlandais Francis Browne passe également une nuit à bord avant de débarquer à Queenstown. Devenu par la suite un photographe de renom, les clichés qu'il a pris du navire sont une véritable source d'information sur les aménagements du Titanic. Enfin, des sportifs particpent également au voyage : les américains Richard Norris Williams et Karl Howell Behr. Le journaliste William Thomas Stead se trouve également à bord.
+Parmi les 885 personnes constituant l'équipage du Titanic, 66 appartiennent à l'équipage de pont (officiers, matelot, veilleurs, quartier-maîtres) sont des mécaniciens (soutiers, chauffeurs, graisseurs, mécaniciens), et 471 hommes et 23 femmes font parte du personnel hôtelier du navire (commissaires, stewards, opérateurs radio etc.)117,118.
+Le Titanic est commandé par Edward John Smith, 62 ans. Smith est le capitaine qui, de par sa popularité, est affecté aux traversées inaugurales des grands navires de la White Star Line depuis 1904120. Son commandant en second, Henry Tingle Wilde, a été muté à bord à la veille du départ, entraînant un décalage dans la hiérarchie de l'état major du navire. William McMaster Murdoch, à l'origine commandant en second, devient de fait le premier officier du navire. De fait, Charles Herbert Lightoller, à l'origine premier officier, devient dexième officier à la place de David Blair qui quitte le navire.
+Le reste de la hiérarchie reste inchangé. Herbert John Pitman occupe le poste de troisième officier officier, Joseph Grove Boxhall celui de quatrième officier. Harold Godfrey Lowe occupe quant à lui le poste de cinquième officier. Enfin, James Paul Moody est le sixième officier du Titanic.
+Parmi eux, seuls Lightoller, Pitman, Boxhall et Lowe survivent au naufrage, et participent par la suite aux différentes commissions d'enquête.
+D'autres membres d'équipage ont joué un rôle important durant le naufrage. Ainsi, Frederick Fleet et Reginald Robinson Lee sont les deux veilleurs (sur les six qui se relaient à bord) qui ont aperçu l'iceberg. John George Phillipset Harold Sydney Bride. Les six veilleurs du navire ont survécu, de même que Bride. Phillips a quant à lui disparu dans le naufrage.
+De nombreux projets d'expéditions pour retrouver le navire englouti ont vu le jour sans connaître le succès.
+L'épave est finalement localisée le 1er septembre 1985 à 1 h 05 par une expédition franco-américaine dirigée par Jean-Louis Michel de l'IFREMER et le Dr Robert D. Ballard de la Woods Hole Oceanographic Institution. Elle est localisée à une profondeur de 3 821 m133, à 41°43'55"N 49°56'45"O, à 650 km au sud-est de Terre-Neuve. Le navire est brisé en deux énormes morceaux qui reposent sur le fond à quelques centaines de mètres l'un de l'autre, séparés par un champ de débris. Des scientifiques affirment que l'énorme pression de l'eau dans les compartiments avant a commencé à casser le bateau en bas vers le milieu, la section avant se remplissant d'eau et coulant en premier, l'arrière flottant encore avant de couler un peu plus tard. La partie arrière du bateau (30 000 tonnes), qui n'avait pas été conçue pour supporter un tel poids, a cassé net (au milieu du bateau se trouvaient les pompes du réducteur-inverseur, qui étaient énormes).
+Le Dr Ballard et son équipe n'ont enlevé aucun objet du site, considérant que cela équivalait à un pillage de tombes. Pour la loi maritime internationale cependant, la récupération des objets est nécessaire pour établir les droits de sauvegarde pour une épave. Dans les années suivant la découverte, le Titanic est l'objet de nombreux arrêts juridiques concernant la propriété des objets et le site du naufrage lui-même. Beaucoup d'objets ont été sauvés et sont visibles actuellement de façon permanente dans le musée maritime de Greenwich au Royaume-Uni.
+Les scientifiques affirment que les nombreuses plongées depuis la redécouverte du bateau en 1985 ont accéléré la dégradation de l'épave. La National Oceanic and Atmospheric Administration estime que « la coque et la structure du navire pourraient s'effondrer dans les cinquante prochaines années ».
+Une polémique a lieu entre les découvreurs français et américain. En effet, selon Paul-Henri Nargeolet, ancien responsable des moyens d'intervention de l'Ifremer et pilote du Nautile, l'épave aurait été détectée en 1977, durant la Guerre froide, par un navire hydrographique de la Royal Navy et figurait depuis sur les cartes secrètes de la marine britannique que connaissait Robert Ballard. Finalement, après la déclassification de certains dossiers militaires américains, Robert Ballard révéla que le Titanic a été découvert suite à la recherche de deux sous-marins américains perdus durant la guerre froide.
+La découverte et l'étude scientifique de l'épave permettent de mieux comprendre les circonstances exactes du naufrage, tout d'abord en donnant raison aux quelques témoins qui ont affirmé avoir vu le navire se casser en deux juste avant le plongeon final. Plus récemment, en 1996, un sonar ultra-puissant a permis de voir les dégâts causés par l'iceberg dans la coque à l'avant du navire, à travers les sédiments du plancher océanique dans lesquels celle-ci est profondément enfoncée, d'au moins 20 mètres. Contrairement à ce que l'on croyait jusqu'alors, ce n'est pas une brèche de 100 mètres de long mais six petites entailles à peine plus épaisses qu'un bras humain, réparties approximativement le long du premier tiers avant du navire, qui ont causé sa perte. Une étude plus récente menée par deux chercheurs américains s'appuyant sur des analyses scientifiques de pièces extraites de l'épave et sur l'examen des archives des chantiers navals Harland & Wolff conservées à Belfast, met en cause la qualité des rivets utilisés pour fixer les plaques d'acier de la coque à l'avant du navire. En effet, ceux-ci sont en fer et non en acier comme dans la partie centrale, en raison de l'impossibilité des fournisseurs à suivre les rythmes et les quantités imposés par le constructeur. La moindre résistance de ces rivets en fer explique que de nombreuses tôles se soient disjointes au contact de l'iceberg. Les auteurs de l'étude supposent que des rivets en acier, plus résistants, auraient peut-être, sinon sauvé le navire, du moins accordé un délai suffisant pour permettre aux secours d'arriver à temps.
+Au final, le naufrage résulte de l'enchaînement d'une série d'erreurs dont aucune n'est grave en soi, mais qui, ensemble, expliquent la catastrophe : défauts de construction minimes en apparence (rivets en fer, surface réduite du gouvernail, cloisons étanches pas assez hautes) absence de précautions préventives (canots en nombre insuffisant, vitesse excessive en dépit des icebergs) négligence (jumelles des veilleurs égarées), tous détails contrastant fortement avec la campagne de promotion du voyage inaugural qui laissait supposer que rien n'avait été laissé au hasard.
+Il existe un certain nombre de légendes à propos du Titanic. Certaines ne relèvent probablement que de l'invention ou de la « folie », mais d'autres sont des coïncidences troublantes qui ont prêté à polémique.
+Quatorze ans avant le naufrage, l'écrivain Morgan Robertson écrit Le Naufrage du Titan, une nouvelle parue dans un ouvrage intitulé Futilité. Après le naufrage du Titanic, ce livre regagne en réputation, apparaissant comme étonnamment prémonitoire et est réédité la même année. Il existe en effet de grandes similitudes entre l'histoire du livre et la réalité : le navire, nommé Titan, est le plus imposant au monde, est présenté comme insubmersible grâce à ses 19 compartiments étanches. De fait, il ne dispose que du nombre minimum de canots de sauvetage requis par la loi. Il heurte un iceberg, coule et la majorité des passagers sont victimes du naufrage.
+Le journaliste britannique William Thomas Stead a mené, durant sa carrière, de nombreux combats par le biais d'articles et de nouvelles. L'un d'entre eux concerne le manque de moyens de sauvetage à bord des paquebots. Il publie une première nouvelle en 1886 intitulée Comment le Paquebot Poste sombra au milieu de l'Atlantique, par un Survivant, racontant une collision entre deux navires dont les passagers ne sont pas tous sauvés, faute de moyens de sauvetage. Stead conclut : « C'est exactement ce qui se produira si les paquebots sont lancés avec trop peu de canots ». Six ans plus tard, il publie De l'Ancien Monde au Nouveau, nouvelle dans laquelle il raconte un voyage fictif qu'il aurait fait à bord du paquebot (bien réel) Majestic de la White Star Line sous le commandement d'Edward Smith. Au cours de la traversée, le navire s'arrête pour repêcher les naufragés d'un paquebot ayant heurté un iceberg. Stead conclut cette fois-ci en disant que « les océans parcourus par de rapides paquebots sont jonchés des os blanchis de ceux qui ont embarqué comme nous et qui ne sont jamais arrivés à bon port »137. Le 15 avril 1912, Stead se trouve à bord du Titanic, commandé par Edward Smith, et meurt dans le naufrage.
+Lors de son départ de Southampton, le Titanic manque d'entrer en collision avec le New York. Cet événement a entraîné, comme le raconte Lawrence Beesley (passager de seconde classe ayant par la suite raconté son histoire dans un ouvrage), des rumeurs et superstitions parmi les passagers et certains membres d'équipage. Celles-ci sont amplifiées lors de l'escale de Queenstown par l'apparition d'un soutier couvert de suie en haut de la quatrième cheminée. Beesley raconte même avoir rencontré une américaine qui lui a expliqué que le naufrage était dû au fait d'avoir vu le soutier en question. Cependant, il écrit lui même que ce ne sont que des « superstitions malsaines ».
+Une légende affirme que John Jacob Astor IV aurait ramené de son voyage de noces en Égypte une momie à bord du Titanic, déclenchant ainsi la colère des dieux. Une variante de la légende veut qu'une momie maudite ait été, après avoir été cachée dans un grenier pendant un certain temps, revendue à un riche américain qui l'aurait embarquée sur le Titanic, entraînant sa perte. Cependant, lors de la redécouverte de l'épave, aucune trace de momie n'a été retrouvée à bord, et aucune momie n'est mentionnée dans le manifeste du navire.
+Le 13 avril 1935, un cargo britannique, transportant du charbon de Newcastle à Halifax, se trouve en pleine nuit près de la zone où le Titanic a sombré. Un des veilleurs, William Reeves raconte en 1967 avoir été saisi soudainement d'une angoisse, comme alerté par un sixième sens. Il n'aurait pu s'empêcher de crier « Obstacle droit devant ! » Un iceberg aurait jailli alors de l'obscurité, et le cargo se serait arrêté devant lui avant d'être bloqué par les glaces. Selon Reeves, le navire se trouve alors à la position exacte du naufrage du Titanic. En réalité, ce cargo qui par coïncidence s'appelait le Titanian était assez éloigné de la position du naufrage, et les rapports font état de dégâts lors d'une collision avec la glace.
+La même année, le Titan de la Blue Funnel Line entre en collision avec un ponton flottant dans le port de Hambourg.
+L'histoire du Titanic a été illustrée dans un très grand nombre de films et de téléfilms. Le premier est Saved from the Titanic, un film américain d'Étienne Arnaud mettant en scène Dorothy Gibson, rescapée du naufrage. Sorti en 1912, il n'en reste aucune trace suite à l'incendie des studios où il était entreposé, en 1914142. La même année sort In Nacht und Eis, un film muet allemand de Mime Misu qui présente cependant une histoire assez éloignée de la réalité. 1915 voit également la production de Titanic, un film muet italien de Pier Angelo Mazzolotti avec Mario Bonnard, Giovanni Casaleggio et Luigi Duse.
+En 1943, Joseph Goebbels demande le tournage de Titanic, une superproduction destinée à la propagande nazie, réalisée par Werner Klingler et Herbert Selpin avec Sybille Schmitz et Hans Nielsen. Le film, tourné sur le Cap Arcona (un paquebot allemand dont le naufrage entraîne 5 000 morts en 1945), est marqué par l'emprisonnement et la mort de son pemier réalisateur, herbert Selpin. Il ne sort finalement pas en Allemagne, Goebbels craignant de démoraliser la population qui subit de nombreux bombardements britanniques.
+En 1953 sort Titanic, un film américain de Jean Negulesco avec Barbara Stanwyck et Robert Wagner. 1958 voit l'arrivée sur les écrans du film Atlantique, latitude 41° (A Night to Remember), film britannique de Roy Ward Baker avec Kenneth More et Ronald Allen. Adapté du livre de l'historien Walter Lord, il a été réalisé avec l'aide de certains acteurs du drame, dont le quatrième officier Joseph Boxhall, ce qui en fait un des films les plus proches de la réalité.
+En 1979 sort S.O.S. Titanic, téléfilm américano-britannique de William Hale avec David Janssen, Cloris Leachman et Susan Saint James. Le film est très inspiré de l'ouvrage deLawrence Beesley The Loss of S.S. Titanic, et celui-ci est interprété par David Warner qui joue également dans le film Titanic de 1997. L'année suivante sort La Guerre des abîmes (Raise the Titanic), film américain de Jerry Jameson adapté du roman de Clive Cussler, avec Jason Robards et Richard Jordan.
+En 1996, Le Titanic, un téléfilm américain de Robert Lieberman avec George C. Scott, Peter Gallagher et Catherine Zeta Jones est produit. Mais le plus célèbre des films concernant le Titanic est le film de James Cameron, Titanic, sorti en 1997. Mettant en scène Leonardo DiCaprio, Kate Winslet et Billy Zane le film remporte 11 Oscars et 1 845 034 188 $ de box office mondial. Ce film ravive l'intérêt pour le Titanic, entraînant la parution (et parfois la réédition) de nombreux ouvrages, ainsi que des expositions, et la création e nombreux sites internet. Cameron produit également, en 2007, le documentaire Les fantômes du Titanic concernant l'épave du navire.
+En 2003 est également sorti un film d'animation italien, À la recherche du Titanic, par Orlando Corradi.
+Le naufrage du Titanic a également inspiré de nombreux romans s'inspirant plus ou moins fortement de son histoire.
+Deux bandes dessinées ont également été écrites sur le sujet.
+Le Titanic a également réussi à s'imposer sur d'autres supports que le papier et les écrans. Ainsi, une comédie musicale a tenu l'affiche entre 1998 et 2000. Des jeux vidéo ont également été bâtis sur et autour de ce sujet, comme Titanic : une aventure hors du temps qui offre une reproduction fidèle du navire.
+L'histoire du Titanic a également inspiré une oeuvre au compositeur britannique Gavin Bryars, The Sinking of the Titanic (1969). Elle reprend notamment l'hymne Autumn qui a peut-être été joué par les musiciens au moment du naufrage. Une pièce de théâtre de Jean-Pierre Ronfard, Titanic, raconte l'histoire de personnages existant comme Hitler ou Charlie Chaplin n'ayant jamais été sur le paquebot. Titanic est enfin le nom d'un poème de Benjamin Fondane, dans le recueil Le Mal des Fantômes.
+Contenu soumis à la GFDL
+exploitable et diffusable pour la communauté scientifique
+ne peut être utilisé à des fins commerciales
+ANNODIS
+projet financé par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, + dirigé par Maire-Paule Péry-Woodley, université de Toulouse - UTM
+objectif : création d'un corpus de français écrit annoté discursivement
+encodage des textes selon la norme de la Text Encoding Initiative, TEIP5
+http://www.tei-c.org/release/doc/tei-p5-doc
+Le vin de Champagne, également appelé champagne, est un vin effervescent bu dans le monde entier et aujourd'hui associé au luxe et aux fêtes. Il tire son nom de la Champagne, une région du nord-est de la France.
+Cette ancienne province historique produit également des vins tranquilles (non effervescents) qui portent des appellations différentes, Coteaux Champenois (rouges, blancs ou rosés) dont les plus célèbres sont produits sur les communes de Bouzy, Vertus, Damery et Rosé des Riceys produit exclusivement sur la commune des Riceys.
+Néanmoins, la Champagne produit en grande majorité des vins blancs effervescents que l'on appelle tout simplement champagne, sans plus de précisions. Ils sont produits essentiellement à base de chardonnay, de pinot noir et de pinot meunier, mais d'autres cépages très marginaux sont également autorisés dans l'élaboration du champagne : l'arbane, le petit meslier, le pinot blanc et le Pinot gris vrai.
+Les champagnes sont des vins souvent synonymes de fête ou de célébration, bénéficiant d'un prestige reconnu de par le monde.
+La culture de la vigne en Champagne remonte à l'époque gallo-romaine quand les Romains plantent les premiers ceps dans la région.
+Le vignoble est par la suite conservé grâce à l'intérêt que lui porte le clergé, en particulier celui de Reims et celui de Châlons-en-Champagne. C'est en effet l'abbaye de Saint Pierre au Mont, à Châlons-en-Champagne, qui planta de nombreuses vignes dans les domaines qu'elle possédait en Champagne.
+En l'an 1114, l'évêque de Châlons-en-Champagne, Guillaume de Champeaux, fit rédiger la grande charte champenoise qui confirma cette abbaye dans toutes ses possessions agricoles et vinicoles. Cette charte, dont l'original est perdu mais dont une copie est conservée aux Archives de la Marne, est considérée comme l'acte fondateur du vignoble de Champagne : par cette confirmation, toutes les conditions sont réunies pour que le vignoble se développe en paix et puisse prospérer. Dès lors les moines n'ont pas cessé de cultiver la vigne et de produire du vin de plus en plus élaboré.
+Durant l'époque féodale, les vins de Champagne sont classés parmi les « vins de France » considérés comme produits dans le bassin parisien.
+Durant le règne d'Henri IV, il acquiert le nom de vin de Champagne sur Paris (mais cette dénomination s'impose plus difficilement dans la région, le terme champagne désignant des terres non fertiles, qui ne peuvent servir que de pâturages aux moutons).
+Au cours du xviie siècle, les vins de Champagne séduisent de plus en plus d'amateurs dans les cours royales de France et d'Angleterre sous l'impulsion de certaines familles parisiennes qui possèdent des terres en Champagne. Ce siècle marque aussi une évolution des « vins de Champagne » correspondant au désir des consommateurs de vins gris, très faiblement colorés mais qui, selon les vignerons, vieillissent très mal en fûts.
+Le champagne est donc rapidement mis en bouteille (vers 1660) afin d'assurer une meilleure conservation des arômes (avec un tirage avant la fin de la première fermentation) mais devient en contrepartie naturellement pétillant (surtout pour les champagnes ayant peu d'alcool, étant peu colorés et dont le tirage est fait à l'équinoxe de printemps). Ce caractère effervescent cause beaucoup de soucis aux vignerons, à tel point qu'il est surnommé « vin du diable » ou « saute-bouchon » à cause des bouteilles qui explosent ou des bouchons qui sautent sous la pression. Pour ces raisons, si les Anglais n'avaient pas été conquis par ce vin pétillant, le champagne ne serait peut-être pas ce qu'il est aujourd'hui, car à cette époque, les Anglais achetaient aux Champenois des tonneaux de vin effervescent en vrac qu'ils se chargeaient de mettre eux-mêmes en bouteilles. Ils avaient aussi observé que la meilleure époque pour provoquer la prise de mousse est le printemps. En 1676, un poète londonien chantait « le champagne effervescent qui ranime rapidement les pauvres amants languissants. »
+En 1670, dom Pérignon (1638 - 1715), un moine cellérier de l'abbaye bénédictine d'Hautvillers, va être le premier à pratiquer l'assemblage du raisin qui améliore la qualité du vin et en fait disparaître certains défauts. C'est aussi dom Pérignon qui introduit l'emploi du bouchon de liège maintenu à la bouteille par une ficelle de chanvre imprégnée d'huile, ce qui permet au vin de garder sa fraîcheur et sa mousse. De plus, il fait renforcer la bouteille en adoptant un verre plus épais pour éviter que la bouteille n'explose, mais malgré les efforts du moine, l'effervescence du vin reste empirique jusqu'aux recherches de Louis Pasteur sur la fermentation, au xixe siècle. Les crayères près de son abbaye étaient utilisées pour conserver le champagne à température et humidité constante. Par la suite, d'autres caves furent creusées en pleine craie.
+Selon le chanoine Jean Godinot qui écrivit en 1718 que « depuis plus de vingt ans le goût des Français s'est déterminé au vin mousseux », le champagne effervescent aurait été donc commercialisé dans des bouteilles spécifiques pour la première fois en France vers 1695. D'autres archives attestent que, en l'an 1729, à Épernay, Nicolas Irénée Ruinart fonde à Reims, le premier négoce en vin de Champagne effervescent, la maison Ruinart. En 1730 est fondée la maison Chanoine Frères à Épernay.
+Durant le xviiie siècle, le champagne commence à acquérir son rayonnement international, grâce aux propriétaires de célèbres maisons de champagne qui en assurent la promotion comme Florens-Louis Heidsieck ou Claude Moët, puis au xixe siècle grâce à Pierre-Nicolas-Marie Perrier-Jouët et à la famille Bollinger. De même, certaines femmes après la mort de leur mari continuent le travail de celui-ci, entre autres Mme Pommery, Mme Perrier et Mme Clicquot (surnommée la « Grande Dame de Champagne ») qui contribuent elles aussi à la notoriété du champagne. Le champagne fut même décrit comme étant le « vin de la civilisation » par Talleyrand.
+Avant qu'on apprenne à champagniser les vins blancs, ceux-ci étaient parfois (certaines années) naturellement pétillants. On retrouve une production de vins pétillants naturels aux quatre coins de l'ancienne Champagne, aussi bien dans l'Aube (du côté de Bar-sur-Aube) qu'en Haute-Marne, où le vin de Soyers (région de Bourbonne-les-Bains), vin de cépage produit à partir du meslier doré avait une typicité reconnue, avant l'invasion du phylloxéra en Europe et dans le monde.
+En 1860, le savant champenois Jules Salleron invente les premiers bouchons en aggloméré, puis en 1882 invente le densimètre pour mesurer le degré alcoolique du vin afin d'éviter les excès de sucre ou de levure dans le processus de 2ème fermentation. En 1928, l'appellation champagne concernait seulement huit mille hectares et les expéditions se montaient à vingt-quatre millions de bouteilles.
+Le champagne est produit dans la zone viticole délimitée par la loi du 22 juillet 1927. Cette zone n'est pas d'un seul tenant :
+Il existe 4 zones de production de raisins qui regroupent les 17 terroirs de champagne.
+Sur un peu plus de trente mille hectares de vigne au total, c'est le vignoble le plus septentrional de France avec 60 à 80 jours de gel par an. Il doit sa richesse à son morcellement, chaque village constituant un cru c'est-à-dire le produit d'un terroir et d'un climat, il existe 302 crus. Les plus grandes caves de Champagne se trouvent à Épernay et à Reims.
+Quelques parcelles de l'appellation Champagne (20 ha) se trouvent en Île-de-France dans les communes de Citry, Nanteuil-sur-Marne et Saâcy-sur-Marne (Seine-et-Marne). Le département de la Haute-Marne, peut lui aussi revendiquer l'existence de quelques dizaines d'hectares de vignes.
+En 2008 un dossier visant à inscrire les paysages du Champagne sur la liste du Patrimoine mondial de l'UNESCO sera soumis aux autorités françaises.2
+Juste avant le début de la révolution française, le vignoble champenois s'étendait sur quelques 50 000 hectares. Dans la seconde moitié du xixe siècle, le vignoble connaît avec 65 000 hectares son expansion maximale comprenant aussi 2 500 hectares dans le département des Ardennes. Après les fléau du phylloxéra et de la Grande guerre, le vignoble s'est réduit à 12 000 hectares. Aujourd'hui, en 2007, le vignoble champenois s'étend sur 32 341 hectares.
+Depuis 2003, une procédure visant à l'extension de la délimitation de l'appellation a été lancée, cette nouvelle aire devrait être établie d'ici environ 10 ans.
+Cette procédure, dont le but est d'intégrer dans l'aire de production du vin de champagne quelques parcelles dûment certifiées d'une quarantaine de nouveaux villages, fait appel aux expertises des historiens pour rechercher des pratiques viticoles anciennes et à celles des géologues pour rechercher les parcelles concernées soit par les marnes du kimméridgien, les craies blanches du campanien ou les sédiments du paléocène toutes terres qui doivent fonder le sous-sol des terres champenoises dignes de porter la vigne noble.
+La désignation des parcelles devrait se faire à partir de 2009 avec le décret du Conseil d'État entérinant la nouvelle géographie des parcelles supplémentaires. La profession espère ainsi créer 2 à 3 000 nouveaux hectares en vignobles champenois. À 800 000 euros l'hectare, ce chantier devrait ouvrir une période de recours et de chicanes judiciaires - certaines parcelles se sont vendues dernièrement à près de 1,1 million d'euros. De ce fait ni les habitants, ni les autorités locales n'auront connaissance des localisations des parcelles ni de leur étendue, avant la validation par l'Institut national des appellation d'origine. Selon le CIVC : « Transformer des hectares de blé en hectare de vigne, c'est multiplier par 350 la valeur d'une parcelle cultivable ». Dans les villages, il se murmure qu'à ces prix là, si le cimetière est installé sur une parcelle intéressante, il ne faut pas hésiter à le déplacer.
+Parmi les villages potentiels Courcy, Courdemanges, Fismes, Montmirail dans la département de la Marne, Bouilly, Fontvannes, Javernant, Montgueux dans le département de l'Aube, Marchais-en-Brie dans le département de l'Aisne et Champcourt, Harricourt dans le département de la Haute-Marne. Les premières vignes des nouvelles parcelles devraient être plantées vers 2015, pour une première petite récolte deux ans après. De plus certains villages déjà aujourd'hui sous appellation pourront voir leurs surfaces s'agrandir.
+Les terroirs champenois sont classés en trois catégories, terroirs non classés, terroirs « premier cru » et les autres qui donnent des champagnes « grand cru ».
+Ce classement permet de déterminer le prix à payer au propriétaire de vignes pour son raisin. 100% correspond au « grand cru » et l'acheteur paye 100% du prix de référence. De 80 à 89%, les terroirs sont non classés. De 90 à 99% il s'agit de premier cru et le prix payé est en conséquence et va de 90 à 99% du prix de référence du raisin. Autrefois, le classement allait jusqu'à 60%.
+Sur les 324 Crus qui composent la champagne, seuls 17 ont droit à l'appellation Grand Cru et 43 à celle de premier Cru.
+En 2006, l'hectare s'est échangé en moyenne à 627 000 euros 4.
+En 2008, l'hectare de vigne s'est négocié autour d'un million d'euros
+Le champagne présente plusieurs originalités parmi les grands vins français :
+Plusieurs cépages de la famille des pinots sont autorisés, dont trois principaux utilisés :
+et des cépages traditionnels (surfaces très limitées, quelques hectares) :
+Reste le cas du gamay qui n'est pas un pinot. Son utilisation est très controversée par les producteurs et fait l'objet jusqu'à nos jours d'une autorisation temporaire dans le seul département de l'Aube.
+Rendement : 160 kilogrammes de raisin produisent 102 litres de moût, qui après les pertes en vinification (1,5 %) et au dégorgement (0,5 %), donneront 100 litres de vin commercialisable, soit 133 bouteilles de 75 cl.
+Ainsi donc, le plus célèbre des vins blancs est majoritairement issu de raisins noirs.
+Le vin de Champagne est produit selon la méthode traditionnelle, jadis appelée méthode champenoise, qui consiste principalement à opérer une double fermentation du moût, la première en cuves, la seconde dans les bouteilles mêmes, en cave, avec remuage régulier. La croyance populaire veut que cette méthode soit l'invention de Dom Pérignon, moine de l'abbaye d'Hautvillers, près d'Épernay. Aujourd'hui, les historiens s'accordent plutôt pour dire qu'il est à l'origine de la technique de l'assemblage.
+La première fermentation, appelée fermentation alcoolique est identique à celle que subissent les vins tranquilles (c'est-à-dire non effervescents). Elle peut être suivie, mais ce n'est pas toujours le cas, d'une fermentation malolactique. Les maisons Lanson, à Reims et, Senez, à Fontette, sont réputées pour ne pas pratiquer cette fermentation malolactique, pour garder au vin sa vivacité. Le vin de base est le plus souvent vinifié en cuve. Certains préfèrent néanmoins travailler à l'ancienne et vinifier en fût de chêne ; c'est le cas des maisons Krug et Bollinger.
+En début d'année (qui suit la récolte), les vins sont suffisamment clairs pour être goûtés et procéder à l'étape de l'assemblage qui mélange en proportions variant à chaque année des vins de cépages, terroirs et millésimes différents (aucune autre A.O.C. en France ne permet ce type de mélange de vin de différents millésimes).
+Quoi qu'il en soit, au moment d'embouteiller le vin de base ainsi obtenu, on lui ajoute la liqueur de tirage, composée de levures et de sucre. Cela enclenchera la dernière fermentation, dite prise de mousse. C'est cette deuxième fermentation qui va donner naissance aux bulles de dioxyde de carbone.La bouteille est alors bouchée avec une capsule métallique analogue à celle des bouteilles de bière.
+Cependant, cette deuxième fermentation produit des lies abondantes dont on devra débarrasser le vin par la suite.
+Suit alors la période de vieillissement du vin en bouteilles d'une année environ pour les non millésimés à trois ans et plus pour les bouteilles millésimées.
+Après ce vieillissement, on rangeait autrefois les bouteilles sur des étagères appelées « pupitres » où elles étaient penchées le goulot vers le bas. Chaque jour, les bouteilles étaient remuées, c'est-à-dire tournées d'un quart de tour, d'un mouvement sec, afin de décoller les lies de la paroi de la bouteille et de les faire descendre vers le goulot. Cette technique est devenue anecdotique chez les négociants mais se pratique encore chez les petits vignerons qui ne sont pas équipés de moyens d'automatisation. Au bout de quelque temps, toutes les lies sont rassemblées dans le col, contre la capsule. Pour chasser le dépôt, on gèle alors le col dans un bain de saumure à -25°C et on ôte la capsule ; le dépôt est expulsé par le gaz sous pression, c'est l'étape du dégorgement. Le volume de champagne ainsi perdu est remplacé par un mélange de vieux vin et de sucre, appelé liqueur d'expédition : c'est l'étape du dosage. La quantité de sucre présente dans la liqueur va déterminer si le champagne sera brut, sec ou demi-sec.
+Il existe aussi des champagnes non dosés : après le dégorgement, on complète le niveau de la bouteille avec du vin au lieu de la liqueur d'expédition. Ce sont des champagnes très « nature ». On en trouvera par exemple auprès des maisons Drappier à Urville, Georges Vesselle à Bouzy, Laurent-Perrier à Tours-sur-Marne, Paul Goerg à Vertus, Piper-Heidsieck à Reims ou Ayala à Aÿ.
+Une fois le dégorgement effectué, dosée ou non, la bouteille de champagne sera bouchée avec son célèbre bouchon de liège maintenu par son muselet avant d'effectuer en cave un ultime vieillissement (maturation) avant commercialisation.On prélève sur ce stock, au fur et à mesure des besoins les bouteilles qui sont alors étiquettées et mises en caisses pour expédition.
+Le vin de Champagne est le fruit d'une subtile élaboration effectuée tout au long de sa vinification et qui va donner ses caractéristiques au produit prêt à être consommé. Les choix faits par chaque Maison lors de ce processus détermineront, outre le type de vin, la marque gustative de celle-ci vis-à-vis du public. Les bruts représentent entre 80% et 85% de la production, mais il existe une douzaine d'autres variétés de Champagne, dont certains confidentiels.
+La typicité d'un champagne peut être déterminée :
+Le champagne rosé est parfois élaboré par « saignée ». Dans ce cas, la coloration est obtenue par fermentation momentanée avec les pulpes, suivie d'un pressurage, ce qui permet l'extraction des tanins et colorants de la peau. Une autre méthode, plus utilisée, est l'assemblage de vin blanc et de vin rouge.
+Les rosés pour lesquels la demande est plus forte depuis quelques années représentent moins de 5% de la production. Au xixe siècle un champagne rouge avait aussi été élaboré, voir #Le champagne rouge.
+Le maître de chai permettra la fermentation malolactique s'il désire un champagne structuré ; il l'évitera - et arrêtera donc la fermentation au terme de la fermentation alcoolique - s'il souhaite un vin plus vif.
+Comme son nom l'indique, c'est celui qui est le plus pratiqué. Il est un mélange de cépages, de crus et de millésimes, chacun des dosages étant un choix des Maisons remis en question chaque année afin de préserver au fil des ans le style du vin de la Maison.
+C'est aussi durant cette étape qu'est le plus fréquemment réalisé le champagne rosé par assemblage d'une cuvée de vin blanc avec une cuvée de vins rouges de Champagne.
+Millésimé : soumis à aucune réglementation, le choix de ne sélectionner qu'une année unique dans l'élaboration de ces vins produit des champagnes atypiques, au caractère marqué et qui ne sont pas forcément dans la lignée habituelle des Maisons mais dont la grande qualité honore celles-ci. Ils représentent autour de 5% de la production.
+Cuvée de prestige : Ces cuvées spéciales de grande qualité sont encore plus liées au choix des Maisons (certaines en font plusieurs) mais le marché est dominé par quelques stars. Elles sont la catégorie la plus huppée de la production et en représentent à peu près 5%.
+Blanc de blancs : c'est un vin issu du seul cépage blanc, le chardonnay, qui donne un champagne au goût frais et délicat.
+Blanc de noirs : élaboré à partir de raisins noirs, pinot noir ou meunier et caractérisé par la force du premier et/ou le fruité du second. Parmi les « blancs de noirs » mono-cépages, il est bien plus fréquent de trouver un 100% pinot noir qu'un 100 % meunier. Ces vins peinent à trouver leur public, c'est encore plus vrai avec le 100% meunier, cépage qui fût longtemps majoritaire en Champagne ; il n'y a guère que la maison Krug pour témoigner de l'intérêt qu'elle lui porte.
+C'est la teneur en sucres de la liqueur d'expédition utilisée à cette étape qui détermine la qualité du vin : brut nature, brut, demi-sec, etc.
+Outre le type de cépage utilisé qui détermine l'aptitude de garde du vin, quelques Maisons font le choix de ne commercialiser certaines cuvées qu'au terme de plusieurs années de maturation, laissant ainsi le vin développer son arôme qui marquera d'autant plus son caractère par rapport au reste de la ligne.
+Enfin, on fabrique en Champagne des vins... autrement typiques :
+Le raisin de Champagne est également utilisé pour élaborer un apéritif, le ratafia et des digestifs : le marc de champagne et la fine de Champagne.
+La bouteille de champagne classique a une contenance de 75 cl ; elle est plus épaisse et résistante que les bouteilles de vin courantes afin de résister à une pression des gaz de six atmosphères. Le fond du flacon est aussi fortement creusé pour la même raison, ce qui permet au remueur de bouteilles de pouvoir y glisser son pouce. Cependant une seule marque propose une bouteille à fond plat transparente, il s'agit de la célèbre cuvée « Cristal de Roederer ». Le tsar Alexandre II de Russie qui craignait pour sa vie, avait exigé ce type de bouteilles afin de vérifier facilement qu'aucune bombe ne soit dissimulée dans le renforcement de la bouteille.
+Les négociants champenois ont créé au xixe siècle une série de bouteilles de différentes contenances - À noter que pour les vins de Bordeaux, certains noms de bouteilles correspondent à des contenances différentes -, seuls la demi-bouteille, la bouteille et le magnum sont couramment utilisés pour l'élevage du vin, les autres formats sont généralement remplis avec du vin déjà fermenté :
+Les contenances supérieures au jéroboam sont très rares, bien que leur dimension et leur esthétisme accentuent le caractère festif des événements, les flacons, fragiles et très chers à produire, deviennent rapidement peu pratiques à manipuler. Toutes les bouteilles de contenance supérieure au jéroboam portent des noms bibliques, à l'exception du souverain (26,25 litres) et du primat (27 litres).
+Les flacons subissent un test de résistance à la pression avant de recevoir le vin. La valeur de référence est de 6 bars, soit 30 à 40% de plus que la valeur réellement obtenue dans le vin. Le test ne concerne qu'un échantillon pour petits formats (jusqu'au magnum), mais est appliqué à l'ensemble des flacons pour les autres formats.
+Le choix de noms bibliques restent pour le moment inexpliqué. Certains ont voulu y voir l'empreinte des familles protestantes qui sont venues s'installer en Champagne. En fait, il semble que la source de cet usage soit beaucoup plus ancienne car dès les années 1370 on trouve la trace du « jéroboam », appelé « roboam » et du « balthazar » dans l'oeuvre poétique d'Eustache Deschamps 6.
+Certains négociants ont récemment introduit des flacons aux contenances encore plus extravagantes.
+Un moyen mnémotechnique rend les principales tailles de bouteilles dans l'ordre croissant de contenance : « Car de bon matin je remarquais sa banalité » (Quart / Demi / Bouteille / Magnum / Jéroboam / Réhoboam / Mathusalem / Salmanazar / Balthazar / Nabuchodonosor).
+Le bouchon de liège des bouteilles de champagne est célèbre pour sa forme en champignon bien plus complexe que celle cylindrique des bouchons utilisés pour les autres vins. En fait, cette forme lui est conférée par le goulot de la bouteille dans lequel il n'est que partiellement inséré.
+Il est, au moment de l'embouteillage, cylindrique et de fort diamètre (31mm). Pour que le bouchon puisse entrer, il est nécessaire de le mettre en place par compression (réduction forte du diamètre à 17mm) dans le col de la bouteille sur la moitié de sa longueur, puis de l'écraser en forme de champignon pour recevoir le muselet. Ce bouchage « en force » permet de s'assurer que le bouchon ne sautera pas tout seul, sous la pression du gaz contenu dans le vin. Avec le temps, le bouchon perd son élasticité naturelle. La partie du bouchon située au niveau du goulot est déformé lors de l'écrasement nécessaire à la mise en place du muselet et se desséchera plus vite que celle en contact avec le vin. D'où la forme au moment de l'ouverture de la bouteille, plus étroite au niveau du col. Cela est de plus favorisé par la différence de qualité des lièges (de plus en plus chers) constituant le bouchon. En laissant tremper un bouchon usagé, il reprend en partie sa forme originelle.
+On distingue nettement, sur un bouchon, de par la différence d'aspect des lièges :
+Une fois assemblés, meulés et poncés, les bouchons font l'objet d'une sélection individuelle et sont généralement traités en surface (paraffine solide), pour garantir leur étanchéité et favoriser leur introduction dans la bouteille.
+Au-dessus du bouchon, une plaque en fer-blanc est maintenue, avec le bouchon, par du fil de fer préformé, appelé muselet. Cette plaque empêche le fil de fer de s'enfoncer dans le bouchon. Le muselet est repris sur la collerette du goulot, et maintient le bouchon qui ne peut alors plus être éjecté par la pression dans la bouteille. Les plaques de muselet (également appelées « capsules » dans le langage courant) sont devenues l'objet d'une collection, la placomusophilie.
+Il existe un chocolat du nom de « bouchon de champagne » ayant la même forme que le bouchon et aromatisé au marc de champagne.
+Le vieux centre de la ville de Troyes est en forme de bouchon de champagne.
+En 2009, un nouveau type de bouchon de champagne fait son apparition. Nommé Maestro, il permet d'ouvrir la bouteille avec facilité, tout en conservant le bruit caractéristique des anciens bouchons.
+L'Union des Maisons de Champagne (UMC) installée à Reims regroupe les négociants en Champagne dès 1882.
+Le Syndicat Général des Vignerons de la Champagne (SGV)installé à Épernay regroupe depuis 1904 les vignerons.
+Le Comité interprofessionnel du vin de Champagne (CIVC) possède son siège à Épernay ; il a notamment pour rôle de gérer l'appellation d'origine contrôlée du Champagne. Officiellement créé par la loi du 12 avril 1941, cette interprofession entre les négociants et les vignerons existe informellement depuis 1919, date à laquelle les syndicats des deux professions prennent l'habitude de se réunir, une fois, l'an pour discuter du prix du raisin afin de stabiliser le prix de vente du Champagne. Le CIVC est co-présidé par le président du SGV et le président de l'UMC.
+Le VITeff (Biennale Internationale des Techniques champenoises et effervescentes) se tient à Épernay et dont la 10e est annoncée pour 2008.
+La superficie constatée en AOC lors des déclarations de récolte s'établit pour 2002 à 29,3 milliers d'hectares, dont 21,8 pour le département de la Marne. À la vendange 2006, la superficie en production fut estimée à 32 200 hectares.
+En 2007, le vignoble champenois s'est étendu sur 32 341 hectares, dont 21 917 dans le département de la Marne, 7 327 dans l'Aube et 3 097 dans l'Aisne et la Seine-et-Marne sur un total de 317 villages, auxquels pourraient s'ajouter 2 500 hectares actuellement non plantés. L'Aube est le deuxième département en superficie d'appellation champenoise.
+Voir le paragraphe sur la procédure d'extension.
+La production annuelle s'établit autour de 2,5 millions d'hectolitres, soit à peu près 350 millions de bouteilles par an. Elle avait baissé lors de la campagne 2001/2002 pour remonter à 2,4 Mhl en 2002/2003.
+Les stocks s'élèvent en 2002/2003 à 3,4 Mhl, soit une disponibilité totale de 5,8 Mhl. Ce chiffre est en légère mais constante progression au cours des 10 dernières années.
+Les expéditions avaient connu un pic à 310 millions de bouteilles lors de la campagne 1998/1999, surtout vers l'étranger, juste avant le passage à l'an 2000, suivi d'une baisse sensible. 2002/2003 confirme la reprise déjà constatée lors de la campagne précédente. Volume annuel de ventes se montent autour de 700 millions à 900 millions d'euros.
+Les expéditions, évaluées en millions de bouteilles, ont représenté
+Sur ce total, la répartition par destination en 2004 a été la suivante :
+La répartition par filière de vente en 2004 a été la suivante :
+Parmi les négociants, il existe 12 grands groupes qui pèsent ensemble plus de 170 millions de bouteilles (55% des expéditions de 2004). Ces groupes disposent à l'étranger d'efficaces réseaux de distribution et sont les locomotives de la profession. Lors des vingt dernières années une quarantaine de marques ont changé de main pour rejoindre le plus souvent l'un de ces grands groupes et la concentration semble loin d'être terminée.
+Source : Viniflhor (Office national interprofessionnel des fruits, des légumes, des vins et de l'horticulture).
+L'appellation « champagne » est une AOC, mais l'indication « Appellation d'origine contrôlée » ne figure que très rarement sur les étiquettes des bouteilles de champagne. C'est la seule appellation, avec celle de cognac, qui est dispensée de cette mention, car c'est le seul vignoble qui n'a pas de vin déclassé (tous les autres vignobles vendent AOC et vin déclassé).
+C'est une loi de 1927 qui définit, aujourd'hui encore, les critères d'attribution de l'AOC champagne. Mais depuis le 13 mars 2008, quarante communes, désignées par un comité d'experts, prétendent elles aussi à la prestigieuse appellation.
+Le mot « champagne » lui-même est également protégé avec une grande vigilance.
+Ainsi la commune de Champagne, 660 habitants, située dans le canton de Vaud en Suisse a dû renoncer à mentionner le nom de Champagne sur les vins (non pétillants) produits dans son terroir de 28 hectares, dans le cadre d'un accord international intervenu entre la Suisse et l'Union européenne en décembre 1998.
+Pour cette même raison, la firme Yves Saint-Laurent a dû interrompre le lancement d'un parfum qu'elle avait nommé Champagne. Le nom du parfum a finalement été changé, il est actuellement commercialisé sous le nom Yvresse.
+Aux États-Unis, même si l'appellation « champagne » est considérée comme « semi-générique » par la loi américaine et est autorisée si elle est suivi de la mention du lieu de production (mais uniquement pour la commercialisation intérieure), de nombreux producteurs américains de méthode traditionnelle - notamment ceux qui ont fait leur preuve sur le marché américain - leur préfèrent désormais les appellations « méthode champenoise » ou plus généralement la désignation de « sparkling wine » (« vin pétillant »). Paradoxalement, seuls certains producteurs américains visant le marché bas et milieu de gamme utilisent encore la désignation « champagne », notamment Korbel, Tott ou Cook's.
+L'art champenois consiste à assembler des crus non pas à composer des millésimes. Les cuvées millésimées ne dépassent jamais plus de 5% des ventes de champagne. Elles sont surtout un extraordinaire vecteur de communication pour doper les ventes et faire parler des marques. Les marques rivalisent d'idées et organisent des événements autour de leurs millésimés pour faire parler d'elles.
+Selon le Comité interprofessionnel des vins de Champagne, le millésime « est un outil de valorisation. La demande est toujours forte mais le vignoble champenois n'est pas extensible, la croissance ne peut donc se faire que dans le haut de gamme ». Une cuvée millésimée se vend en moyenne 30% à 40% plus cher que le brut et beaucoup plus dans le cas des cuvées de prestige. La tentation est donc forte de millésimer même quand l'année ne le mérite pas vraiment. Entre 1945 et 2004, la Champagne a millésimé 46 fois.
+Or, millésimer n'est pas une démarche sans risque, car selon Olivier Krug, « un millésime est une figure libre par rapport à un brut. Il reflète le climat d'une année, c'est une personnalité, un caractère ». Pour Benoît Gouez de chez Moët & Chandon, « élaborer un millésime, c'est bousculer les codes d'une maison ».
+De par sa situation au coeur du vignoble champenois et du fait que des instances officielles (CIVC, SGV, VITeff) autant que de nombreuses maisons de Champagne (Moët & Chandon, Champagne Mercier, etc.) y soient installées, la ville d'Épernay se présente comme la capitale du Champagne.
+Cette boisson a acquis une forte notoriété internationale en devenant un synonyme de luxe, étant employée notamment pour célébrer les grandes occasions. La particularité « effervescente » du champagne est un peu à l'origine de ce caractère festif : on fait sauter le bouchon, plus rarement on sabre la bouteille, et la victoire est fêtée dans de nombreux sports par l'aspersion de la foule à l'aide d'une bouteille de champagne agitée par les vainqueurs depuis leur podium. C'est ainsi le cas en formule 1 ou lors des étapes de l'épreuve cycliste du Tour de France (la loi Évin a supprimé cette coutume sur le Tour de France [1]). De même, le baptême des navires se fait traditionnellement en brisant une bouteille de champagne sur la coque.
+Un champagne jeune (12 mois à 3 ans) dispose d'arômes d'une grande fraîcheur qui peuvent correspondre à des parfums de fruits blancs ou rouges, d'agrumes, de fleurs blanches, de végétaux, de ferments (levure, mie de pain) ou encore à des senteurs minérales. Pour le champagne plus mature (3 à 5 ans), les arômes sont plus ronds et forts et s'établissent dans le registre des fruits jaunes, secs ou cuits, d'alcools végétaux, d'épices, de confiserie et de pâtisserie. Après 5 ans le parfum est plus complexe et s'exprime au travers d'arômes de fruits très mûrs ou confits, de parfums de sous-bois, de torréfaction, de grillé ou de miel.
+On peut lire sur une étiquette de champagne la marque, le nom de l'élaborateur, le dosage (brut, sec, zéro dosage, etc.), le millésime - ou en son absence, la commune d'origine des raisins, et parfois la cotation qualitative des raisins : « grand cru » pour les dix-sept communes qui ont le droit à ce titre ou « premier cru » pour les quarante et une autres. Le statut professionnel du producteur est obligatoire et se traduit par les caractères suivants :
+Le vin de Champagne se boit en toutes occasions et il peut être le vin unique de tout un repas.
+En premier lieu, il est nécessaire de savoir que lorsque l'on ouvre une bouteille de champagne, le bruit d'un bouchon qui saute se fait au détriment de la sensation gustative, même si ceci est réalisé au profit du côté festif. Il est donc primordial de renoncer au bruit et de toujours retirer le bouchon avec délicatesse pour garder toute la saveur. Rappelons aussi qu'un bouchon de champagne incontrôlé peut atteindre une vitesse de près de 15 m/s (soit 50 km/h).
+De manière toute aussi contrariante, un bouchon trop vite enlevé peut se solder par un jaillissement d'un jet mousseux causé par une concentration de bulles excessive : on appelle cela un phénomène de « gerbage ». Bien que les pilotes de formule 1 réalisent intentionnellement cette action en secouant fortement la bouteille avant de l'ouvrir, les Maisons de champagne se préoccupent au contraire de prévenir ce phénomène au sein de leurs usines. Sur leurs lignes de production, les bouteilles s'entrechoquent en permanence, agitent leur contenu et créent ainsi de nouvelles bulles de gaz carbonique susceptibles de provoquer le gerbage à l'ouverture de la bouteille ; et ainsi occasionner une perte de champagne mais aussi ralentir la cadence de production de leurs bouteilles.
+Le champagne doit être servi frais, entre 6 et 8 °C lorsqu'il est jeune, jusqu'à 10 °C lorsqu'il est plus mature ou millésimé. On place la bouteille pendant 20 à 30 minutes dans un seau à champagne rempli à moitié d'eau et de glace (pas plus d'une dizaine de cubes de glace). On peut également placer la bouteille au réfrigérateur (surtout jamais dans le compartiment à glace et pire au congélateur).
+La température de service chez « Lasserre » qui est un grand restaurant où le vin de Champagne est roi est de 9 °C. Les champagnes les plus anciens, au-delà de quinze ans d'âge, peuvent être offerts à 14 ou 15 °C, c'est-à-dire, à la température d'une bonne cave.
+Qu'elle soit dans un seau à champagne ou au réfrigérateur, la bouteille de champagne ne doit pas rester à la lumière et surtout pas être exposée à la lumière de néons, car la lumière lui donne assez rapidement un goût détestable - ce conseil est valable pour tous les vins à bulles. Il est donc conseillé de couvrir ou d'emballer la bouteille d'un linge fin ou au mieux - de façon plus raffinée - avec du papier de soie.
+On utilise de préférence une flûte ou un verre dit « tulipe », les coupes étant accusées de perdre l'arôme du champagne ainsi que de laisser les bulles s'échapper plus facilement. Les flûtes sans pied historiquement issues des fêtes galantes du xviiie siècle s'appelaient « libertines ».
+Il faut penser à changer les flûtes chaque fois qu'on change de cru. La dose standard est 10 cl. Les sommeliers comptent 6 à 10 flûtes pour une bouteille de 75 cl. Le contenant doit absolument être en verre ou cristal et surtout pas en plastique. Le plastique étant hydrophobe, il ne permet pas aux bulles d'être fines et de pétiller : elles restent collées aux parois.
+Pour un repas uniquement au vin de Champagne, la quantité globale conseillée pour tout le repas est d'à peu près une bouteille par personne - ce qui représente le double des quantités autorisées en France pour conduire. On peut évaluer la répartition conseillée tout au long du repas comme suit :
+Le service du champagne, dit « à la champenoise », suit un protocole particulier :
+Il était autrefois de tradition d'accompagner la dégustation du champagne de petits biscuits longs et rectangulaires recouverts de sucre glace : les biscuits à la cuiller ou biscuits roses de Reims.
+De par sa teneur en alcool, la consommation excessive de vin de Champagne peut être nuisible pour la santé. Sa consommation est spécialement déconseillée aux femmes enceintes, en raison des effets possibles de l'alcool sur le développement du foetus 13.
+Cependant, le vin de Champagne fut longtemps chaleureusement recommandé en oenothérapie au motif qu'il « dissipe les états nauséeux et soutient le moral ». Le chanoine Godinot en 1718, dans son traité sur les vins de Champagne, assurait : « De tous les vins, il n'en est pas de meilleur pour la santé qu'un vin gris de Champagne, ou couleur oeil de perdrix ».
+Ses qualités :
+Au xixe siècle, quelques maisons élaborèrent du vin de Champagne effervescent de couleur rouge en ajoutant à du champagne blanc un quart ou un tiers de vin rouge tranquille, puis une part de liqueur d'expédition de couleur rouge. Ce type de produit fut interdit et la dernière maison qui en élabora fut la maison F. Giesler en 1887.
+En 2007, on pouvait trouver sur les compagnies aériennes suivantes :
+Le réchauffement global de la planète aura sans aucun doute des conséquences sur la culture de la vigne et sur l'industrie du champagne en particulier. Le climat septentrional et les sols calcaires permettent aux viticulteurs champenois d'avoir une production de qualité. Non seulement un climat frais produit des vins âpres et légers nécessaire pour la réalisation d'un bon champagne mais en plus les sols calcaires apportent aux raisins une acidité qui permet aux arômes de se développer longuement au cours de la phase de vieillissement ; une élévation des températures et une longue saison chaude en Champagne modifieraient de ce fait les propriétés et le bon déroulement du processus de vieillissement de ce vin.
+Au cours de l'été 2003, la France a connu les températures les plus chaudes jamais connues. Les faibles précipitations et la chaleur ont non seulement provoqué un dessèchement du raisin, mais elles ont également eu pour conséquence une forte concentration de sucre dans les grains. Les niveaux d'acidité ont chuté à mesure que le raisin se gorgeait de sucre, alors qu'un champagne à besoin d'une bonne acidité pour bien vieillir et développer ses arômes. La production de 2003 a été réduite de 50% environ par rapport à une année normale
+En 1961, Madame Bollinger répondit à un journaliste du London Daily Mail qui l'interrogeait sur sa consommation de Champagne
+« Je le bois lorsque je suis joyeuse et lorsque je suis triste. Parfois, je le prends quand je suis seule. Je le considère obligatoire lorsque j'ai de la compagnie. Je joue avec quand je n'ai pas d'appétit, et j'en bois lorsque j'ai faim. Sinon je n'y touche jamais, à moins que je n'aie soif ».+
« Le champagne : c'est le seul vin qui laisse la femme belle après boire », disait de lui la Madame de Pompadour.
+« Si je n'étais roi de France, je voudrais être prince d'Ay » aurait dit Henri IV.
+« Je ne peux vivre sans Champagne, en cas de victoire, je le mérite ; en cas de défaite, j'en ai besoin. » Napoléon Bonaparte
+Depuis la fin du xixe siècle de nombreux artistes ont travaillé sur le thème du vin de champagne. Dès le début le but est d'associer au champagne les idées de luxe, de mondanité et même d'érotisme. Un travail sur l'authenticité a aussi été abordé.
+Parmi les artistes : Andreis (Delbeck), Aubrey Beardsley (Piper-Heidsieck), Pierre Bonnard (France-Champagne), Leonetto Cappiello (Delbeck, De Castellane), Jules Chéret, Walter Crane, René Gruau (Interprofession), Louis Théophile Hingre (Roederer, SN Grands vins d'Ay), Léo Kouper (De Castellane), Achille Mauzan (Pommery, Victor Clicquot), Alfons Mucha (Ruinart, Moët & Chandon), Toulouse-Lautrec, Raymond Savignac (De Castellane), Bernard Pagès (Mailly Grand Cru).
+Voir aussi à Épernay le musée de l'affiche de la Maison de Castellane sur la thème de la croix de Saint-André son symbole.
+Lire : Jean-Marie Pinçon : Le Champagne dans l'art, Thalia Édition, 174 pages. Une sélection de 71 oeuvres de peintres.
+