text
stringlengths
21
422k
El «EUROAIRGROUP», futuro de la Aviación Militar Europea El nacimiento del concepto de Seguridad y Defensa Común Europeo ha dado origen a la creación de numerosas organizaciones que contribuyen a potenciar la capacidad operativa conjunta de las Fuerzas Aliadas. La idea de este artículo es dar a conocer una de esas nuevas organizaciones, el Grupo Aéreo Europeo (EAG), que actualmente favorece la interoperabilidad y la capacidad de empleo conjunto de los efectivos aéreos de sus miembros. Entre dichos miembros, desde el año 1998, se encuentra España, actualmente en proceso de adhesión, pendiente exclusivamente de que el Ministerio de Asuntos Exteriores tramite y deposite el «Instrumento de Adhesión». También se definen los objetivos del EAG, su financiación y organización, su modo de funcionamiento, los programas y proyectos en los que ha participado y continúa haciéndolo, así como la normativa que le es de aplicación. El artículo narra el nacimiento del Grupo a través de acuerdos bilaterales que con su consolidación y ampliación le constituyen en el embrión de la futura Fuerza Aérea Europea. De su plan de trabajo citaremos, por su importancia, el proyecto ATARES (para intercambio de servicios de transporte aéreo y de reabastecimiento en vuelo) que es apoyado por el EACC (Célula de Coordinación del Transporte Aéreo Europeo). Es también digno de mención el hecho de que ya esté en funcionamiento el acuerdo EUROFIGHT para el desarrollo de maniobras combinadas, a fin de facilitar la preparación y entrenamiento en temas de Defensa y que cuenta con varios grupos de trabajo en diferentes áreas, algunos ya muy avanzados. Hoy en día, cualquier suceso, ocurra donde ocurra, tienen una gran repercusión en las naciones desarrolladas. Los conflictos regionales, las crisis políticas, los desastres naturales, los problemas del medio ambiente, la escasez de recursos, los desplazamientos de población, el narcotráñco, el contrabando, los delitos financieros, los extremismos ideológicos, y un largo etcétera de fenómenos actuales afectan a la seguridad de los países. El espacio estratégico de las naciones se ha ensanchado y el concepto de defensa «en y desde el territorio» ya no tiene cabida. Por otra parte, a pesar de vivir en un mundo de múltiples riesgos, los recursos de las naciones son limitados, y esto hace que, en la actualidad, los países, mas que protegerse de la inestabilidad, busquen crear buenas condiciones de estabilidad y una de las formas de lograrlo es fortaleciéndose a través de las alianzas. A la pregunta de, ¿qué es Europa?, se podía responder diciendo, que Europa no es mas que una comunidad de pueblos, de democracias, de pluralismos, en la que convergen valores e intereses de seguridad, siendo precisamente esta coincidencia, la que impulsa a sus pueblos a aliarse dando forma a su Política de Defensa. Por eso, aunque la Unión Europea comenzó como un proyecto económico fue poco a poco vertebrándose en un edificio que contaba con el concepto de seguridad y defensa como uno de sus pilares básicos^. Este pilar estará, principalmente, constituido por la integración de las existentes fuerzas multinacionales europeas en una sola. En lo que respecta al componente aéreo, su embrión será sin duda una organización europea que en su momento, se constituyó para conseguir capacidad de actuación en las misiones Petersberg aprobadas por la UEO y que actualmente contribuye a potenciar la interoperabilidad y la capacidad de empleo conjunta de los efectivos aéreos de sus miembros. Esta organización, se denomina Grupo Aéreo Europeo (GAE) y puede realizar las mismas misiones que realizan las Fuerzas de sus países miembros, con la excepción de las operaciones nucleares y las del Articulo V de la OTAN. Aunque a decir verdad, no puede considerarse al GAE como una Fuerza Internacional, sino más bien como un foro de pensamiento y colaboración, no cabe duda, que en tiempos de crisis y dentro del concepto CJTF (Combined Joint Task Force), el GAE puede prestar una valiosa colaboración en la formación del Componente Aéreo de las Fuerzas Conjuntas (JFACC) para la ejecución de operaciones tanto de la OTAN como de la Unión Europea. Por tanto, podemos decir que el futuro de la aviación militar europea pasa por el EUROAIRGROUP o Grupo Aéreo Europeo, cuya estructura, funcionamiento y perspectivas de futuro se tratan a continuación. Creación del Grupo Aéreo Europeo Si repasamos la historia reciente vemos que tras la caída del muro de Berlín, en el año 1992, Europa, que cierra un capítulo de su historia, se encuentra preparada para afrontar profundas transformaciones en los ámbitos de seguridad y de relaciones de poder. Fue, en este año y por una iniciativa franco-alemana, cuando nació el Eurocuerpo (CEUR), organismo, que venía a reforzar los lazos, ya existentes en materia de defensa, entre Francia y Alemania y, que vería como en los años siguientes se unían al proyecto, Luxemburgo, Bélgica y España, hasta alcanzar su plena operatividad en el año 1995. Un año antes y en la Cumbre de Bruselas, se asentaban las bases para el desarrollo de una Identidad Europea de Seguridad y Defensa (lESD), dentro de la Alianza Atlántica, permitiendo poner los medios de la OTAN, las que se llamarían fuerzas «separables, pero no separadas», a disposición de la UEO. Hasta ese año, 1995, la doctrina aérea de la mayoría de los países se centraba en la defensa de sus territorios, no obstante, de los acontecimientos que habían tenido lugar. Guerra del Golfo, Bosnia, etc., se extrajeron varias enseñanzas, entre otras, la toma de conciencia de que el lugar de actuación de las fuerzas propias, sería, la mayoría de las veces, fuera de territorio nacional y, que había que encontrar solución a los fallos existentes en la gestión de crisis. Las situaciones y escenarios no previstos en las doctrinas de empleo mostraron a las Fuerzas Aéreas Francesa y Británica sus fallos y con la finalidad de solucionar los mismos, organizaron un grupo de trabajo, que recibió, mediante la Declaración Ministerial de Londres el 27 de Junio de 1995 el nombre de Grupo Aéreo Franco-Británico (FBEAG). Desde el principio, el FBEAG tuvo dos niveles, uno político-militar, cuyos miembros formaban el denominado Grupo de Dirección o Steering Group (SG) y, otro, integrado por personal de ambas Fuerzas Aéreas que trabajaban en un pequeño Estado Mayor (Staff) en High Wycombe, Reino Unido, nación de la que recibían el apoyo necesario. Cuando la profundidad de los temas o la complejidad de los mismos, así lo requería, representantes de ambos países se reunían para tratarlos en una comisión denominada Working Group (WG). La regulación relativa al FBEAG se plasmó en un documento firmado por los Jefes de Estado Mayor de la Royal Air Force y de TArmée de TAir el 30 de Octubre de 1995. El GAE, a pesar de haberse creado como una organización de carácter bilateral, contempló, desde el principio, la posibilidad de ampliación a naciones que, perteneciendo a la Unión Europea Occidental (UEO), tuviesen la capacidad militar y la voluntad de participar colectivamente en las operaciones definidas en Petersberg. Así, mediante la unión, se mitigaban las carencias que individualmente mostraban las fuerzas aéreas miembros, se creaba un efecto multiplicador y se aumentaba el rendimiento y eficacia de las mismas. Por tanto, «El Grupo Aéreo Europeo existe, para B^yadar a mejorar, la interoperabilidad, el rendimiento y la eficacia de sus miembros a través de la acumulación de conocimientos, experiencias y recursos, cooperando y compartiendo ideas e iniciativas, y fomentando el entendimiento de las doctrinas y culturas propias de cada fuerza aérea». En esa búsqueda de socios, los primeros invitados a participar fueron Italia y Alemania, esto sucedió en 1997 y para reflejar su posible inclusión en el Grupo, el 1 de Enero de 1998, el FBEAG cambió su nombre por el de European Air Group (EAG) o Grupo Aéreo Europeo (GAE) que es el que se mantiene en la actualidad. Posteriormente, en 1998, serían invitados España, Bélgica y Holanda. La condición de miembros de pleno derecho la adquirieron, Italia, en Julio de 1998, y España, junto a los países restantes, en la reunión plenaria del Grupo Aéreo celebrada en Roma el 12 de julio de 19992. Este proceso de expansión hizo necesario revisar las cláusulas originales que formaban la normativa de ambos Grupos, el de Dirección y el de Trabajo. Mientras tanto, las cinco naciones que constituían el EUROCUERPO (CEUR) declaraban, con ocasión del Consejo Europeo de Colonia del año 1999, su decisión de adaptar esta unidad multinacional al nuevo entorno estratégico para conseguir hacer de ella el Cuerpo de Reacción Rápida Europeo (CRRE). Así, se daba respuesta al deseo de la Unión Europea de disponer de fuerzas, que adaptadas a las operaciones de gestión de crisis, le permitiesen desempeñar, en la escena internacional el papel que le corresponde. Los problemas que plantea la creación de un Cuerpo de Reacción Rápida Europeo, son los derivados de las características propias de unida-El «EUROAIRGROUP», futuro de la Aviación. des de este tipo, es decir, de su disponibilidad y de su flexibilidad. Estas características obligan, aún manteniendo las mismas misiones, a modificar algunos aspectos del propio CEUR, como su estructura, sus procedimientos y los medios, casi todos mecanizados/acorazados, asignados. Para llevar a cabo cambios en los criterios de disponibilidad y poder reducir los plazos de intervención, se necesita mejorar la capacidad de transporte, lo que se traduce en disponer de medios aéreos adecuados, que lógicamente serán aportados por las Fuerzas Aéreas del conjunto de naciones que en su momento formen el CRRE. A pesar de la profundidad de la implicación del GAE en asuntos de fuerza aérea europeos, los recursos de sus países miembros son limitados, considerándose esencial, que dichos recursos estén dirigidos y empleados de la manera más efectiva posible. Para ello, el GAE dispone de dos herramientas fundamentales, una, su organización, y otra, el documento «Plan de Trabajo», en el que se recogen, las actividades cotidianas, el programa de proyectos y, se identifican las áreas a colaborar en el futuro. De este Plan de Trabajo y del resto de documentos que forman la normativa del GAE y que se verá más adelante, se puede extraer el objetivo del Grupo y que no es otro que: «Construir sobre la existente complementariedad de las Fuerzas Aéreas Miembros y mejorar significativamente su capacidad para llevar a cabo operaciones combinadas, persiguiendo intereses compartidos, principalmente a través de mecanismos que acrecienten la interoperabilidad y desarrollen una aproximación común a temas de fuerza aérea». A continuación vamos a ver cuál es la organización del GAE, cuales son sus órganos de trabajo y qué cometidos tienen cada uno de ellos. Organización y financiación del GAE Habíamos visto que desde un principio se establecieron tres niveles de trabajo, uno denominado Grupo Director y que se encuentra a un nivel más alto, otro, denominado Grupo de Trabajo, que asiste al anterior y es el enlace natural entre los países y, por último, el Estado Mayor del GAE, cuya limitada plantilla está integrada, de forma permanente, por personal de las diferentes fuerzas aéreas miembros. Las naciones, de manera compartida, proporcionan la financiación y la dotación de personal. En el Grupo Director (SG), cada país tiene tres representantes pertenecientes, al Ejército del Aire (su Jefe de Estado Mayor que ejerce a la vez como Jefe de la Delegación), al Ministerio de Asuntos Exteriores y al Ministerio de Defensa. España es un caso atípico al existir un cuarto representante perteneciente al Estado Mayor Conjunto. El Steering Group, que se encarga de establecer las condiciones de empleo del GAE, se reúne una vez al año o cuando lo solicite, cualquier Jefe de Estado Mayor o el Director del GAE, figura que veremos a continuación. El Director del Grupo Aéreo Europeo El Director del GAE es un general de 2 ó 3 estrellas que pertenece a una de las naciones miembros, efectúa este trabajo como función secundaria, ya que mantiene el de su país de origen, donde tiene localizada su oficina. Este puesto, que es rotativo entre las naciones miembros, será ocupado en el año 2002 por el Teniente General Jefe del Mando de Combate del Ejército del Aire español. Su misión, además de ser el responsable de la implantación de las directrices y directivas facilitadas por el SG, es apoyar a los Jefes de los Ejércitos del Aire de las naciones miembros. También tiene otras tareas como, representar al GAE en los foros internacionales y, colaborar en las directrices, en el control y en la revisión del plan de trabajo anual promoviendo iniciativas para aumentar las capacidades de las fuerzas aéreas. Entre sus potestades no entra la disciplinaria, ya que en el GAE, el oficial de más alto rango de una nación es el responsable de su personal. El Director del GAE trata más específicamente las siguientes áreas: Interoperabilidad, proporcionando un foro para aumentar la misma. Fuerza de Proyección, estudiando y planificando la utilización de la misma. Complementariedad, en especial, en temas de mando, control y sistemas de información. Estudios tendentes a la constitución de un JFAC, parcial o completo. La dirección, en coordinación con maniobras nacionales y/o de la OTAN, de un ejercicio anual del GAE^ y por último, la integración de los países que adquieren la condición de miembros del GAE. Asimismo y con el fin de permitir al GAE proporcionar una respuesta rápida y efectiva en tiempo de crisis, su Director tiene la autoridad, delegada por el SG, para, una vez consultadas las naciones y que éstas hayan decidido involucrarse en las estructuras que hagan frente a la crisis, destinar a elementos nacionales de entre el personal del STAFF a dichas estructuras. Existe otra figura, la del Subdirector del EAG, general de una estrella, que, destinado de forma permanente en High Wycombe, mantiene al Director informado del progreso y resultados de los trabajos, además de coordinar las actividades cotidianas y desarrollar la programación a largo plazo. Funcionamiento del Working Group El Grupo de Trabajo o Working Group (WG) es un elemento de control que trabaja para establecer los fundamentos que faciliten la toma de decisiones del SG. Lo integran representantes de las naciones miembros, en número de tres a cuatro por nación, que, al igual que en el SG, pertenecen a los MAE, MOD, CHOD y EA correspondientes. Mantiene una estrecha relación con el personal del Staff del GAE, personal que participa de forma esporádica en las reuniones del WG a excepción de su Jefe de Estado Mayor (Chief of Staff-COS) que lo hace de forma habitual. Para su funcionamiento, el WG cuenta con un Presidente (Puesto rotativo) y con una Secretaría que se encarga de prestar los apoyos necesarios. Entre sus funciones se encuentran las de: Prestar apoyo al SG, proporcionándole la información necesaria para la toma de decisiones. Controlar el trabajo de los proyectos. Preparar y revisar los documentos básicos sobre organización, estructura y expansión. Potenciar las relaciones externas del GAE. Aprobar el programa a largo plazo. Proponer los estudios necesarios y resolver, si es posible, cualquier discusión que surja entre las naciones. Para desairollar su tarea, los miembros del WG se reúnen normalmente dos veces al año. En estas reuniones exponen las opiniones nacionales y liman las diferencias hasta alcanzar acuerdos de interés común. Lógicamente, los diferentes representantes del WG han preparado los temas a discutir en sus países hasta adoptar una postura nacional, acudiendo después a las reuniones internacionales con la autoridad necesaria para aprobar las decisiones que se tomen, evitando así una interminable lista de consultas con sus países. Las reuniones que tratan asuntos demasiado específicos pueden contar con la presencia de expertos. El «Staff» del GAE está integrado por una plantilla multinacional, permanente y reducida de oficiales de los diferentes países que desa-394 Luis Llanos Moran rroUan su trabajo en la B.A. de High Wycombe (Reino Unido). Bajo el mando de un Coronel, consta de una Jefatura, de la que dependen las típicas secciones de un Estado Mayor y los órganos de apoyo correspondientes. La contribución española consiste en tres oficiales superiores que trabajan en las secciones de logística, análisis y operaciones. Desde su ampliación a 7 naciones, el GAE ha ido experimentando un sustancial incremento en sus actividades y tareas haciendo necesario elegir algunos proyectos y rechazar otros, por eso y con el fin de seguir una línea de acción coherente, el GAE se ha marcado una serie de objetivos a lograr en los próximos tres años, siendo los más importantes: en primer lugar, continuar promoviendo el entendimiento y cooperación entre las Fuerzas Aéreas miembros; en segundo lugar, adoptar el concepto NATO CJFACC y, dentro del mismo, facilitar el desarrollo de maniobras y ejercicios; en tercer lugar, mejorar el conocimiento del GAE en los diferentes foros de defensa y seguridad; en cuarto lugar, preparar la posible ampliación del Grupo y, finalmente, continuar contribuyendo al desarrollo de la lESD, sin dejar de tener en cuenta la política, doctrina y procedimientos de la OTAN. El logro de estos objetivos se consigue a través de la realización de una serie de actividades y proyectos pero para embarcarse en los mismos, el GAE sigue el siguiente proceso: Primero, se destaca la fuente del proyecto, el alcance y los resultados deseados, después, se comparan los recursos con las necesidades y se establece un programa donde se marcan los hitos más relevantes, posteriormente, un mini equipo denominado «Project Management Board (PMB)», presidido por el Subdirector e integrado por el COS y sus Jefes de Sección, estudia la viabilidad, la prioridad y las implicaciones del proyecto y toda esta información que ya ha sido sometida a la aprobación del Director, se envía a las naciones que se encargan de rechazar, aplazar, o aceptar el Proyecto. Finalmente, si se acepta, se hace cargo de él, un «Equipo de Proyecto» y se introduce en el Plan de Trabajo. El Plan de Trabajo se materializa en un documento que contiene los diversos proyectos y actividades cotidianas del GAE. A modo de ejemplo se expone el contenido de algunos de estos acuerdos y proyectos que ya han sido firmados o se encuentran en fase de desarrollo. Es un Acuerdo Técnico para el Intercambio de Servicios de Transporte Aéreo y Reabastecimiento en Vuelo, siendo sus siglas en inglés las que le dan nombre, «Air Transport (AT) and Air-to-Air Refuelling (AAR) Exchange of Services». Nació de la búsqueda de un mejor uso de las capacidades del transporte y reabastecimiento de las naciones miembros; así, aviones que efectúan vuelos con parte de su bodega vacía son ofrecidos a otros países para ser compartidos. Un claro ejemplo de la utilidad de este Acuerdo lo constituye el último ejercicio Red Flag, en el que la coincidencia de desplazamientos, en dirección contraria, de las fuerzas aéreas francesas y españolas a los EEUU, permitieron a sus unidades ser repostadas por aviones del otro país. El acuerdo, que fue firmado por todos los países en una reunión extraordinaria del Steering Group el 8 de Febrero de 2001 en La Haya, establece un sistema de compensaciones por hora de vuelo según el tipo de avión. El establecimiento de una Célula de Coordinación del Transporte Aéreo Europeo ha sido uno de los últimos trabajos desarrollados por el GAE. Una comparación de las necesidades presentes y futuras con los medios disponibles muestra la necesidad de cooperación que en materia de Transporte Aéreo tienen las naciones europeas. Utilizando la herramienta ATARES como punto de partida, se llega más allá al formarse una célula europea de carácter permanente^ en la que se centralizan necesidades y medios disponibles y, desde la que se gestionan los medios de transporte aéreo y reabastecimiento en vuelo. Este se considera el primer paso para la creación de la futura Fuerza Aérea de Transporte Europeo. Es un Acuerdo Técnico que, mediante el desarrollo de maniobras conjuntas, pretende facilitar la preparación y entrenamiento en temas de Defensa Aérea Europea. Se encuentra en fase de puesta en práctica y su objetivo es reunir en un solo documento las reglas y metodología de trabajo que permitan mejorar el entendimiento mutuo, en misiones de interceptación, de combate, y en otras más complejas como las MFFO (Mi- xed Forces Figther Operation), que son aquellas en las que participan distintos tipos de interceptadores obteniendo la ventaja que proporciona su diversidad. A pesar del éxito alcanzado por las coaliciones occidentales en los últimos conflictos, a veces, ha habido que lamentar derribos entre las tripulaciones; algunos supervivientes a estos derribos, han conseguido burlar al enemigo y permanecer ocultos durante horas a la espera de ser rescatados por las fuerzas propias. Para efectuar estos rescates, las fuerzas aliadas utilizan las fuerzas de combate denominadas de búsqueda y rescate o CSAR (Combat Search and Rescue Forces)^. Está claro, que para buscar y extraer tripulaciones, de un territorio enemigo y en un ambiente hostil, se necesita personal capacitado, bien entrenado y perfectamente equipado. En la actualidad, sólo los EEUU cuentan con una buena capacidad CSAR y es obvio que en una crisis regional las fuerzas americanas pueden optar por no participar y mantenerse fuera del conflicto que afecte a los intereses europeos. Los sistemas de rescate que actualmente utilizan los países europeos tienen graves carencias en los sistemas de autoprotección, en las ayudas a la navegación, en los sistemas de comunicación, etc., no tienen por tanto capacidad CSAR y son, más bien, unos medios SAR (Búsqueda y Salvamento) adaptados. Con este proyecto se trata de incrementar la capacidad y cooperación europeas en materias CSAR por resultar obvio que en una crisis regional las fuerzas americanas pueden optar por no participar y mantenerse fuera del conflicto que afecte a los intereses europeos. El GAE inició un proyecto encaminado a potenciar la cooperación de los países miembros en aspectos relativos al entrenamiento avanzado de las tripulaciones de combate, este tipo de entrenamiento es sumamente costoso al simularse situaciones prácticamente reales para lo cual se necesita disponer de una gran cantidad de medios. Para paliar la falta de entrenamiento de las tripulaciones y buscando optimizar los recursos disponibles entre las naciones miembros de la forma más eficiente, se conjugan las necesidades de espacio aéreo libre, las herramientas de El «EUROAIRGROUP», futuro de la Aviación... trabajo (polígonos^) y por supuesto, las escasas horas de vuelo disponibles. Los aviones que operan en estos polígonos disponen de unos «pods» (sistemas emisores de datos) que integrados en los planos transmiten con exactitud las posiciones y actitudes de los aviones, permitiendo que en los centros de control se conozcan y puedan aparecer representados en una pantalla las posiciones de todos los aviones que en ese mismo instante se encuentran operando, lo que sin duda es una herramienta clave para estudiar «a posteriori» las tácticas y técnicas utilizadas durante la misión. Otros proyectos que también están en estudio son: la protección de la Fuerza y su capacidad de supervivencia para continuar operando, concepto STO; Apoyo Logístico Desplegable; Interoperabilidad de Sistemas de Comunicaciones e Información; Medicina Aeronáutica; Sistemas de Mando y Control; Interoperabilidad de Sistemas Criptográficos; Concepto de Mando del Componente Aéreo de la Fuerza Conjunto-Combinada (Concepto CJFACC); Defensa Aérea basada en tierra (GBAD) y por último, se está estudiando la posible inclusión de los proyectos Utilización Militar del Espacio Aéreo Europeo y Vehículos Aéreos no Tripulados UAV (Unmaned Air Vehicles). Para finalizar y tras haber tratado la organización, la estructura y el método de trabajo del GAE, vamos a ver una serie de documentos y normas que regulan su funcionamiento. Además de la Doctrina que inspira al GAE, y que es la común de la OTAN apoyada en los principios generales de la guerra y en el empleo eficaz del Poder Aéreo, hemos hablado ya del Plan de Trabajo, que es el documento en donde se vierte el programa de actividades y proyectos. El Acuerdo ínter-Gubernamental, que es el documento fundacional del Grupo Aéreo Europeo Franco-Británico (FBEAG) y que fue firmado por los dos Ministros de Defensa, de Francia y del Reino Unido, Alain Richard y George Robertson, en Londres el 6 de Julio de 1998. Posteriormente y con el fin de permitir el acceso de nuevas naciones al GAE, Luis Llanos Moran 398 ambos países firmaron en Londres el 16 de Junio de 1999 un Protocolo de Enmienda. El Concepto de Empleo, que es sin duda, el documento más importante, por expresarse en él, cómo puede ser empleado el personal del GAE, en qué circunstancias, y por quién. El documento en el que se establecen las estructuras ejecutivas del GAE es el denominado Pliego de Cláusulas o «Provisions Paper». La versión actual que fue aprobada, por el Steering Group el 15 de Junio del 2000 puede verse sujeta a los cambios motivados por una posible expansión del GAE, aspecto éste de la expansión que se trata en el documento denominado Principios de Ampliación o «Principies of Enlargement». Los procedimientos presupuestarios y financieros del EAG quedan plasmados en el documento denominado Procedimientos Financieros del GAE. Luego, existen unos documentos en los que se especifican o suministran al Director del GAE directrices y términos de referencia para el empleo del personal del GAE denominado Directiva para el Director. En 1998, se realizó una Directiva de la WEU, Directiva Especial en donde se definían los acuerdos de cooperación entre el, entonces, FBEAG y la WEU, que fue firmada en 1998, y en la actualidad, ha sido revisada y ajustada a la ampliación del GAE. Y por último, están los documentos en donde se desarrollan los acuerdos que han adoptado los diferentes miembros y que se denominan Acuerdos Técnicos. En la Iniciativa de Capacidades de Defensa (DCI) que lanzó la Alianza en la cumbre de Washington, se señalaban las características que deberían reunir las fuerzas aliadas para poder operar de forma conjunta y en ambiente multinacional,"^se hacía especial hincapié en el concepto de interoperabilidad y se trataban de mejorar otros aspectos tan importantes como, flexibilidad, movilidad, supervivencia y logística, todo ello, trabajando bajo la misma Doctrina y efectuando un entrenamiento común. Todas estas características son aplicables a la fuerza de intervención rápida de la UE, Fuerza que para poder cumplir las misiones que le sean asignadas, en principio, las denominadas «misiones Petersberg», necesitará disponer de unas Fuerzas CSAR y reforzarse en los aspectos de Transporte estratégico, inteligencia y sistemas de mando y Control. El «EUROAIRGROUP», futuro de la Aviación. Como hemos visto, estos son los temas sobre los que inciden la mayoría de los proyectos que el GAE está llevando a cabo. En el Documento, «El Poder aéreo, rápido, flexible y rentable»^, se comenta que las futuras operaciones de gestión de crisis, cualquiera que sea su objeto, se llevarán a cabo probablemente en el marco de una coalición multinacional, formada por países que, para alcanzar el adecuado nivel de integración, necesitan un largo periodo de entrenamiento con que poder normalizar, el idioma, la doctrina, los procedimientos y el material. Objetivos que, como se puede observar, son idénticos a los que el GAE ha declarado como suyos. Pero, aunque el GAE no se hubiera creado, existen una serie de problemas y objetivos comunes cuya resolución, bastaría por sí misma para unir a los países europeos. Por ejemplo, la adquisición de medios comunes, como el Eurofighter, misiles, de medio y largo alcance, más allá del alcance visual, aviones de transporte (A-400), etc.; necesidades de, reforzar los medios de inteligencia, mejorar la precisión del armamento, disponer de capacidad de respuesta rápida y flexible, etc. Por otra parte, aunque el futuro de la defensa europea pase por la resolución de una serie de acontecimientos políticos, como la entrada en la OTAN en marzo del 99 de Hungría, Polonia y de la República Checa, la pertenencia a la UE de países neutralistas y reticentes a incorporarse a organizaciones militares, el posible ingreso de Turquía, etc., lo que está claro es que el Poder Aéreo, por su forma de aplicación, por la estructura de mando y control requerida y por el idioma común del aire, tiene un carácter multinacional inherente y, si además le añadimos las diversas capacidades de cada nación para poder actuar de forma sinérgica en Operaciones Aéreas Combinadas, se deduce su necesidad para reforzar la credibilidad de cualquier coalición o alianza y, el Grupo Aéreo Europeo cumple con todos los requisitos para ser el embrión de esa futura Fuerza Aérea Europea. Su tamaño es de 15 brigadas con efectivos de entre 50 y 60.000 personas que han de ser desplegadas en un plazo máximo de 60 días y por, al menos, un año y que contará con sistemas desplegables de, apoyo, mando y control, inteligencia y logísticos. Para todo ello se necesitará que la UE cuente con una Fuerza Aérea ágil y capaz. ^ En la actualidad, España se encuentra en proceso de adhesión; el Consejo de Ministros autorizó al Ministro de Defensa, el 25 de junio de 1999, a suscribir los documentos necesarios para la incorporación de España. La incorporación definitiva se producirá cuando el MAE tramite y deposite el «Instrumento de Adhesión». ^ Uno de los ejercicios multinacionales que mejor se ajustan al espíritu del GAE son los NOMAD, ejercicios dedicados al entrenamiento de tripulaciones y controladores de interceptación en misiones de combate. Constan de dos fases, teórica, que se realiza en la B.A. de Waddington (Reino Unido) y, práctica, que se realiza en el polígono ACMI del Mar del Norte. Estos ejercicios fueron creados en 1995 por las fuerzas aéreas de Bélgica, Francia, Reino Unido y España. También se ha participado en otros ejercicios como el VOLCA-NEX, que utiliza como supuesto una operación fuera de área, conducida por una coalición multinacional y se utilizan medios e instalaciones de varias de las naciones participantes, para así determinar el grado de interoperabilidad de los sistemas de comunicación e información (CIS) de las mismas. ^ La Célula se encuentra en proceso de formación en la B.A. de Eindhoven (Holanda) y la firma del Acuerdo está prevista para febrero del 2002. ^ Las razones para la existencia de dichas fuerzas son de tipo político y militar. Así, a la obligación de evitar pérdidas propias, se une la escasez de personal entrenado, el tiempo necesario para su preparación y, la necesidad de mantener la moral de los combatientes evitando que el enemigo utilice a los prisioneros como fuentes de información, propaganda o escudos humanos. La opinión pública es reacia a admitir pérdidas cuando las tropas propias combaten a cientos de kilómetros de las fronteras. ^ Los polígonos instrumentados son del tipo ACMI (Air Combat Maneuvering Instrumentation) y AACMI (Autonomous Air Combat Maneuvering Instrumentation). Generalmente el GAE utiliza un polígono en el Mar del Norte que, con sus instalaciones y medios, permite la participación de hasta 50 aviones de forma simultánea, contando entre sus características más relevantes, la capacidad de visualización del escenario en tiempo real.' ^ Es un documento elaborado bajo la dirección de la Conferencia de Jefes de Estado Mayor del Aire Europeos (EURAC).
a ésta, los recientes acontecimientos del 11 de septiembre y la aplicación del Artículo V del Tratado en el conflicto de Afganistán, hacen que todo lo relacionado con esta Organización sea de plena actualidad. El artículo trata dicha Organización de forma general, para centrarse en las Fuerzas Aliadas en Europa Meridional (AFSOUTH), en especial en las Fuerzas Aéreas Aliadas del Sur (AIRSOUTH) y sus relaciones con el Ejército del Aire. Se nos da una visión general de estas relaciones, profundizando en lo relativo al Centro Combinado de Operaciones Aéreas de Torrejón (CAOC 8), y en los ejercicios de Puestos de Mando (CPX) o reales (LIVEX), en los que participa el Ejército del Aire. También trata sobre la puesta en práctica de los programas TACE-VAL en los que estamos involucrados, así como en otros muchos temas, incluyendo incluso los docentes donde se constata el hecho de que en un futuro próximo muchas áreas de la enseñanza militar serán desarrolladas en colaboración con otros países de la Alianza. La reforma que la Alianza Atlántica hizo en 1999 de su Estructura de Mando vino impuesta por el deseo de acomodarse a una situación que preveía, entonces, una disminución del riesgo de amenaza sobre su Territorio, Francisco Gómez Carretero así como una mayor probabilidad de tener que actuar fuera del mismo; también en la necesidad de economizar medios y de adaptarse a la situación que planteaba la incorporación de nuevos países miembros como Polonia, Hungría y la República Checa, así como de España que, en aquellas fechas, decidió integrarse de modo pleno en la estructura militar de la misma. Esta plena integración ha supuesto para el Ejército del Aire, al igual que para el Ejército y la Armada, tener que acometer una serie de cambios para adaptarse a la nueva situación, proceso que todavía es pronto para considerar como definitivamente acabado. La adaptación ha tenido y tiene diversos aspectos: orgánico, de recursos y de procedimientos. En el aspecto orgánico, la creación del Centro Combinado de Operaciones Aéreas en Torrejón (CAOC 8) y la transferencia de autoridad de unidades aéreas a la Alianza ha supuesto un cambio importante que ha tenido consecuencias políticas y militares, como es la cesión permanente de unos efectivos (que son la espina dorsal del poder aéreo nacional) así como de determinadas responsabilidades; con la real o aparente pérdida de soberanía nacional que esto conlleva. Todavía hoy, estamos tratando de encajar esta nueva situación que afecta a nuestra propia organización de mando nacional. En lo que se refiere a recursos materiales, la convivencia de dos centros de operaciones aéreas, uno aliado y otro nacional, así como el uso común de medios aéreos, suponen un reto y un esfuerzo adicional en determinados casos. La inclusión de determinadas unidades en el plan de evaluaciones de la OTAN obligará a la adquisición de materiales de los que se carece y a la modernización de algunos de los existentes. En lo que respecta al personal, las nuevas exigencias reclaman la dedicación de un importante contingente humano para cubrir las necesidades operativas y de mando. El sistema de evaluaciones de la Alianza ha puesto de manifiesto la necesidad de completar las plantillas de las unidades operativas. También nos encontramos con la nueva necesidad de los puestos que corresponde cubrir, al Ejército del Aire, en los Estados Mayores de la Alianza e internacionales. La adecuación, por último, a los procedimientos OTAN lleva consigo un esfuerzo adicional que se traducirá en un cambio en las estructuras educativas, absorbiendo recursos materiales y personales. Todo esto supone una revolución que afecta profundamente al Ejército del Aire en todos los campos de actuación que le son propios. El cambio no es fácil, porque lo más probable es que deba hacerse, hasta donde se pueda, empleando los recursos existentes, en lugar de contar con otros adicionales. Dada la actual tendencia al crecimiento cero, habrá que ade-El Ejército del Aire en la estructura militar de la OTAN 403 cuar las estructuras para tratar de adaptarse a las nuevas exigencias, aunque es de temer que esto no sea suficiente y se necesite de una inyección adicional de recursos. La pregunta es si hay un camino alternativo y si vale la pena el sacrificio que cualquier reforma exige; la respuesta no puede ser más que una, como uno, y único, es el camino: nuestra participación plena en la Alianza es un objetivo político de primer orden y, hoy por hoy, irrenunciable. Por tanto, es mejor ponerse cuanto antes a trabajar para que esa participación sea eficaz y satisfaga por otro lado las aspiraciones y los compromisos que nuestro país tiene respecto a la Alianza, en concordancia, siempre, con los intereses nacionales. El resultado de este proceso de adaptación se ha de traducir, por otro lado, en una modernización y una racionalización eficaz de nuestro Ejército del Aire, adecuando los medios y las estructuras a las nuevas misiones. Este proceso de adaptación debe ir, naturalmente, de la mano de una revisión estratégica profunda que debe extenderse al resto de los ejércitos, puesto que ellos también se ven afectados por la nueva situación. Antes de la incorporación a la estructura militar, el EA contaba con los organismos adecuados, aunque modestos, para sus necesidades nacionales. El Mando de Combate (MACOM) era el mando operativo encargado de planear y ejecutar las operaciones aéreas en ejercicios y, llegado el caso, las reales. Para ello contaba con un Estado Mayor y con un Centro Combinado de Operaciones Aéreas (CAOC), para el planeamiento de detalle y el seguimiento de las operaciones. La doctrina OTAN y las lecciones aprendidas de los conflictos pasados (Irak y Bosnia), así como la experiencia ganada a través de nuestra participación en ejercicios OTAN, se habían incorporado en gran medida a nuestra forma de trabajar, así el uso, por ejemplo, de las ATO (Air Tasking Order) y ACÓ (Airspace Coordination Order) se venían ya utilizando en todos los ejercicios. Se hacía un uso adecuado de los factores de multiplicación de fuerza como el reabastecimiento en vuelo y los AEW (Air Early Warning), así como de la guerra electrónica. A nivel de conducción táctica se contaba con los COC (Centro de Operaciones Aéreas) de Torrejón y Gando, así como de un sistema de radares de control aéreo. Con la creación del CAOC-8, dependiente de AIRSOUTH (Mando Aéreo de la Región Sur de la OTAN) se planteó si había que mantener el propio CAOC nacional o si éste debía ser absorbido por aquél. Se decidió que era necesario mantener el nacional para separar las actividades na-Francisco Gómez Carretero 404 cionales de las de la OTAN. Sin embargo, en la práctica, esto no es tarea fácil, el motivo es que el espacio aéreo nacional es uno, como también lo son los medios de detección y control transferidos a la OTAN. El uso común de ambos puede dar lugar a conflictos de competencia, por ejemplo con el criterio utilizado para clasificar las trazas aéreas^, así como con las normas de actuación (Reglas de Enfrentamiento) que pueden ser diferentes para la OTAN y para la Autoridad Nacional, especialmente si no están al mismo nivel de alerta^. En el fondo, lo que subyace es el hecho de que pertenecer a la Estructura Militar-Defensiva de la Alianza, supone, teóricamente, el que ésta asuma, como colectiva, la responsabilidad de la defensa individual de cada uno de sus miembros, lo cual se traduce en una cesión de soberanía que cuesta comprender y asumir; postura a la que no son ajenos otros países de la Alianza que llevan muchos más años integrados plenamente en la misma. Esta delegación de responsabilidad no sólo afecta a la defensa aérea del territorio, sino también a la terrestre y naval. La doctrina de la OTAN establece cómo se articula la Estructura de Mando para las operaciones a las que se aplica el Artículo Quinto del Tratado de Washington (defensa del territorio OTAN): El comandante de la FOC (Fuerza Operativa Conjunta) es el CINCSOUTH (Comandante de la Región Sur) y sus mandos componentes subordinados son AIRSOUTH (aéreo) y NAVSOUTH (naval). El mando componente terrestre recaería, en caso de que la amenaza se materializara en la Región Sur-Oeste, en el Comandante del JSRC-SW (Mando Subregional Conjunto del SO-Retamares). Otra variante, para crisis de menor entidad, es que CINCSOUTH delegara el mando conjunto en el Comandante del JSRC-SW, apoyado por los mandos aéreos o navales citados o poniendo fuerzas de éstos bajo el mando del citado JSRC-SW. En teoría, es posible que AIRSOUTH delegue el mando táctico en el CAOC-8, cuyo comandante, así como el del JSRC-SW es español, lo cual puede dejar nuestra conciencia algo mas «tranquila», aunque esto no es seguro. Por otro lado, ante una posible reducción de CAOCs en la Región Sur, si el CAOC-8 fuera eliminado, no nos quedaría ni siquiera esa posibilidad de mantener cierto carácter «nacional» en la estructura del mando aéreo, responsable directo de la defensa y de las operaciones áreas en nuestro territorio. Como se ve, las implicaciones de carácter orgánico y doctrinal de nuestra integración son extremadamente importantes y han de exigir un notable esfuerzo intelectual de adaptación para dar respuesta a las incógnitas que se plantean. El quid de la cuestión puede residir en estudiar y analizar cómo los demás países de la Alianza aceptan esta pérdi-El Ejército del Aire en la estructura militar de la OTAN da de soberanía y cómo concilian los intereses de la Alianza con los puramente nacionales, para seguir una regla de oro: no querer ser más ni menos que otros, dar un margen de confianza a la OTAN, teniendo en cuenta las ventajas que supone el formar parte de una alianza, aún a costa de cierta pérdida de soberanía, y cuidando de mantener siempre aquellos intereses nacionales irrenunciables, que pueden verse afectados por dicha pérdida y que deben ser cuidadosamente vigilados. Hay que aclarar que, en esta materia, la misma Alianza tiene que clarificar su postura ante las situaciones de crisis. En estas circunstancias, a veces las naciones se adelantan, tomando medidas que la propia Alianza tarda en adoptar. Esto que puede ser causa de conflicto de competencias entre dos sistemas de alerta diferentes, sobre un espacio aéreo común, no deja de ser una discordancia que debe ser analizada y a la que debe ponerse remedio, pues, en caso contrario, pone en entredicho la propia validez de las estructuras de mando y el sistema de trasferencia de competencias, que la Alianza ha establecido en tiempo de paz y que debe ser coherente con los procedimientos a emplear en tiempo de crisis. La trasferencia del mando operativo de las unidades, o la asignación de las mismas a planes específicos, supone el someterse a la exigencia de disponibilidad y capacidades que la Alianza exige a las unidades que están bajo su mando. El control del estado de las unidades se efectúa por medio del programa de evaluaciones tácticas periódicas (TACEVAL). Los objetivos de estas evaluaciones son: Identificar y asesorar sobre el grado de cumplimiento de las normas OTAN de las unidades. Identificar deficiencias en recursos o capacidades. Recomendar, en su caso, las mejoras a introducir en las capacidades operativas y las desviaciones encontradas respecto a las normas OTAN. Las unidades a las que se aplica el programa son: -RF (Fuerzas de Reacción) -CAOCs y unidades subordinadas: • Escuadrones asignados a Defensa Aérea • Unidades de GBAD (Defensa Antiaérea de Bases) La evaluación se efectúa sobre las áreas operativa y logística, y el resultado puede ser desde «excelente» hasta «insatisfactorio». Respecto a la capacidad para cumplir la misión, se mide desde el grado «superior" hasta el «no operativo». La evaluación es llevada a cabo por un equipo de expertos, mediante un ejercicio en el que se juzga la capacidad de la unidad para sobrevivir y operar, la mayoría de los casos, desplegada fuera de la base de residencia habitual, sometida a ataques convencionales y, en su caso, en ambiente NBQ (Nuclear-Biológico-Químico). Lo que se juzga es su capacidad de: -Mantener el ritmo de operaciones, así como su capacidad de recuperación y de protección. -Adaptarse a los escenarios -Adaptarse a los procedimientos OTAN y nacionales -Adaptarse a situaciones de crisis, contingencia y guerra -Adaptarse a los SOPs (Procedimientos Operativos Standard) El año pasado se llevó a cabo la evaluación, a título experimental y por vez primera, de uno de nuestros escuadrones de Fuerzas Aéreas de Reacción, que irá seguida este año de la real correspondiente, estando previsto para el próximo la evaluación de algunos otros. Estas evaluaciones van a poner de manifiesto el estado de nuestras unidades en relación con las normas y capacidades que exige la Alianza. Uno de los recursos de los que el Ejército del Aire anda escaso es el que se refiere a la dotación de pilotos de las unidades, problema agudizado por la constante sangría de los mismos, que optan por pasar a la aviación civil, mejor remunerada. Este es un problema endémico que otras fiíerzas aéreas han resuelto o intentan resolver a través de diversas medidas: -Aumentando el número de plazas de ingreso en la escala de pilotos. -Estableciendo un mínimo de tiempo de permanencia en servicio obligatorio para los que reciben instrucción de pilotaje. -Incentivando la permanencia por periodos de reenganche adicionales, cumplido el tiempo de permanencia obligatorio, mediante primas de reenganche y aumento de sueldo. -El establecimiento de unidades o individuos de la Reserva o Guardia Nacional, que trabajan a tiempo parcial, especialmente en unidades de transporte, aunque también se da en unidades de caza. En general, se puede decir que la solución está en una combinación flexible e inteligente de todas las apuntadas, adaptada a las circunstancias de la oferta y la demanda, digamos que con un sentido empresarial realista. Todo un reto para cualquier administración. Sin embargo, no todos son desventajas en esta situación, pues es cierto que la «fuga» de pilotos constituye por si misma una forma de dar salida natural al excedente teórico que se produce en los empleos superiores de oficiales, cir-El Ejército del Aire en la estructura militar de la OTAN cunstancia que no se da en otros ejércitos, al menos en la magnitud con que se produce en el Ejército del Aire. No obstante, hay que decir que si bien las medidas apuntadas constituyen herramientas muy útiles para contrarrestar el efecto citado, no debe dejar de considerarse el factor moral. Una de las razones para permanecer o retrasar la incorporación a la vida civil es la satisfacción y el gusto por lo que se hace, el espíritu de cuerpo, el amor al servicio, el sentirse defensor de la Patria y de las causas justas y el saberse protegido y atendido en sus necesidades vitales (personales y familiares), derivadas de una vida dura de servicio, por sus jefes y por la sociedad. Todos estos sentimientos ayudan en gran medida a resolver el problema. Naturalmente dependen de una gran voluntad de todos porque así sea (política de personal) y del empleo de ciertos recursos extras, aunque no tantos si tenemos que recurrir exclusivamente a los ya citados de carácter puramente material. Relacionado con la dotación de pilotos está el número de horas de vuelo de entrenamiento que cada piloto debe realizar, como mínimo, para estar en el nivel adecuado. Puede que el E.A. no cuente en la actualidad, tal como está estructurado y con arreglo al número de unidades que posee, con los recursos necesarios para generar el volumen de horas de vuelo que se necesitan para alcanzar el nivel requerido. Estos recursos son los repuestos, el personal de mantenimiento y el combustible. Otro recurso crítico es el personal de apoyo a las operaciones, en las áreas de inteligencia y de preparación de misión, áreas que han sido asumidas siempre por el personal de vuelo, pero que debe separarse convenientemente, puesto que las tripulaciones deben estar empeñadas exclusivamente en el ciclo vuelo-descanso y en los tiempos de preparación y análisis antes y después de la misión. En el caso de las unidades de Reacción hay que contar con medios que puedan ser desplegables a otras bases, esto incluye material informático, mobiliario de operaciones e inteligencia, comunicaciones para enlazar las áreas de operaciones, mantenimiento, seguridad y GBAD (Defensa Antiaérea). Así como un puesto de mando móvil que, aunque austero, esté dotado de los medios necesarios para el control de las operaciones. Respecto al mantenimiento, se debe contar con el equipo auxiliar necesario para operar plenamente al ritmo de combate requerido, así como del repuesto necesario para los primeros días. Lo mismo sucede con el armamento y el combustible, en su caso, que puede exigir la necesidad de contar con contenedores de goma circunstanciales. Atención especial se tendrá que dar a la capacidad de operar en amenaza de ambiente NBQ (Nuclear, Biológico, Química). En otro campo, se verá sometido a evaluación el CAOC-8, en el que la nación anfitriona, en este caso España, está absolutamente empeñada. Igualmente sucederá con las unidades subordinadas del Sistema de Alerta y Control. Está claro que el proceso de evaluaciones ha de ser una herramienta magnífica para poner de manifiesto nuestras deficiencias y así acometer un proceso de mejoramiento de nuestras unidades para adecuarlas a los requisitos de la OTAN. Naturalmente, esto va a suponer el adoptar medidas, algunas de las cuales estarán al alcance del Ejército del Aire; otras, en cambio, dependerán de la aportación de recursos adicionales. Otro elemento de impacto, ocasionado por nuestra integración plena en la nueva estructura de la Alianza, es el elevado número de personal que ha habido que incorporar a las estructuras de mando: CAOCs, Mandos Específicos como AIRSOUTH, Mandos Conjuntos como SAPHE, SA-CLANT, AFSOUTH y el JSRC-SW de Madrid. En total supone una aportación de 74 nuevos oficiales, en su mayoría postgraduados con el curso de Estado Mayor. Este número equivale prácticamente a tres promociones enteras, descontadas las bajas que históricamente, por diversos causas, se vienen produciendo en cada promoción. De momento ha habido que recurrir al personal existente en la actualidad, muy mermado en número por las razones antes apuntadas, lo cual ha supuesto el dejar en cuadro la propia estructura de mando del E.A, afectando, también, a nuestra obligada aportación de personal al resto del Ministerio de Defensa. Es evidente que para compensar esta nueva exigencia de personal habrá que aumentar el número de integrantes de las promociones futuras, amén de los ahorros que se puedan conseguir a través de una reestructuración o reducción adecuada. Si importante es el impacto que la nueva situación tiene sobre los actuales recursos disponibles, no lo es menos el que tiene sobre la forma de trabajar del personal y del propio E.A., como institución. Los nuevos parámetros a los que tienen que acomodarse las unidades van a suponer un nuevo enfoque en las formas de entrenamiento de las mismas, que habrá de orientarse plenamente a las nuevas necesidades operativas. Algunos criterios que se daban por buenos tendrán que ser revisados y otros adaptados a las nuevas circunstancias. Hasta que ocurrieron los recientes ataques terroristas contra el corazón político, militar y económico de los EE.UU., se consideraba como El Ejército del Aire en la estructura militar de la OTAN muy poco probable el que, en un futuro próximo, la Alianza se viera amenazada en su propio territorio. Por ello, se enfatizaba la necesidad de mejorar la capacidad de despliegue y respuesta de la Fuerzas Armadas por cuanto los posibles escenarios se iban a dar fuera, cerca o lejos, del territorio nacional de los países miembros. Todavía, es presumible que esto pueda suceder, incluso para ejercer una defensa a distancia contra la amenaza terrorista, por lo que continua vigente la cultura expedicionaria, en la que algunos países de la Alianza disfriitan de una mayor experiencia. La aviación de transporte militar es uno de los componentes mas importantes para poder desplegar la fuerza y es evidente que Europa, en concreto, está haciendo un gran esfuerzo para no depender tanto de los EE.UU. en este terreno. No obstante, no es sólo la capacidad de transporte lo que cuenta. Las propias unidades de combate necesitan una notable transformación en sus estructuras de personal y material para hacerlas expedicionarias, así como de cambio de mentalidad que se basa en la elaboración de nuevos procedimientos y el entrenamiento conveniente para familiarizarse con este nuevo entorno. Es evidente que el despliegue de nuestras unidades en el Teatro de Operaciones de los Balcanes constituyó un avance y una forma de aprender los nuevos modos, sobre todo cuando se efectuó el despliegue inicial. También la participación en los ejercicios tipo RED-FLAG^ han aportado magnificas enseñanzas al respecto. Respecto al personal que está integrado en los Estados Mayores de la OTAN, el encuentro con unas formas distintas de trabajar, con procedimientos diferentes a los se estaba acostumbrado en nuestras Fuerzas Armadas, ha supuesto un choque tremendo, que en muchos aspectos se ha traducido en un gran esfuerzo para el mismo. Si a ello se añade la dificultad de tener que trabajar en una lengua (inglesa) que no es la materna, puede imaginarse lo que ha supuesto para la primera tanda de personal que se han incorporado a los Estados Mayores de la Alianza. La colección de reglamentos y normas que rigen el funcionamiento de los Estados Mayores de la OTAN es numerosa y no era desconocida para el E.A, pero una cosa es saber que está ahí y otra es trabajar con ella. La burocracia OTAN no es ni más ni menos complicada que la de nuestras Fuerzas Armadas, simplemente es distinta. La descripción que a continuación se hace de esa burocracia OTAN está basada en la experiencia propia que se ha obtenido en el Estado Mayor de AFSOUTH, pero es extensible, por similar, a cualquier otro E.M específico, incluido el aéreo. Es distinto por ejemplo el proceso de la decisión. Nuestro sistema es más jerárquico, si una Sección del E.M de un órgano subordinado elabo-Francisco Gómez Carretero 410 ra un informe, éste, antes de ser remitido a un organismo superior, debe pasar por toda la cadena de mando para su aprobación. Por lo general, la Sección elabora su informe de modo independiente, a lo sumo en consulta con otros organismos de su mismo nivel o sobre la base de otros informes inferiores. En la OTAN es normal que el oficial que hace el informe se cartee por correo electrónico con su homólogo del organismo superior, para contrastar sus opiniones sobre el asunto. En general se puede decir que se coordina mucho al nivel de «staff», gracias al uso extensivo del correo electrónico. Esto, en principio, es muy útil por cuanto agiliza el proceso de la decisión, como se ha comprobado recientemente en la distintas operaciones OTAN, que la situación crítica de Macedonia ha obligado a poner en marcha, como la Operación Harvest y la Amber Fox. El planeamiento en los cuatro niveles. Político (Consejo Aliado), Estratégico (SHAPE), Operacional (AFSOUTH) y Táctico (Task Force Harvest y Amber Fox), se ha efectuado de modo paralelo y simultáneo, de modo que cuando se ha tomado la decisión al más alto nivel, prácticamente los planes de operaciones en los restantes niveles estaban ya concluidos. Lo que por un sistema piramidal, de abajo arriba y viceversa, hubiera costado semanas, pudo hacerse en días. Sin embargo, este sistema no está exento de riesgos: si la cadena de mando (sistema piramidal) no está perfectamente informada del trabajo que se realiza en la periferia (sistema matricial o lateral), existe el peligro de incurrir en una cierta forma de indisciplina administrativa que causa no pocos problemas, dando lugar a una promiscuidad indeseable en la que la cadena de mando puede verse, en cierto modo, marginada del proceso. No obstante, en los asuntos relevantes, la decisión final de aprobación se lleva a cabo por el procedimiento ordinario en el que el trabajo pasa en papel escrito (paquete), acompañado de toda la información necesaria, de la División de Estado Mayor a la oficina del DOS (Director del Staff), que actúa como una especie de Secretaria de Estado Mayor, y que lo hace pasar por todo el Grupo de Mando, de abajo arriba (Segundo Jefe del Estado Mayor, Jefe del Estado Mayor, Segundo Comandante y Comandante). Al final, el documento, una vez aprobado y firmado por el Comandante, es anticipado al destinatario por correo electrónico, aunque también se remite por correo ordinario. Una de las virtudes de este correo electrónico es que permite la utilización del mismo hasta el nivel de Secreto por lo que se puede emplear con la mayoría de la documentación que se maneja. Las directrices de trabajo que se dan al Estado Mayor se proporcionan mediante la «Tasker» (Tarea), emitida por el Comandante o por cual-El Ejército del Aire en la estructura militar de la OTAN quiera de los componentes del Grupo de Mando, siempre a través del DOS, que se encarga de canalizar la tarea a las Divisiones o a los Comandantes Subordinados, siendo el responsable de fijar y controlar los tiempos de ejecución de las misma. Las tareas se encargan a una División o a varias, asignándose a una concreta como responsable de efectuar la coordinación, que se realiza mediante consultas, reuniones o establecimiento de grupos de trabajo. Un organismo importante en un Estado Mayor OTAN es el JOC (Joint Operation Center), éste suele depender de la División de Operaciones y es el encargado de seguir los acontecimientos operativos y tener informado de los mismos al Grupo de Mando. Actúa en coordinación con las Divisiones y está enlazado con los respectivos JOCs del Mando Superior y de los Mandos Subordinados. En caso de operaciones reales como las de los Balcanes, los JOCs están activados las 24 horas del día. El proceso de información cruzada se lleva cabo mediante informes periódicos y comunicaciones puntuales. Otro aspecto a destacar es el uso extensivo del trabajo en equipo, mediante la celebración de reuniones periódicas u ocasionales. Así el Grupo de Mando se reúne todos los días a primeras horas de la mañana, para recibir el informe del Director del JOC y del Jefe de la División de Operaciones sobre la situación en el Teatro. Después se tratan los asuntos del Cuartel General y de la Región. El Jefe del Estado Mayor suele tener una reunión con los Jefes de División, al menos una vez por semana. Asimismo, semanalmente, se tiene una reunión con los Mandos Subordinados para tratar de la situación en los Balcanes y otra, también, en la que se tratan los asuntos de tipo general. En ocasiones, se hace uso de la video-conferencia para relacionarse con aquellos mandos que no están asentados en la proximidad del C.G. Además existen reuniones de más alto nivel que se celebran, varias veces al año, como: -RCC (Conferencia Regional de Comandantes) -AFNORTH-AJFSOUTH (conferencia entre los dos comandantes y sus E.Ms) -SOUTHERN VISION (CINCSOUTH con todos los Mandos Subordinados de la Región Sur) -COS-CONFERENCE (lo mismo que la anterior pero a nivel de COS -Jefes de E.M). Aparte de estas conferencias es normal que las Divisiones celebren otras, a su nivel, con los homólogos de los Mandos Subordinados. Esto sin contar con un sinfín de reuniones que son convocadas por SHAPE, en dis- Francisco Gómez Carretero tintas áreas y que en su mayoría están instituidas como convocatorias periódicas. Notable es el grado de perfeccionamiento del proceso de planeamiento de carácter operativo. Los pasos y el tipo de documentos a utilizar para la confección de directivas y ordenes de operaciones, están muy definidos y constituye en sí mismo un método excelente de estructurar de un modo eficaz el proceso de la decisión, desde el nivel estratégico al táctico, pasando por el operacional. Sorprende el grado de ayuda que tiene el Comandante en todas las tareas del desempeño del mando. No hay asunto que no esté perfectamente documentado. Así, los paquetes mencionados anteriormente van precedidos de un «Point Paper» que resume el contenido de los mismos y en el que firman, con su aprobación o no, las Divisiones que han participado o han sido consultadas sobre el asunto. Al trabajo se acompaña toda clase de documentos de referencia. En la carátula de la carpeta suelen firmar todos los componentes del Grupo de Mando, con sus observaciones, sobre la misma carátula o en informe separado que se incluye a la carpeta. En otro orden de cosas, sabido es el amplio programa de ejercicios, de todo tipo, que la Alianza realiza periódicamente. Estos pueden ser de Puesto de Mando (CPX) o con participación de fuerzas reales (LIVEX), similares a los que se realizan en el ámbito nacional. Sin embargo, hay un tipo de ejercicios que es peculiar, no tan común, que es el de preparación de Cuarteles Generales que han de hacerse cargo de una misión concreta, este es el caso de los últimos Cuarteles Generales de KFOR en Kosovo, que se relevan cada seis meses y que han pasado por lo que podríamos llamar la «Universidad de los Balcanes», aquí en AFSOUTH. Estas actividades, que se consideran más como una forma de instrucción que como un ejercicio, abarcan desde conferencias por expertos, hasta simulaciones en las que se trata de presentar casos parecidos a los que el futuro Cuartel General se va enfrentar en la vida real: se crean situaciones ficticias de crisis a las que hay que hacer frente, reuniéndose el Cuartel General en gabinete de crisis con la participación de todos los jefes de área que sean necesarios. Dado el carácter complejo de las misiones que desempeñan cualquiera de los dos Cuarteles Generales (SFOR y KFOR) que la OTAN tiene en los Balcanes y sus posibles variables, que van de lo estratégico a lo táctico, pasando por lo político, humanitario, orden público, publicitario, etc., son múltiples los escenarios ficticios los que pueden componer la escenificación. En definitiva, se trata de un entorno nuevo con el que se ha encontrado el primer grupo de personal que ha accedido a la estructura de estos El Ejército del Aire en la estructura militar de la OTAN Cuarteles Generales. Es evidente que, éste y aquél otro que le está sustituyendo, ha tenido la inmensa fortuna de ampliar sus conocimientos profesionales en una organización militar que goza de una solera y un rigor dignos de tenerse en cuenta. Si el impacto para ese personal ha sido significativo, igualmente lo va ser para el Ejército del Aire su vuelta de aquellos destinos. La experiencia que arrastra va a influir en los modos y comportamientos internos, por cuanto es inevitable el efectuar comparaciones y el espíritu crítico, siempre saludable, va a desembocar en propuestas y modificaciones para acercar nuestra forma de actuar a la de la Alianza. Aunque no todo sea imitable, porque no lo es, es evidente que se encontrarán campos en los que la innovación será beneficiosa. En cualquier caso, será ventajoso el que nuestros procedimientos se asemejen lo más posible a los de la Alianza, ello facilitará la coordinación entre el Ejército del Aire y aquélla. Por otro lado, facilitará tremendamente la incorporación de nuestro personal a puestos de la OTAN y viceversa. No será, por otro lado, tarea fácil. Las estructuras son resistentes al cambio por naturaleza y las nuevas ideas, que ese personal recién incorporado a su destino ha de aportar, puede, en un principio, que no sean aceptadas o valoradas en su medida. Sin embargo, en un futuro muy próximo, no habrá diferencias de criterio ni suspicacias porque todo el personal de Estado Mayor, tarde o temprano, habrá tenido la oportunidad de pasar por la OTAN; experiencia que se considerará como imprescindible para la formación de cualquier oficial de estado mayor. Debería pensarse la forma de evitar el choque que ha supuesto, para la primera remesa de personal incorporado a puestos de la OTAN, el encontrarse con una situación nueva y para la que no ha existido una preparación específica. Se debería aprovechar la experiencia que ya se posee, para entrenar a los que fueran a incorporarse a los citados puestos. El sistema educativo debiera adaptarse a esta nueva exigencia. La formación debe ir dirigida a dos grupos de personal diferentes: -El que se incorpora a unidades y Cuarteles Generales de los Balcanes y otros organismos o unidades empeñados en misiones de paz. La preparación previa a la incorporación es aquí muy importante, piénsese que normalmente a estos destinos se va por un tiempo limitado de, normalmente, seis meses. Al individuo se le necesita rindiendo en su trabajo desde el primer día, por lo que debe conocer perfectamente la naturaleza de su trabajo y además el entorno en que va a desempeñarlo. No hay tiempo para un entrenamiento «in situ», se pide que empiece a rendir desde el primer día. El conocimiento de una lengua extranjera, si se exige, debe ser el adecuado para poder desempeñar su cometido. -El que va a ocupar puestos en Cuarteles Generales o unidades multinacionales por un periodo largo de tiempo. La preparación previa no es tan crítica, pero es más que deseable. El idioma tiene asimismo gran importancia. Es notable el grado de especialización y competencia que se observa en otros ejércitos que pertenecen a la Alianza. En general, se puede decir que es difícil ver al oficial que sirve para todo y la tendencia es que, dentro del Ejército, Arma o Especialidad Fundamental, el profesional desarrolla sus cometidos a través de toda su vida militar en una especialidad concreta. La especialización llega hasta niveles muy particulares, algunos poco conocidos para nosotros, como especialistas en planeamiento, guerra psicológica y prensa, por poner algunos ejemplos. Después de la integración de España en la estructura militar de la OTAN, se puede decir que las Fuerzas Armadas han experimentado y están experimentando un cambio importante. Un acontecimiento que delimita un antes y un después. Esto afecta igualmente al Ejército del Aire, como parte de esas Fuerzas Armadas. Los cambios abarcan aspectos relacionados con la organización, el material, el personal y los procedimientos. Algunos de éstos obligan a un cambio de mentalidad que debe formalizarse a través de la enseñanza y el entrenamiento, para adaptarse a los nuevos modos de actuación que exige la pertenencia a una organización tan rodada como la Alianza. En la medida en que nuestra forma de actuar y el entrenamiento se adapte a los estándares OTAN, más fácil será, para nuestro personal, el pasar de un destino nacional a otro OTAN y viceversa. Es deseable, desde todos los puntos de vista, que nuestros procedimientos sean los más parecidos a los de la OTAN. Este es un esfuerzo que requiere de un sistema educativo que se adapte a las nuevas exigencias y debe extenderse a las escuelas específicas del Ejército del Aire y a la Escuela Superior de las Fuerzas Armadas. Por otro lado, la exigencia de calidad y especialización supone que se dediquen recursos a esa enseñanza. Los recursos no son tanto cuantitativos como de orientación. Hay áreas en que necesitamos una mayor profundidad en las materias y en la extensión de los conocimientos. Un campo, en el que la misma OTAN es deficitaria porque no le llegan los recursos humanos pedidos, es el de las tecnologías de la información. El E.A, que abandonó el impartir cursos DIN (Diplomado en Informática) confiando en que la Escala Media proporcionaría los recursos necesarios, debe estudiar el modo de paliar la actual carencia de personal en una área que es vital para el desarrollo tecnológico. Para satisfacer las necesidades educativas en determinadas áreas, que son comunes a las de los otros Ejércitos, sería deseable el hacer un esfuerzo conjunto para la creación de los centros de enseñanza o la programación de los cursos adecuados, incluso recurriendo a los centros educativos civiles, por cuanto a la larga, si satisfacen los requisitos, han de resultar más económicos. Para un ejército pequeño, como el nuestro, el dedicar recursos humanos a la enseñanza supone un coste muy elevado que va en detrimento de la tarea fundamental operativa. Una revisión valiente de nuestras estructuras educativas llevaría a la conclusión de que muchas de las actividades docentes que ahora son desempeñadas por nuestro personal podrían serlo por entidades externas al E.A. Obsérvese, por ejemplo, como Alemania forma a sus pilotos enteramente fuera del país: desde la enseñanza de pilotaje elemental, a cargo de Lufthansa, hasta la básica y avanzada, en EE.UU, a través de un programa conjunto en el que intervienen varias naciones, con lo cual, además, después de casi dos años en EE.UU, se asegura para los alumnos un buen conocimiento del idioma inglés, tan necesario en aviación como en la OTAN. En el área de recursos tanto humanos como materiales, la exigencia de autenticidad que la OTAN impone y controla por medio de su programa de evaluaciones periódicas, así como la especialización y competencia que son necesarias, para que nuestras FF.AAs puedan actuar junto a otras fuerzas de la Alianza, requiere de un planteamiento de revisión con profundidad. Es necesario dotar a nuestras unidades aéreas del personal en número y calidad suficiente, por lo que habrá que pensar en suprimir aquello que no contribuya de un modo sustancial a la misión. Dado que el techo de personal es difícil que se eleve, para aumentar la plantilla operativa habrá que reducir el número de personal que se dedica a otras tareas. Esto supone ajustar el número de Estados Mayores y organismos al mínimo imprescindible, evitando redundancias y orientándolos a la ejecución o apoyo a las tareas operativas. Los Estados Mayores que queden deberán asumir y reunir en sí mismos un mayor número de funciones y tareas. Mención especial, no obstante, se debe hacer de la sustanciosa demanda que la OTAN hace de nuestros oficiales de E.M., necesidad adicional, de estos últimos tiempos, que camina en dirección contraria a esa corriente de ahorro mencionada y que exige de un aporte de recursos extraordinarios. Respecto a los recursos materiales, esa misma exigencia parece aconsejar una adaptación del objetivo de fuerza a los recursos económicos disponibles para un sostenimiento adecuado de las unidades. De nada vale el mantener unidades que no se pueden sostener adecuadamente y que por tanto no van a pasar la homologación. Habrá que pensar, probablemente, en la reducción de unidades, al número adecuado que permita un sostenimiento integral de las mismas. Por otro lado, el coste de inversión de capital asociado a unidades que no se emplean a pleno rendimiento supone un lastre demasiado pesado y que incide sobre la disponibilidad de recursos que deben emplearse en nuevas inversiones, ya sea por la necesidad de sustituir el material obsoleto o por la de mejorar el existente que, dado el constante avance tecnológico, debe ser mantenido en un estado de eficiencia razonable. Esta política de reducción, de tener menos pero mejor, ha de tener impacto sobre las bases desde la que operan las unidades, A menos unidades, menos bases y mejor aprovechadas. Es claro que una concentración de unidades por tipo de material ha de redundar en ahorro de determinados elementos, como talleres de mantenimiento, bancos de prueba y recursos humanos asociados al sostenimiento de la ñierza. No obstante, hay un factor táctico que siempre debe tenerse en cuenta y es que una excesiva concentración de medios redunda en una mayor vulnerabilidad. También pueden existir condicionantes tácticos que obliguen el mantener un despliegue que, aunque no sea rentable económicamente, ofrezca, sin embargo, ventajas tácticas apreciables. Sin mencionar algunos aspectos político-estratégicos que pueden aconsejar a mantener ese despliegue determinado; no debe olvidarse el factor disuasorio que la sola presencia de unidades militares representa y que no puede ser cuantificado económicamente Es claro que una evaluación de las amenazas debe estar siempre presente a la hora de efectuar una reestructuración dictada por factores económicos. En el caso de un país cuya estrategia estuviera basada en su capacidad de proyección, los factores económicos privarían por encima de cualquier consideración a la hora de diseñar un despliegue estático, pero este caso es mas bien raro por cuanto, en mayor o menor medida, todas las naciones pueden verse amenazadas en su territorio, hasta las que se consideraban absolutamente invulnerables, y tenemos un ejemplo trágico pero bien significativo, en los recientes ataques terroristas al corazón del poder político, económico y militar de los EE.UU de América. Nuestra geografía peninsular, insular y marítima exige que esos factores sean tenidos en cuenta, aunque sólo sea para mantener una pre-sencia en un área de indudable valor estratégico, para nosotros, para Europa y para la Alianza Atlántica. ¿Cambio, reforma?: está claro que los tiempos y los recursos disponibles así lo exigen, pero estos cambios no pueden realizarse de modo aislado. Aunque quisiera, el E.A no puede acometer una reforma en profundidad de sus estructuras y de sus medios de actuación, si no es en el marco de una estrategia conjunta, que debe definir con precisión cual es el objetivo de fuerza conjunto, posible y necesario, para hacer frente a las amenazas y a los compromisos nacionales y colectivos, en el marco de una política de defensa bien articulada. La entrada de España en la Estructura Militar de la Alianza, así como los últimos acontecimientos, el ataque terrorista a EE.UU, que involucran a la OTAN en un conflicto sin precedentes, hasta el punto de verse obligada a aplicar el Artículo Quinto del Tratado de Washington, imponen un nuevo reto a nuestras Fuerzas Armadas. Estas tendrán que reestructurarse para hacerse más eficaces y más preparadas para las nuevas contingencias a las que hacer frente. Si embargo, no todo puede hacerse a través del ahorro y la reducción, también esto tiene un límite por debajo del cual no se puede llegar sin pérdida sustancial de las capacidades que se nos exigen. Como dice el Secretario General de la OTAN «el esfuerzo extra para combatir el terrorismo requiere de más dinero...Para la OTAN, el síndrome «crecimiento cero», que muchos aplican a la seguridad y defensa es una respuesta insuficiente, y quizás irresponsable, a las nuevas necesidades de seguridad del siglo XXI»^. Tener unas metas claras no es tarea fácil para ninguna sociedad humana, encontrar el modo de como conseguirlas es aún más difícil; disponer de los recursos adecuados para llevar a cabo el proyecto, casi imposible; pero si hay voluntad y se está convencido de lo que se persigue, hay posibilidad de éxito; es cuestión de ponerse a ello. Contacto radar de un vehículo aéreo detectado por el Sistema de Control Aéreo. Existen diversos niveles de alerta, según el grado de la amenaza, que se traducen en distintos niveles de disponibilidad de las fuerzas aéreas de respuesta inmediata, así como en diferentes reglas de enfrentamiento. g j^gQ FLAG es un tipo de ejercicio que se realiza en los EE.UU y en el que vienen participando regularmente las unidades del Ejército del Aire. El Ejército del Aire en la estructura militar de la OTAN
La industria aeroespacial: un modelo.. 439 layar un posible papel estratégico del director español, entre alemanes y franceses, han quedado establecidas unas reglas de votación, según las cuales, se debe obtener siempre una mayoría cualificada de por lo menos siete votos favorables, de un total de once. En este artículo se explican las causas que han propiciado la integración de las industrias aeronáuticas: • En Estados Unidos para posicionarse en el mundo como líder indiscutible y consolidar su mercado dentro y fuera de sus fronteras. • En Europa, y como consecuencia de lo anterior, para sobrevivir al gigante norteamericano e intentar no verse reducida a un papel secundario. En el artículo se hace una clara exposición de cómo se ha realizado el citado proceso de integración en Estados Unidos y en Europa, donde el proceso ha sido lógicamente más difícil, pues ha tenido que vencer grandes reticencias soberanistas, legales y administrativas. La parte más detallada corresponde al EADS (Sociedad Europea Aeronáutica Espacial y de Defensa), pues es donde está integrada CASA (Construcciones Aeronáuticas), la empresa española más importantes en el sector aeroespacial. Durante la Segunda Guerra Mundial, y especialmente a partir de la misma, empezó a tomar una importancia cada vez mas acusada y con un ingrediente de aceleración, el concepto del poder aéreo. cas peculiares le constituían en una fuerza intrínsecamente estratégica y en un arma fundamentalmente ofensiva, con la importancia que supone su dominio de la cuarta dimensión: el tiempo. En la década de los 40 del siglo pasado está el embrión del programa espacial norteamericano (con Wernher von Braun y su grupo de científicos) con el tremendo desarrollo a que ha dado lugar la inauguración de la era nuclear (Los Alamos, Robert Openheimer) y el dominio de la barrera del sonido. La supremacía del poder aéreo en la concepción global estratégica fue poco a poco ganando partidas con hombres como Douhet y Seversky, imponiéndose firmemente una doctrina aeroespacial hasta entonces denostada. Con esta semilla se ha producido un proceso de aceleración en el ámbito aerospacial con necesidades cada vez más exigentes, tanto desde el punto de vista militar como civil y que ha dado lugar a una gigantesca infraestructura del transporte aéreo convencional y a una reafirmación del poder aeroespacial como elemento absolutamente imprescindible y decisorio en cualquier contienda. Estas necesidades crecientes han propiciado un crecimiento y un avance tecnológico de la industria aeroespacial -en los ámbitos civil y de la defensa-que la han constituido en pionera y avanzada del resto de las industrias de defensa. Es por todo ello que, a partir del fin del bipolarismo a raíz de la caída del muro de Berlín y el profundo cambio en el concepto global estratégico de los años posteriores, la industria de defensa se viera directamente afectada y, en especial, la aeroespacial que, por ser la más sensible y ver amenazada su situación de preeminencia y su crecimiento futuro, fue la primera en reaccionar, dando lugar a los rápidos cambios de los que aún estamos siendo testigos.!• Antecedentes Los antecedentes de este proceso comienzan a manifestarse a partir de la década de los 80, en la carrera por el dominio del espacio exterior entre las dos superpotencias, que dio lugar en los Estados Unidos al programa denominado «Iniciativa de Defensa Estratégica» (SDI), con el objeto de controlar desde el espacio la utilización del armamento de destrucción masiva -especialmente el nuclear-y de establecer también, desde el espacio, una defensa muy temprana y eficaz. Ello condujo a una carrera tecnológica que, por parte de la Unión So-La industria aeroespacial: un modelo. 421 viética, se convirtió en desesperada, forzando al límite sus recursos económicos, utilizados masivamente para mantener esa competición y empobreciendo enormemente su economía en áreas vitales, hasta el punto de hacer imposible la continuidad de un ritmo ya muy desfasado y sin posibilidades de éxito. Este hecho, unido sin duda a otras consideraciones de carácter doctrinal e ideológico, pero que puso de manifiesto su debilidad y error conceptual, contribuyó en gran medida a la quiebra de las estructuras política, social y económica de este país y a la profunda transformación de alcance mundial que, todavía, no se ha sedimentado. Paradójicamente, aquí se produjo la falla, el acelerado avance tecnológico de la industria aeroespacial que precipitó -casi por colapso-el desmoronamiento de la Unión Soviética, hizo desaparecer el bipolarismo de la guerra fría entre las dos superpotencias y, con ello, la desaparición de la amenaza nuclear como principal elemento de confrontación y disuasión. La consecuencia directa e inmediata fue un cambio de orientación en el concepto estratégico global y, en especial, en el seno de la Alianza Atlántica, hacia otro tipo de amenazas potenciales, de carácter multidireccional y regional que demandaban, para hacerlas frente, medios más convencionales. Paralelamente, y como consecuencia de ese acelerado avance tecnológico, se ha producido una verdadera explosión en el mundo de la electrónica, de las comunicaciones y de la información, con la peculiaridad de que su desarrollo e impulso ha tenido lugar en el mundo comercial sobrepasando por primera vez, en tecnología, la industria civil a la industria de defensa. El aprovechamiento militar de dichas tecnologías ha sido prácticamente inmediato y en progresión creciente por tres razones: imposibilidad de su desarrollo con la velocidad de la industria civil, su cada vez mayor perfección y fiabilidad y, muy en especial, su inmediata disponibilidad y mucho menor coste; la consecuencia inmediata de la utilización de componentes comerciales (COTS), es una disminución en el tiempo de obtención de los sistemas y una reducción de costes. Por otra parte, la revisión del concepto global estratégico y el análisis de las nuevas amenazas ha dado lugar en los Estados Unidos a la llamada «Revolution in Military Affairs» (RMA) -en su denominación originalbasada en la capacidad de procesar y controlar la enorme cantidad de información (datos) proporcionada por los modernos sistemas y de distribuirla a través de comunicaciones seguras rápidas y fiables; este concepto -RMA-supone la integración de los Sistemas de Mando, Control, Comunicaciones, Ordenadores, Inteligencia, Vigilancia y Reconocimiento (Command, Control, Communications, Computers, Intelligence, Survei- Uance and Reconnaisance-C4ISR) con las armas de precisión de largo alcance en un único Sistema de Sistemas para el total dominio del Teatro de Operaciones y el desarrollo de la batalla; el conocimiento y el control de la información se ha hecho indispensable para todo tipo de misiones ya sean en paz o en guerra, logísticas o de combate. Todo esto lleva implícito como componente necesario, un sistema preciso, seguro, de posicionamiento en tiempo real, con lo cual el espacio y el ciberespacio -y su control-se convierten en las dos nuevas dimensiones, junto con tierra, mar y aire para el desarrollo de las operaciones. La aproximación a la industria civil y su interacción con la misma, con la utilización creciente de elementos comerciales, ha hecho, por tanto, surgir la necesidad de ir abandonando el rígido cumplimiento de las especificaciones militares y de comenzar a utilizar, cada vez en mayor medida, criterios industriales lo que, a su vez, ha dado lugar a la necesidad de flexibilizar los criterios de adquisición de los sistemas de armas y los métodos de gestión. En este mismo período de tiempo y como consecuencia directa de la drástica disminución de la amenaza y el cambio del concepto global estratégico, los presupuestos de defensa experimentaron una vertiginosa caída, especialmente a partir de los años 1988/89 y prácticamente hasta el año 2000. En ese período de tiempo y tomando de referencia el año 1998, en Estados Unidos la reducción llegó al 30% y la media de los países europeos hasta el 20%. La tasa de decrecimiento, no obstante haber frenado apreciablemente en los últimos años, no ha invertido aún su tendencia. Paradójicamente, el recorte de los presupuestos de defensa ha coincidido con los mayores avances tecnológicos que ha dado lugar, a su vez, a un incremento cada vez mayor en los costes de desarrollo de los nuevos sistemas de armas, cada vez con mayores capacidades y de una gran complejidad. Es decir, nos encontramos ante la coyuntura de una sostenida reducción en los presupuestos para la adquisición de nuevos sistemas de armas y equipos, con un incremento sostenido de los costes de desarrollo; ello nos lleva a una reducción del número de programas y del tamaño de los mismos, que se evidencia en especial en la industria aeroespacial de defensa en el número y entidad de programas de aviones de combate. Todos estos factores han propiciado dos reacciones necesarias e inevitables en la industria de defensa, para su propia supervivencia y para poder hacer frente a la nueva y cambiante situación: reducción de costes y reestructuración. La reducción de costes ha sido la respuesta consecuente de la industria -a la reducción de los gastos de defensa pero el recorte y el ajuste en La industria aeroespacial: un modelo. los costes de operación (overheads), necesita ir de la mano de una reestructuración racional para conseguir la dimensión adecuada, encaminada en última instancia a reducir los costes fijos asociados a un exceso de capacidad. Este proceso de reestructuración ha tenido lugar de forma muy peculiar y muy rápidamente en Estados Unidos, reaccionando ante una menor y diferente demanda nacional, consolidando su proceso antes que Europa y saliendo de forma agresiva al mercado internacional, dada la enorme importancia de las exportaciones para la industria americana. El intento de incrementar su penetración y presencia en los mercados europeos se vio, no obstante, frenado considerablemente por la conciencia de la clara amenaza que representaba y la reacción casi precipitada de la propia industria. La reestructuración de la industria de defensa europea ha sido más larga y complicada por la evidente compartimentación y fragmentación de los diversos mercados nacionales y las implicaciones políticas, económicas e industriales y legales asociadas. Ha tenido lugar en dos fases en cierto modo diferenciadas: en una primera fase ha tenido lugar un proceso interno nacional de consolidación de la industria de defensa, en especial en los principales países suministradores de armamento y, en una segunda fase, realmente acelerada, un proceso de reestructuración transnacional con unos primeros pasos muy importantes, pero aún en evolución y con los problemas asociados a la consecución de un espacio común europeo. En ambos continentes la industria aeroespacial y de electrónica de defensa han sido las pioneras y el modelo en el proceso de integración y reestructuración. Como se ha analizado anteriormente, su papel dominante viene dado por su gran contenido tecnológico, siempre de vanguardia y por desarrollar los sistemas clave y de mayor eficacia, para la ejecución de las operaciones militares en la guerra moderna y para subvenir a las necesidades crecientes en el ámbito civil aeroespacial. Este es el motivo por el que, el análisis de los procesos americano y europeo, se centrará en este tipo de industrias. El proceso de reestructuración del sector aeroespacial en los Estados Unidos El proceso de reestructuración de la industria americana tuvo lugar muy rápidamente una vez detectada la necesidad a la luz de las circunstancias anteriormente consideradas. La velocidad de los ajustes y su ra-424 Santiago San Antonio Copero cionalidad se vieron ambas favorecidas por los siguientes factores: -Estados Unidos es un solo país sin problemas de soberanía en relación con otros países involucrados en este proceso como ocurre en Europa. -Dispone de una estructura legal única y común en todo su ámbito; Normas industriales y comerciales, procedimientos administrativos, etc., son por lo tanto comunes. -Es la primera potencia mundial desde el punto de vista industrial y de la defensa, con voluntad firme y decidida de mantener esa situación de preeminencia. ~ La reestructuración se reducía a una sola fase de consolidación de la propia industria nacional. Independientemente de que, dados estos factores, este proceso estuviese fundamentado en la necesidad de adaptación a la coyuntura económica, se vio además favorecido e impulsado por el propio gobierno que dirigió y facilitó el camino para ello. En la ya famosa «Ultima Cena» que tuvo lugar en 1993, el Secretario de Defensa William Perry dijo claramente a los Presidentes de los grupos industriales más importantes, que el número de compañías del sector de defensa tendría que reducirse considerablemente y con gran rapidez, para poder hacer frente a la cambiante situación y para adaptarse a unos presupuestos de defensa decrecientes y considerablemente reducidos en el futuro. Para hacer efectivas estas directrices, el gobierno decidió no aplicar la ley «anti-trust» y apoyó la consolidación de los acuerdos con una financiación cercana a un billón y medio de dólares; esta cifra representó, aproximadamente, la mitad de los costes incurridos por las empresas en el proceso, que finalizó en su totalidad a finales de 1997 consolidando, básicamente cuatro grandes empresas, Boeing, Lockheed Martin, Raytheon y Northrop Grumman de las cuales, las dos primeras eran verdaderas gigantes (ver Anexo n° 1). Finalizada la consolidación para hacer frente a las necesidades de su enorme mercado interior de defensa, en el paso siguiente se produjo una reorientación para afirmarse y adaptarse a los mercados internacionales con el decidido y positivo apoyo de su propia Administración -La Administración Clinton-, con el propósito de mantener y a ser posible aumentar su hegemonía con el mayor grado de monopolio en los sectores vitales de la industria de defensa de más alta tecnología. Este segundo paso llegó quizá un poco tarde; en 1998 ya en Europa se había percibido claramente la amenaza del gigante americano y a partir, principalmente, de 1997 comenzó el proceso acelerado de la reestructuración europeo. La industria aeroespacial: un modelo. El proceso de reestructuración en el sector aeroespacial en Europa Ciertamente, el grado de complicación y dificultad para la reestructuración de la industria europea de defensa, es muy superior al de Estados Unidos. No existe, para empezar, un espacio común europeo; la diversidad de legislaciones, procedimientos administrativos, estructura social, diversidad de objetivos políticos y económicos, unido todo a un acendrado sentido del principio de soberanía, no cabe duda que son factores que, si en el caso de Estado Unidos, simplemente no estaban presentes, en el caso de Europa han opuesto un claro freno a este proceso y es evidente que, pese a lo conseguido hasta la fecha, quedan aún muchas incógnitas que despejar durante un largo futuro. Hay sin embargo un factor muy positivo y determinante en toda la Unión Europea: la decidida.voluntad política de ir consolidando espacios comunes y la potencia industrial del libre mercado para transformarse y adaptarse al mismo. Con estos ingredientes el proceso europeo ha experimentado, principalmente desde finales de 1997, una sucesiva y rápida realimentación entre la voluntad política -plasmada en directrices a la industria-y la iniciativa de las empresas del sector que ha concluido en un claro liderazgo de las mismas que, saltando barreras transnacionales, han tomado la iniciativa para contrarrestar al peligro y adaptarse a la situación al margen, a veces, de las consideraciones políticas. En un breve repaso histórico, el proceso europeo podemos dividirlo en tres fases en cierto modo diferenciadas, aunque con un amplio solape entre ellas: -Un primera fase de consolidación de la industria nacional que arranca hacia 1950 y se extiende hasta los años 90. -Una segunda fase en la que empiezan a surgir una serie de sociedades conjuntas ("joint ventures") con un período muy activo entre 1990 y 1997, pero que aún continúa en forma importante. -Y una fase de integración transnacional en la que los líderes de las diversas industrias nacionales ("National Champions") traspasan las fronteras en verdaderas fusiones ("mergers"). Fase de consolidación de la industria nacional Tiene sus antecedentes remotos entre los años 1950 y principios de los 70. Tomando como ejemplo Francia, Alemania, el Reino Unido y Es-Santiago San Antonio Copero paña, de 30 compañías del sector aeroespacial, existentes en 1950, sólo quedaban 12 a principios de los 70, tras una serie de ñisiones. En España supuso la integración en CASA, de Elizalde, Enmasa, Hispano Aviación y Aisa. En el año 1990 -en los países mencionados-, el número de empresas se había reducido a 10 y el panorama, muy simplificado, en el resto de los sectores era el siguiente: Fabricantes de Helicópteros, 4; de Misiles, 8; Espacio, 14 y Electrónica de Defensa, 11. En este período, la industria de defensa europea tenía un acendrado carácter nacional; los gobiernos consideraban a sus industrias de defensa como activos muy importantes de su propia soberanía, de tal forma que casi hasta finales de los años 90, BAe ha sido la única compañía privada en Europa; el resto han sido, propiedad del Estado (Aerospatiale, CASA), o parte de compañías de gran tamaño (DASA, Saab), o ambas cosas (caso de Alenia). En todos los casos se produce un claro desenfoque en su estrategia, al estar ésta influida por factores políticos o por intereses distintos de la compañía madre, en vez de por la verdadera racionalidad comercial. En este contexto Italia y España han seguido -ya en los últimos años, posteriores a este período-un acelerado proceso de privatizaciones, como requisito necesario y previo para la integración transnacional, mientras que Francia ha sido y continúa siendo la más reacia a renunciar al control estatal. Paralelamente a este proceso de consolidación, a principios de los años 50 y hasta finales de los 70, tienen lugar una larga serie de programas de cooperación internacional, la cual normalmente terminaba con la finalización del programa, pero que empezó a generar una tradición y unos lazos cada vez mas fuertes transnacionales para la ejecución de determinados proyectos, en especial relativos a los sectores aeroespacial y de electrónica. De los aproximadamente 60 programas de defensa originados en este período, 40 correspondían al sector aerospacial con un grado variable de cooperación internacional. Este tipo de programas carecían de una estructura común y se reducían a un simple reparto de tareas en las que cada socio era responsable de efectuar unos trabajos definidos de desarrollo y producción; ejemplos característicos de la industria aeroespacial son los programas «Transall» y «Jaguar», En un período posterior, este tipo de proyectos transnacionales se ha ido perfeccionando, partiendo de las mismas bases de reparto de tareas definidas (work sharing), de desarrollo y producción, pero ya con la estructura común de una organización conjunta, subsidiaria para la gestión del programa, comercialización, postventa, etc. Esta organización subsidiaria se constituye en el único interlocutor con los clientes y suele La industria aeroespacial: un modelo. gozar del status legal de uno de los países participantes en el programa, o bien se constituye en un denominado Grupo de Interés Económico (GIE). Ejemplos más representativos son los relativos a los programas «Tornado» y «Eurofighter GmbH» en cuanto a organizaciones comunes subsidiarias y los programas «Euromissile» y «Airbus» en cuanto a GIE's. No cabe duda que este tipo de proyectos ha representado un paso adelante en la formación de una cultura de cooperación internacional, racionalizando mas los procesos, consiguiendo mayores cotas de producción y ampliando el mercado, así como proporcionando una transferencia de tecnología entre países, contribuyendo con todo ello a la propia consolidación de las industrias nacionales. La racionalización de los procesos productivos necesitaba, no obstante, un empujón más ya que, como consecuencia de dicho sistema (en el que cada participante buscaba a toda costa adquirir capacidad y tecnología), se producían evidentes duplicidades y sobrecapacidad (puede ponerse como ejemplo el programa «Eurofighter» con nada menos que cuatro cadenas de montaje final, una por cada país). Se produce al mismo tiempo un excesivo alargamiento de los programas, debido a colisiones de intereses, dificultades de coordinación y dilaciones en los acuerdos. Y, adicionalmente, debido principalmente a esto último y a la complejidad de la organización se produce un importante incremento en los costes de gestión y administración de los programas. La aparición de las Sociedades Conjuntas («Joint Ventures») A partir, por tanto, de los inicios de los 90 empiezan a surgir una serie de organizaciones más avanzadas, por esa necesidad de abordar con más racionalidad y con un mayor alcance temporal todos los programas de un determinado sector, tanto de carácter civil como militar. Son el antecedente inmediato a las posteriores integraciones entre las industrias líderes nacionales («National Champions»). Son las denominadas Sociedades Conjuntas o «Joint Ventures» en la terminología internacional más conocida y prácticamente aceptada; suelen tomar la forma de compañías de holding en la que cada participante lleva a cabo sus actividades de acuerdo con la ley de su propio país, pero esas actividades contribuyen al objetivo común del «holding» creado a dichos efectos y sujeto a la ley de uno de los países participantes o, incluso, de otro país diferente. Queda de este modo salvaguardada la identidad nacional de cada uno de los componentes del holding, un atavismo que, aún ahora, está siendo difícil de erradicar y que, en última instancia existen ciertas dudas en cuanto a que no haya que preservar. No hay que olvidar que este tipo de Sociedades Conjuntas estaban formadas por divisiones o filiales de las grandes compañías madre que siempre las han considerado como miembros de la propia familia y que, en la mayoría de los casos, siempre han prevalecido los intereses nacionales y estratégicos de aquellas en el reparto de tareas y responsabilidades. Ejemplos de este tipo de compañías de Joint Venture se muestran en el Anexo n.° 2. El verdadero avance de este tipo de organizaciones permanentes (más perfeccionadas serán muy beneficiosas en el futuro), consiste en la gestión única para la coordinación de las actividades del mercado, financiación, exportaciones y, principalmente, formulación de la estrategia del holding. Ha constituido, evidentemente un paso más en la racionalización industrial pero que a pesar de todo, chocaba en numerosas ocasiones contra intereses nacionales arraigados en el principio de soberanía. Es decir, el renunciar a ciertas capacidades tecnológicas y llegar a una verdadera especialización (la creación de verdaderos centros de excelencia), chocaba contra los intereses soberanos de las naciones por razones -aducidas-de seguridad nacional e incluso de las propias empresas madres por razones de competitividad en los diferentes mercados en otros sectores. Sería utópico pensar que con la culminación de esta última fase de la fusión de algunas de las compañías líderes («National Champions») nacionales, en verdaderas compañías internacionales de magnitud muy superior, la verdadera racionalización industrial iba a tener lugar como un corolario. Evidentemente, la mera fusión por sí sola no evita la duplicidad de capacidades y tecnologías; dado el poder normativo de los gobiernos, la industria de defensa no es totalmente libre en cuanto al reparto de capacidades, ni en cuanto a la organización del trabajo y consideraciones de sensibilidad nacional van a seguir prevaleciendo en muchas ocasiones. El libre juego del mercado, por sí solo, puede llevar a la práctica desaparición de sectores enteros de la industria de defensa en países tecnológicamente peor dotados, o a situaciones cercanas al monopolio y, a no dudar, ese poder normativo de los gobiernos será utilizado directamente para evitarlo. No obstante, esta elevación del nivel de integración a las industrias líderes propiciado por la experiencia internacional adquirida (Joint Ventures) en la etapa anterior, ha sido un paso absolutamente necesario La industria aeroespacial: un modelo... 429 para la propia supervivencia de la industria europea. Solamente de este modo se hace posible la necesaria disminución de los enormes gastos de operación («overheads») debidos a la complejidad de los entramados internacionales de cooperación, así como también la realización de economías de escala en la comercialización, centralización de compras, soporte logístico, etc. Por otra parte, un nuevo aspecto a considerar en la industria aeroespacial y de electrónica de defensa, es el de la cada vez mayor importancia del mercado comercial. En el sector de electrónica de defensa, por la creciente utilización de sus tecnologías para aplicaciones en la vida civil, dada su naturaleza intrínseca de doble uso y porque a partir de un punto en el tiempo, los productos comerciales han tomado la iniciativa, llegando a desarrollos rapidísimos y con un nivel tecnológico que los hace aptos para su utilización cada vez mayor en los programas de defensa. Y en el sector aerospacial por el fuerte y sostenido crecimiento de la aviación civil, impulsado por una demanda cada vez mayor del mercado comercial. El predominio cada vez mas acusado de este mercado, ha traído como consecuencia un cambio, no sólo en la estrategia de las empresas, sino en su propia cultura de mercado. Los criterios comerciales han comenzado a prevalecer sobre los de carácter político e incluso tecnológico, polarizando a las compañías hacia la eficacia y obtención del máximo beneficio, llevándolas hacia una paulatina privatización; el valor del accionista («Shareholder value») se había convertido en la ley del mercado. El obligado incremento en la productividad, el necesario acceso a mercados más amplios para poder cumplir dichos objetivos, unido todo a una fuerte competencia del otro lado del Atlántico, ha sido el cambio que ha llevado a la verdadera integración transnacional. El despegue hacia la integración El proceso estaba inevitablemente en marcha; a partir de mediados de los años 90 la amenaza de la rápida reestructuración aerospacial y de electrónica de defensa en Estados Unidos había hecho sonar la alarma tanto en los círculos industriales, como en los políticos: América estaba equipada para hacer frente a las nuevas exigencias del mercado doméstico e internacional y dejar a la industria europea reducida a un mero papel subsidiario obligándola, para sobrevivir, a alianzas muy desfavorables. El detonante final tuvo lugar el 1 de Agosto de 1997 con la absorción oficial de McDonnell Douglas por Boeing; se había creado un gigante sin precedentes en el mundo aeroespacial. La integración de las actividades Santiago San Antonio Copero de todos los programas y tecnología de defensa de McDonnell Douglas con los del líder mundial en el desarrollo y producción de aviones comerciales había producido no sólo las adecuadas y necesarias sinergias, sino el equilibrio en los ciclos de los dos mercados, el militar y el civil, contrapuestos por naturaleza y, por tanto, complementarios. La amenaza se cernía principalmente sobre Airbus, el único competidor en el mercado mundial de la aviación comercial y la «niña de los ojos» de cuatro naciones, Francia, Reino Unido, Alemania y España, cuyos gobiernos habían hecho grandes inversiones, apostando por una presencia muy importante en el mercado mundial. Es decir, confluían, casi al mismo tiempo, tres factores que impulsaron especialmente a los sectores aerospacial y de electrónica de defensa para la integración: la carrera para encontrar la masa crítica para poder hacer frente a los gigantes americanos y, poder competir en el mercado internacional; la voluntad política de los gobiernos de mantener su industria de defensa empujando a los líderes nacionales de la misma a dar el paso definitivo para la verdadera consolidación de una industria europea y por último y especialmente importante, el impulso y la voluntad de toda la Unión Europea de conseguir una dimensión político-militar. Aunque ya estaba implícito en el Tratado de Maastrich, es el Tratado de Amsterdam, acordado en el plano político en Junio de 1997 y firmado el 2 de Octubre de dicho año (y finalmente vigente desde el 1 de Mayo de 1999), donde la defensa común entra de manera clara y detallada y con el que, por primera vez en la historia de la Unión Europea, se cuenta con una normativa clara en relación con la defensa. Este proceso llevaría a la cumbre de St-Malo (Francia y Reino Unido, Diciembre 1998), en el que se preconizaba una capacidad independiente política y militar para la Unión Europea; al Consejo Europeo de Colonia (Junio 1999) con la Declaración del reforzamiento de la Política Europea Común de Seguridad y Defensa (CESDP) y, por fin, al Consejo de Helsinki (Diciembre 1999) en el que, en el contexto de la CESDP, se establecía el objetivo de «Headline Goal». Es decir, se había hecho realidad un amplio consenso en el seno de la Unión Europea, y especialmente entre los principales países fabricantes de armamento, en el que se concluía que una política de defensa europea necesitaba de una amplia base tecnológica e industrial para lograr una aceptable autonomía y un mayor equilibrio trasatlántico. En este contexto se produjo la Declaración Trilateral, el 9 de Diciembre de 1997 (dos meses después de la firma del Tratado de Amsterdam), en la que los Jefes de Estado y Gobierno de Alemania, Francia y Reino Unido, instaban a los líderes nacionales de la Industria de Defensa a pre-La industria aeroespacial: un modelo. 431 sentar, a fecha del 31 de Marzo de 1998, un plan detallado de reestructuración e integración industrial. Esta Declaración dirigida al sector aeroespacial y de electrónica de defensa, se limitó en un principio a la formación de un grupo aeroespacial europeo cuyo núcleo inicial básico sería la transformación del Grupo de Interés Económico (GIE) Airbus, formado por Aerospatiale, BAe, DASA y CASA, en una verdadera empresa. El conocimiento de la fusión entre Boeing y McDonnell Douglas convenció a los gobiernos y a la industria de la necesidad estratégica de incluir actividades militares en la futura empresa. El 27 de Marzo de 1998, las cuatro empresas del Consorcio Airbus presentaron un documento a sus Gobiernos sobre la reestructuración propuesta en el que, además de los principios fundacionales, se planteaban una serie de cuestiones que deberían aclararse previamente a cualquier propuesta industrial. Este informe fue además enviado a Saab de Suecia y a Finmeccanica de Italia. En rápida continuación del proceso, el 9 de Julio de 1998, los Ministros de Industria de los seis países (ya incluidos Suecia e Italia, aunque ajenos al programa Airbus) formularon una Declaración en la que se fijaban unos criterios para la reestructuración e instaban a las seis industrias a resolver lo antes posible los asuntos pendientes y presentar un nuevo documento a finales de Octubre con los términos para crear una «Airbus Single Corporate Entity» en 1999 como primer paso y núcleo para la creación de la futura «European Aerospace Denfence Company (EADC)». El informe en respuesta a dicha Declaración, elaborado conjuntamente por las seis industrias, fue finalmente presentado a mediados de Noviembre de 1998. Evidentemente, dada la complejidad de una integración a seis, no se llegó nunca a una fase de verdadera negociación y todo quedó en un intercambio de criterios y posibles líneas de acción. Se logró el acuerdo en algunos conceptos básicos: una sola Compañía integrada (EADC); gestión como una sola entidad; líneas de negocio definidas por criterios financieros y económicos constituyendo el principal objetivo el «shareholder value"; el ámbito de actuación de EADC incluiría como núcleo básico de negocio actividades aeroespaciales civiles y militares y sistemas aeroespaciales y de defensa. Sin embargo, las cuestiones sobre la estructura accionarial de EADC y la protección de los derechos de los accionistas, así como el intento de inclusión de todos los programas de aviones de combate (integración de Dassault Aviation) dentro de la única empresa, probaron la imposibilidad de llegar a mínimos acuerdos dada, además, la diferencia de tamaño de las diferentes compañías. No obstante, los pasos estaban dados, la necesidad demandaba decisiones rápidas y las Compañías comenzaron a mirarse y a considerar quién se uniría a quién para encontrar salidas más simples que llevaran a soluciones viables. A la vista del fi: acaso de la creación ex novo de una única Industria Europea Aeroespacial de Defensa -EADC-, por imposibilidad de conjugar los intereses de las seis industrias líderes, a los que se sumaban los intereses de los correspondientes gobiernos, pero ya puesto en marcha un proceso imparable en una carrera contra el tiempo, conviene analizar la situación de los principales actores en ese entorno temporal, centrando el análisis en los cuatro miembros del Consorcio Airbus, a quienes, en principio, iba dirigido el requerimiento de los Jefes de Gobierno y que constituían el grupo más importante de la industria aeroespacial en Europa. Aerospatiale, líder real del Consorcio Airbus, era una compañía de propiedad estatal cuya privatización constituía un requisito previo para futuras fusiones, cumpliendo las condiciones ya imperantes en el mercado. El Gobierno francés tomó la decisión en Julio de 1998 de proceder a su privatización fusionándola con Matra Haute Technologies, del grupo Lagardere. La privatización, requería una serie de complejas operaciones encaminadas a solucionar los problemas de relación tanto con Thomson-CSF como con Dassault. No obstante, todos estos problemas habían llegado a una solución negociada y las condiciones financieras de la fusión estaban terminadas en Febrero de 1999, de tal forma que su salida a la Bolsa de París tuvo lugar el 4 de Junio de 1999. Su estructura accionarial final, quedó de la siguiente manera: Lagardière como accionista de referencia el 33%; el Estado francés el 47,7% y, el resto, flotante (público, instituciones y empleados) el 19,3%. Constituyó todo un récord de conjunción de voluntades para lograr un importantísimo objetivo de consolidación de la industria nacional, pero que todavía se quedaba un paso corto del objetivo final de integración en una verdadera industria aeroespacial europea. CASA, el socio más pequeño del Consorcio Airbus, era y es, la compañía europea independiente más antigua en el sector aeroespacial, creada en 1923 y con la tradición de haber sido siempre el mayor suministrador del mercado español. En los últimos ocho años y con una acertada estrategia a largo plazo, consiguió su dimensión óptima con una excelente rentabilidad, producto de una imaginativa política de inversiones que La industria aeroespacial: un modelo... 433 ha resultado en la creación de centros industriales de excelencia, especialmente en las áreas de fibra de carbono y aviones de transporte militar. Con una participación de un 13,65% en el programa Eurofighter y un 4,2% en Airbus, reunía unas excelentes condiciones para dar un paso hacia la integración con cualquiera de los líderes europeos. Empresa de propiedad estatal prácticamente en su 100% (la Sociedad Estatal de Participaciones Industriales -SEPI-como único accionista), se encontraba prácticamente en la misma situación que Aerospatiale. Sin embargo también en 1998 la SEPI anuncia la privatización de CASA con el objetivo de integrarla con un socio europeo. La propia Aerospatiale-Matra, BAe (todavía BAe) y Finmeccanica eran los previstos candidatos, pero fiíe sin embargo la alemana DASA, en parte como producto de su firustración en las negociaciones con BAe, la que al final daría el salto transnacional en su unión con CASA. La situación y evolución de DASA y BAe debe tratarse conjuntamente, ya que comenzó como un proyecto natural y de fácil solución y terminó, sin embargo, de forma totalmente inesperada con un tremendo viraje. La aproximación de ambas tuvo lugar desde comienzos de 1998, incluso al mismo tiempo, en que tenían lugar las complicadas negociaciones a seis para la creación de EADC. Precisamente por esta circunstancia, hubiese parecido lógico que en estas negociaciones estuviese incluida Aerospatiale, pero el recelo de ambas compañías totalmente privadas y con la misma filosofía de mercado hacia la francesa, en la que aún el estado tem'a una fuerte participación (47,7%), puso una insalvable barrera en las negociaciones para la integración a tres. Por tanto, el proceso anglo-alemán, BAe-DASA, estaba prácticamente finalizado a finales de 1998 para la creación de un grupo transnacional totalmente privatizado y que pretendía ser el núcleo inicial aglutinante para futuras integraciones. Y aquí se produjo el viraje; GEC anunció su decisión de desprenderse de su división de electrónica de defensa, Marconi, lo que para BAe representaba una tentadora y quizá única oportunidad de crecer en una dirección en la que carecía de tecnología; podía convertirla de la noche a la mañana, de diseñador fabricante de plataformas, en diseñador y fabricante de verdaderos sistemas completos, incrementando enormemente sus posibilidades de mercado. Este totalmente inesperado cambio de orientación dejó sorprendido, no sólo al gobierno alemán, sino incluso al propio gobierno del Reino Unido que hubiese preferido una fusión transnacional en apoyo del proyecto de reforzamiento de una política europea de defensa común proclamada en la cumbre de St-Malo en Diciembre de 1998. Pero ni siquiera al alto precio pagado por BAe fue obstáculo para consolidar esta fusión. El escenario de este último acto, preludio de la integración posterior, quedaba configurado de la siguiente forma a principios de 1999: Aerospatiale Matra se situaba como segunda empresa europea y como quinta en el orden mundial en los sectores aeroespacial y de defensa, con un volumen de ingresos en 1998, de 11,6 billones de euros (bn €), habiéndose convertido en una empresa privada, no obstante la aún fuerte participación del gobierno. BAe, convertida ahora en Nueva BAe (posteriormente en BAe Systems: BAeS), había pasado a ser la tercera empresa en la clasificación mundial y la primera europea en los campos aerospacial y de defensa con un volumen de ingresos en 1998, de 17,4 bn € Su brusco abandono de las avanzadas negociaciones con la alemana DASA, había deteriorado de tal modo las relaciones que hacía imposible cualquier intento futuro de integración entre ambas. DASA, profundamente agraviada, se había quedado sola en su empeño europeo y comenzó a considerar una alianza al otro lado del Atlántico; no hay que olvidar el lazo existente como subsidiaria del grupo Daimler-Chrysler. Por otra parte, sus relaciones con el socio francés de Airbus, Aerospatiale, después de su fusión con Matra y con su actual condición legal de compañía privada, comenzaron a mejorar ostensiblemente. Su posición quedaba invariable como tercera empresa europea y sexta en el mundo con un volumen de ingresos en 1998, de 9,8 bn € CASA, no obstante su dimensión comparada con los otros tres socios de Airbus, era un plato muy apetecible al que se dirigían las miradas de todos. Su condición de líder nacional en el sector aerospacial, el anuncio formal de su inmediata privatización y su envidiable situación financiera, industrial, comercial y tecnológica en áreas muy interesantes de cara al futuro la habían situado en el punto de mira. Ocupaba el sexto puesto de la industria aeroespacial europea y el décimo de la mundial, con un volumen de ingresos de 1 bn €en 1998. Esta era la situación en la parrilla de salida para la carrera final hacia la integración transnacional. No hay que olvidar que los términos de referencia eran los dos gigantes americanos: Boeing con un volumen de ingresos de 50,1 bn €en 1998 y, Lockheed Martin con 23,1 bn €. El nacimiento de EADS Dada la situación descrita en el panorama europeo, no es por tanto de extrañar que en Junio de 1999, durante el Salón Aeronáutico internacional de Le Bourget, en París, DASA y la SEPI, como único accionista de La industria aeroespacial: un modelo. CASA, firmaran, tras una corta negociación, una Carta de Intenciones (LOI) que suponía la privatización final de CASA. Se crearía para ello una compañía de holding, en la que DASA poseería un 87% y la SEPI el resto, con el compromiso de esta última de poner sus acciones en la Bolsa en los siguientes tres años. Por primera vez en Europa, dos líderes nacionales de la industria aeroespacial habían dado el paso decisivo hacia la verdadera integración. Quizá pudiera parecer extraño que dada la diferencia de dimensión y situación de ambas compañías tanto en el concierto europeo como en el mundial, hubiera sido éste un paso acertado para situar a la industria europea fi:'ente a la enorme competencia americana. Pero no debe olvidarse que fiae sólo un primer paso y que, considerando ambos mercados, el europeo y el mundial, fiíe un primer paso muy acertado. La participación de ambos socios en los programas Airbus y Eurofighter sumaba el 42,1 % y 43% respectivamente, con lo cual se situaban en una posición de privilegio respecto a los otros dos socios. Al mismo tiempo, CASA aportaba al grupo su amplia experiencia comercial en el mercado internacional, en especial el iberoamericano, experiencia de la que DASA carecía. Y desde el punto de vista político, se ponía la primera piedra del proceso que comenzó en St-Malo en Diciembre de 1998, para la implement ación de una política de defensa común europea dentro del marco de la Política Común Europea de Seguridad y Defensa (CESDP). Pero durante los cuatro meses que siguieron a la firma de la Carta de Intenciones y en paralelo con las negociaciones DASA-CASA para su fusión, tuvo lugar una maniobra de mayor calado encaminada hacia la fusión de Matra-Aerospatiale y DASA. No se contó para ello con el gobierno español -con la SEPI-y la negociación se llevó a cabo con todo secreto entre Jürgen Schremp (Daimler-Chrysler) y Jean -Luc Lagardère (dejando casi al margen a la anterior Aerospatiale). Los anteriores deseos del gobierno francés de Lionel Jospin de llegar a una solución verdaderamente europea, encontraron un camino más llano al aprovechar la gran frustración de DASA ante el desaire de BAe. Al éxito de la operación contribuyó el dejar las manos libres a hombres de negocios totalmente del sector privado unido a unas excelentes relaciones entre los mismos. El resultado no se hizo esperar y a sólo cuatro meses desde el comienzo de las negociaciones, el 14 de octubre de 1999, Lagardère, el Gobierno francés y Daimler-Chrysler anunciaron el acuerdo para la fusión de sus respectivas actividades aeronáutica, espaciales y de defensa. Había nacido el nuevo grupo EADS, la Sociedad Europea Aeronáutica, Espacial y de Defensa, quizá como una consecuencia de la frustra-Santiago San Antonio Copero ción de DASA dejada en la estacada por BAe, que fue capaz de digerir esa amarga pñdora y llegar al acuerdo preparado y deseado por Francia. CASA, que pareció quedar abandonada, estaba implícitamente comprendida en ese trato. No cabe duda que DASA tenía que hacer honor a su compromiso tras la firma de la LOI en Junio de 1999, por lo que conjuntamente con Aerospatiale Matra se iniciaron las negociaciones con CASA para su inclusión, que finalizaron a finales del mes de Noviembre y, así, el 2 de Diciembre de 1999, se produjo la firma para la integración de CASA en EADS. Se configuraba de este modo EADS como la primera agrupación integrada de negocios transnacional Europea en el sector aeroespacial. La nueva compañía se convertía en uno de los actores principales en el mercado mundial, compitiendo en todas las áreas clave de negocio aeroespacial tanto civil como militar: aviación civil y militar, helicópteros, satélites y lanzadores, misiles, electrónica de defensa y comunicaciones. EADS representaba la primera -y tan deseada-materialización industrial de los objetivos de la Comisión Europea de integración de la industria Europea Aeroespacial y de Defensa. Mientras que especialmente en la última década se habían dado pasos muy importantes por los Gobiernos hacia una mayor integración en las Políticas Europeas de Defensa (Maastrich, el Tratado de Amsterdam sobre una política común de armamento en uno de sus apartados, initiativas del GAEO para la creación de una Agencia Europea de Armamentos), la estructura del tejido industrial europeo se ha desarrollado básicamente siguiendo líneas de intereses nacionales, con las excepciones y avances que se han analizado. EADS representa la culminación de todos los esfuerzos y el primer ejemplo pan-europeo de consolidación industrial, tal como se preconizaba en el Comunicado de la Comisión al Parlamento Europeo en Noviembre de 1997. EADS se sitúa como la tercera Compañía mundial de la industria aeroespacial, detrás de Boeing e inmediatamente detrás (casi en paridad) con Lockheed Martin. Su situación comparativa en el orden mundial puede verse en el Anexo n.° 3. Con unos ingresos combinados de aproximadamente 21 billones de Euros (en 1998) y una plantilla de 96.000 personas, se coloca en posiciones de liderazgo en todos los segmentos de los sectores aeroespacial (civil u militar), de electrónica de defensa y comunicaciones (ver Anexo n.° 4). La industria aeroespacial: un modelo... En un primer nivel, Daimler Chrysler está en posesión del 30,29% de las acciones en EADS, a través de un holding (Daimler Chrysler Luft und Raumfahrt Holding). El grupo francés tiene también un 30,29% de las acciones de EADS a través de una compañía de gestión (SOGEADE), controlada a su vez en un 50% por el Estado francés (vía una compañía de holding, SOGEPA), 37% por Lagardère y 13% por Instituciones privadas Francesas. SEPI mantiene el 5,54% de las acciones de EADS. Como resultado, la propiedad definitiva de EADS se divide entre Daimler-Chrysler (30,29%), Lagardère (14,19%), el Estado francés (15%), Instituciones Francesas privadas (3,9%), SEPI (5,54%) y accionistas privados -Público-(30,8%). Las acciones de EADS están registradas en las Bolsas de Frankfurt, París y Madrid. EADS estará controlada conjuntamente por Daimler-Chrysler, Lagardère y el Estado Francés, a través de un Holding holandés (Sociedad limitada registrada en Holanda por motivos fiscales) que actúa en representación de Daimler-Chrysler Sogeade y SEPI; esta última ha transferido todas sus acciones al Holding, pero manteniendo los derechos económicos de las mismas. A cambio de ello, Daimler-Chrysler y Sogeade mantendrán cada uno el 45,8% de las acciones en el Holding y la SEPI, el 8,37%. Al igual que el Holding, y también por razones fiscales, EADS está registrada como una Compañía Holandesa. Con esta estructura accionarial se ha tratado de establecer el equilibrio entre los principales accionistas y de establecer un proceso de la decisión conjunto para los asuntos clave. Pero como fácilmente se desprende de la propia estructura, el peso franco-alemán es incuestionable. Ninguno de ellos puede hacerse con el control de EADS por el principio de igualdad de derechos que, según los acuerdos es inviolable. Si alguno de los accionistas desea vender, sólo puede hacerlo en la Bolsa y ello, no altera los derechos en EADS, desde el momento en que acciones y derecho a voto está perfectamente separados. Para poder poner en marcha EADS todos los actores tuvieron que hacer ciertas concesiones. Los alemanes cuyo principal obstáculo para la fusión con Matra-Aerospatiale era la presencia del Estado francés, tuvieron que resignarse a que fuese todavía un fuerte accionista en EADS que mantiene unos derechos importantes de control, prácticamente los mismos que mantenía en Aerospatiale-Matra. Los franceses por su parte han tenido que aceptar la paridad con la parte alemana a la que, industrialmente, la consideran muy por detrás desde el punto de vista tecnológico. La SEPI, por su parte, tiene solamente una pequeña participación, aunque con algunos derechos, por un tiempo limitado ya que ha manifestado su deseo de vender en Bolsa antes del 2003, pero que pudiera no hacerlo y así mantener esos derechos. La estructura accionarial, en consonancia con las previsiones establecidas en el Acuerdo entre los accionistas, permanecerá invariable durante los tres primeros años desde la formalización de la Compañía (hasta el 2003); solamente la SEPI puede ejercer su derecho de vender el total de su participación si así lo desea. Pasado este período de salvaguarda, establecido para proporcionar estabilidad durante los necesarios ajustes, cualquiera de los socios puede vender su participación en EADS. Ciertamente, si alguno de los «poderosos» se retira, la estructura de gestión corporativa sufrirá un drástico cambio. En el Comité Ejecutivo co-presiden los dos CEOS, Rainer Hertrich (Alemania) y Philippe Camus (Francia); el resto del Comité está formado por los directores de las Divisiones y de las diversas Funciones de la Administración Central de EADS (Estrategia, Marketing y Finanzas). Las áreas de actividad, se estructuran en cinco Divisiones: Airbus (con dos directores francés y alemán). Actividades Aeronáuticas (Alemán), Espacio (Francés), Aviones de Transporte Militar (Español) y Sistemas Civiles y de Defensa (Alemán). Cada una de estas organizaciones o Divisiones es totalmente responsable de su ejecución y resultados y debajo de ellas están integradas las denominadas Unidades de Negocio. La estructura de gestión de EADS se caracteriza a todos los niveles por el peso decisivo y aparentemente paritario de Daimler Chrysler y Lagardère, porque no debe olvidarse que, a través de este último, el Estado francés puede ejercer su influencia por medio de SOGEADE. En última instancia, todas las decisiones importantes de carácter estratégico o comercial relativas a la integridad de EADS requieren del consentimiento Santiago San Antonio Copero y del acuerdo entre dichos actores. La SEPI, en este concierto, tiene únicamente un derecho de veto en relación con el Plan Industrial de la antigua CASA: 3.4, La situación actual de la Industria Aeroespacial Europea Con dos años de retraso con respecto a los Estados Unidos pero todavía a tiempo, se ha llegado a la situación actual, en la que la industria europea aeroespacial y de defensa puede medirse en un plano de igualdad con la industria americana. El peligro, si no de desaparición, sí de quedar reducida a un mero papel subsidiario al no poder competir con el gigante americano, ha movilizado voluntades políticas en los Gobiernos europeos -en especial en los principales países productores de armamento-y acelerado los procesos de negociación de las empresas para adaptarse a las nuevas exigencias del mercado. No cabe duda que se ha dado un paso de gigante en solo esos dos años, limando asperezas, salvando ideologías encontradas -(Europeísmo contra Atlantismo)-, suavizando nacionalismos demasiado anclados en el principio de soberanía y sobre todo, utilizando nuevos conceptos de racionalización del mercado. En esta carrera, la industria ha sido el motor y ha ido siempre por delante, sorprendiendo incluso a los propios Gobiernos. Con la aparición de Boeing -tras la absorción de Me Donnell Douglasen Agosto de 1997, parece que cundió una consigna tácita: «Salvar la industria europea», que desencadenó el proceso y produjo el milagro. EADS y BAe Systems son los dos líderes europeos indiscutibles de la industria aeroespacial con una característica bien diferenciada: EADS tiene su principal peso en el campo civil (principalmente AIRBUS) y, BAeS en el campo de defensa. En cierto modo son muy homogéneos con Boeing y con Lockheed Martin respectivamente. Por otra parte, y muy importante, ambas empresas europeas están ligadas estructural y legalmente, por haber formado diversas Empresas Conjuntas (Joint Ventures), siendo las mas importantes: En la nueva compañía AIRBUS (AIC), BAeS, tiene el 20% de su capital, con representación en el consejo de accionistas, y en el comité ejecutivo, con veto en las decisiones estratégicas. En aviones de combate, por ser miembros del Consorcio Eurofighter, EADS participa con un 43% y BAeS con el 37,5%. En caso de formación de la sociedad conjunta EMAC, entre EADS y Finmeccanica (Italia), EADS pasaría a controlar el 62,5% del programa. En misiles, la actual integración de MBD (al 50% entre Matra y BAe Systems) con AMS (Alenia Marconi Systems) controla aproximadamente La industria aeroespacial: un modelo... 441 el 80% del mercado europeo, con los programas en curso, Meteor, Storm Shadow y ASRAM. Evidentemente, dadas estas sinergias y su perfecta complementariedad en los campos civil y militar, si en algún momento se llegara a producir la fusión de ambas, se habría creado el verdadero gigante europeo. Algo mas lejos pero con un peso específico apreciable en la industria europea es necesario citar: Thomson-CSF es el indiscutible líder europeo en electrónica de defensa, muy por encima de BAeS y con una gran penetración en el mercado internacional. Su reciente alianza con Alcatel le proporciona oportunidades estratégicas en los campos militar y civil. Dassault Aviation es quizá la mayor incógnita; aunque continúa siendo independiente, tiene un importante accionista -simplemente accionista-en EADS la cual posee casi un 46% de su capital. Su integración en EADS es un paso obligado, únicamente habrá que esperar el momento oportuno pero, en cualquier caso, antes de que surja el próximo programa europeo del avión de combate que suceda al Eurofighter. Finmeccanica, la compafiía de holding italiana líder nacional que controla la mayor parte de su industria de defensa. El holding constituye un grupo privado aunque el Estado italiano conserva aún el 30% de su capital. Sus actividades se abren a todos los campos de la industria aeroespacial y de defensa: aviones militares y civiles, satélites, helicópteros, misiles y electrónica de defensa. Su estrategia se ha dirigido hacia la participación en sociedades conjuntas (Joint Ventures), en todos estos sectores. Su proyecto actual (como ya se ha mencionado) es la formación de EMAC al 50% con EADS, en la que se integrarían las actividades de ambas en aviones de combate, aviones regionales de transporte, aviones de entrenamiento y aeroestructuras. El papel de los Gobiernos Hasta ahora se ha estudiado el proceso de consolidación e integración de la industria aeroespacial, en especial de la europea, prácticamente solo desde el lado de la oferta. Queda por considerar, aunque sea en una breve reseña, el lado de la demanda; es decir, el esfuerzo regulador de los gobiernos para homogeneizar la estructura del mercado y el propio funcionamiento de la demanda por un lado y, por otro, los intentos de llegar a un espacio común en el ámbito de la política de segutidad y defensa, que va desde la puesta en marcha de la ESDI (Identidad Europea de Seguridad y Defensa), hasta el establecimiento de la CESDP (Política Europea Común de Seguridad y Defensa). Iniciativa de los Gobiernos europeos para la reestructuración de la Industria de Defensa La labor reguladora y armonizadora de los Gobiernos europeos en política de armamento podemos situarla en un origen, probablemente artificial, y a partir de ahí hacer un breve repaso histórico para llegar a la actualidad. Ha ido siguiendo en cierto modo y paralelamente las mismas fases que la Industria en este proceso de cooperación, consolidación e integración. En 1976 se constituyó el Grupo Europeo Independiente de Programas (lEPG), formado por miembros europeos de la OTAN y con el objetivo de mejorar la cooperación en Europa en materia de Defensa. En el Tratado de Maastrich en 1991 se fija, como uno de sus objetivos, el establecimiento de la Agencia Europea de Armamentos para la totalidad de la Industria Europea de Defensa. En 1992 los Ministros de Defensa del lEPG decidieron en Bonn integrar las actividades de este Grupo en la UEO, creándose el Grupo de Armamentos de la Europa Occidental GAEO (WEAG en nomenclatura inglesa). Su objetivo era el mismo que el del lEPG. Posteriormente, los Ministros de Defensa pertenecientes al GAEO decidieron establecer la Organización de Armamentos de la Europa Occidental, OAEO (WEAD en nomenclatura inglesa), con el objeto de regular procedimientos, organización, contratos, exportación, etc. en todos los proyectos de cooperación de armamento. La Carta de la OEAO fue aprobada en 1996 y la Organización comenzó sus funciones en 1997, convirtiéndose en un cuerpo subsidiario de la UEO, por un acuerdo posterior de quien toma su personalidad jurídica. Era el primer paso para el establecimiento de una Agencia Europea de Armamentos, pero las condiciones del acuerdo solo permitieron llevar a cabo actividades de investigación y desarrollo (programas EUCLID y THALES). Los Ministros de Defensa de los 13 países del GAEO deciden en Erfurt en la Convención de otoño de 1997, la puesta en marcha de un plan en el que se incluye el establecimiento de una Agencia Europea de Armamentos y para ello se encarga la redacción de un Plan Director (Master Plan) a los Directores Nacionales de Armamento. Para su consecución se incluía un calendario de hitos que concluiría en el otoño de 2001 con la aprobación de los Ministros, siempre que se dieran las condiciones políticas que lo hicieran viable. Es decir, la Agencia Europea de Armamentos debería entrar en funciones en dicha fecha. En un paso que podríamos denominar intermedio, pero respondiendo precisamente a esta necesidad de gestión conjunta, se crea la OCCAR, La industria aeroespacial: un modelo... Organización Conjunta para Cooperación en materia de Armamentos, en 1995 por Francia y Alemania, uniéndose en 1996 el Reino Unido e Italia. Se considera la OCCAR como la fase preliminar de una posterior Agencia Europea de Armamentos y su objetivo es el de servir de instrumento de gestión de los grandes programas conjuntos de armamento. Su Convención fiíe aprobada y firmada en Septiembre de 1998 (en Farnborough) por los Ministros de Defensa de los países participantes y en ella se establecen unos principios comunes que de forma clara favorecen la cooperación industrial, la armonización de requisitos y las inversiones y transferencias tecnológicas. España está en proceso de ratificación de la Convención. Los Ministros de Defensa de Francia, Reino Unido y Alemania se reúnen en Londres en Enero de 1998, donde se presenta un Memorándum de Entendimiento (MOU) por el Reino Unido, en el que se asume el papel regulador de los Gobiernos en la tarea de reestructuración de la Industria de Defensa Europea y se propone un tratamiento común de las áreas que se consideran clave: Seguridad del Suministro, Exportaciones de Defensa, Seguridad de la Información, Tecnología y Desarrollo y Tratamiento de los Derechos de Propiedad Intelectual. En la declaración conjunta de los Ministros de Defensa de Alemania, Francia, Reino Unido, España e Italia, en Marzo de 1998, en París, se vuelve a afirmar que los protagonistas de la reestructuración industrial han de ser las empresas y se adquiere el compromiso de los Gobiernos de acom.eter el proceso regulador nacional para facilitar la integración transnacional. Los Ministros acordaron que, para capitalizar la reestructuración industrial a nivel europeo, sería prioritario para ellos la eliminación de los obstáculos en las áreas de Seguridad en el Suministro, Procedimientos de Exportación, Financiación de Investigación y Desarrollo, Seguridad de la Información y Habilitación del Personal y Derechos de Propiedad Intelectual. Los Ministros decidieron que firmarían en Junio de 1998 una Carta de Intenciones (LOI) que explique los objetivos y principios para gestionar dichos temas y exponga la organización y calendario de. las tareas a realizar. Se invita a Suecia a participar en dicho esfuerzo. El 6 de Julio de 1998 se firma por los seis países (ya incluida Suecia) la Carta de Intenciones (LOI) sobre las medidas para «Facilitar la Reestructuración de las Industrias de Defensa», Como consecuencia de la LOI, se instituye un Comité Ejecutivo para gestionar el proceso y se crean seis Grupos de Trabajo, uno por cada área prioritaria, para estudiar y llegar a conclusiones sobre protocolos, acuerdos y pactos que puedan ser firmados antes de finales de 1999. El 27 de Julio de 2000 se firmó en Farnborough el Acuerdo Marco entre los seis países, relativo a las medidas encaminadas a facilitar la reestructuración y funcionamiento de la Industria de Defensa (Acuerdo Marco sobre la LOI). Italia es el único país que aún está en proceso de ratificación del Acuerdo. No obstante, todo lo en él contenido está en pleno vigor entre los países que lo han ratificado. Queda un paso determinante que dar: la decisión de los Ministros de Defensa de aprobación e implantación del Master Plan para la Agencia Europea de Armamentos, si existen las necesarias condiciones políticas. La aprobación estaba programada para el otoño del 2001. Quedan todavía muchos cabos sueltos y la tarea es complicada; no hay un enfoque común para la resolución de los problemas y la coordinación de los diversos organismos es lenta y escasa. Pero la voluntad de los Gobiernos es clara y el papel de los Ministros de Defensa y de los Directores Nacionales de Armamento de los países implicados será determinante en los próximos años. Mientras tanto, ya hay en funcionamiento, aunque aún no a pleno rendimiento, dos instrumentos básicos: la LOI como estructura fundamental y la OCCAR como transición hacia la Agencia Europea de Armamentos y que, de momento, es capaz de gestionar los grandes programas de armamento tales como: el Milán, Roland, Tigre MRAW/GTX (por citar algunos) y en un futuro muy próximo, el del avión de transporte militar A400M. Se ha andado ya mucho camino y lo conseguido, especialmente en los últimos años, abre ciertamente un horizonte muy esperanzador. Hacía una Política Europea Común de Seguridad y Defensa Como ya se ha visto anteriormente (apartado 3.3.1), la búsqueda y consecución de un espacio común europeo de Seguridad y Defensa, tenía y tiene como requisitos previos, la reestructuración de la industria de defensa en entidades transnacionales por un lado y, por otro, la normativa reguladora de los Gobiernos, para dotar de racionalidad y eficacia el funcionamiento del libre mercado, ajustando la oferta a la demanda. En la búsqueda de ese espacio común, podemos situar como origen el hito significativo conseguido con el Tratado de Maastrich, en Diciembre de 1991, con la adopción por la Unión Europea -y desarrollo posterior -de un proyecto para una política exterior y de seguridad común (PESO). En el Tratado se prevé la formación de una verdadera identi-La industria aeroespacial: un modelo.. 445 dad europea de defensa y designa a la Unión Europea Occidental (UEO), como parte integrante de la Unión Europea, para elaborar y llevar a cabo las acciones de la UE que tuvieran implicaciones en el terreno de la defensa. Una iniciativa paralela, surgida en el Seno del Consejo del Atlántico Norte, tuvo lugar en su reunión de Bruselas en Enero de 1994, en la que de forma no oficial se puso en marcha la Identidad Europea de Seguridad y Defensa (ESDI), concebida de modo general como un instrumento que permita a los países europeos asumir la responsabilidad de una mayor participación en misiones de seguridad por medio del acceso a aquellos elementos y capacidades de la Alianza de los que los miembros europeos no disponen. Dos años más tarde, en la reunión ministerial de la OTAN en Berlín, en Junio de 1996, se dio el espaldarazo a la ESDI y al instrumento militar que la sustentaba, los Grupos de Combate Combinados Conjuntos (CJTF: Combined Joint Task Forces). Independientemente de sus altibajos, la ESDI como iniciativa de la OTAN, fue sin embargo el vector que impulsaría a la Unión Europea hacia el espacio común de Seguridad y Defensa. Y así, en el Tratado de Amsterdam (acordado en el plano político en Junio de 1997, firmado en Octubre de ese año y vigente desde el 1 de Mayo de 1999), es donde por primera vez la defensa común entra de manera específica, detallada y con una normativa clara. Lo que lleva el proceso a la cumbre de St-Malo (4 Diciembre 1998), en la que los Jefes de Estado y de Gobierno de Francia y del Reino Unido preconizaban una capacidad independiente, política y militar para la Unión Europea; una total y rápida implantación de las provisiones del Tratado de Amsterdam: responsabilidad del Consejo Europeo para decidir en la progresiva construcción de una política común de defensa en el marco de la Política Común Exterior y de Seguridad (CFSP). Al hilo de los acontecimientos, en Marzo de 1999, se produjo el lanzamiento de la «Allied Force» para la ofensiva de Kosovo, quedando meridianamente patente que en Europa no podía conjuntarse una fuerza de combate similar a la proporcionada por Estados Unidos, para hacer frente a una crisis en el propio continente. Por ello, como lección aprendida y solución a medio plazo, en Abril de 1999, se definieron en OTAN las líneas maestras de la Iniciativa de Capacidad para Defensa (DCI: Defence Capability Initiative) para el desarrollo de la futura estructura de defensa Europea y equilibrar esa trç|p.enda diferencia. El objetivo a conseguir es el de mejorar la interoperabilidad de las fuerzas de la OTAN y asegurar la eficacia de las operaciones en todo el aspecto de misiones de la Alianza. Posteriormente, el 4 de Julio de 1999, en el Consejo Europeo de Colonia, se produce la Declaración del Consejo sobre el reforzamiento de la Política Común Europea de Seguridad y Defensa (CESDP). La Unión Europea se arroga la facultad de disponer de la estructura institucional necesaria para tomar decisiones en dichas materias. Y por fin, en el Consejo Europeo de Helsinki, el 11 de Diciembre de 1999, se aborda con un alto nivel de detalle y de compromiso el gran tema de la defensa europea que pone de manifiesto una decidida voluntad política y de plena madurez en la toma de decisiones sobre la defensa común. Y es, precisamente en esta Cumbre, donde quedan definidas las líneas maestras de los objetivos de fuerzas militares a alcanzar («Headlines Goals»). Como primera providencia se decide la creación de una Fuerza de Reacción Rápida Europea con unos efectivos de 50.000 a 60.000 hombres, con una disponibilidad operativa dentro de los 60 días y con capacidad de mantener ese despliegue durante al menos un año, contando además, con los elementos marítimos y aéreos necesarios. Esta Fuerza de Reacción Rápida Europea deberá ser capaz de cumplimentar las misiones denominadas «Petersberg» (nombre del castillo en Bonn donde tuvo lugar la Declaración de la UEO en 1992, donde se definieron esas misiones), y que comprenden: mantenimiento de la paz, imposición de la situación de paz, gestión de crisis y ayuda humanitaria. En uno de los anexos, el Consejo Europeo en la Cumbre de Helsinki trata la cuestión de la industria europea de defensa, haciendo constar que: «los Estados miembros han acogido con satisfacción los recientes avances en materia de reestructuración de las industrias europeas de defensa que constituyen un importante paso adelante y contribuyen a fortalecer la base industrial y tecnológica de la defensa europea», La Cumbre de Helsinki, constituye un hito histórico de reafirmación de la CESDP y donde el aparato institucional de dicha defensa común, junto con los objetivos y calendarios, quedan perfectamente diseñados. En esta línea, el 20 de Noviembre del 2000, tuvo lugar en Bruselas la primera Conferencia sobre el Compromiso de Capacidades, en la que los Ministros de Defensa de la Unión Europea reafirman su compromiso (formulado en Helsinki) y especifican las respectivas capacidades nacionales con la que pretenden contribuir a la formación de la fuerza conjunta. Se pretende que, en líneas generales, los objetivos establecidos se alcancen en el 2003. La Segunda Conferencia sobre las mejoras y progreso de las Capacidades, deberá tener lugar el 19 y 20 de Noviembre de 2001, en la que los Ministros de Defensa de la UE analizarán el cumplimento de los compromisos para alcanzar el «Headline Goal» de formación de la fuerza con-La industria aeroespacial: un modelo... junta de 60.000 hombres, con los requisitos de disponibilidad y despliegue, para el cumplimiento de las misiones Petersberg. El resultado de esta Conferencia servirá para sustanciar la Cumbre Europea del 14-15 de Diciembre del 2001 en Laeken (Bélgica), en la que los Ministros podrán declarar formalmente que la fuerza conjunta de reacción rápida está operativa. Quedan evidentemente muchas lagunas por rellenar, pero también en este camino se está avanzando muy decididamente para alcanzar los Objetivos (Headline Goals) que se definieron en Helsinki. Desde la famosa «Ultima Cena» en 1993, en la que el Secretario de Defensa de Estados Unidos instó a los dirigentes de las principales empresas aerospaciales americanas a dimensionarse para adaptarse a un futuro mucho más austero, hasta el día de hoy en los albores del siglo XXI, se ha producido, evidentemente, una verdadera revolución en el sector aerospacial en ambos continentes pero desde una perspectiva diferente: En Estados Unidos para posicionarse ante el mundo como líder indiscutible y, al mismo tiempo, para consolidarse en su mercado nacional y hacer frente a un drástico cambio de la amenaza y unos recursos más escasos. En Europa, en una primera instancia, para sobrevivir frente al gigante americano y no dejar reducida su industria aerospacial a un mero papel subsidiario y, en segundo lugar, prácticamente de forma simultánea, para empezar a salir del letargo bajo el amparo de la Alianza Atlántica y tomar conciencia de su propia identidad de seguridad y defensa. Los movimientos en ambos continentes han tenido como principales actores a las industrias aerospacial y de electrónica de defensa, por ser las piezas clave en el desarrollo y producción de sistemas de armas críticos, de alto contenido tecnológico y con costes de desarrollo crecientes, asociados a su propia complejidad. El impulso en ambos sectores industriales para encontrar la adecuada dimensión ha venido propiciado, a su vez, por el enorme auge experimentado en la aviación comercial, generadora de una inmensa infraestructura aérea y, por otro lado, por lo que ha venido a denominarse, «La Revolución de los Asuntos Militares» (Revolution of Military Affairs: RMA), resultado de la necesidad de generación proceso y control de un cada vez mayor volumen de información y, como consecuencia, de la integración de todos los sistemas con ella relacionados (C4ISR). La facilidad con la que el proceso se ha desarrollado en los Estados Unidos, ha venido dada por la homogeneidad del propio contexto; un solo país y, por tanto, una única soberanía que defender, un solo cuerpo legal y administrativo y un verdadero impulso a las empresas propiciado y apoyado -y en gran parte financiado-por el propio Gobierno. El proceso seguido en Europa ha sido -y es-sin embargo, muy otro. No existe un espacio común europeo; en el conjunto de naciones de la Unión Europea existe un arraigado sentido del principio de soberanía en cada una de ellas; existen cuerpos legales y administrativos distintos, y las industrias han sido en gran medida de propiedad estatal y, aún todavía, algunas están sujetas a un cierto control de los Estados. Con todo ello, se pueden aventurar las primeras conclusiones, por supuesto discutibles, para ambos procesos: En Estados Unidos, tomando como modelo -y patente realidad-la industria aerospacial, se han cumplido los objetivos perseguidos y, salvo pequeños y posteriores ajustes, no parece posible llegar mucho más allá en la consolidación-integración industrial, salvo caer en situaciones no deseables, de verdadero monopolio. En Europa se ha conseguido un primer y muy importante objetivo: sobrevivir en el entorno internacional y en el propio europeo contrarrestando, de momento, la amenaza americana. Para ello, la industria aeroespacial ha tenido que tomar la delantera a sus propios Gobiernos (¿o quizá con ciertas directrices y con su aquiescencia?), saltando por encima de obstáculos legales políticos, etc., en aras de su propia supervivencia, quedando dichos aspectos en gran parte sin resolver, solamente «hilvanados», que obligará a una mayor celeridad en la búsqueda de acuerdos y soluciones para homogeneizar, regularizar y simplificar las relaciones entre la diversidad de cuerpos legales. El importante componente político que siempre ha estado, o bien presente, o en la trastienda de todo el proceso de privatizaciones, reestructuración e integración, denota claramente la voluntad de los Gobiernos de ir cumpliendo todas las etapas que consoliden esos objetivos. Nos encontramos pues, en la actualidad, con la siguiente perspectiva: Una clara situación de duopolio en Estados Unidos con los dos grandes: Boeing, con preponderancia clara en la aviación comercial; y Lockheed Martin, con una mayor componente en la industria de defensa. Una situación similar de duopolio en Europa, con otros dos grandes: EADS también con indudable preponderancia en aviación comercial (con Airbus Integrated Company donde BAeS participa con el 20%); y BAeS, con el mayor peso en el sector defensa. Quedan sin embargo importantes piezas que colocar en el tablero europeo: Thomson CSF, el líder (por en-La industria aeroespacial: un modelo.. cima de BAeS) en electrónica de defensa, especialmente tras su alianza con Alcatel; Dassault Aviation en aviación de combate y, finalmente, Finmeccanica con su estrategia de «Joint Ventures». Estas piezas tendrán obligatoriamente que moverse para consolidar verdaderamente el siguiente paso del proceso de reestructuración. Desde esta perspectiva y con todo este camino ya recorrido, la siguiente etapa parecía lógico pudiera encaminarse hacia la consecución de una gran integración transatlántica o hacia una fase intermedia de afianzamiento de las Joint Ventures o acuerdos de cooperación para programas específicos entre compañías aeroespaciales de uno y otro lado. Las dudas se despejaron y las directrices quedaron fijadas tras la reunión convocada y mantenida por el Subsecretario de Defensa de Estados Unidos (Deputy Secretary of Defence) John Hamre el pasado mes de Octubre con los Directores Nacionales de Armamento de Francia, Alemania, Reino Unido y Estados Unidos, así como con los líderes de la industria aeroespacial de dichos países, con el objeto de evaluar y debatir la actual situación y futuros pasos en la posible reestructuracón transatlántica. El mensaje quedó perfectamente claro para todos los asistentes: Washington no acepta ni propicia ningún tipo de fusión transatlántica a gran escala entre empresas aeroespaciales, ni siquiera a medio plazo, por considerarlo prematuro por diversas razones, entre las que se adujeron como principales: una disminución de la competencia con un incremento de la situación de monopolio y la carencia de una normativa común reguladora, USA/Unión Europea, de todos los aspectos del tráfico industrial. La principal razón de carácter político-estratégico, aunque evidentemente no mencionada, quedó en el ánimo de todos. Por tanto, solamente serían bienvenidas y amparadas todo tipo de Joint Ventures o alianzas limitadas a la consecución de objetivos concretos o a la realización de programas. Con todos estos ingredientes y tomando en consideración los recientes acontecimientos de clara repercusión mundial, se podrían aventurar unas ideas de su impacto en la industria aeroespacial. Es evidente que tras el atentado terrorista el pasado 11 de Septiembre en Nueva York, el segmento de la aviación comercial está sufriendo una profunda crisis a nivel mundial. No obstante, es previsible que el duopolio Boeing-Airbus (EADS) se mantenga en el reparto del mercado global con ciertas ventajas coyxmturales de uno u otro lado. El sector defensa, por su carácter cíclico se verá sin embargo reforzado a ambos lados del Atlántico con la violenta aparición de una nueva amenaza -que hasta ahora ha estado en cierto modo larvada-de conse-Santiago San Antonio Copero cuencias imprevisibles. El balance USA/Unión Europea en este sector en sus aspectos principales es el siguiente: En el segmento de aviación de transporte militar, una de las acusadas carencias en el conjunto de la Unión Europea, ésta se juega su futuro en dicho segmento, a menos que se haga realidad el programa del gran avión de transporte A-400M. En el segmento de la aviación de combate, tras el lanzamiento y adjudicación del contrato del avión JSF (Joint Strike Fighter) a Lockheed Martin, la industria Europea está seriamente amenazada. El avance tecnológico que supone este avión (en especial la incorporación de tecnología «stealth"), el competitivo coste de adquisición y la polivalencia para todos los usuarios (Fuerzas Aéreas, Fuerzas Navales, etc.), va a producir una inundación de los mercados, sumada a la producida por la salida de servicio de los aviones de combate de la generación anterior (en especial miles de F-16) y que sin duda, todavía, cubrirán las necesidades de multitud de países. O Europa hace sus deberes, consolida sus fuerzas en este segmento y sale a la arena, o después del Eurofighter y el Rafale, las posibilidades van a ser muy escasas. La industria de la electrónica de defensa, con la actual necesidad de elementos para la guerra de la información ("Information Warfare") y su integración en un sistema de sistemas (C4ISR), merece el comentario del auge exponencial que ha experimentado y el de su previsible y creciente continuidad por la multiplicidad de sus aplicaciones y por la potenciación y asequibilidad proporcionada por desarrollos comerciales de muy alta tecnología. En este campo, el desequilibrio tecnológico de Europa, respecto a Estados Unidos es más que considerable. Se puede concluir afirmando lo evidente: Estados Unidos y Europa se han adaptado al nuevo orden mundial; los primeros con gran ventaja en el tiempo y con una gran solidez; la segunda, aunque mucho mas tarde y por consideraciones de identidad y de supervivencia, ha dado sin embargo un paso de gigante. En ambos casos la industria aerospacial ha llevado el liderazgo y ha servido de modelo. Y ahora suponiendo que Europa remate la tarea, con verdadera voluntad política y consolide su posición, cabe preguntarse hacia donde vamos, si hacia una «fortaleza Europa» frente a una «fortaleza USA», o hacia una verdadera reestructuración-integración trasatlántica. Parece ser que, esto último, está de momento vetado. Y por último: ¿Está seguro el orden mundial actualmente alcanzado?. Las previsiones y decisiones que se tomen a corto plazo en el mundo occidental, serán probablemente la clave del futuro.
En este artículo el lector podrá conocer de forma clara las razones que han llevado a dicha colaboración en Europa, su gestación y programas en curso y futuros. Respecto a los programas en curso, se tratan en profundidad aquellos en los que España está participando, como el Avión de Combate Europeo (Eurofighter 2000), el Avión de Transporte Militar Europeo (A-400M), el Misil Aire-Aire de guía radar activa y alcance superior al visual (Meteor) o el satélite de Observación Helios. Sobre los programas futuros, hay que decir que el autor trata aquellos en que el Ejército del Aire está interesado, como: • El misil Infrarrojo Aire-Aire de corto alcance Iris-T • El Entrenamiento Avanzado Europeo de Pilotos de Combate (AEPJT) • El designador de blancos electro-óptico de 4"" generación • El Programa Europeo de Desarrollo Tecnológico (EATP)... El Siglo XX, el último del pasado Milenio, vio el nacimiento y el desarrollo espectacular de la aviación primero y, posteriormente, de los medios espaciales. Partiendo de unos principios modestos y elementales, durante el transcurso del siglo se produjo un desarrollo extraordinario y sorprendente de los medios aéreos, parejo al de la tecnología de cuyo progreso dependía a la vez que la estimulaba, para avanzar más y más y así poder llegar cada vez más lejos, más alto, más rápido, con mayor capacidad y energía de maniobra. Estos desarrollos hacen que el siglo XX bien pueda llamarse el siglo de la tecnología y de la aviación. Este desarrollo de la aviación ha permitido a su vez el incremento continuo de las capacidades de los medios de que están dotadas las Fuerzas Aéreas, en particular el Ejército del Aire. Pero la complejidad tecnológica de estos medios, y el incremento inherente en el coste de los mismos, ha tenido como consecuencia que, con la excepción de los Estados Unidos, sea muy difícil que hoy en día una sola nación pueda desarrollar por sí misma un moderno avión de combate o de transporte estratégico. Por ello, las industrias aeroespaciales por una parte y los gobiernos de las naciones por otra, han ido constituyendo alianzas y uniones las primeras y estableciendo acuerdos de colaboración las segundas, de manera que puedan afrontar tecnológicamente con éxito y a un coste permisible el desarrollo de los medios aeroespaciales requeridos por las necesidades de la seguridad y defensa nacionales. Acuerdos de colaboración de los Gobiernos Europeos en relación con la industria de defensa El elevado coste del desarrollo tecnológico, principalmente de los medios aeroespaciales, que desborda las posibilidades individuales de las naciones, ha hecho que la cooperación en materia de seguridad se convierta en una necesidad. Así lo han entendido los Gobiernos Europeos a partir del final de la Segunda Guerra Mundial que, de manera ocasional y mediante colaboraciones limitadas a dos o tres países inicialmente y de forma decidida y continuada después, han llevado a cabo la realización de proyectos multinacionales cuya financiación y consecución hubiera sido irrealizable para las naciones abordadas aisladamente. Ejemplos de estas primeras colaboraciones, en la década de los 60, fueron entre otros los programas para el desarrollo y producción de los aviones de transporte Transall, de patrulla marítima Breguet Atlantic y de combate Jaguar y Fiat G91. Estas colaboraciones se han ido incrementando y ampliando con el paso del tiempo, a medida que se intensificaba el progreso y la complejidad tecnológica junto con la reducción de los presupuestos de Defensa, no Colaboración internacional en la industria aeroespacial. sólo en lo que se refiere a la iniciación de proyectos comunes sino también al establecimiento de acuerdos internacionales que favorecieran la materialización de esos acuerdos en proyectos de desarrollo concretos. Uno de los foros establecidos para facilitar la consecución de acuerdos que permitan el inicio conjunto de programas de desarrollo aeroespaciales en el área de la Defensa es la Conferencia de Directores Nacionales de Armamento de la OTAN. Cuando un país tiene necesidad de iniciar el desarrollo de un nuevo Sistema de Armas, puede proponer a los restantes miembros de esta Organización la participación en el nuevo desarrollo para conseguir repartirse los costes de desarrollo del mismo y reducir los de producción y apoyo logístico posteriores, consiguiendo a la vez incrementar la interoperabilidad entre las Fuerzas Aéreas de los países participantes en este nuevo proyecto. Este fue, por ejemplo, el caso del Programa para el desarrollo y producción del avión de combate Tornado. En 1967 tres naciones de la OTAN, Alemania, Gran Bretaña e Italia, necesitaban modernizar sus Fuerzas Aéreas pero no podían permitirse el llevar a cabo programas nacionales separados para el desarrollo del nuevo avión de combate que necesitaban para reemplazar, en el caso de Alemania e Italia, los aviones F-104 Starfighter y, por parte de Gran Bretaña, los Vulcan, Canberra y Buccaneer. Antes de comprometerse a un programa de colaboración las tres naciones llevaron a cabo estudios conceptuales, llegando a la finalización de los mismos a la conclusión de que los diferentes requisitos de las tres naciones eran reconciliables y que el diseño y desarrollo de un único avión de combate «multi-role» (MRCA) para satisfacer sus necesidades era viable. En consecuencia, en 1969 firmaron un Memorandum de Entendimiento para colaborar en el nuevo proyecto que se denominó «MRCA». En base a este proyecto se inició en 1970 el desarrollo del nuevo avión, que recibió el apelativo de «Tornado», para lo cual se creó una Agencia OTAN encargada de la gestión del Programa, la Agencia NAMMA (NATO Multi-role combat aircraft Management Agency). Posteriormente, en 1976, se inició la producción de un total de 977 aviones para el conjunto de las tres naciones. En base a la experiencia adquirida en el Programa Tornado, en 1985 Alemania, España, Gran Bretaña e Italia, decidieron iniciar un programa de colaboración para el desarrollo de un nuevo avión de combate europeo, programa denominado inicialmente EFA (European Fighter Aircraft), que pasó a denominarse posteriormente Eurofighter 2000. Pero este programa lo expondremos con más detalle posteriormente. Aparte del foro existente en el seno de la OTAN para la colaboración en materia de armamentos, en 1976, los Ministros de Defensa de las naciones Europeas de la OTAN, excepto Islandia, -Alemania, Bélgica, Di-460 Fernando Mosquera Silvén namarca, España, Francia, Gran Bretaña, Grecia, Holanda, Italia, Luxemburgo, Noruega, Portugal y Turquía-establecieron entre estos 13 países un foro para la cooperación en materia de armamentos, el Grupo Europeo Independiente de Programas (Independent European Programme Group -IEPG-). Fue en el marco de este foro donde se identificaron, en 1985, las necesidades futuras de un sistema de transporte aéreo militar destinado a satisfacer las necesidades de los países participantes más allá del año 2000, de donde nació el Programa del Avión de Transporte Militar Europeo, A400M, del que hablaremos más adelante. Posteriormente, la Unión Europea Occidental, en su declaración con motivo de la firma del Tratado de Maastricht en 1991, propuso que se estudiara la posibilidad de increm.entar la cooperación en materia de armamentos con el objetivo de crear una Agencia Europea de Armamentos con la doble finalidad de conseguir una mayor comunalidad e interoperabilidad entre las Fuerzas Armadas de los países europeos y el desarrollo de una industria europea de la defensa fuerte, con una buena base tecnológica, capaz de competir en los mercados internacionales, principalmente frente a los Estados Unidos. Como primer paso, los Ministros de Defensa de los 13 países del Grupo Europeo Independiente de Programas (lEPG), en su reunión en Bonn en diciembre de 1992, decidieron transferir las funciones del lEPG a la Unión Europea Occidental para de esta manera contar con un único foro de cooperación en materia de armamentos en Europa, que sería gestionado por los Directores Nacionales de Armamento de las 13 naciones, con los mismos derechos y responsabilidades cada uno de ellos, respondiendo ante sus Ministros de Defensa. A partir de la reunión de Ministros de Defensa de la Unión Europea Occidental en Roma, en mayo de 1993, este foro se denominó Grupo de Armamentos de la Europa Occidental (Western European Armaments Group -WEAG-), que tenía el objetivo de utilizar mejor los recursos de los países participantes mediante una armonización de sus requisitos, el fortalecimiento de la base industrial y tecnológica Europea y la cooperación en investigación y desarrollo. Como consecuencia de la creación de este nuevo foro, el lEPG fue absorbido por la nueva organización. Más tarde, en noviembre de 1996, se aprobó por los Ministros de la Unión Europea la creación de la Organización de Armamentos de la Europa Occidental (Western European Armaments Organization -WEAO-), limitada inicialmente a establecer contratos en programas de investigación y desarrollo relacionados con la defensa en nombre de las naciones pertenecientes al WEAG. La WEAO se puede considerar como la precursora de la Agencia Europea de Armamentos (European Armaments Agency -EAA-) que se pre-Colaboración internacional en la industria aeroespacial... veía crear en base a los acuerdos del Tratado de Maastricht pero, como se acaba de decir, al quedar inicialmente limitada su actividad a los programas de investigación y desarrollo, y para acelerar el establecimiento de una Agencia que cubriera la gestión de toda clase de armamentos, los Ministros de Defensa de Alemania, Francia, Gran Bretaña e Italia firmaron en Estrasburgo, el 12 de noviembre de 1996, una declaración para la creación de una nueva Agencia de cooperación en materia de armamentos denominada «Organización Conjunta para la Cooperación en materia de Armamentos -OCCAR-», que ñie formalmente establecida en enero de 1997, con sede en Bonn, para actuar como una oficina de programas conjunta en nombre de los países participantes. Entre los objetivos que se fijaban para la Organización estaban la coordinación de los requisitos a largo plazo de las naciones participantes, una política común de inversiones en el sector tecnológico de la defensa, mejorar la competencia y la explotación selectiva de la industria desarrollando una relación más estrecha entre las empresas de los países y su complementariedad y la renuncia al reparto de trabajos calculado en base a las adquisiciones realizadas por cada país en cada programa individual, aceptando a cambio que este cálculo se haga de forma global a lo largo de los años y de varios programas. La OCCAR tiene carácter de organización abierta, siendo necesario para incorporarse a la misma solicitar el ingreso con la participación en uno de los programas que gestione la Organización y firmando la Convención que rige su actuación y que tiene carácter de tratado internacional. Actualmente han solicitado su incorporación España, Bélgica y Holanda. España y Bélgica a través del Programa del Avión de Transporte Europeo -A400M-, y Holanda con el del heUcóptero NH-90. Como un paso más en este espíritu de cooperación europea en materia de armamentos, los Ministros de Defensa de Alemania, España, Francia, Gran Bretaña, Italia, se reunieron en París el 20 de abril de 1998 para discutir intereses comunes en el área de la defensa y de la reestructuración de la industria de defensa, como consecuencia de la cual emitieron una declaración que fue respaldada asimismo por Suecia y que condujo finalmente a la firma de una Carta de Intenciones (Letter Of Intent -LOI-), que fue firmada en Londres el 6 de julio de 1998 por los Ministros de Defensa de estos seis países, y cuyo objetivo es establecer un marco cooperativo para facilitar la reestructuración de la industria de defensa europea, buscando su competitividad y eficacia, obteniendo sinergias operativas a través de los diferentes sectores de negocios, así como la eliminación de la duplicación de capacidades estableciendo una distribución óptima de las mismas (Centros de Excelencia). Por otra parte, dado que, como se ha dicho anteriormente, uno de los objetivos buscados con estos acuerdos de cooperación es incrementar la interoperabilidad entre las Fuerzas Armadas de los países participantes armonizando sus requisitos operativos, existe otro foro Europeo donde se reúnen los Jefes de Estado Mayor de las Fuerzas Aéreas de los países de la OTAN y de otros países no pertenecientes a esta organización, que son los responsables de aprobar los correspondientes requisitos operativos de sus Fuerzas Aéreas respectivas. Este foro se denomina EURAC (European Air Chiefs), que se estableció en 1993 en París con el objetivo de fomentar la cooperación y la amistad entre las distintas Fuerzas Aéreas Europeas y mejorar la eficacia e interoperabilidad de éstas por medio de la cooperación en el nuevo entorno europeo de seguridad y defensa. Participación española en programas aeroespaciales de colaboración europea Inicialmente el Ejército del Aire, creado en 1939, se dotó de material fabricado en España, aunque de diseño alemán en su mayoría, como eran el Messerschmitt 109, el Heinkel 111, el Junker 52, y la avioneta de enseñanza Bücker, contribuyendo de esta manera a permitir el desarrollo inicial de la industria aeronáutica nacional. A partir de este primer impulso la empresa Construcciones Aeronáuticas S.A.-CASA-, desarrolló sus primeros proyectos propios como fueron los aviones de transporte Alcotán y Azor y, por su parte, la empresa Hispano Aviación acometía los proyectos de los aviones Triana, Saeta y HA-300, estos dos últimos reactores desarrollados con la cooperación del fabricante alemán Messerschmitt. Sin embargo, en la década de los años 50, al establecerse los primeros Convenios de Ayuda con los Estados Unidos, que tenían un importante contenido de ajoida militar, la industria aeronáutica nacional sufrió un importante retroceso quedando prácticamente limitada a tareas de mantenimiento de aviones de procedencia norteamericana. Afortunadamente, en la década siguiente, se inicia un Programa de inversiones para la modernización de las Fuerzas Armadas. En el marco de este Programa, el Ejército del Aire contrató con CASA, bajo licencia de la compañía americana Northrop, la fabricación de los aviones reactores de enseñanza y ataque F-5, que supuso para la industria aeronáutica española la incorporación de maquinaria, tecnología y procesos productivos modernos, esenciales para su nuevo despegue como industria aeronáutica que se confirmó con la iniciación de un nuevo proyecto de diseño y de-Colaboración internacional en la industria aeroespacial. sarrollo de un avión de transporte ligero español, el CASA-212-Aviocar, que realizó su primer vuelo en 1971, y que ha tenido un gran éxito de ventas a nivel mundial; siguiéndole posteriormente el CASA-Nurtanio-235 y el CASA-295, formando los tres una familia de aviones de transporte tácticos sin rival en el mundo occidental. En la década de los 70, el Ejército del Aire inicia una política de diversificación de fuentes de suministro, adquiriendo en Francia primero los aviones Mirage III y, posteriormente los Mirage F-1, introduciendo a la vez el concepto de compensaciones industriales que obligaban a los vendedores a transferir tecnología de defensa a las industrias españolas, permitiendo así que éstas pudieran reducir en alguna medida su retraso tecnológico con respecto a las europeas. Esta política de transferencia de tecnología se intensificó todavía más con la adquisición posterior, en la década de los 80, a los Estados Unidos, de los aviones de combate F-18, unos de los más avanzados de la época, que permitió a la industria nacional, tanto de fabricación de aviones como de electrónica de defensa, dar un paso trascendente que le ha permitido participar con éxito en el desarrollo del avión de combate europeo, el Eurofighter 2000, al mismo nivel que las industrias de los otros tres países participantes, Alemania, Gran Bretaña e Italia, así como en el resto de los programas que vamos a exponer a continuación. Programas actualmente el desarrollo En 1977, los Ministros de Defensa de Alemania, Gran Bretaña y Francia, en el seno del Grupo Europeo Independiente de Programas (lEPG), identificaron conjuntamente la necesidad operativa de un nuevo avión de combate, al que se denominó ACÁ (Agile Combat Aircraft). Posteriormente se unió Italia y, más tarde, en 1983, España, iniciándose un estudio conjunto de viabilidad para el desarrollo de un avión que satisficiera los requisitos previstos de un avión de superioridad aérea de altas características para el comienzo del siglo XXI. De estos estudios se dedujo que existían importantes diferencias entre los requisitos franceses y los de las otras cuatro naciones que no hacían posible una solución común por lo que, en agosto de 1985, por el Acuerdo de Turín, Alemania, España, Gran Bretaña e Italia decidieron iniciar un programa de colaboración que se denominó EFA (European Fighter Aircraft), y más adelante Eurofighter, retirándose Francia para desarrollar por sí sola el avión Rafale. Los objetivos comunes de las cuatro naciones para el Programa EFA eran los siguientes: -Proporcionar un Sistema de Armas aéreo que satisficiera los requisitos operativos definidos por las cuatro naciones. El «role» primario del nuevo avión sería el de Aire-Aire, teniendo asimismo la capacidad Aire-Tierra como «role» secundario. -Producir el nuevo avión en los plazos requeridos. -Minimizar los costes totales y compartir los costes y el trabajo del proyecto en relación con el número de aviones a adquirir por cada nación. A estos objetivos comunes hay que añadir los que quería alcanzar España por su parte, que eran los siguientes: ~ Mantener un adecuado nivel de desarrollo tecnológico de la industria aeronáutica española, disminuyendo o eliminando las diferencias con el resto de Europa. -Disponer del conocimiento y control de la tecnología empleada. -Aumentar el grado de independencia estratégica. -Adquirir experiencia en la participación en programas plurinacionales. En octubre de 1986 se firmó en Escocia, por los Ministros de Defensa de los cuatro países participantes, el Memorandum de Entendimiento Número Uno, o Memorandum General, que regiría el Programa a lo largo de todas sus fases. Las fases que se consideraron para el Programa son las siguientes: -Fase de Desarrollo. ~ Fase de Inversiones para la Producción y de Producción. Cada una de estas fases estaría cubierta por su Memorandum de Entendimiento correspondiente por el cual se comprometen las naciones a la financiación y a llevar a cabo los trabajos de la fase correspondiente, firmándose el Número Dos, correspondiente a la Fase de Definición, en noviembre de 1986. En febrero de 1987 se decide que el Programa se transfiera desde el lEPG, donde se había originado, a la OTAN, creándose una Agencia OTAN para la gestión del Programa, la Agencia NEFMA (NATO European Fighter Aircraft Management Agency), cuyo personal pertenece a las cuatro naciones participantes en el Programa. Finalizada la Fase de Definición del Proyecto, en noviembre de 1988 se firma el Memorandum de Entendimiento Número Tres, correspondiente a la siguiente Fase, la de Desarrollo. Para llevar a cabo el desarrollo del nuevo Sistema de Armas se establecieron dos Consorcios Industriales, uno como contratista principal del Sistema de Armas en general y otro del motor. El primero de ellos, denominado Eurofighter, estaba compuesto por las siguientes compañías aeronáuticas: DAS A de Alemania, CASA de España, British Aerospace (BAE) de Gran Bretaña y Alenia de Italia. Por lo que se refiere al consorcio del motor, denominado Eurojet, estaba compuesto de las siguientes compañías: MTU de Alemania, ITP de España, Rolls Royce de Gran Bretaña y Fiat Aviazione de Italia. Cada una de estas compañías subcontrata a su vez el desarrollo y producción de los diferentes equipos del avión con una serie de empresas de las naciones del programa; en el caso de España están participando cerca de 20 empresas principales de los sectores aeroespacial, de electrónica, de armamento, de automoción y auxiliar y alrededor de otras 250 empresas subsidiarias. En pleno proceso de desarrollo del nuevo Sistema de Armas tiene lugar un cambio del escenario geopolítico en Europa con el final de la guerra fría y la reunificación alemana. Como consecuencia de ello, las naciones del programa se plantean si el avión que se había definido con un requisito operativo apto para la situación geopolítica anterior era todavía el adecuado al nuevo y previsible futuro escenario, decidiéndose como consecuencia de ello llevar a cabo una revisión en profundidad de esos requisitos. Como resultado de la misma los Ministros de Defensa deciden, en la reunión que tuvo lugar en Bruselas en diciembre de 1992, llevar a cabo una reorientación del Programa que produjo cambios en las especificaciones operativas del Sistema de Armas, siendo uno de los más significativos el de dotarle de una mayor capacidad de ataque al suelo, equiparando así los «roles» Aire-Aire y Aire-Suelo, modificando asimismo los plazos de desarrollo del Programa que sufrieron un retraso importante. Estos acuerdos se materializaron en lo que se denominó Memorandum de Entendimiento para la Reoriéntación de la Fase de Desarrollo, el Número Cuatro, que se firmó en julio de 1995, cambiándose de nuevo el nombre del Programa, que pasó a denominarse Eurofighter 2000. Al objeto de reducir los costes de gestión tanto del Programa Eurofighter como del Programa Tornado, las naciones participantes en los mismos, que eran las mismas para los dos excepto en el caso de España que sólo participaba en el Eurofighter, decidieron integrar las dos Agencias OTAN, NAMMA y NEFMA, en una sola que pasó a denominarse NETMA -NATO Eurofighter and Tornado Management Agency-, firmándose en octubre de 1995 un nuevo Memorandum de Entendimiento, el Número Cinco. Una vez que las naciones consideraron que el desarrollo del Sistema de Armas se podía considerar como maduro, aunque todavía no finalizado, decidieron aprobar el inicio de la siguiente Fase, la de Producción, lo que tuvo lugar mediante la firma por los Ministros de Defensa, en diciembre de 1997 en Bonn, de dos nuevos Memorandums de Entendimiento, los Números Seis y Siete, el primero para la Producción del avión y el segundo para el Apoyo Logístico al Sistema de Armas. Mediante ellos, las cuatro naciones del Programa se han comprometido a la adquisición de un total de 620 aviones, con su Apoyo Logístico correspondiente, distribuidos de la siguiente manera: 180 para Alemania, 87 para España, 232 para Gran Bretaña y 121 para Italia. Actualmente están volando siete prototipos, dentro de la fase de desarrollo, que han realizado ya más de 1.500 horas de vuelo, estando prevista la entrega de los primeros aviones a las Fuerzas Aéreas de los países participantes en el plazo de un año. El nuevo avión de combate Europeo, Eurofighter 2000, también conocido por el apelativo de «Typhoon», está considerado por los especialistas como uno de los más avanzados de entre los que van a estar en servicio en las primeras décadas del presente siglo, comparable en muchos aspectos al considerado líder de esta categoría, el Estadounidense F-22, al que supera en el «role» Aire-Suelo, siendo algo inferior que él en el «role" Aire-Aire, principalmente por las extraordinarias características «stealth» de éste y su mayor potencia de motor. En el avión se integran del orden de 280 equipos diferentes, el 80% de ellos de nuevo desarrollo como son, por ejemplo, algunos de los más esenciales como el radar, el sensor pasivo de infrarrojos, los equipos de guerra electrónica, etc. A continuación vamos a describir algunas de las características destacadas del extraordinario Sistema de Armas que es el Eurofighter 2000 y de los equipos principales de que está dotado. Capacidad «supercruise» El Eurofighter tiene la posibilidad de volar a velocidad superior a la del sonido sin necesidad de utilizar el postquemador, es decir está dotado de capacidad «supercruise», característica que le proporciona una ventaja importante para el combate, así como en la reducción de consumo de combustible y de la señal infrarroja que produce la emisión de gases del motor. Esta es una capacidad que en el Eurofighter está extraordinariamente desarrollada y se puede considerar perfectamente comparable a la del F-22 americano. Los diferentes sensores del Eurofighter proporcionan datos procedentes del radar, del sensor pasivo de infrarrojos «Infrared Search And Track» (IRST), del identificador amigo/enemigo (IFF), de las medidas de apoyo electrónico (ESM) y, vía enlace de datos, de fuentes externas, mezclándolos y fusionándolos presentándole al piloto, finalmente, una única representación táctica, siendo la integración de los sistemas automática, así como la identificación y priorización de las amenazas, proporcionándole así al piloto solamente la información que necesita y cuando la necesita, depurada automáticamente para permitirle concentrarse en los aspectos tácticos de la misión. El proceso de fusión de sensores produce una única traza de cada blanco individual que puede ser reportado por varios sensores simultáneamente, cada uno proporcionando un subconjunto de atributos que se compilan para producir una visión más completa del blanco. Los algoritmos del software de los ordenadores del avión miden la fiabilidad de cada información antes de combinarlos para producir una identidad y prioridad fusionada del blanco. El aspecto, color y contenido del símbolo de cada blanco, le dice al piloto de qué sensor provienen los datos. Esta es otra característica en la que el Eurofighter puede no solamente ser considerado como comparable al F-22 americano, sino incluso aventajarle en algunos aspectos. El Eurofighter es un caza polivalente, bimotor, extraordinariamente ágil gracias a su configuración delta/canard que le hace considerablemente inestable y le proporciona gran agilidad, con una baja carga alar, un «drag» mínimo y una gran relación potencia / peso. Optimizado para el combate aéreo, tanto en distancias más allá del alcance visual como para el combate cerrado. La configuración inestable delta/canard combina un bajo drag supersónico con una gran agilidad subsónica. La baja carga alar y la alta relación potencia/peso combinadas proporcionan una gran maniobrabilidad, así como capacidad para despegues cortos. El combate más allá del alcance visual requiere una gran aceleración y régimen de subida para proporcionar la máxima energía, y por lo tan- Fernando Mosquera Silvén to alcance, de lanzamiento de los misiles. Para maniobrar en la posición de ataque sin perder esa energía se requiere un alto régimen sostenido de viraje supersónico, mientras que para escapar maniobrando de manera que se reduzca el alcance efectivo de los misiles del enemigo se requiere un alto régimen instantáneo de viraje. El combate cerrado requiere gran agilidad. La configuración delta/canard ofrece la mejor combinación de gran agilidad y pequeño tamaño. Una configuración delta por sí sola no proporciona la agilidad requerida, pero los alerones delanteros («canard») ajmdan a desestabilizar el avión. Por otra parte, la configuración inestable requiere la utilización de mandos electrónicos (fly-by-wire) para el control del avión debido a la nolinealidad de las ecuaciones aerodinámicas y para estabilizar artificialmente el avión. Para su control totalmente seguro, el avión dispone de un sistema de control de vuelo digital (Flight Control System) automatizado y cuadruplicado redundante. Capacidad «Stealth» Es preciso reconocer que el Eurofighter no es lo que se denomina un avión «stealth» (de baja observabilidad para cualquier sensor, especialmente los de tipo electrónico) de última generación y, por lo tanto, es en esta área donde el F-22 americano le aventaja de manera significativa. De cualquier manera, el Eurofighter presenta algunos aspectos que contribuyen a la baja observabilidad de su diseño. Por una parte, su pequeño tamaño contribuye a reducir la posibilidad de detección por medios ópticos e incluso, en alguna medida, por los de tipo electromagnético como es el radar. En lo que concierne a la detección por medio de radares, el avión se ha diseñado para cumplir el requisito establecido por las naciones de tener una Sección Cruzada Radar (RCS) frontal menor que la de cualquier avión en servicio o en producción cuando se establecieron dichos requisitos. A estos efectos hay que tener en cuenta que a la hora de aplicar las tecnologías «stealth» en los aviones de combate, las áreas consideradas más críticas son la frontal y posterior, por lo que es en estas áreas donde se requieren los niveles inferiores de firma radar. Por otra parte, la filosofía del sistema permite la operación pasiva utilizando el sensor de infrarrojos de búsqueda y seguimiento, «Infrared Search And Track» (IRST), su capacidad de enlace de datos con el «Multifunctional Information Distribution System» (MIDS), que le permite conocer la situación de cualquier amenaza, ya sea aérea, naval o terrestre que le puedan proporcionar otras fuentes sin emitir ninguna señal Colaboración internacional en la industria aeroespacial. por sí mismo, el casco de vuelo que le permite designar blancos a los misiles infrarrojos y otras capacidades que, en su conjunto, permiten al piloto del Eurofighter la posibilidad de detectar y seguir blancos aéreos y terrestres sin utilizar el radar, disminuyendo así sensiblemente la posibilidad de ser detectado. Por lo que se refiere a la reducción de la señal infrarroja, el calor que generan los motores del Eurofighter, debido a su diseño, es sensiblemente inferior al de los aviones actuales. Pasemos ahora a describir algunos de los equipos más destacados que incorpora el Eurofighter. Sensor pasivo de infrarrojos IRST/FLIR El equipo IRST/FLIR es uno de los que proporcionan al Eurofighter una capacidad adicional extraordinaria, superior a cualquiera de los aviones de caza en servicio actualmente. En su desarrollo y producción está participando una empresa española, Tecnobit. El IRST/FLIR tiene dos modos, el IRST (Infrared Search and Track) y el FLIR (Forward Looking InfraRed). El más significativo de ellos es el primero, proporcionándole capacidades de detección similares a las del radar, aunque con un alcance algo menor, pero con la ventaja significativa de ser un detector pasivo, lo que evita su detección por el avión adversario colaborando así a su capacidad de no ser detectado («stealth»). Este modo IRST incluye las capacidades de seguimiento durante el barrido (Track While Scan -TWS-) de múltiples blancos, priorización automática de blancos y cálculo de distancia e identificación. Por lo que se refiere al FLIR, constituye una ayuda secundaria para el aterrizaje y el vuelo a baja cota nocturno. Las imágenes obtenidas en el modo FLIR pueden ser representadas en la cabina para utilizarlas como ayudas a la navegación y al aterrizaje. El MIDS (Multifunctional Information Distribution System), es un equipo que confiere al avión una extraordinaria capacidad de supervivencia y supremacía en el escenario de la superioridad aérea. Consiste básicamente en un sistema de enlace de datos que permite la transmisión y recepción segura de información táctica entre el avión y/o los puestos de mando terrestres o aéreos, constituyendo una red de información 470 Fernando Mosquera Silvén y combate integrados en donde el conjunto de plataformas de combate forman una única plataforma virtual. De esta forma el avión puede recibir información de blancos adversarios que no puede detectar con sus propios sensores por encontrarse a distancias superiores al alcance de los mismos, o por debajo o detrás de él, dentro de la red de información de combate en que está integrado, ampliando así su capacidad de detección haciéndolo de una manera pasiva, lo que contribuye a su capacidad de no ser detectado («stealth»). El Equipo MIDS ha sido desarrollado por un consorcio internacional en el que han participado Alemania, España, Estados Unidos, Francia e Italia. Por parte española la empresa líder es INDRA. El casco de vuelo del Eurofighter integra el sistema de navegación y ataque del avión, permitiendo la designación de objetivos y el apuntamiento de las armas, la presentación de datos en el propio visor del casco y la de imágenes vídeo procedentes del FLIR, ampliando así el ángulo de acceso a los datos de navegación y combate que proporciona el «Head Up Display -HUD-» de la parte frontal de la cabina, permitiendo al piloto mirar a través de la cúpula en cualquier dirección para seguir a los aviones adversarios durante las maniobras de combate. Incluye asimismo gafas de visión nocturna y protección láser. En el visor del casco de vuelo se presentan los datos de navegación y los tácticos relativos al combate. En el caso de los misiles de corto alcance, su cabeza buscadora sigue el movimiento de la cabeza del piloto a través del casco de vuelo y se bloca en el blanco a decisión del piloto. El DVI (Direct Voice Input) constituye una innovación en los aviones de combate. Permite al piloto conseguir con una simple orden verbal la mayoría de las cosas que puede hacer con sus dedos, con muy pocas excepciones como puede ser el lanzar las armas. Con el DVI se pueden, por ejemplo, entrar datos y llevar a cabo funciones que no afecten a la seguridad como selección de presentaciones en las pantallas, de canales de la radio y de blancos. Asimismo, el piloto jefe de una formación podrá asignar blancos a los otros miembros de la formación, a través de enlace de datos, con una orden dada por medio del DVI. Colaboración internacional en la industria aeroespacial.. Estas capacidades del DVI permiten aliviar la carga de trabajo del piloto en la cabina, lo que es esencial en un avión monoplaza, sobre todo en situaciones comprometidas en combate. Finalmente, se puede decir que el Programa Eurofighter ha supuesto un importante paso adelante en la cooperación europea en materia de Defensa, así como para la industria aerospacial española que le ha servido para ponerse al nivel tecnológico del resto de industrias europeas. Avión de Transporte Militar Europeo -A400M- A principios de la década de los 80, en 1982, la industria aerospacial empezó a desarrollar ideas para el futuro avión de transporte militar. Participaban en este proyecto las compañías MBB de Alemania, Aerospatiale de Francia, British Aerospace de Gran Bretaña y Lockheed de Estados Unidos. El consorcio formado denominó al proyecto Futuro Avión Internacional de Transporte Militar, «Future International Military Airliner -FIMA-». En 1987 la compañía española CASA y la italiana Alenia se unieron al consorcio FIMA y, dos años más tarde Lockheed decidió abandonarlo después de que el Gobierno americano confirmara sus planes de apoyar la producción del sucesor del Hércules, el C-130J. En 1985, en el marco del Grupo Europeo Independiente de Programas (lEPG), se identificaron las necesidades futuras de un avión de transporte militar de capacidad media-alta destinado a satisfacer las necesidades a partir del año 2005 de los países participantes en el incipiente Programa -Alemania, Bélgica, España, Gran Bretaña, Francia e Italia -, con objeto de sustituir las flotas de aviones C-130 Hércules y C-160 Transall. El Programa recibió el nombre de Futuro Gran Avión, «Future Large Aircraft -FLA-». Entre los años 1985 y 1991 se llevaron a cabo los estudios relativos a la armonización de las especificaciones operativas del nuevo Sistema de Armas que tenían en cuenta el nuevo contexto geoestratégico que requería, y requiere aún más en la situación actual, reforzar la capacidad de transporte militar, principalmente a larga distancia y con gran capacidad de carga, para asegurar la movilidad estratégica y poder transferir en plazos breves los efectivos de personal y los medios materiales necesarios para el despliegue principalmente de las Fuerzas de Intervención Rápida cuya actuación se determine como necesaria en cualquier tipo de crisis o conflicto. En 1991, con el objeto de llevar a cabo los estudios de previabilidad, se formó un consorcio industrial formado por las compañías europeas del anterior consorcio FIMA, denominándose el nuevo consorcio «European FLA Group -EUROFLAG-». Los estudios de previabilidad se iniciaron en enero de 1992 y fueron seguidos por los de viabilidad que dieron comienzo en noviembre de 1993, finalizando en diciembre de 1994. A la recepción del resultado de los estudios anteriores las naciones por su parte elaboraron el documento Requisitos Europeos de Estado Mayor «European Staff Requirements -ESR-», que fue terminado en marzo de 1996 y firmado por los Jefes de Estado Mayor de las Fuerzas Aéreas de las naciones participantes. En otoño del siguiente año las naciones del Programa envían al consorcio industrial una Petición de Oferta, a la que éste contesta, ya con el nuevo nombre de «Airbus Military Company -AMC-», dentro del plazo establecido, en enero de 1999. Sin embargo, en el intermedio, a instancias por una parte de Gran Bretaña, y por otra de Alemania, se solicitan en paralelo ofertas a la Compañía americana Lockheed Martín de su avión C-130J, a Boeing del C-17, y a la rusa-ucraniana Antonov del An-70. Finalmente se decidió por las naciones del Programa que el avión que mejor satisfacía las necesidades de todas ellas era el A400M propuesto por AMC. El Programa está próximo al inicio del desarrollo del avión después de que los Ministros de Defensa de las naciones participantes, excepto Italia, firmaran el correspondiente Memorandum de Entendimiento el pasado 18 de diciembre, con la autorización para la firma del contrato con AMC, aunque ésta no se llevará a cabo hasta la ratificación por el parlamento alemán de estas decisiones. El Programa A400M, es el mayor programa de cooperación que ha existido hasta la fecha en lo que al número de naciones participantes se refiere, que aún así han sido capaces de acordar unos requisitos operativos comunes y el modo de llevar a cabo un programa esencial para cubrir las carencias en el área del transporte aéreo militar táctico y estratégico, carencias que se han puesto de manifiesto en los últimos conflictos como son los del Golfo Pérsico y de los Balcanes. Este nuevo sistema de transporte constituye un pilar básico en el desarrollo de la política Europea de Seguridad y Defensa con relación al despliegue de la Fuerza de Reacción Rápida y a la posible creación de un Mando de Transporte Aéreo Europeo. En cuanto al desarrollo del programa se ha escogido una aproximación diferente a la del Programa Eurofighter, con el objeto de reducir riesgos y costes. El Programa se va a llevar a cabo en una fase única denominada Fase de Desarrollo y Producción, a ser gestionada de acuerdo con los principios de gestión industriales aprovechando la experiencia que tiene la compañía Airbus en el desarrollo de programas para la aviación comercial de transporte. Por lo que se refiere a las naciones, la gestión del Programa será realizada por la Agencia OCCAR, de la que se ha hecho mención en la primera parte de este artículo, creándose en el seno de la misma una Oficina específica del Programa en la que participará personal de todas las naciones implicadas. Por lo que se refiere al reparto del trabajo, en lo que respecta a la estructura del avión y al motor se seguirá el mismo principio que en el Programa Eurofighter, cada nación tendrá derecho a una participación equivalente al número de aviones a adquirir, sin embargo, en los equipos que se integran en el avión se admite un poco más de flexibilidad para mejorar la relación coste-eficacia. Como dato significativo, a España le ha correspondido, entre otras actividades, la línea de montaje final de todos los aviones que se fabriquen, tanto de los 196 inicialmente contratados por las naciones -Alemania 73, Bélgica 7, España 27, Francia 50, Gran Bretaña 25, Luxemburgo 1, Portugal 3 y Turquía 10-, como los que se puedan exportar posteriormente a otras naciones, convirtiéndose así CASA en un Centro de Excelencia en lo que a la aviación de transporte militar se refiere. En lo referente a la tecnología que incorpora el nuevo avión, se puede mencionar primero su diseño que ha sido realizado totalmente por medio de ordenador, siendo de destacar asimismo la utilización de estructuras ligeras y materiales que reducen el consumo de combustible aumentando en contrapartida el alcance; en particular, es la primera vez que se va a hacer la estructura completa del ala de un avión de transporte de material compuesto de fibra de carbono (Carbon Fiber Reinforced Plastic -CFRP-). Dispondrá de un avanzado sistema de control de vuelo, basado en los utilizados en los aviones civiles de Airbus así como en lo que se refiere al diseño de la cabina de pilotaje, con pantallas multifunción en color y aviónica digital integrada que permitirá reducir la carga de trabajo del piloto, estando preparada para la utilización de gafas de visión nocturna. Misil Aire-Aire de guía radar activa y alcance superior al visual -Meteor-Este Programa, denominado inicialmente FMRAAM (Future Medium Range Air to Air Missile), y más tarde (Beyond Visual Range Air to Air Missile -BVRAAM-), fue iniciado de manera independiente por Gran Bretaña, que redactó por sí sola los correspondientes Requisitos de Estado Mayor para el nuevo misil, enviando una Invitación para Ofertar a di- Fernando Mosquera Silvén versas compañías europeas y estadounidenses en 1996. No obstante, dado el coste del proyecto, para poderlo compartir mediante un Programa de Colaboración Europeo con otras naciones, Gran Bretaña invitó primero en 1995 a Alemania, Italia y Suecia, y posteriormente, en 1996, a España, a participar en el Programa, invitación que fue aceptada así como los Requisitos de Estado Mayor elaborados por Gran Bretaña. Más tarde, Francia se uniría asimismo al Programa. El objetivo del Programa era desarrollar un nuevo misil aire-aire de alcance superior al visual, capaz de operar eficazmente en los nuevos y futuros escenarios operativos, que tuviera unas características de combate muy superiores a las de los misiles en servicio, en particular al misil AMRAAM (Advanced Medium Range Air to Air Misil), en servicio en numerosas naciones. Para cumplir lo anterior, era necesario actuar en varias áreas, una de las más importantes era la referente a la energía de propulsión del misil, tanto en su fase inicial de lanzamiento como, sobre todo, en su fase final, incrementando así su velocidad y maniobrabilidad. Prácticamente la mayoría de los misiles actuales de esta categoría disponen de un motor cohete de una sola etapa que permite al misil acelerar rápidamente hasta alcanzar su máxima velocidad en la primera parte de la trayectoria del misil; una vez que se extingue el motor el misil continúa su trayectoria hacia el blanco con una velocidad progresivamente menor, lo que tiene un efecto negativo secundario en el control de la dirección del misil ya que ésta se gobierna mediante las superficies externas de control del misil, actuadas por la presión aerodinámica, presión que se va reduciendo en paralelo con la reducción de la velocidad del misil, con lo que la eficacia de dichas superficies sufre una reducción equivalente, impidiendo que el misil pueda realizar virajes rápidos y de alta energía para poder seguir al blanco, lo que se considera esencial hoy día dado el incremento significativo que han alcanzado los aviones de combate modernos en su capacidad de maniobra a cualquier altura y velocidad, ya sea ésta subsónica o supersónica. Para subsanar el problema anterior, la solución que se ha adoptado en el nuevo misil ha sido la de dotarle de un motor híbrido que integra un motor cohete y un motor estato-reactor accionado por la presión dinámica del aire. Otras de las características mejoradas en el nuevo misil serán su capacidad de operar en ambiente severo de contramedidas electrónicas y su capacidad de enlace de datos para la dirección del misil en su fase inicial. En el concurso industrial internacional que se llevó a cabo para el desarrollo del misil quedaron como finalistas la compañía americana Raj^t-Colaboración internacional en la industria aeroespacial... heon y un consorcio europeo formado por las principales industrias de misiles y electrónica de los países participantes, proponiendo estas últimas el misil Meteor, nombre con el que se ha bautizado definitivamente al Programa al ser esta la solución finalmente adoptada en base a las características técnicas y operativas del misil propuesto, solución que tiene la ventaja añadida de permitir establecer una alternativa europea a los misiles americanos de esta categoría, a lo que se añade la independencia operativa que proporciona. El Programa ha sido aprobado recientemente por todas las naciones participantes excepto por Alemania, que se espera que lo haga en el transcurso del año 2002 permitiendo así proceder a la iniciación de la Fase de Desarrollo del misil. A diferencia de los programas anteriores su gestión no se realizará por ninguna Agencia intergubernamental, haciéndose cargo de la misma la Agencia de Adquisiciones para la Defensa de Gran Bretaña, con participación de representantes de las naciones del Programa. Satélites de Observación -Helios - El Programa para el desarrollo de un Sistema de Satélites de Observación Militar, tiene por objeto satisfacer las necesidades de información estratégica de las Fuerzas Armadas de los países participantes, permitiendo disponer de información fiable, precisa y actualizada con independencia y discreción. El Programa fue iniciado en solitario por Francia que, a la vista de los costes del mismo, decidió posteriormente hacerlo en colaboración con otras naciones invitando a Italia, que se adhirió en 1987, y a España, que lo hizo en 1988, firmándose en noviembre del mismo año un acuerdo entre estas naciones para llevarlo a cabo como un Programa de Colaboración. La primera parte del Programa comprendía dos satélites, Helios I-A y I-B. El Helios I-A se lanzó al espacio en julio de 1995 desde el Centro Espacial Francés de Guayana, estableciéndose en una órbita baja (algo más de 600 Kilómetros) heliosíncrona que permite obtener imágenes en el espectro visible de cualquier punto de la Tierra. Por su parte, el Helios I-B se lanzó en diciembre de 1999, siendo de características similares al I-A, aunque con algunas mejoras en el área operativa, cuyo objetivo es dar continuidad al I-A cuando éste deje de estar operativo. A los Helios I les sucederán otros dos satélites, Helios II-A, con lanzamiento previsto el año 2004, y Helios II-B, que incorporarán sensores 476 Fernando Mosquera Silvén tanto en el espectro visible como en el infrarrojo, mejorando asimismo las prestaciones de los Helios I en lo que se refiere a resolución y capacidad operativa. En esta segunda parte del Programa la participación de Italia ha sido sustituida por la de Bélgica. Por lo que se refiere a la participación industrial en el programa, al igual que sucedía en los Programas de Colaboración que hemos visto anteriormente, en su desarrollo y producción participan las industrias de las naciones pertenecientes al Programa. Misil infrarrojo Aire-Aire de corto alcance -IRIS-T-Con el objeto de desarrollar un nuevo misil aire-aire, infi:'arrojo, de corto alcance, que sustituyera a los actualmente en servicio en numerosas naciones, principalmente los americanos de la familia Sidewinder, con unas prestaciones muy superiores a los mismos en lo que se refiere a agilidad de maniobra, capacidad de detección y capacidad de ser apuntado mediante el casco de vuelo del piloto, aprovechando así las innovaciones tecnológicas introducidas en los aviones de combate actuales, se inició un Programa de Colaboración Internacional liderado por Alemania y con la participación de Canadá, Grecia, Italia, Noruega y Suecia, mediante la firma de un Memorandum de Entendimiento en agosto de 1996. A finales de 2001 Canadá se retiró del Programa, lo que ha permitido a España, que ha estado participando como observador en el mismo por tener la necesidad operativa de un misil de estas características, considerar la posibilidad de su incorporación, para lo cual se están llevando a cabo negociaciones que permitan determinar finalmente la conveniencia de integrarse en el Programa. Para conseguir la agilidad de maniobra el misil estará dotado de una tobera vectorial. En cuanto al sensor infi:'arrojo de detección y búsqueda, incorporará la capacidad de comparación de imágenes para evitar ser confimdido mediante el lanzamiento de bengalas por el avión adversario, teniendo un ángulo de detección de 180 grados. La Fase de Producción del misil está prevista que se inicie en la segunda mitad del año 2002. Al igual que en el Programa Meteor, la gestión del Programa no se realizará por ninguna Agencia intergubernamental, haciéndose cargo de la misma la Agencia de Adquisiciones para la Defensa de Alemania, con participación de representantes de las naciones del Programa. Avanzado Europeo de Pilotos de Combate (Advanced European Jet Pilot Training -AEJPT-). El Programa AEJPT tuvo su origen en 1997, en el seno de la Conferencia de Jefes de Estado Mayor del Aire Europeos (EURAC) mencionada en la primera parte de este artículo, teniendo como objetivo el desarrollo en colaboración, de un sistema Europeo para la formación de pilotos de combate, en un entrenador que les capacite para desarrollar posteriormente su actividad operativa en los aviones de combate de nueva generación, tales como el Eurofighter 2000, para lo que no son suficientes los aviones de entrenamiento actuales y no está justificado el desarrollo de una solución nacional individual, teniendo en cuenta el pequeño número de aviones de este tipo que necesitaría cada una de ellas. Para realizar los estudios previos de viabilidad, la industria europea ha formado un grupo denominado «European Industry Working Group -EIWG-», en el que participan activamente compañías españolas del área aerospacial y de electrónica. En base a los resultados obtenidos de los estudios de previabilidad, se ha redactado el Objetivo de Estado Mayor correspondiente y se ha firmado el pasado mes de diciembre un Memorandum de Entendimiento para la realización de la fase de viabilidad entre las naciones interesadas en este Programa que, inicialmente, son las siguientes: Alemania, Austria, Bélgica, España, Finlandia, Francia, Grecia, Holanda, Italia, Portugal, Suecia y Suiza. Designador de blancos electro-óptico de cuarta generación (Joint Airborne NavigatioN and Attack El Programa para el desarrollo de un demostrador tecnológico primero y de un equipo operativo posterior, de un designador de blancos electro-óptico de cuarta generación, que sustituya a los actualmente en servicio en las Fuerzas Aéreas Europeas, se inició en 1999 por Francia y Gran Bretaña, invitando posteriormente a participar a España e Italia que están negociando en estos momentos las condiciones para su entrada en este Programa de Colaboración Europeo. La particularidad que presenta este Programa en lo que se refiere a los aspectos técnicos de la colaÍ)oración española, estriba en que España está ofreciendo las capacidades que tiene el Ejército del Aire de integración de armamento y equipos en sus Sistemas de Armas aéreos en su 478 Centro de Experimentación en Vuelo, ello con independencia de la participación industrial española que corresponda. Entre las mejoras que se quieren obtener respecto a los designadores actualmente en servicio se pueden mencionar las siguientes: -Aumento del alcance de manera que se pueda actuar fuera del alcance de las armas del adversario («stand-off»). -Aumento de la resolución para mejorar la capacidad de identificación y poder de esta manera reducir los daños colaterales. -Integración de un detector óptico avanzado de gran estabilidad. -Desarrollo de algoritmos para la detección e identificación automática de los blancos, suplementado por la utilización de tecnología electro-óptica activa. --Adquisición y seguimiento de blancos múltiples. En marzo de 1993, en el seno de la OTAN se identificó el requisito operativo para dotar a esta organización de un sistema integrado en plataformas aéreas para el reconocimiento y vigilancia en cualquier condición atmosférica, día y noche, situado fuera del alcance de las armas del adversario ("stand-off). El sistema permitirá a las unidades de combate de la OTAN vigilar un amplio espacio terrestre desde una distancia considerable, seleccionar los blancos del adversario y dirigir el fuego contra ellos. A pesar de que este programa, considerado como un Programa de Colaboración Transatlántica, tiene una alta prioridad dentro de la OTAN, el comienzo de su desarrollo se está retrasando debido a los diferentes puntos de vista existentes entre las naciones participantes en lo que se refiere a la tecnología a emplear y a la capacidad de compartirla entre todas ellas. La propuesta inicial consistía en la utilización conjunta del sistema americano en servicio, el Sistema Conjunto de Vigilancia y Radar de Ataque de Blancos (Joint Surveillance and Target Attack Radar System -JSTARS-), propuesta que fue desechada entre otras razones por no presentar una solución de tecnología futura. La siguiente propuesta fue el desarrollo de un nuevo sistema basado en el JSTARS, al que se incorporarían los últimos avances tecnológicos en los sensores de detección y en el procesamiento y transmisión de la información. El nuevo sistema se denominaría NATAR, «NATO Advanced Transatlantic Radar», y fue aceptado por Bélgica, Canadá, Dinamarca, Luxemburgo y Noruega; pero el resto de las naciones europeas participantes en el Programa, las de más nivel de desarrollo tecnológico, Alemania, España, Francia, Holanda e Italia (Gran Bretaña va a desarrollar su propio sistema), lo rechazaron por las limitaciones impuestas por los Estados Unidos a la transferencia de tecnología y dominio operativo del mismo por todas las naciones, proponiendo a su vez en contrapartida una solución europea a desarrollar por estos países denominada SOSTAR, «Stand-Off Surveillance and Target Acquisition Radar», para lo cual se ha constituido un consorcio industrial formado por las compañías EADS (DASA) de Alemania, INDRA de España, THALES de Francia, FOKKER SPACE de Holanda y FIAT de Itaha. No obstante, las conversaciones han continuado y se han hecho progresos importantes para llegar a una solución de consenso que permita disponer finalmente de un sistema conjunto. El nuevo sistema se pretende que tenga unas características muy avanzadas, para lo que estará dotado de un radar de apertura sintética (Synthetic Aperture Radar -SAR-) de ultra alta resolución y apertura invertida (Inverse SAR), con la función de indicador de movimiento de blancos (Movement Target Indicator -MTI-) con resolución para grandes distancias, y con enlace de datos protegido contra perturbación electrónica. Esta tecnología permitirá la detección, determinación de la situación y seguimiento del movimiento de los blancos terrestres, distinguiendo el tipo de vehículos detectados ya sean de ruedas o remolques, si se trata de vehículos civiles o de tipo militar, e incluso si se trata de helicópteros, así como identificar las antenas de los sistemas radar de vigilancia y defensa aérea. El radar SAR, con antenas de barrido electrónico activo, proporcionará imágenes que permitan a los operadores del sistema, mediante su análisis, determinar cuáles son los blancos críticos dentro del campo de batalla, tales como puentes, aeropuertos, puertos, principales vías de comunicación y emplazamientos radar; por su parte, el modo MTI del radar presentará una serie de puntos de color que representan el movimiento, en tiempo casi real, de los blancos sobre la superficie. Mediante el análisis de estos datos y su correlación con otras fuentes de información, los operadores del sistema podrán determinar si los blancos móviles son vehículos civiles o amenazas potenciales, tales como un convoy de carros de combate o helicópteros volando a baja altura. La información obtenida se enviará por enlace de datos protegido a las estaciones de tierra para su diseminación a las unidades terrestres combatientes. Programa Europeo de Desarrollo Tecnológico (European Technology Acquisition Program -ETAP-) Cuando se encuentra cercana la entrada en servicio operativo del Eurofighter 2000, las naciones europeas ya han empezado ha plantearse su 480 Fernando Mosquera Silvén futura sustitución junto con la del resto de aviones de su generación. Esto que podía parecer un poco prematuro, no lo es en realidad dado el dilatado espacio de tiempo que hemos podido ver que transcurre desde que se empiezan a elaborar los requisitos operativos y se lleva a cabo el diseño y desarrollo del sistema, hasta que éste entra finalmente en servicio operativo. De esta manera, en el seno del Grupo de Armamentos de la Europa Occidental (Western European Armaments Group -WEAG-), se creó en 1998 un Grupo de Trabajo denominado Futuro Avión de Combate (Future Combat Aircraft -FCA-), para formalizar de manera conjunta los requisitos de las naciones europeas para la sustitución de los aviones de combate actualmente en servicio. Por su parte, de manera independiente, Gran Bretaña había iniciado estudios similares en 1990 con un proyecto denominado Futuro Avión Ofensivo (Future Offensive Aircraft ~FOA-), que fue modificado conceptualmente en 1997 dándole el nombre de Futuro Sistema Ofensivo Aéreo (Future Offensive Air System -FOAS-), al comprender el nuevo proyecto la posibilidad de integrar tanto aviones tripulados como no tripulados (Unmanned Combat Air Vehicle -UCAV-), y misiles de crucero lanzados desde plataformas aéreas. En la misma línea, Alemania había iniciado un programa similar denominado Futuro Sistema de Armas Aéreo (Future Airborne Weapon System -FAWS-). Dado que España, Francia, Italia y Suecia tenían también planes para un programa de estas características, decidieron unir sus esfuerzos a los de Alemania y Gran Bretaña, iniciando un Programa de Colaboración Europeo de Demostración de Tecnologías que, eventualmente, conducirá al desarrollo de un Sistema como el mencionado. A estos efectos, el pasado mes de noviembre, en Bruselas, firmaron un Memorandum de Entendimiento para el lanzamiento del «Programa Europeo de Desarrollo Tecnológico (European Technology Acquisition Program -ETAP-)». Entre los objetivos del programa está el desarrollo y demostración de tecnologías avanzadas que permitan reducir el riesgo y el coste de las futuras adquisiciones de Sistemas de Armas de combate aéreos, así como la mejora de los mismos en términos de flexibilidad, capacidad de destrucción, disponibilidad y supervivencia. Dentro de él se espera trabajar en un número de proyectos diferentes del orden de 25, entre los cuales uno de los más significativos es el que se refiere a la tecnología «stealth», para incrementar la capacidad de los sistemas aéreos de evitar ser detectados por los diversos sensores que posea el adversario, que es un área donde los americanos aventajan en mayor medida a los europeos. Este Programa se estima que constituye una buena oportunidad para la industria aerospacial europea de permanecer en el negocio de los aviones de combate. De lo expuesto hasta aquí, se deduce que el Ejército del Aire ha apostado decididamente por la cooperación internacional, esencialmente la europea, para el desarrollo de los programas con que se dota de los medios que requiere para el desarrollo de su actividad operativa que, para que pueda alcanzar el grado de eficacia requerido, está estrechamente vinculada al desarrollo científico y tecnológico. Esta colaboración permite, por otra parte, reducir el coste de los Sistemas de Armas haciéndolos más asequibles a los presupuestos nacionales, así como incrementar sustancialmente la interoperabilidad del Ejército del Aire con las Fuerzas Aéreas de los países aliados, mejorando de esta manera su eficacia conjunta en las operaciones, cada día más numerosas, en que intervengan como una coalición internacional. Como ventaja adicional, las colaboraciones llevadas a cabo han permitido que el sector aerospacial de la industria nacional se pueda posicionar adecuadamente dentro de Europa y del mundo occidental, lo que tiene gran trascendencia en estos momentos en que se está llevando a cabo una reestructuración en profimdidad de la misma No hay duda de que la intensa colaboración que está teniendo lugar en los países euro|)eos en el área de los programas de Defensa es un factor esencial que contribuye al proceso de consolidación de la Identidad Europea. No obstante, parece lógico que estas colaboraciones se amplíen en el futuro pasando a tener un carácter transatlántico con la participación de los Estados Unidos, aunque esto requiere todavía cierto tiempo para que se vayan eliminando las barreras existentes que impiden trabajar en un plano de igualdad, sin reservas en cuanto al conocimiento mutuo y la transferencia de tecnología y al empleo sin restricciones de los medios adquiridos en uno u otro lado del Atlántico. Libro del 50 aniversario de la OTAN. Décima Sesión Europea de los Responsables de Armamento. Carta de Intenciones relativa a las medidas para facilitar la reestructuración de la Industria de Defensa Europea.
parece clara; sobre todo cuando se considera uno de los pocos métodos del que la cultura española dijo algo y bien dicho. Con esto, empezamos reconociendo, en cierta medida, la tradición de la casuística moral como antecedente del estudio de caso actual, aunque maticemos las diferencias procedentes. La denostada casuística, reprochada de laxismo, siempre pasó por ser un producto eminentemente español y jesuítico. Además, este número también quisiera ser un homenaje a dos notables autoridades en esta metodología: a D. Julio Caro Baraja, forjador de lo que se ha venido a denominar la aproximación históricohumanista al estudio de caso para la investigación en Etnohistoria, y aD. Eduardo Moore Candelera, experto en Casuística Moral y profesor en la Facultad de Teología de la Universidad de Granada, que animó al editor del presente monográfico en el estudio y profundización sobre tal método allá por el año 1993. De la agudeza mental y finura intelectual del Dr. Moore podría contar algunas anécdotas acaecidas en los muy escasos encuentros que con él tuve, siendo ya, don Eduardo, una persona de edad muy avanzada, octogenario. Permítaseme que narre la siguiente: Una mañana, tras enseñarme la bien dotada y cuidada biblioteca-hemeroteca de su facultad, celebramos una entrevista de trabajo en su segundo despacho, el dedicado a investigación. En la pantalla de su ordenador se podía leer un pasaje en latín. Llevado por la curiosidad, le pregunté en qué estaba trabajando en ese momento. Me comentó que trataba de indagar la fidelidad a las fuentes de textos clásicos, según las citas, textuales e incluso perifrásticas, contenidas en un incunable sobre Teología Moral editado en Venecia. A mi pregunta sobre la exactitud de tales citas, y trato de recordar con la mayor justeza, creo que me dijo algo así como: Sería deseable que, la memoria de estos dos insignes intelectuales de la cultura española y sobre todo sus ideas, permanezcan entre nosotros. Desgraciadamente, ambos fallecieron en el año de 1995. Observará el avisado lector que todos los colaboradores de este número son profesores ligados a la universidad de Granada. No en vano, dicha X Presentación universidad cuenta con una cierta tradición en el tema tratado, pues, el casuista Tomás Sánchez (1550-1610) enseñó en ella cánones y teología. Contar sólo con colegas de tu propia institución no es una resolución presuntuosa de exaltación localista, sino el justo reconocimiento de lo propio, de lo próximo. Demasiadas veces, hemos comprobado y sufrido ese exacerbado aprecio de lo foráneo junto con un injustificado desprecio o, peor aún, ignorancia de lo nuestro. Afortunadamente, compañeros de esta plurisecular universidad del sur de Europa, nos han facilitado la convergencia de propuestas muy diversas, todas enriquecedoras, para profundizar en la indagación sobre el estudio de caso. Y esa ha sido, pues, la pretensión de este monográfico: dar una visión plural pero rigurosa de dicho método. Empezando por indagar en sus antecedentes históricos: la casuística moral, compara los antiguos (¿) casos de conciencia con la aproximación al estudio de caso propuesta por don Julio Caro Baraja. Desde campos disciplinares, como la psicología, la medicina, la educación y la sociología, se ofrecen visiones específicas del estudio de caso; y con preocupaciones particulares como la del siempre incitante salto del caso al estudio epidemiológico en ciencias médicas, la dicotomía sujeto único frente a grupo en investigación psicológica o las posibilidades del informe biográfico narrativo como estudio de caso. Se denota y realza, en definitiva, el papel del estudio de caso como método capital de la investigación interpretativa en educación. Para terminar con un examen cientimétrico, en las bases del Institute for Scientific Information de Filadelfia (ese conspicuo centro, ante todo, contador y no verificador de citas). Este último trabajo nos pone de manifiesto que el método del estudio de caso se usa en los más diversos campos y disciplinas; disipando, entonces, el mal imputado carácter de pre-científico. Obsérvese que la secuencia de artículos intenta ofrecer una cierta coherencia, pues van de lo más ideográfico a lo más nomotético, de lo más remoto a lo más reciente, délo humanístico a lo pretendidamente científico, con la esperanza de que el monográfico, que ahora lee, no se convierta en cajón de-sastre; imputación perversa, también, al estudio de caso. Por último, tanto los colaboradores como el editor, abrigamos la esperanza de que monografías como la actual contribuyan, en la medida de su modesto impacto, a comprender la relevancia de la discusión metodológica, la perenne cuestión del método, como vía de fortalecimiento de la ciencia y de la cultura españolas.
El estudio de caso es probablemente hoy día el método de investigación más de moda y factible en ciencias sociales. Sin embargo, ha sido usado desde tiempo secular. Este ensayo trata de revelar una antigua y poco considerada tradición cual es la casuística moral o estudio de los casos de conciencia. De hecho, esta tendencia metodológica ad hoc podría ser considerada un antecedente fundacional del estudio de caso. También, se revela que, en el siglo XVII aconteció una de las primeras e inevitables confrontaciones entre métodos de investigación, dentro de un fuerte debate ideológico, por parte de Blaise Pascal frente a miembros procasuistas de la Compañía de Jesús. El uso del estudio de caso (desde ahora, abreviadamente, EC) como método de investigación en ciencias sociales y, por consiguiente, en ciencias de la educación es amplio y extensivo. Se dice que ha llegado a convertirse en un término paraguas o en un cajón de sastre, en el que todo Antonio Fernández Cano 490 cabe y vale. Pero ante todo, el EC tiene una larga tradición que recorre la columna vertebral de la historia del conocimiento. Stake (1994) afirma que la historia del EC, como la historia de la curiosidad y el sentido común, se encuentra dispersa por la más diversa bibliografía. No es difícil encontrar literatura indicando que el EC se usó por primera vez en la Escuela Sociológica de Chicago a partir de relatos de vida {Ufe-stories). Rizo, 1991), al referirse a él, se remontan a los extraños trabajos de Le Play y sus discípulos durante el siglo XIX. Otros, incluso, buscan más atrás en el tiempo, en los humanistas del siglo XVII; pero, ¿quiénes son esos humanistas? 18), el primer EC educativo registrado se remonta a 4000 años A.C. Así pues, el EC, como método de indagación, se anticipa a los métodos que después hemos venido a llamar científicos. Y aunque se suele aceptar que los antecedentes del EC son bien remotos, trabajos específicos sobre el devenir histórico del EC son escasos y limitados. 240) reconoce que sobre este tema sólo tenemos breves extractos escasamente útiles, incluidos en libros de texto sobre metodología de la investigación cualitativa. Esto denota, entonces, que no contamos con ningún estudio sistemático que detalle el desarrollo histórico del EC. Alrededor del EC hay una constelación de términos: informe de caso {case-report), relato de vida, historia de vida {Ufe history), caso único, estudio histórico, relato biográfico, etc. Cada una de estas acepciones terminológicas está enraizada en su respectiva disciplina (Stake, 1988, pp. 251-274). En Bromley (1986, pp. 7-10), el lector podrá encontrar un amplio y útil glosario de términos. También puede verse Gutiérrez, Pozo y Fernández Cano, en este mismo número, para localizar una relación comentada de términos afines al EC. Para este ensayo histérico-metodológico, los conceptos que a continuación se exponen son esenciales. El antecedente fundacional: la Casuística Moral Casuística procede de la palabra latina casus: evento imprevisto, azaroso, fatídico, sin precedentes. En terminología legal, casus significa: hecho preciso, real o supuesto. El término casuística se define en la Enciclopedia firancesa como: «el arte de aplicar las leyes generales de una disciplina a un hecho real o supuesto» (Encyclopaedia, 1978). De este modo file usada en diversas disciplinas, aunque su principal desarrollo file acometido en el campo de la Teología Moral, a través del estudio de los casos de conciencia [desde ahora, abreviadamente CC] durante los siglos XVI y XVII. La casuística: Un ensayo histórico-metodológico en busca.. Por tanto, bien pudiera decirse, que la casuística es una sección de la Teología Moral centrada en el estudio de casos de conciencia. De acuerdo con Moore (1956Moore (, 1990)), desde el siglo XVI, los teólogos moralistas que usaron el método casuístico (casos de conciencia), en oposición a aquellos otros que usaban los métodos positivo y especulativo, ñieron llamados casuistas. Casuistas, pues, fueron aquellos que estudiaron y trabajaron con CCs. Según comenta Moore (1956), en las universidades europeas se enseñaba en primer lugar la Teología positiva y especulativa (usando como texto la Suma Teológica de S. Tomás de Aquino), impartida por una reputada autoridad en la materia. Un profesor de menor rango enseñaba la última rama, la Teología Moral, como una materia menor. Pero pronto, esta sección fue ganando importancia hasta el punto de conseguir el máximo status académico: la cátedra universitaria. En la universidad española de los siglos XVI y XVII, a esta cátedra se le llamó cátedra de CCs. Dublanchy (1932) distingue entre casuística natural y científica. La primera sería la aplicación práctica del conocimiento que hombres y mujeres comúnmente comparten; mientras que la segunda se dedica a aplicar conclusiones (teológicas, principalmente, o también de cualquier otra disciplina) a casos determinados y específicos con el fin de decidir de un modo práctico lo que está permitido de lo que no lo está. La casuística científica sería entonces una ciencia aplicada ya que debe estar apoyada en principios y conclusiones firmemente establecidos por otras componentes de la disciplina en que ella opera. Las aplicaciones hechas por la casuística tan sólo son correctas en tanto que ellas se ajustan objetivamente a una ley [divina, si se acepta este gran supuesto, o extensible a la ley natural], la cual es simplemente interpretada y aplicada por la casuística y por la Teología especulativa (Dublanchy, 1932(Dublanchy,, col. 1860)). Dos funciones básicas realizó la casuística, como: Se invitaba a los alumnos a resolver ciertos hechos (casos) aplicando el método deductivo a la luz de principios morales. La resolución de un caso podría contribuir al estudio de casos similares aplicando el método analógico. Bastante tiempo después, al principio del siglo XX, este método didáctico de enseñanza, denominado en sus inicios método del caso (desde ahora, abreviadamente, MC), fue desarrollado por la Harvard Business School como una novedad, cuando realmente ya tenía una larga tradición académica. La casuística fue considerada una ciencia aplicada que investigaba hechos particulares aplicando principios prees-Antonio Fernández Cano 492 tablecidos con el objeto de obtener normas que pudiesen gobernar la acción. Este método heurístico fue ampliamente usado por los moralistas más importantes de los siglos XVI y XVII, en asociación con otros dos métodos clásicos de la moral: el positivo y el especulativo^ (Moore, 1956, pp. 23-47). El caso de conciencia La casuística trabajó con CCs. En otro artículo de este monográfico (Fernández Cano et al.), el lector encontrará abundante información sobre el concepto y desarrollo del CC. Para obtener CCs, los casuistas utilizaron diversas fuentes: la literatura disponible de autores antiguos bien reconocidos, relatos de entrevistas confesionales, consultas a otros colegas, la observación de la realidad inmediata y, sobre todo, la discusión. Un CC lograba enriquecerse cuando era implementado para su enseñanza discursiva. Varias solicitudes fueron hechas a la autoridad papal romana demandándole un libro de texto con CCs estandarizados para ser usado como manual para la enseñanza. Ese texto nunca fue publicado; básicamente por dos razones: una, por la diversidad cambiante de los casos admisibles, y, otra, porque las cuestiones teológicas relevantes se reservaban por anticipado a lecciones en las que la Suma de Aquino era el libro de texto obligatorio (Moore, 1956, p. CCs fueron compilados en manuales llamados «sumas». En aquellas sumas históricas, era usual informar de un CC según el siguiente formado: -Descripción del caso: se informaba sobre las circunstancias objetivas y subjetivas relevantes al CC, justificándolo según la gravedad de la falta y la licitud de la acción, y teniendo en cuenta las dudas que se suscitasen. -Cuestiones sobre el caso: el CC se expresaba en términos concretos a través de cuestiones específicas. -Resolución de cuestiones: las cuestiones suscitadas se respondían con una solución justificada sobre la base de principios morales. Esta justificación debía documentarse en referencias normativas extraídas de la Biblia, de los escritos de los Santos Padres (fundamento positivo), de las Sentencias de Pedro Lombardo y de la Summa Theologica de Tomás de Aquino (fundamento especulativo), de los textos legales del Corpus Inris Canonici (fundamento autorizado) y finalmente el propio casuista podía usar su propio razonamiento teológico (fundamento personal). Cuando se usaba la técnica interrogativa de las preguntas a contestar con SÍ o NO, el formato de un CC sería ostensiblemente similar al dilema moral abierto (open moral dilema), típico de la aproximación de Kohlberg (1981) para el estudio del desarrollo en el niño de la conciencia moral. En resumen, una suma moral era una sucesión de casos glosados y resueltos a la luz de un único paradigma: los principios de la religión católica. Moore (1956) declara que los jesuítas en los siglos XVI y XVII realizaban una actividad formativa abierta conocida como Conferencia sobre CCs. Esas conferencias adoptaban dos formatos: la lección magistral dada por un experto o el debate analítico sobre un caso, en el que se invitaba a los participantes a resolverlo a la luz de los principios de la Escolástica. Este últirao formato didáctico era visto muy desfavorablemente por los estudiantes, a causa de las múltiples y minuciosas circunstancias implícitas en el caso que se suscitaban. El desarrollo de este método pedagógico merece la pena resaltarlo. Aunque el casuismo, como método de investigación cayó en el descrédito, como método didáctico sobrevivió en varias disciplinas denominándose generalmente método de casos. Al par de sus virtualidades formativas, un caso también se enriquecía cuando se implementaba tras su enseñanza discursiva. En colegios e incluso casas de la Compañía de Jesús, la moral práctica se enseñaba como una materia tanto a clérigos como a laicos. A veces, el maestro de casos los compilaba y agrupaba formando lo que se vino a llamar Collationes casuum [Casos comparados]. Sin embargo, los orígenes del MC se remontan bastante en el tiempo hasta la Edad Media. Fue una alternativa didáctica desarrollada en la universidad de Paris, el denominado modus parisiensis, el cual fue adoptado y adaptado por la Escuela Teológica Legal de Salamanca^ y, desde entonces, ampliamente implementado por la enseñanza jesuítica (Moore, 1990). No en vano, tanto Ignacio de Loyola como sus más estrechos colaboradores, estudiaron en París. Según Caro Baroja (1985), el punto de arranque del EC como método de indagación podría encontrarse en los aportes de Carneados de Cirene, Antonio Fernández Cano 494 quien dirigió el tercer periodo de la Academia platónica (la etapa antidogmática). El escepticismo gnoseológico platónico redujo todo el conocimiento al dominio de las apariencias cuando postuló que el razonamiento, la imaginación y los sentidos eran fuentes de error. Carnéades aprobó la imposibilidad de conocimiento absoluto ya que no existe ningún criterio de verdad. Por tanto, se hace imposible probar algo, si se asume que toda prueba está compuesta de asertos que deben, en definitiva, también probarse. Estamos ante el argumento de regresión al infinito {infinem regretio). No obstante, él estableció un vínculo fundamental entre una teoría epistemológica (el probabilismo) y su método de desarrollo (el casuismo) cuando declaró que en la vida real es suficiente con considerar, con el mayor grado de probabilidad o verosimilitud, tipos de instancias o casos en sí mismos^. Por tanto, podemos aproximarnos a la verdad, incluso aunque ella sea imposible de alcanzar con total certitud, acumulando razones o evidencias que apoyen una tesis según grados diferentes de probabilidad. Una declaración será considerada como probable si está basada en un criterio de verosimilitud o acuerdo de cierta consideración. La función de tal criterio no es sólo actuar como una guía para actuar en la vida real sino también, y ésta fue la gran novedad, presentar una norma de discusión con propósitos de indagación y de aproximación a la verdad. Un criterio de verosimilitud es teórico y práctico al mismo tiempo. La intuición penetrante de Carnéades consiste esencialmente en buscar el criterio no en relación con el objeto, sino en relación con la representación de tal objeto. No se trata, entonces, de oponer la certitud absoluta frente a la incertidumbre, antes bien, se trata de ubicarse entre ambas posiciones y afrontar todos los matices significativos dados por los casos intermedios. En resumen, Carnéades desconsideró la percepción directa de un fenómeno, abrazando un examen crítico de su representación. Esta realización estaba basada en la idea, escasamente considerada hasta entonces, de que una representación nunca permanece aislada sino que son varias las representaciones que se nos manifiestan juntas como los eslabones de una cadena. En Carnéades, podemos encontrar cuatro notas definitivas y radicales del EC: graduación de la verdad en base de grados de credibilidad subjetiva, poder persuasivo de la representación del caso, examen profundo del caso y defensa del libre albedrío frente al determinismo estoico. Desde un principio, el uso de EC como un método de indagación avanzó en paralelo con el probabilismo (búsqueda de la verdad probable). Aquellos CCs se nos manifiestan como cargados de humanidad y opues-La casuística: Un ensayo histórico-metodológico en busca... tos al rigor unitario de cualquier ley teogónica y/o dogmática. Después de Carneados, el probabilismo pretendió ser una teoría de la decisión y del enjuiciamiento de las acciones humanas, según la probabilidad proximal para el sujeto afectado (hoy día, a ésta concepción le llamamos enfoque emic) y no por la probabilidad distal del observador externo (lo que se denomina enfoque etic). Sin embargo, aceptar un probabilismo extremo como norma podría entrañar caer en el laxismo. Definimos el término laxismo como la teoría mediante la cual la decisión o el juicio emitidos sobre una acción humana serán lícitos siempre que el sujeto tenga una razón o probabilidad a su favor, no importa cuan insignificante sea ella. Cicerón es una figura clave para entender este pensamiento probabilista. El fue discípulo y doxógrafo de Carneados, particularmente en sus obras De fato [Sobre el destino] y Académica questationes [Cuestiones académicas], y precursor de lo que ahora sé ha venido en llamar con diferentes acepciones: aproximación cuasi-judicial al EC (Bromley, 1986, pp. 25-27), estudio de caso de una tentativa {one-shot CS) según Cooli y Campbell (1979, pp. 96-98) o aproximación modus operandi (Scriven, 1976). No es coincidencia que con bastante frecuencia haya que realizar probabilismo para valorar la verosimilitud de las apariencias en un caso legal. Nos sequimur probabilia [Nosotros seguimos lo probable] dice Cicerón en Tusculanae disputationes [Disputaciones en Túsenla] (II, a, 353). El agrupó los casos en dos tipos básicos: falso en apariencia y verdadero en apariencia. Dentro de cada uno de esos tipos, los casos eran clasificados en varios grupos; lo cual producía diferentes grados de acuerdo. La influencia de Cicerón en la jurisprudencia romana es manifiesta, sobre todo cuando en tiempos de Justiniano, alrededor del siglo VI, el corpus legal de casos se compila bajo el nombre de Digesto [Resumen]. La asociación entre probabilismo y laxismo no sólo fue un fenómeno conceptual sino también histórico, acontecido en torno al siglo III a causa de la aparición de lapsos o relajados. Este grupo de cristianos, habiendo perdido su ardor religioso inicial y tras un largo periodo de paz, tiene que hacer frente de repente a la cruel persecución del emperador romano Decio. IVIuchos de ellos apostataron o pretendieron negar su fe firmando la atestación [libellous], justificando tal decisión a la vez que usaban argumentos probabilistas. En las Cartas de Cipriano (o Thascius Caecilius Cyprianus), sobre todo en De lapsis [Sobre los lapsos], encontramos una fuerte condena a la debilidad de espíritu y a su justificación probabilista. Ellos [los probabilistas] se dicen a si mismos que al actuar no siguen sino lo probable y buscan, con gran esfuerzo, la verdad; incluso, aunque el caso sea probable, a ellos no les será posible encontrarla,,. Lo que es de vital importancia, lo que es preocupante, lo que los mejores hombres deben temer es que si todo lo que es ilícito fuese probable, o se demostrara que parece probable a alguien, aunque nadie más lo considerase cierto, se podría cometer [lo ilícito] no sólo sin tener el estigma de una mente criminal, sino incluso sin sentirse equivocado (Edición de Green, 1956; III, 16-26). Agustín de Hipona criticaba las consecuencias prácticas que entrañaba un probabilismo personal. Un interesente matiz subyace en ese razonamiento: condenaba asignar valores infinitos a la probabilidad. Un milenio después, Laplace en su Essai philosophique sur les probabilités [Ensayo filosófico sobre las probabilidades] retomó otra vez esta cuestión proponiendo un dominio limitado a la probabilidad ya que, si los casos posibles son infinitos, entonces la probabilidad tiende a cero; y, por consiguiente, una causalidad infinita sólo puede ser controlada o eliminada aplicando probabilidades finitas. La censura agustiniana al probabilismo no fiíe óbice a que sus obras De mendacio [Sobre la mentira] y Contra mendacium [Contra las mentiras] vengan siendo consideradas ensayos teológicos procasuistas no limitados a sólo recomendaciones morales o ascéticas. En estos libros, la distinción entre consejo, entendido como orientación desde una moral autónoma, y precepto, desde una moral heterónoma, se plantea por primera vez. Creciendo en la Edad Media La instauración de la confesión auricular (privada) fi: ente a la pública, durante los siglos VII a IX, acarreó la aparición y difiísión de los libros penitenciales. Estos eran en su inicio catálogos que mostraban un listado minucioso de pecados graves. Cada pecado se relacionaba con su correspondiente sanción; de aquí, la expresión de penitencia tasada. Era tal la variedad de pecados que algunos penitenciales relatan hasta más La casuística: Un ensayo histórico-metodológico en busca.. de veinte tipos distintos de homicidios, y cada uno con su correspondiente pena. Entonces, tales libros empezaron a denominarse sumas. Reunir casos y representaciones de bestias fueron dos tareas intelectuales características de la Edad Media. Los casos asociados a pecados se agrupan en sumas, las bestias en bestiarios. El Concilio 4.° de Letrán (alrededor de 1200 D. C), concebido como una fuerte reacción al movimiento albigense, da un nuevo impulso a la casuística imponiendo la confesión y comunión anuales. La primera suma eminentemente casuística podría ser Summa de penitentia et matrimoni escrita por Raimundo de Peñafort (alrededor de 1235). Este trabajo, al par, canónico y moral, sirvió como modelo para trabajos posteriores. Las sumas de casos (summa casuum conscientae) florecieron como una derivación de los viejos libros penitenciales, alcanzando su esplendor durante los siglos XIV y XV^. Expuestos tanto por tópicos como alfabéticamente, las sumas compilaban casos alrededor de términos relevantes y trataban de todo aquello que pudiera ayudar al creyente para su confesión. Pero estas compilaciones, así como los libros penitenciales, no pretendían ser tratados de Teología Moral estructurados sistemáticamente; antes bien, eran meras instrucciones para una mejor confesión de cada pecado. Alrededor de la mitad del siglo XVI, las sumas decrecen en su diseminación y proliferan los prontuarios^ o memorándum (summa confessariorum). Notables cambios pueden observarse entre ellos, probablemente originados por la influencia del Concilio de Trente (1545-1563), en el sentido de la transición desde una mioral autónoma a una moral heterónoma. Pero el casuismo como aproximación metodológica aún permanece. Otra sutil distinción podría hacerse entre las sumas de casos (para penitentes) y los prontuarios (para confesores). Estos últimos, tenían una nueva función añadida, una visión más ideal de la Moral, al estar basada en normas que no podían ser violadas. Por el contrario, en las sumas, las normas debían ser observadas. Además, en los memorandos o prontuarios, el examen de la conciencia estaba subordinado a la dirección del confesor, mientras que las sumas era más personalizadas y el juicio moral se basaba en conclusiones de la ciencia teológica sin mediación alguna. El casuismo católico durante el Barroco La corriente casuística arranca en el catolicismo con el heresiarca Pélagie (360-422), un duro oponente a Agustín, para continuar con la Compañía de Jesús y acabar en el siglo XIX, a modo de programa degenera-Antonio Fernández Cano 498 tivo lakatosiano (Lakatos,1983), incluso con el descrédito añadido al término casuística. Desde entonces, en el idioma castellano, casuismo ha venido siendo sinónimo de mala fe consciente, hipocresía, pensamiento perverso, intenciones diabólicas o nula relación del juicio moral con la acción. Sin embargo, la casuística no pertenece exclusivamente a sectores del pensamiento católico (ver Tallmon, 1994). El casuismo también aparece en otras religiones (judaismo. La casuística recibió amplio apoyo en la religión hebrea al principio de nuestra era. El deseo escrupuloso por aplicar la ley a la vida cotidiana y la observancia de la ley y la tradición, inclinaron a los rabinos a ser cada vez más sutiles. El Talmud contiene sorprendentes ejemplos-casos respecto al Sabbath y al cumplimiento de la pureza ritual {kosher). Incluso, en el anglicanismo del periodo isabelino, la casuística se desarrolló en cierto grado. Esto puede verse especialmente en los trabajos de William Perkins, a los que denominó Decisions of cases of conscience. Marcas de la casuística en monólogos dramáticos de la literatura teatral inglesa han sido estudiadas por Shaw (1999). Autores reformados pro-causísticos proliferan en el siglo XVII: Amesius, Baldwin, Schmid, Dannhauer o Gotold (ver Moore, 1956). La casuística católica busca las causas de los casos sin recurrir al mero azar ni a una estricta aplicación de ciertos principios morales. Trata de indagar en el mundo de las probabilidades dudosas cuasi incomprensibles, buscando causas, no fácilmente détectables, dentro de los hechos de la vida moral. Además, hay una gran preocupación por la unicidad del individuo y no tanto por el grupo; todos los problemas se focalizan sobre el hecho específico que atañe al sujeto individual. La proliferación de casos justificó la teoría probabilística como un medio de poner cierto orden en tal jungla de casos. Varias causas podrían sugerirse como razones para tal florecer de la casuística durante el periodo barroco (1550-1659). El Concilio de Trente, con su espíritu contrarreformista, renueva el sacramento de la penitencia, pero lejos de caer en el rigorismo medieval, se apela al razonamiento casuístico como un escape necesario para llevar a cabo una vida soportable, en el sentido más humanista de aquel momento. Por otro lado, profundos cambios económicos y sociales, originados por el emergente capitalismo, crearon situaciones no previstas (i.e. la mohatra, préstamo sin usura, el precio justo de los bienes, transacciones comerciales y nuevos tipos de contratos, tarifas adecuadas, etc.). No era inusual, en los siglos XVI y XVII, ver una pareja de casuistas en los puertos de Amberes o Gé-La casuística: Un ensayo histórico-metodológico en busca.. nova, en la lonja de Barcelona o en la feria de Medina del Campo, resolviendo in situ casos morales o legales afines a ese contexto. Aspectos morales sobre préstamos e intercambios en la España del Siglo de Oro pueden leerse en del Vigo (1997). En tercer lugar, la colonización de América suscitó profundas cuestiones de orden moral relativas a los derechos de conquista o al espíritu de las leyes de Indias. Piezas del teatro barroco español como el drama de Lope de Vega, La estrella de Sevilla, contienen casos brillantes cargados de perplejidad y resueltos con fina sutileza. Pero, ¿qué mente fue la responsable de tal desarrollo de la casuística? 27) apunta a la filosofía de los Nominales de finales de XV como la responsable y, especialmente, al nominalismo moderado de Ockham, fuertemente arraigado en Paris, especialmente en el colegio franciscano de Les Cordeliers. Los Nominales cayeron en un escepticismo dialéctico, causado por los absurdos, alcanzados a través del método especulativo, tales como los Sophismata, Imposibilia, Insolubilia, etc. Entonces, ellos optaron por una orientación empírico positiva tratando de comprender antes lo individual que lo universal, las operaciones lógicas antes que las entidades metafísicas. Para Ockham, el objeto de la ciencia no eran las cosas, sino los términos o conceptos que las representan y significan. La ciencia se reduce a un sistema de proposiciones de validez sólo probable. Esta exaltación de lo singular, por un lado, y la despreciativa aversión hacia las ideas metafísicas, por otro, tuvo un fuerte impacto sobre la casuística. En este punto, el casuista examina el caso con diferentes lentes y desde distintos ángulos. Él considera la diversidad de casos, plasma una representación de ellos y, si tiene que tomar una decisión, emite un veredicto teniendo en cuenta diversos grados de probabilidad manifiesta. El casuismo entrañaba abrir los ojos a un mundo de hechos ocultos y una gran diversidad de conductas en una sociedad determinada, Foucault (1978) se admira de las detalladas descripciones articuladas por los casuistas acerca del intercambio sexual: posturas de los amantes, actitudes, gestos y caricias, momento exacto del climax, etc. En ese mismo período barroco, los casuistas empiezan a aplicar su método de adoctrinamiento, el cual ahora podíamos llamar EC etnográfico, cuando salen a trabajar como misioneros en países lejanos a Europa. Pascal, en su V.^ Carta Provincial, condenó ese trabajo misional alegando que a los cristianos se les permitía, en verdad, practicar la idolatría. A este respecto, debiéramos recordar una serie de eventos que podrían explicar ese contexto misionero tan especial. Las Reducciones del Paraguay trabajando con indios guaraníes hicieron posible la super-Antonio Fernández Cano 500 vivencia de una lengua y una cultura, Hoy el guaraní es el idioma co-oficial de Paraguay junto al español. En estos tres eventos, podemos apreciar ese tipo de superidentificación tan propia de los etnógrafos que, tras una larga estancia en el campo, «acaban volviéndose indios». El rey de España, Carlos III, abolió las misiones jesuíticas del Paraguay, no sin cierta violencia previa, a causa de las presiones de otras potencias coloniales (del Portugal pombaliano, sobre todo), temerosas de su fuerza (véase al respecto crónica del jesuíta José Cardiel, 1988). Ricci acaba siendo el doctor Li. Como una cuestión de hecho, el impacto de otras culturas ethnoi sobre el pensamiento moral fue visto por las autoridades religiosas como una de las mayores amenazas. Casuística y Compañía de Jesús Es bastante evidente que la casuística fue un método típico de los jesuítas, hispanos en su inmensa mayoría. Ellos la aplicaron al estudio de dos materias: la teología y la educación moral (sus dos prominentes especialidades) pero también al ascetismo, la mística, en sermones y lecturas para los creyentes. Se ha dicho al respecto (de acuerdo con Acosta, citado por Caro Baroja, 1985, p. 537) que cuando el rey de España, Felipe II, visitó el colegio de la Compañía en Valladolid, en 1592, le fueron presentando «aquellos colegiales que eran filósofos, teólogos o casuistas». Como Alfonso Maria de Ligorio, el moralista católico del XVII, dijo: En temas moraleSy ellos [los jesuítas] han sido y aún son los grandes maestros (Moore, 1956, p. Los casuistas escriben una abundante cantidad de exhaustivos manuales de casos (summae casuum conscientiae) en busca de una mejor confesión, como una estrategia para una introspección previa que llevase al confeso a encontrar por sí mismo las causas de sus pecados. También escribieron manuales para el confesor (summae confessariorum), múltiples libros sobre vidas de santos, que ahora llamaríamos historias de vida, en busca de modelos de vida vía iluminación e incluso complejas guías para a3aidar a la gente a bien morir; por ejemplo, el libro de Polanco, Methodus ad eos adjuvandos, qui moriuntur [Métodos par ajndar a morir]. La proliferación de sumas fue tal, que desde 1560 a 1600, se editaron más de seiscientas; en consecuencia, el número de casos considerados fue enorme. Por ejemplo, la Summa resolutionum moralium pars prima et secunda, de Antonio Diana (1585-1663), consta de más de veinte La casuística: Un ensayo histórico-metodológico en busca. mil casos, entre los que encontramos las más disparatadas situaciones (Encyclopaedia, 1978(Encyclopaedia,, cols. No debemos olvidar que la casuística disponía de una vigorosa fuente de datos válidos y fiables: los secretos de confesión, un verdadero antecedente de la entrevista en profundidad que después implanta profusamente el psicoanálisis. El pequeño manual Examen y práctica de confesores y penitentes escrito por el gran compilador del casuismo, Antonio de Escobar (1589-1669), alcanzó, hasta 1646, cincuenta y siete ediciones. En su segunda parte, se ofrecen orientaciones a los penitentes para reconocer sus propios pecados según los diez mandamientos, todo ello escrito a la luz de casos prácticos. Los manuales para confesores y confesos permitieron llevar a cabo un riguroso examen de conciencia, no sólo cualitativo sino cuantitativo. Otros casuistas que trataron asuntos morales relativos a la confesión a través de casos fueron: Enmanuel Rodríguez, autor de Suma de casos de conciencia (1604) y Martín de Azpilicueta (1493-1586), que escribió en 1553 Enchiridium sive manuale confessariorum et paenitentium [Antología o manual para confesores y penitentes], conocido como el doctor Navarro, y que fue defensor de Bartolomé de la Casas en su proceso inquisitorial. Uno no puede dejar de admirar la impresionante capacidad analítica que llevó a examinar y escrutar los casos de un modo nuevo y sorprendente, tal como podemos ilustrarnos en el tratado sobre el matrimonio De sancto matrimonii sacramento disputationum [Disputaciones sobre el santo sacramento del matrimonio] de Tombas Sánchez (1550-1610). La riqueza y exactitud en la descripción de casos contenidos en ese libro, le llevó a su inclusión en el Index librorum prohibitorum [índice de libros prohibidos] hasta bien entrado el siglo XIX. La autoridad papal lo condenó bajo el cargo de exponer los vicios más depravados con la mayor delectación. De resultas, una conseja, circuló por España durante mucho tiempo, que decía: «Quién quiera saber más que el demonio, lea a Sánchez en De matrimonio». Las primeras críticas internas El desarrollo de la casuística no estuvo libre de críticas. 555-585) comenta la sutil imputación de criptojudaísmo, que pendió desde un principio sobre los casuistas, por su mayoritaria adscripción jesuítica, pues algunos jesuítas procedían de familias conversas al catolicismo tras la expulsión de los judíos españoles en 1492^. Pero el primer ataque formal contra la casuística y su moralidad probabilística tuvo lugar en España. Procedía del rigorismo dominico seguidor del pensamiento tradicional de Agustín de Hipona. Ese ataque se puso de manifiesto en un debate inicial sobre la predestinación, el libre albedrío y la gracia, entre seguidores de Molina (procasuístas) y quietistas (rigoristas). El drama de Tirso de Molina, El condenado por desconfiado, se centra en esta cuestión'^. 4, El descrédito de la casuística: Las Cartas Provinciales de Pascal El ataque más fiíerte, que condujo al descrédito del casuismo, vino del jansenismo, de la filosofía teológica de Port-Royal y en especial del afilado genio satírico de Blaise Pascal, de ciertos escritos suyos publicados anónima y clandestinamente como Les Lettres Provinciales (1656-57). Estos ensayos podrán parecemos hoy día algo así como vana disputa teológica, puro verbalismo con uso excesivo de sutilezas lógicas y vagos comentarios retóricos, pero, de hecho, las Cartas fueron una poderosa arma intelectual en una seria guerra ideológica de casi cuarenta años. Guerra paralela a otra más cruenta que libraron Francia y España, en los campos de batalla durante la primera mitad del siglo XVII, por la hegemonía en Europa. Me refiero a un interesante y oscuro periodo de la historia en el que tuvieron lugar trascendentales conflictos intelectuales. El movimiento puritano inglés estaba en su punto culminante. La ciencia europea moderna se generaba en torno al Colegio Invisible^. La Inquisición, al mismo tiempo, condenaba a Galileo Galilei. 108) llama a este periodo: el de la crisis de unos pocos y la caída del poder teológico, durante el cual todos los disputantes usaron herramientas de la racionalidad cartesiana emergente. El principal objeto en disputa era el poder de la experiencia en el libre albedrío y el método para obtenerla (los «por qué» y los «qué consecuencia»). El ataque de Pascal contra los casuistas, que él nombraba con el apocalíptico epíteto de los «veinticuatro hombres sabios», estaba dirigido especialmente contra Antonio de Escobar. Es de resaltar, que Pascal en su Cartas cita a Escobar hasta 67 veces (¡). Pascal reprocha a los casuistas que éstos mantenían que los judíos no estaban obligados a convertirse al cristianismo, en tanto que su religión les pareciera probablemente verdadera; él reproduce la controversia entre Agustín y Nicodemo en su Carta VII.^. También los acusa de fines maquiavélicos en base a su lema at majorent gloria Dei [A la mayor gloria La casuística: Un ensayo histórico-metodológico en busca... de Dios]. Se burla de las discusiones casuísticas considerándolas insoportables, risibles, absurdas, insignificantes y faltas de coherencia. La aguda crítica de Pascal, consistente en elegir y destacar casos extremos o destacar con comicidad ciertos efectos grotescos de convicción, estaba en la mejor línea de las críticas de Aristófanes contra Sócrates o de Platón contra los sofistas. Algunas de esas críticas a los casuistas, las encontramos unos pocos años después en la comedia de Moliere, Le Tartuffe (1664). 1062), que se había sobreusado, y que el abuso de la verdad debe ser condenado tanto como la fabricación de mentiras (p. Ese mismo argumento, acerca de los abusos de la casuística cuando se aplica al razonamiento moral, puede encontrarse en Jonsen y Toulmin (1988) y Jonsen (1995). A pesar del rechazo de Pascal al probabilismo moral, una de sus mayores preocupaciones fue el estudio de las probabilidades matemáticas y la cuestión de la incertidumbre (Bell, 1998). ¿Dónde y cómo se insertan las probabilidades a priori si no se opera con la tan en boga teoría bayesiana de la decisión? Pascal, en su VL^ Carta, acusa a los casuistas de errores metodológicos. En esa Carta habla largamente acerca de estos errores como métodos explícitos; a saber: Interpretación discrecional de términos y definiciones. Ya en su I.^ Carta dice: Sería un asunto de poco valor usar palabras sofisticadas y engañosas... sin explicarlas. Aceptar como probables, al mismo tiempo, opiniones opuestas admitiendo probabilidades dobles o varias perspectivas. La clave epistémica tan censurada por Pascal descansa en la aprobación de: Dadas dos probabilidades P(A) y P(B), entonces P(A u B/A) T^ P(A) + P(B/A) < 1 y P(A n B/A) ^ 0. Admitir que una nueva opinión había que dejarla que madurase gradualmente con el tiempo, hasta hacer posible que su aceptación tácita fuese completa. Omitir los principios morales por obvios y ofrecer sólo después una solución explicativa del caso. El resultado, entonces, es que cuando la teoría se presupone, el vínculo deductivo se rompe. Esto causó la proliferación de prescripciones particulares, una para cada caso a resolver, que Antonio Fernández Cano 504 trataban, en última instancia, de probarlo todo sin probar, entonces, nada. {Qui nimium probat nihil probat). En otras palabras, el unitarismo moral (¿podríamos hoy calificarlo como ñindamentalista?) ñie dejado al margen debido a esta endeble concepción epistemológica. Adaptar el caso a nueva condiciones específicas como caso especial (in casibus expressis), lo cual conduce a conclusiones inconsistentes tras aplicar un probabilismo laxo. Así, un tema conclusivo se transforma en un asunto ligero (i.e. un pecado mortal se convierte en venial) usando al argumento de la «caja de los trucos» de la probabilidad mínima. Citaciones sueltas de parágrafos y atribuciones incorrectas de citas a autores (Cartas XII y XV). Como método, el casuismo fue analizado y criticado sobre la base de su aspecto laxo, y se le consideró un rasgo propio del jesuitismo. Para el tradicionalista Pascal, los jesuítas aparecían como revolucionarios modernistas que inferían concesiones inadmisibles a través del probabilismo. En Pascal, la novedad y la modernidad era síntomas claros de error y, para él, los rasgos distintivos del error eran: la impiedad que lo hace horrible y la impertinencia que lo torna risible. Según Moore (1990), el cargo de laxismo no está suficientemente justificado, de hecho, reconoce sólo unos pocos laxistas en la Institutio, en concreto a Enmanuel de Sa (1530-1596), en su Aphorismi Confessariorum [Aforismos confesionales], y a Etienne Bauny (1575-1649), en Somme dépêchés qui se commettent en tous états [Suma de pecados que se cometen en todas las situaciones]. Incluso, un autor como Juan IMarín (1654-1725) puesto en el índice por sus 149 proposiciones, aunque, luego la Inquisición española no encontró nada condenable en ellas. Dentro de la propia Compañía de Jesús, se realizó cierto esfuerzo por rebatir las consideraciones de Pascal argumentando la existencia de tres errores en sus Cartas: Recoger frases procedentes de textos diferentes y exponerlas al público mediante una combinación sesgada. Extraer frases de su contexto (prout iacent) pero sin reflejar auténticamente el pensamiento del autor. Las autoridades de la Compañía^ nunca apoyaron, ni favorecieron opiniones laxistas en el campo moral. Según insiste IVIoore (1990), el cargo de laxismo no está justificado histórica, ni documentalmente^^. El pensamiento católico produjo tres razones justificatorias del descrédito del casuismo. Una fue la excesiva judicialization ya que se expusieron abundantes razones atenuantes que podrían eximir de la observancia de ley o del precepto. Se pueden encontrar fácilmente atenuantes en un caso preciso para realizar la subsiguiente resolución benigna. Poco a poco, incluso sin advertirlo {mutatis mutandis), los lazos morales se debilitan. Otra razón fue la prevalencia metodológica del casuismo sobre los otros dos métodos clásicos de la Teología: el positivo y el especulativo. Y por último, la casuística fue una reacción extrema contra el rigorismo agobiante que imperó en los siglos anteriores. Una temprana reacción interna al probabilismo procasuísta fue el probabiliorismo, entendido como el compromiso por atenerse a la sentencia más probable ajustada a la ley, incluso aunque la sentencia alternativa pudiera ser firmemente probable. Tirso González, prepósito general de la Compañía al final del siglo XVII, fue el paladín de esta reacción al considerarla como la solución a la depravación de costumbres que había notado en sus fructíferas misiones. El firmemente abogó por que el probabiliorismo fuese favorecido por la Compafiía, pero la XIII.^ Congregación General no apoyó tal propuesta en 1687. Una nueva y alternativa via también emergió tratando de conciliar ambas posiciones (probabilismo versus rigorismo) cuando Leibniz afirmó que el criterio de autoridad era lo único sobre el que la probabilidad debía basarse. En esta línea, en el siglo XVIII, Alfonso Maria de Ligorio pronunció el equiprobabilismo también como un estadio intermedio. El último gran caso de conciencia Al principio del siglo XVIII, precisamente en 1701, un profundo debate se suscita en Francia acerca del caso conocido como silencio obsequioso del penitente. Cuarenta doctores de la Sorbona publicaron un informe titulado Cas de conscience [Caso de conciencia] tratando de responder a la siguiente cuestión: ¿Hay algún impedimento en dar la absolución a un confeso cuando este se refugia en el silencio obsequioso {silentium obsequiosum)? El caso a debate consistía en si el confeso tenía derecho a controlar su propia confesión, en el sentido de mantener silencio, cuando lo creyese conveniente, a preguntas de hecho (quaestio facti), que no a las de derecho (quaestio iuris), hechas por el confesor? Tal caso estaba en desacuerdo con las cinco proposiciones heréticas advertidas por el papa Inocencio X, cuando condenó el jansenismo en su Antonio Fernández Cano 506 bula Cum occasione. Además, los partidarios del silencio obsequioso abogabán por una iglesia propiamente francesa, libre de los lazos de poder tutelar del pontífice y de la iglesia romanos en materia de hechos dogmáticos no revelados. Me refiero al duradero problema del galicanismo o defensa de las libertades de la iglesia francesa (galicana). El estado francés trató con extraordinario talento político este asunto usando el rigorismo jansenista como fuerza de disuasión y coartada. Al respecto, una profunda duda se suscita al interrogarse cómo y quién financió la edición de las 6.000 copias de la V.^ Carta de Pascal. Tan amplia edición excedía ampliamente la circulación normal de aquella época, siendo una empresa que trató de llegar a la sociedad y no a los expertos, como sucedía con este tipo de escritos. Este caso acarreó una nueva condena papal, a través de la bula Unigenitus (1713), del jansenismo contenido en el libro de Quesnel (1699) Le Nouveau Testament en français avec les réflexions moral sur chaque verse (El Nuevo Testamento en francés con reflexiones morales sobre cada verso]. Esta huía [Unigénitas] provocó en Francia una oleada de protestas, fomentó los desacuerdos teológicos y morales, dividió al clero francés, exacerbó los espíritus, enconó los ánimos, perjudicó el ideal unitario de la iglesia y preparó la subsiguiente reacción antirreligiosa (p. A lo largo de esa centuria, la edad de la razón y de las luces, la reacción ilustrada pronto derivó demoledoras consecuencias para la casuística y sus principales proponentes. Sabios de la Ilustración criticaron el pensamiento jesuítico desde el punto de vista pascaliano. Un irónico ataque contra aquellos puede leerse en el Cándido de Voltaire, donde se satirizan las políticas directivas en las misiones paraguayas. Un gran laxista, el marqués de Sade, en un divertido cuento provenzal. El cura casado, emite un ingenioso juicio sobre los casuistas y sus prácticas. Tal opinión podría ser, al par, acida crítica o abierta alabanza, cuando argumenta si es pecado para un laico celebrar misa. El casuismo se torna incapaz de alcanzar un avance original y sustantivo. Y aunque parezca paradójico, pasa a concebirse como una aproximación conservadora a las cuestiones moral, cuando un siglo antes fue acusado de realizar concesiones inadmisibles por laxista. Por ese tiempo, mediados del XVIII, los jesuítas fueron expulsados, con la aquiescencia de la autoridad papal, de varios países católicos, España incluida. Borrada por el viento de la historia Aún en el siglo XIX y principios del XX, el casuismo se mantiene con cierto nivel de influencia con autores como Gury, Ballerini, Bucceroni o la escuela de Tubinga^^. Una vez abandonadas las veleidades laxistas, la casuística continúa hasta el siglo XX con gran severidad y rigor como el método definitivo de la Teología Moral católica. La casuística moral se sigue impartiendo como asignatura obligatoria en el programa de los seminarios católicos para la formación de novicios. Todo sacerdote necesitaba superar varios exámenes para obtener la condición de cura parroquial. Uno de ellos, era el examen de CCs, en el que debía resolver casos legales, canónicos y morales ante una comisión de clérigos superiores. Se publican bastantes manuales de casuística para enseñanza de la Moral, como ejercicios de aplicación de leyes canónicas y principios morales religiosos. Incluso, durante la mitad del siglo XX, se siguen escribiendo libros sobre casos. Pero tras el II Concilio Vaticano (1962-1965), la casuística desaparece completamente de los currículos clericales y de cualquier referencia religiosa. Hoy día parece algo totalmente olvidado, borrada por el viento de la Historia. 457) señaló, la Teología Moral y su método asociado (el casuismo) por un exceso de opiniones infundadas y exageradas perdió toda su validez tras ser la reina de las disciplinas y el método esencial. Esta conexión concurrente entre disciplina y método fue, en opinión de Moore (1956, pp. 50-54), junto con el fuerte sesgo judicial, la responsable de la degeneración del programa casuístico. De acuerdo con la metodología de Lakatos (1983), podría decirse que la casuística cayó en una heurística negativa, llena de anomalías y fue incapaz de proteger el centro firme de la teoría moral sustantiva. La proliferación de casos sólo condujo a explicaciones laxas, a hipótesis auxiliares ad hoc. Ese protoempirismo fue determinado por un exceso de fiabilidad a costa de una pérdida de validez. Desde el tiempo de Pascal, el cargo de anacronismo ha pendido como una espada de Damocles sobre la casuística y sus posibles logros. Sin embargo, cuestiones ético-morales aún están presentes y su estudio está siendo acometido por un número creciente de disciplinas; por ejemplo, incluso, por la Estadística (¿)^^. Es divertido, hoy día, asistir a una sesuda disputa entre las diversas comprensiones de la práctica moral, concretamente entre el principlismo Antonio Fernández Cano 508 versus la nueva casuística (los dos principales métodos contendientes). Strong (1999) apunta a la nueva casuística «novedosas» objeciones tales como: proporciona conclusiones diferentes sobre casos cuando se eligen paradigmas alternativos o no puede lograr consenso sobre aspectos controvertidos. Kopelman (1994) glosa insistentemente el problema del sesgo. Sin embargo, las aproximaciones metodológicas a las cuestiones morales confían en el supuesto infundado de una moralidad común, cuando es la existencia de tradiciones plurales lo que puede conducir a dificultades relativas a conclusiones en cuestiones morales. Aunque para algunos (i.e. Nordgren, 1998), una «casuística imaginativa» podría ser preferida si se compara con el principlismo. Nuevos campos, no sólo los de la ética y la moral, están siendo considerados, usando la casuística como una aproximación metodológica emergente: estudios sobre la paz, ecología, prensa (Boeyink, 1991), ingeniería (Pavlovic, 1985), medicina y bioética (Tomilinson, 1994; Wildes, 1993) y estudios feministas (Sichol, 1992). Así pues, no sería arriesgado hablar del retorno de la casuística o que ha vuelto a estar de moda. Hoy las verdaderas cuestiones deberían ser las cuestiones morales. El academicismo postmodernista evidencia un creciente desencanto con los frutos de la actitud moderna y una creciente insatisfacción con la noción de investigación libre de valores y con la banalidad del relativismo (p.l9). Pero esa es otra historia que podría considerarse en un próximo ensayo. ^ El MC fue usado por autores como Vitoria, Soto, Cano o Suárez, y explicitado en sus tratados De lustitia i Jure (Sobre la justicia y la ley) (Moore, 1990, p. ^ Para consideraciones adicionales acerca de este período, véase Brehier (1957). ^ Famosas y divulgadas sumas previas al concilio de Trento fueron: Summa Astesana (1468) de autor desconocido, Summa Pisana /Pisanella (1325) de Bartolomé de Saint Concorde, Summa Angelica (1476) de Angelo Chivasso, Summa Pacifica (1479) de Pacifique de Ceredano, Summula confessorum or Summa confesionalis (1472) de An tonino de Florencia y Summa Sylvestrina (1516) de Silvestre Prierias. [Sumas de confesores o (casos de conciencia) desde los inicios hasta Silvestre Prierias. [Sumas de casuística y manuales de confesión en la Edad-Media (Siglos XII-XVI)]. ^ Recuérdese que en 1492, el mismo año del descubrimiento de América, los judíos españoles abandonaron en masa Sepharad. ^ Desde un punto de vista literario, Mateo Alemán (1547-1615), en ima de las más celebradas novelas picarescas del Siglo de Oro español. Vida del picaro Guzman de Alfarache (1604), da una aguda visión del casuista como aquella persona que mide lo inmedible, que distingue donde no hay nada que distinguir. Lo compara con la huésped que tasaba y cortaba la escasa comida que daba a los famélicos estudiantes de la universidad de Alcalá: Como si el casuista que midiera [la comida] por fortuna supiera mis limitadas necesidades... sin discutirlas conmigo (p. 313) cuenta la excéntrica oposición a la Nueva Ciencia del XVII, propuesta por Robert Crose, un pseudoaristotélico, quien mantenía que la Royal Society inglesa era una conspiración jesuítica contra la sociedad y la religión. ^ Por otro lado, también se emitieron decretos y provisiones papales contra los probabilistas por los papas Urbano VIII, en 1643, Alejandro VII, en 1665, e Inocencio XI, en 1679. El jansenismo tampoco estuvo libre de cargos, su libro capital Augustinus (1640) fue puesto en el índice en 1653 por el Papa pro-español Inocencio X en su bulla Cum occasione [Con oportunidad]. Dentro del mundo reformado, la reacción contra la casuística no fue menos airada. Lutero quemó la Summa angelica de casibus conscientiae. Kant, Kierkegarrd o Lawrence condenan la casuística al considerarla como un modo inmoral para evadirse de la pura ley de Dios prestando sólo atención a la ley de los hombres (Caro Baroja, 1985, pp. 540-585). ^° Moore (1990) estudió con detenimiento documentos jesuíticos como las Constituciones de Loyola, las Actas de las Congregaciones Generales (de la 12.^, en 1657, a la 14, en 1696-97), la Ratio Studiorum y cartas circulares de los prepósitos. ^^ Gury escribió un tratado de Moral, Compendium theologiae moralis (1850), usado durante mucho tiempo para la enseñanza de la Moral como asignatura en los seminarios católicos. También escribió Casus conscientiae in praecipuas quaestiones theologiae moralis (1865), una verdadera guía metodológica para el desarrollo de CCs. La Escuela de Tubinga, con autores como Brunner o Thielicke, enfatizaba lo singular y peculiar de cada una de las acciones humanas, de tal modo que ninguna ley abstracta general podía controlarlas (vid Moore, 1990, pp. 223-245). ^2 Así podemos leer, en un buen diccionario de la lengua española esta acepción: ES-TADÍSTICA: Estudio de los hechos morales o físicos que se prestan a numeración o recuento y a comparación de las cifras a ellos referentes (RAE, p.
Este estudio considera dos aproximaciones a un método de investigación tan complejo como el estudio de caso. Por un lado, el antiguo y seminal enfoque del caso de conciencia, se considera con profundidad. Por otro, también desarrolla conceptual y metodológicamente una de las diversas acepciones actuales al estudio de caso, la histórico-humanista según propuso Caro Baroja. El objetivo central de este trabajo podría ser presentar la aproximación histórico-humanista como contraste con su alter ego, el pretérito caso de conciencia, exponiendo coincidencias y diferencias entre ambas. No es nuestro propósito hacer declaraciones tajantes, ni llevar la discusión a un fin y, menos aún, declarar verdades infalibles. Este artículo no es un resumen legal, ni tampoco una exegesis bíblica. Abrigamos la esperanza de que tras la lectura de este texto, el investigador que opere con estudio de casos, comprenda que tal método tiene un rico antece-514 Antonio Fernández Cano, Teresa Lara Moreno... dente como fue el caso de conciencia y cuya influencia en el campo educativo fue notable, especialmente en el estudio del desarrollo de la Educación Moral (véase Fernández Cano, en este número). Un supuesto adicional se asume de modo optimista: si sabemos dónde hemos empezado, seremos capaces de tener una mejor perspectiva de hacía dónde queremos ir. No estamos abogando por promover que la aproximación del caso de conciencia (desde ahora abreviadamente CC) sea aplicada para resolver cuestiones éticas. En su momento, el CC tuvo que hacer frente a todo un espectro de investigación que el tiempo se encargó de difuminar y, supuso, entonces, un notable apoyo para el despliegue de las tareas educativas. Estudio de caso: Un término ampliamente usado El uso del estudio de caso (desde ahora, abreviadamente, EC) como método de investigación en Ciencias Sociales y, por consiguiente, en Ciencias de la Educación se incrementa y expande quizás como una respuesta a las promesas no cumplidas de otras formas «más científicas» de métodos de investigación educativa. Cualquier estudio metodológicamente atrevido o difícil de adscribir a un método predeterminado, pretende estar realizado a través de EC, como si aquel tomase la validez del término. Es evidente que existe una plétora de estudios, en las más diversas disciplinas que precipitan en el campo de la educación, denominados a la ligera e infundadamente como ECs. Son múltiples las variantes aceptadas y podrían incluir a: estudio etnográfico, informe de caso {case-report), caso legal o aproximación cuasijudicial, historia de vida, relato de vida, constructo intelectual, informe psicodiagnóstico, estudio de caso de una tentativa o aproximación modus operandi^, diseños N = 1 (o diseños de sujeto único o de línea base) y diseño de serie temporales de grupo único. Cada una de estas acepciones del EC obedecen a la disciplina en la que el EC opera y se enraizan en ella como método de indagación propio. Ante tanta diversidad de acepciones, pudiera pensarse que el síndrome del lecho de Procrustes^ (Howe y Eisenhart, 1990) está inexorablemente presente cuando se valora una investigación realizada mediante EC. Y dado, además, que algunos consideran y utilizan al EC tan ligera Un debate metodológico entre dos aproximaciones al... y superficialmente, sería necesario, entonces, establecer ciertos límites metodológicos a su uso. A pesar de este polimorfismo que pareciera ser un síntoma de debilidad, el EC es un método de investigación bien fundamentado y actual. La Asociación Mundial para la Investigación y Aplicación del Método de Casos (WACRA: World Association for Case method Research and Application) es un exponente de su uso actual con sus conferencias internacionales anuales (Klein, 2000). Pero sobre todo, el EC tiene una larga tradición reavivada en años recientes que recorre la columna vertebral de la historia del conocimiento. Falsas concepciones sobre el estudio de caso Es posible localizar en la literatura sobre EC y en las creencias de los investigadores una serie de falsas concepciones sobre este método, entre las cuales podríamos incluir las siguientes: El EC es un método básico de indagación científica, quizás el básico, pero no excluye otros métodos diseñados para tratar con diferentes tipos de problemas (Toulmin, Rieke y Janik, 1979). De hecho, y en búsqueda de la deseada complementariedad metodológica, el EC podría usarse con una multiplicidad de métodos disponibles para obtener hallazgos creíbles e, incluso, causaciones consistentes. El EC no sólo permite alcanzar intuiciones fundadas, sino que también tiene la fuerza para confirmar o refutar una ley o principio derivados de una teoría. 289) expone que un solo caso pudiera ser convincente e incluso conclusivo. O sea, tal como la lógica deductiva dicta, una simple refutación es más efectiva para falsar una teoría que múltiples confirmaciones (Platt, 1964). Esta visión, por la simplicidad, ha determinado que los investigadores cuantitativos consideren al EC como un medio para generar hipótesis, cuando usan casos típicos, o considerar a los «islotes» (outliers) como caso atípleos que no verifican una hipótesis globalmente aceptada. Sin embargo, los investigadores cualitativos han ido más allá, hasta el punto de considerar al EC como generador inductivo de teoría fundamentada (Glaser y Strauss, 1967). Ausencia de rigor disciplinado. El EC tiene reglas de evidencia y fuentes de error, como cualquier otro método de investigación, en sus cuatro fases procedimentales: enfoque del problema, recogida de datos, análisis de datos y discusión de hallazgos relativos a relaciones encontradas, soluciones propuestas y/o decisiones tomadas. Antes de iniciar un EC, sería apropiado tener in mente ^ov anticipado los cánones de evidencia y los supuestos previos, para poder verificarlos fielmente durante la investigación. Estos cánones y supuestos atañen a la validez, a la fiabilidad y a aspectos éticos de la investigación, y debieran ser continuamente evaluados y expuestos en el informe del caso. Todo EC puede y debiera ser riguroso, aunque el control de las cuestiones metodológicas es más responsabilidad directa y continua del investigador, y menos del diseño de la investigación propuesto de antemano. El EC opera con hechos empíricos de muy distinta naturaleza y hechos concretos procedentes de múltiples fuentes. Se requiere, por tanto, la selección, por cualqxiier procedimiento muestral, de un conglomerado específico de observaciones naturales (o cualquier otro dato empírico), a partir de una población sensible de observaciones admisibles. Un EC no pretende desarrollar generalización alguna; aunque sus resultados tienden a ser generalizables en el grado en que el lector pueda encontrar similitudes entre el caso informado y el caso propio, el vivenciado por el lector. Además, el desarrollo de un EC en escenarios múltiples pudiera ser usado con función generalizadora. Pero, tal como Campbell (1975) se refería a esta cuestión, ¿cuántos grados (escenarios) de libertad necesitamos para generalizar? Sturman (1997) da esta respuesta:...es necesario asegurarse de que los rasgos relevantes de un caso están documentados, tal que una nueva situación pueda iluminarse por una comprensión muy completa del caso conocido (p. Un caso no se estudia al margen de su estructura conceptual. Se delinea en una serie de contexturas: física (de tiempo, lugar y gentes), sistémica (anidado o cruzado en el campo) e ideológica (girando alrededor de una amplia constelación de normas, valores y creencias). La definición de un EC como un sistema acotado (Stake, 1988) es, en verdad, precisa y apela a una cierta conceptualización de la unidad o totalidad de un sistema con cierto tipo de limites o fronteras; caso en el que se encuentra algo valioso, «agua dulce» dice el propio Stake. El EC opera en diversos programas epistemológicos. En el programa positivista, adopta una tendencia reduccionistaunitarista a la recherche de las características primarias, manifiestas y elementales del caso, tal como puede inferirse del libro de Durkheim, Las formas elementales de la vida religiosa (1982). En el programa interpre-Un debate metodológico entre dos aproximaciones al. tativo, el EC es pluralista, ya que escudriña cualidades complejas, contextúales, secundarias, dispersas y no manifiestas, aunque obviamente no son menos básicas (al respecto, véase Gutiérrez, Pozo y Fernández Cano, en este número). El estudio de caso histórico-humanista: ¿Por qué no otra aproximación? Disponemos de libros ñmcionales y útiles que describen el EC como un método general de investigación (i. e. Además, hay muchos más trabajos de investigación y de corte metodológico sobre EC de los que a primera vista pudiera parecemos. Así, si se realiza una búsqueda bibliográfica a través de las diversas bases de datos de ciencias sociales (ERIC, SSCI, Psychlnfo,...), usando los descriptores Case Study and Research Methodology, propios de cualquier tesauro completo, encontraremos que esa búsqueda arroja bastantes referencias. Un ejemplo palmario y próximo de ello puede localizarse en Delgado López-Cózar y Fernández Cano, en este número. Aquí, se considera otra acepción más al EC, tratando de instrimientar un nuevo significado del EC que resuma su desarrollo histórico en la tradición metodológica hispana. Julio Caro Baroja (1985, pp. 29-41), el maestro de la Etnohistoria española, ofirece esa nueva cualificación del EC tal como ñie utilizado por él mismo. Ese nuevo significado del EC puede encontrarse en el prefacio de su magistral trabajo Las formas complejas de la vida religiosa. Siglos XVI y XVII, el cual mereciera ser tenido más en cuenta dentro del campo educativo. Las facetas metodológicas de esta aproximación al EC se delinean brevemente a continuación: Un EC creíble es una descripción detallada, una pintura de una persona, grupo, institución, fenómeno o experiencia seguida de juicios holísticos no maniqueos. El investigador debe encontrar un equilibrio entre la subjetividad, la cual puede conducir a una frivola exaltación de los rasgos locales y primitivos (i.e. el mito del buen salvaje en el naturalismo de Rousseau), y la objetividad, la cual podría llevar a un esquematismo desencarnado. Incluso en investigación evaluativa, todo EC acaba habitualmente con un juicio sin sesgo pretendido. El EC está abierto a variaciones de contenido y a diversas interpretaciones de significado. Esto implica una ausencia total de casos típicos que podrían conducir a interpretaciones maxima-518 Antonio Fernández Cano, Teresa Lara Moreno, listas. Las teorías generales y las creencias personales no son adecuadas desde el principio. La evidencia debe presentarse completamente, incluso con sus múltiples desacuerdos. No es necesario coordinar las ideas que aparecen como contrarias mediante razonamientos forzados. La evidencia no será reducida a reglas generales si no estamos seguros de poder extraer una verdad oculta. Analizar es correcto pero, una síntesis inconsistente o inverosímil, no lo es. Reemplazar la palabra «teoría» por «opinión» [comillas en el original] podría ser más apropiado especialmente cuando tales «opiniones» adolecen de un verdadero soporte «teórico»... Emitir una opinión sobre un caso es pertinente y necesario pero nombrar esa opinión con el pomposo nombre de «teoría» hace al investigador aparecer como un falso astrónomo. Y más si esta conducta se adopta con demasiado frecuencia (pp. 456-457). El EC juicioso es disciplinado pero a menudo subjetivo y la inducción a lo general no es requerible, incluso si es un pensamiento común. Con la búsqueda de la comprensión de lo particular, un EC está bien servido. Un caso debiera ser interpretado con objetividad, distanciando nuestra mente de los puntos de vista personales, experimentando la posibilidad de compartir la experiencia de otros, tomando la posición de ellos. La fuerza de un caso debe ser tal que nos fuerce a la inducción, avanzando desde lo particular a lo general a través de la personalización. Los casos son patrones inductivos tal como un relato, acorde con lo que en términos teatrales se llama dramatis personae, en el estilo de la Nueva Comedia, la ética, de Menandro, en la cual aparecen caracteres y no individuos predeterminados. Caracteres tales como el tirano de Herodoto, el oligarca de Platón, los arquetipos descritos en el Pseudomantis de Luciano o en Los caracteres de Teofrasto. El caso es un espejo de la vida que refleja caracteres y fenómenos: nuevos, viejos y siempre cambiantes. El estudio de un caso es un arte que usa una retórica, la cual sirve para presentar el informe final del modo más claro posible (Aristóteles, Retórica, 1(3), II). De aquí que un EC sea un arte que trata de discernir los medios más adecuados para convencer. La cuestión no es sólo examinar las formas de los entimemas sino el contenido argumentai, las pruebas y/o la explicación que éste aporta. Un caso admite un modelo previo o puede ser una novedad sin antecedentes, aunque debiéramos encontrar medios para interpretar o contrastar el caso antiguo con el nuevo. Por ejemplo, a través de analogías o metáforas paramitológicas como una explicación de cierto fenómeno actual (i.e. el mito de Sísifo^ al inicio de cada curso escolar). Pero, ¿hay casos nuevos que puedan ligarse a un arquetipo antiguo? ¿no hay nada nuevo bajo el sol de las ciencias humanas? Este es un viejo dilema. Una respuesta a esta crítica cuestión fue dada por uno de los más sutiles casuistas'^ españoles, Rodrigo de Arriaga (1962), cuando observó: Nosotros tenemos la ventaja sobre los antiguos de tener la riqueza de la experiencia. Muchas cosas se les presentaron a ellos y aún ellas siguieron ocultas. ¿Por qué no es lícito para nosotros extraer nuevas consecuencias, mostrar que a veces algunas conclusiones no son correctas, ponderar sus razones y aún encontrarlas faltas? (p. Incluso cuando «se piensa sobre un caso particular», el esquema, los modelos, las categorías y las estructuras están todas fuera de lugar, son algo déjà vu, déjà connu. Las recurrencias y las coherencias inconscientes son los elementos más significativos para su estudio. Preocupación por el matiz. Un caso admite sutiles círculos y grados de complejidad con todos los rasgos y matices que podamos percibir. La habilidad para descubrir estos matices es fundamental en un EC, incluso cuando sólo podamos usar datos de la experiencia o de la intuición personal. Las fuentes de evidencia en el EC son múltiples y la critica a su validez interna y externa debiera ser completa; aunque tales críticas no debieran nunca hacernos olvidar que la cuestión relevante es pensar sobre el caso. La investigación con EC es una empresa ecléctica, una aproximación comprehensiva al conocimiento. Aparte de todo lo dicho anteriormente, podría añadirse que el procedimiento metodológico para realizar un EC no es algo constreñido, ni mecánico. Se entra en el caso llevado por una curiosidad inicial; la búsqueda y evaluación de las fuentes ha de llevarse a cabo al mismo tiempo. A continuación, impelido por una fuerte comezón, inicias la redacción del informe reuniendo piezas, mas no necesariamente empezando desde un principio. El siguiente retazo de un consejo, similar a otro ofrecido por Carr (1967), pudiera sernos útil: Indagar e informar un EC van simultáneamente. La investigación se orienta, se dirige y se hace productiva a través del informe: cuanto más informo, más sé lo que estoy buscando. Al tratar de informar, se comprende mejor el significado y la relevancia de lo que voy encontrando (pp. 32-33). Antonio Fernández Cano, Teresa Lara Moreno... Una antigua acepción del estudio de caso: El caso de conciencia En otra parte de este monográfico (véase Fernández Cano), se puede obtener cierta comprensión sobre este vetusto método del CC, en un ensayo histórico-metodológico a la búsqueda de antecedentes del EC. Dublanchy (1932) -Método didáctico, denominado por lo general método de casos en diversas disciplinas (Moore, 1956). Se puede encontrar excelente información sobre este método de caso en Andrés (1980), Mucchielli (1970), Pérez Serrano (1994) o Ramírez (1972), siguiendo las orientaciones jesuíticas entremezcladas con propuestas pedagógicas no directivas. McNair (1959) ofrece una orientación similar para el aprendizaje de las ciencias legales en la Harvard Business School. -Método de investigación. En este sentido será considerado y usado a lo largo de este ensayo. Una caracterización exhaustiva del CC como método de indagación en Teología Moral, en casuística, se localiza en los trabajos de Moore (1956Moore (, 1990) ) 4.1. Fuentes del caso de conciencia En la instrucción de CCs, los casuistas usaron cuatro fuentes básicas: -Literatura. La información para CCs se obtenía de escritores antiguos, particularmente de aquéllos mejor conocidos, y después adaptados a las nuevas circunstancias. La amplia experiencia acumulada a través de siglos se exhibe en los CCs contenidos en sumas y prontuarios. Un ejemplo extremo pudieran ser los casos incluidos en la Suma de Diana^, que llegan a abrumar a causa de las numerosas citaciones a autoridades. Cuando se lee este libro, es posible encontrar más de una página de citaciones por caso. Pronto, el lector comprueba que no es necesario citar a tantas autoridades, y que lo mejor que haría sería pensar por sí mismo. He escrito acerca de muchos casos reales que he ido reuniendo, y que he conocido durante los muchos años en que estuve conduciendo almas. Y también de muchos otros casos, que me fueron expuestos por venerables sacerdotes, en busca de una causa (p. vi). Informe del caso de conciencia Los CCs se compilaban en manuales denominados sumas (ver Fernández Cano en este número). En las sumas históricas, era usual informar del CC utilizando el siguiente formato: descripción'^, cuestiones sobre el caso y solución de las cuestiones, contestadas de una manera definitiva (afirmativa o negativamente) o de un modo condicional o probable. La solución provisional debía estar inmediatamente justificada en base a los principios morales afectados. Esta justificación se documentaba después en referencias normativas extraídas de las siguientes fuentes: doctrina positiva, doctrina especulativa, textos legales autorizados y la propia argumentación personal. En esta última fuente, el propio casuista hacía uso de su razonamiento teológico, especialmente de la técnica interrogativa a cuestiones contestadas con SÍ-NO. Es obvio que los dilemas morales abiertos propuestos por Kohlberg (1981) guardan un formato bastante similar al del CC. Ambos usan situaciones concretas, que presentan un problema de decisión moral (a nivel de conciencia en el CC y a nivel de conflicto de valores en el dilema), y, para el análisis y discusión de ambos, es necesario aplicar principios Un debate metodológico entre dos aproximaciones al. morales inherentes (teológicos en el CC o de la autonomía personal en el dilema). Tantos en los viejos CCs, como en los más actuales dilemas alternativos, parece evidente que, ni los principios de la sindéresis (el sabio discernir), ni la derivación inmediata de la ley natural, o la aplicación de teorías sociales, permiten emitir una norma universal que pueda resolver completamente el conflicto manifiesto. Estamos enfirentados con aquellos casos cuyo proceso de resolución no es sencillo y que siempre proporcionan esa agitación tan propia de la vida real. Finalidad del caso de conciencia El CC cumplió varios fines, a saber: -Profundizar en el conocimiento moral, el cual en su aplicación correcta hace posible analizar con más detalle los matices y advertencias que pudieran tomarse en consideración. El CC permitió a la Moral avanzar desde una dimensión puramente especulativa a una dimensión aplicada. Leyendo hoy día aquellas colecciones de CCs, particularmente los más normativos, aparecen al par una exuberante y creíble flora de descripciones ajustadas. El estudio y desarrollo de CCs derivó, en lo que Dublanchy (1932) describió como casuística científica, al considerar el supuesto capital de que, sólo el conocimiento especulativo y positivo de los principios morales (naturales o revelados), no era suficiente para orientar las acciones humanas. Es esencial contrastar aquellos principios generales, con una rica multiplicidad de casos precisos, para discernir la correcta obligación de la conciencia. -Actuar como medio de guía espiritual. Para personas con necesidad de orientación, el CC les aporta y reconforta con verdaderos consejos. Se asume que la conciencia personal no es, a veces, suficiente para juzgar la moralidad de las acciones de un modo espontáneo y autónomo, sobre todo, cuando circunstancias complejas relativas a la acción obstaculizan una correcta aplicación de los principios generales o cuando hay conflicto de valores. Como alternativa, un experto (el casuista) puede estudiar e iluminar la cuestión o punto en disputa emitiendo un veredicto de probabilidad. -Enseñar Moral a las personas. Otro fin del CC ñie la educación moral de los sujetos, quiénes, oyendo las razones de los expertos pueden asimilarlas e internalizarlas para una posterior aplicación a situaciones similares. Consecuentemente, el sujeto ganaría comprensión al presentársele nuevas cuestiones. 524 Antonio Fernández Cano, Teresa Lara Moreno... Sin embargo, una ambición de los estudios sobre CC, cual era obtener un tipo de penitencia estandarizada a modo de norma general, no se logró. Intentos de mejora fueron hechos sin mucho éxito, en el sentido de impartir la misma penitencia para el mismo pecado debido a la arbitraria asignación de tasas por diferentes confesores. El éxito, en este sentido, habría significado el fin del casuismo. -Desarrollar un método para la formación de expertos: predicadores, confesores y maestros, no sólo clérigos. Cuando se consulta cualquier libro sobre CCs resalta a primera vista una fuerte estructuración; los temas, basados en la realidad individual e inmediata y los casos afines, se disponen de acuerdo a situaciones cotidianas y no depende la secuencia expositoria de principio moral alguno. En conclusión, estos libros están estructurados con un orden altamente didáctico. -Ganar conocimiento práctico sobre cómo elaborar decisiones probabilistas cuando nos enfrentamos con principios y teorías generales (teológicas, aquí), por un lado, y con las veleidades de la vida real, por otro. Coincidencias entre caso de conciencia y estudio de caso histórico humanista No es azaroso enfatizar una serie de coincidencias entre ambas corrientes metodológicas que, a primera vista, pueden parecer histórica y epistemológicamente tan divergentes; aunque, las diferencias también son manifiestas, como veremos. Algunas de estas coincidencias pudieran ser: -Comparten la cualidad eminentemente práctica del conocimiento. Ambas tienen la convicción de que la teoría hecha de principios generales, per se demuestra ser insuficiente para la comprensión de la realidad. CC se define generalmente como método en contacto con actos humanos. EC desconfía de la capacidad de la teoría general para explicar un hecho preciso. -Comparten el requisito de indagar lo intrincado de la realidad social y humana. El CC no habría sido necesario para la Teología Moral si la aplicación de principios morales hubiese sido hecha por una simple transposición del principio general al hecho particular. Pero ante la complejidad, dada por las circunstancias^ objetivas y subjetivas, en las que el hecho se enmarca, se demanda un estudio completo para iluminar la licitud probable del hecho, así como a5mdar a la conciencia personal. Por Un debate metodológico entre dos aproximaciones al. otro lado, las variantes más cualitativas de EC insisten en el descubrimiento de los significados particulares, que un acto adquiere, si sus adherencias contextúales son tenidas en cuenta. El tener que adaptarse a circunstancias concretas hizo que los casuistas añadieran no sólo un corpus teológico y legal, para obtener una solución al caso propuesto, sino que tuviesen que tener en cuenta circunstancias objetivas de tiempo y lugar (sobre todo los usos y costumbres locales). -Apoyados en la singularidad de un caso concreto. No hay dos casos iguales excepto para el novato no adiestrado que los percibe, el cual no es capaz de discernir matices y sutilezas. Es esa singularidad la que permite al EC focalizarse en un problema preciso y estudiarlo completamente. Por ello, ambos son también restrictivos en su espectro y profimdamente focalizados; es decir, son sistemas conceptuales acotados. -Aceptan la utilidad del conocimiento probable y, por tanto, la falibilidad de ese conocimiento probable. La certitud absoluta no es posible en la interpretación de un hecho moral. La solución probable se acepta como apoyo suficiente para determinar la licitud de la acción. El probabilismo estaba asociado al proceso de toma de decisiones, ya que cuando se duda sobre la ilicitud de una acción específica, enfrentados a una duda real (iuris vel facti) [factual o real], se puede lícitamente llegar a un juicio probable al margen de su naturaleza. En EC, la verdad completa está fuera del alcance e incluso no se considera posible alcanzarla. Comprender un EC es siempre una aproximación al «revelado» del funcionamiento de las estructuras de significados y a la formulación de una conclusión objetiva (probable) derivada de un argumento reflexionado, tras usar la mejor evidencia disponible. -Preocupación por la hermenéutica, por las posibilidades de interpretación. El término hermenéutica se refiere a la tarea de traducir, interpretar y comunicar algo, que es incomprensible, ya que está escrito en un lenguaje extraño hecho de signos y símbolos, aunque tal declaración pudiera estar en el lenguaje de los dioses. La posición filosófica subyacente en la investigación actual por EC ha sido tomada de la tradición aristotélica (en Ética a Nicómaco) y expresada por teóricos como Gadamer (1977). La distinción entre ciencias teóricas, productivas y prácticas, cada una con su forma distintiva de teorización {episteme, poitiké y praxis, respectivamente) y sus reconocidas normas de realización {theoría, techne yphrónesis, respectivamente), pusieron a esta última (phrónesis) en el campo del saber práctico: es el ingenio (ingenium) del juzgador el que aporta orientación e iluminación cognoscitiva para la praxis. Antonio Fernández Cano, Teresa Lara Moreno.., Gadamer (1977) relaciona el método hermenéutico con la tradición metodológica en ciencias histórico-filológicas, teología y jurisprudencia. La comprensión judicial de la ley conlleva aplicarla correctamente y no aplicarla arbitrariamente. En otras palabras, esa aplicación se basa en una interpretación apropiada, lo cual implica que, cierta comprensión precisa, medie entre la concepción histórica y la vigente. La distancia, entre la posibilidad de generalizar la ley y la situación legal suscitada por cada caso, es por sí misma inacabable. Entonces, la tarea de la hermenéutica legal podría ser analógicamente similar a los desarrollos de la tradición casuista. La crítica histórica más fuerte contra CC fue que, ya que claramente se apoyaba la posibilidad de interpretación, podía caer en el laxismo, alejándose peligrosamente de la autoridad y de la tradición. En este mismo sentido, la conciencia hermenéutica también cuestiona ambas. Además, cuando el casuista persigue conocimiento práctico para tratar con una situación precisa, tiene que ponderar una variedad ilimitada de circunstancias. Esa aproximación exigía la prudencia y astucia de la oáiséicdi phrónesis. Tanto el CC como el EC comparten los tres momentos hermenéuticos clásicos en la obtención de conocimiento: subtilitas inte-Iligendi (comprensión), subtilitas explicandis (interpretación) y subtilitas applicandi (aplicación) -ver Gadamer, 1977, pp. 378-379. -Comparten el objetivo de influir sobre las personas en su vida cotidiana. Ya Pascal (1966), en su VIL^ Carta Provincial, acusaba a la casuística de ansias de dirigir la intención, de acuerdo con normas laxas, no adecuadamente fundamentadas. EC explica e ilumina a los individuos sobre el significado de sus acciones, haciendo posible cambios prácticos que afectan al modo en que los individuos se ven a sí mismo y a sus respectivas situaciones personales. Por otro lado, el fin último de las ciencias educativas, en el sentido más positivo del término, ¿es dirigir la acción, o no? En su significado más práctico, la educación está plena de normatividad, es normativa o no es nada. ~ Hacen uso de los mismos instrumentos metodológicos para la recogida de datos. Instrumentos como la introspección, la entrevista, la observación y la discusión se usan en búsqueda de evidencia. El casuista propone casos reales o ficticios, íntimamente relacionados con problemas reales o con situaciones posibles, y, aunque incluso estos puedan sonarnos inverosímiles, la realidad siempre supera a la ficción. El confesionario, donde los pecados son agudamente revisados, y la preocupación por guiar las mentes y los espíritus, tuvieron un papel central en la obtención de información privilegiada disponible para la construcción de casos. El confesionario permitió realizar una verdadera anamnesis. El EC también usa ampliamente estos instrumentos, especialmente la entrevista en profundidad tan propia de las etnografías y los casos psicológicos. -Consideran la utilidad de un caso típico. Un EC típico podría ser extensivo a casos similares, a pesar de que reconozcamos la especificidad, unidad y ageneralización lineal. Un CC típico es asimilable a otros, al menos en la aplicación de principios morales y/o en las normas de reflexión y construcción. Un EC típico trata de buscar regularidades comunes para la interpretación (leyes del caso), en base a que los significados se construyen socialmente, aportando por tanto una mejor comprensión de los casos diferentes. -Formación de los individuos. La tradición casuística trató de la formación de la conciencia moral en un doble sentido: interiorizar principios, que permitan al individuo decidir sobre una acción inmediata, y dotarles con nuevos instrumentos que guíen la conciencia en acciones futuras. El EC aspira a contribuir a la compresión de cómo las personas hacen uso práctico de lo que han aprendido. -Comparten una visión optimista de la realidad y una concepción racional del conocimiento. Pese a que podríamos esperar de ambas aproximaciones una actitud de escepticismo epistemológico, dada la complejidad y multidimensionalidad de los fenómenos sometidos a escrutinio; no deja de parecemos paradójico esa compartida visión optimista de la realidad, cuando acometen la acertada tarea de racionalizarla, a la búsqueda de una determinada verdad, no siempre coincidente con la verdad oficial. Lejos de dogmatismo y pretensiones totalistas en la búsqueda de la verdad, CC y EC hacen al conocimiento universal relativo ya que asumen como esencial la particularidad de un hecho específico. Algunas diferencias básicas para la discusión Cuatro diferencias fundamentales podemos señalar entre estas dos aproximaciones; a saber: La diferencia básica prima facie entre CC y EC es que el primero es ante todo prescriptivo mientras que el segundo es básicamente descriptivo. Otra distinción significativa, subyace en la función del mediador: directiva en CC y pretendidamente no directiva en EC. Por tanto, el casuista y el investigador por EC realizan diferentes roles a lo largo de su trabajo. Las dimensiones hermenéuticas se usan de modo distinto en cada aproximación. La hermenéutica en CC es sólo Antonio Fernández Cano, Teresa Lara Moreno... una interpretación sutil de principios morales, los cuales son aplicados después a cada caso preciso, para discernir la moralidad de éste. En EC, la hermenéutica es un arte que permite examinar vividamente el significado oculto de un caso, sin ninguna referencia a principios generales fijos. Pero si se acepta que toda investigación está dirigida por la teoría, y esa teoría tiene una fimción crítica y liberadora, ¿no estaríamos, entonces, aceptando realmente un principio moral? ~ Fundamentación epistemológica. La base epistemológica en cada aproximación es distinta también. La casuística más ortodoxa usaba la deducción desde el principio al caso, mientras que el EC usa, ante todo, la inducción desde casos para llegar al principio. No obstante, esta divergencia podría estar atenuada para los casuistas heterodoxos (laxistas), para quienes la ñierza de las circunstancias particulares se pondera antes que el rigor de la norma. En este sentido, Tomás de Aquino, en De veritate [Sobre la verdad], declaró: Nullus ligatur perpraeceptum aliquod nisi mediante sciencia illius praecepti [Nadie está comprometido con la ley si no es consciente de que ésta existe]. Este principio, que es la base de un probabilismo moderado aún aceptado hoy día por la Iglesia Católica, choca con este otro, aceptado por lo común, de que la ignorancia de la ley no exime de su cumplimiento. Además, ¿qué es más relevante, resolver casos u obtener principios que sólo pueden ser aplicados a un número limitado de casos? Wundt, en su Etik (1917), al mismo tiempo que establecía la psicología moderna, también alentaba a la aplicación de principios positivistas a las ciencias sociales, a través del estudio de tópicos ético-morales operando inductivamente mediante EC. Wundt estaba altamente preocupado con el estudio de la metodología en fenómenos ético-morales, dedicando nueve páginas de su libro (pp. 21-29) a esta cuestión. Aquí, él destaca que el procedimiento empírico debe preceder al especulativo. Wundt concibe como métodos empíricos aquellos que parten de la experiencia elaborada: la mente opera sobre conceptos que son abstracciones inmediatas e inducciones de la experiencia (p. Al mismo tiempo, reconoce la observación interna y externa como el método más importante para investigar, cuando señala una distinción entre métodos empíricos: Los métodos empíricos se dividen en dos direcciones: una subjetiva, la cual prefiere las condiciones de nuestras acciones voluntarias presentes en la experiencia interna [reconociendo entonces el valor de la introspección] y otra objetiva, la cual considera los fenómenos dentro de la historia y la sociedad. Ambas direcciones se solapan, son complementarias una de la otra (p. Además, él aboga por que: Expertos de cada dirección deben unirse para trabajar juntos en lugar de luchar unos con otros (p. La crítica de Wundt (1917) al deductivismo corre paralela al método especulativo y a su inferencia: que las leyes morales por origen suprasensible sean un vínculo por el que el ser humano llega a unirse con su eterna fuente primitiva^. Nadie puede evadirse del poder de la experiencia. Si alguien quiere eludirla en el camino principal, se la encontrará en los atajos (pp. 23-24), -Autonomía. El CC no tiene autonomía metodológica, basada en principios libremente aceptados, ya que está subordinado a la Teología Moral. El EC es autónomo, y no subordinado a ciencia alguna. De hecho, en última instancia, el EC adopta la reducción eidética fenomenológica que intenta controlar todo lo subjetivo, cuestiona cualquier teoría y desconsidera la tradición. De aquí su fructífera versatilidad como un método de investigación pluridisciplinal. Este artículo revisa una cuestión metodológica al confrontar una antigua acepción del caso, el caso de conciencia, con una de las acepciones actuales, el estudio de caso histérico-humanista. El enfoque de cada aproximación es bastante diferente pero ambas tienen algunas similitudes. Además, el método casuístico, uso de CC, podría recordarnos cuestiones pedagógicas perennes propias del campo de la educación. Relacionar casos con principios tiene significancia filosófica e institucional. Por ejemplo: las áreas de formación de profesores podrían impartirse usando análisis epistémicos de las diferentes aproximaciones al caso. La vida moral en las aulas presenta una batalla dialéctica entre casos y principios. La naturaleza del conocimiento pedagógico (lo particular frente a lo universal) podría invocarse y analizarse. Además, las diversas implementaciones de las innovaciones curriculares podrían verse afectadas; por ejemplo: empezar la instrucción con leyes del caso y después aplicarla a casos particulares o viceversa. Estamos ante el eterno y complejo debate entre métodos de enseñanza inductivos frente a deductivos. No obstante, este debate metodológico, alguien, podría considerarlo falaz y caduco. Pero en toda disputa sobre métodos de investigación, la asociación, conexión e implicaciones con cuestiones educativas actuales debiera desarrollarse por los propios investigadores, de acuerdo a sus consideraciones. No estamos abogando por el retorno del CC, como méto- Antonio Fernández Cano, Teresa Lara Moreno.,. do de investigación, aunque muchos de los problemas que él trató de resolver aún están pendientes, sino mostrando un debate metodológico inadvertido pero, que estimamos, relevante. Eso es lo que pensamos. Notas ^ Nos referimos al diseño pre-experimental, según la notación de Cook y Campbell (1979), dado por la notación XO; donde X: tratamiento y O: observación. ^ Howe y Eisenhart (1990) proponen esta analogía de la mitología griega para denotar el uso de criterios arbitrarios al evaluar informes de investigación. ^ Sísifo fue condenado eternamente por los dioses a escalar una montaña llevando una pesada piedra. Cerca de la cumbre, perdía la roca que rodaba hasta el pié de la montaña. Así pues, los docentes se asemejan bastante a este carácter mítico. Deben llevar a sus alumnos desde principio a final de curso para la obtención de un grado. Cuando ese grado se ha obtenido, el curso acaba. Nuevos cursos, con nuevos grados, a alcanzar en nuevos alumnos, deben lograrse en cursos siguientes, y así sucesivamente. "^ Según Moore (1956Moore (, 1990)), desde el siglo XVI, los teólogos morales que usaron el método casuístico o de los casos de conciencia, en oposición a aquellos que usaban los métodos especulativo y positivo, fueron llamados casuistas. Por tanto, casuística es una sección de la Teología Moral centrada en el estudio de CCs. ^ En este sentido, Kohlberg (1981) observó que el razonamiento moral descansa en la concepción de cada individuo y avanza según los años a través de estadios evolutivos estandarizados. ^ Antonio Diana (1585-1663), teólogo casuista italiano. ^ Los mejores casos de conciencia se retrataban usando el popular hexámetro de Quintiliano: quis (¿quién), quid (¿qué?), ubi (¿dónde?), quibus auxillis (¿con auxilio de quién?), cur (¿por qué?), quomodo (¿cómo?) y quando (¿cuándo?). ^ Mucho más tarde el filósofo español Ortega y Gasset (1984) estableció su postulado: Yo soy yo y mis circunstancias, para realzar la importancia de la circunstancia, vista como el entorno externo e interno en relación con el sujeto, pero que él no puede identificar. ^ Esa primera fuente eterna se identifica en alemán con el término: Urquell.
La investigación interpretativa representa una de las tendencias contemporáneas más reveladoras para el entendimiento del significado de los hechos sociales, culturales, jurídicos, arqueológicos, etnográficos, médicos, psicológicos o educativos. A lo largo de este artículo se ofrece un recorrido panorámico por los procedimientos metodológicos más empleados en el estudio de casos desde la perspectiva de la investigación interpretativa, poniendo énfasis en el proceso, en la logística y en la tecnología de la investigación con datos textuales, imágenes u objetos, procedentes de registros culturales, narraciones orales o documentos institucionales. Desde un enfoque integrador se presenta una modelización de las diferentes fases de este tipo de investigación: se contemplan los requisitos previos, las eventualidades del trabajo de campo, las estrategias de análisis de los datos, que con mayor asiduidad son empleadas por los investigadores, así como los modelos de difusión pública de la información a que se acogen. 533 1, Introducción: Investigación Interpretativa Hay problemas de investigación en las Ciencias Sociales, Jurídicas y Humanas que por sus características intrínsecas reclaman un tipo de metodologías alternativas diferentes a los enfoques de la investigación positivista. Estos problemas requieren de la observación persistente y prolongada en los contextos, con el objeto de adquirir una más profunda José Gutiérrez Pérez, Teresa Pozo Llórente. comprensión del fenómeno que se intenta estudiar. Problemas que por su naturaleza demandan de un proceso de investigación no obstrusivo que permita acercarse al corazón de los hechos, a la estructura de los documentos y a la gramática de las fuentes de información primaria con flexibilidad y amplitud de miras. Es tal la complejidad de dichos problemas que, no pueden ser reducidos a un limitado número de variables, ni siquiera expresarse en forma de hipótesis causales que incluyan aspectos cuantificables. Pensemos en la interpretación de los vestigios de un asentamiento neolítico por parte de un arqueólogo novel; en el estudio de la apropiación lingüística del español por parte de un emigrante subsahariano; en el significado de la catástrofe de AznalcóUar para un trabajador del lugar; en el diagnóstico pedagógico formulado a partir de una única anamnesis; en las versátiles representaciones infantiles de los modelos científicos; o en la reconstrucción penal que hace un juez de las diferentes versiones de un asesinato,... Son, éstos, problemas de investigación, que se ocupan de los significados singulares, de las vivencias personales, de las influencias del entorno, de las sensaciones, actitudes y sentimientos individuales de sus actores, de la complejidad intrínseca y consustancial a los contextos e interacciones humanas. Elementos, todos ellos difíciles de expresar en términos numéricos, que han obligado a los investigadores de distintos campos disciplinares a poner a punto una diversidad de estrategias de recogida de datos distintas a los tradicionales arsenales cuantitativos. Estrategias asociadas a un tipo de procedimientos de organización e interpretación también diferentes, que deben adecuarse a la naturaleza misma de esa información: narraciones, imágenes, documentos, enseres, observaciones,... La Investigación Interpretativa^ (desde ahora 1.1.) se viene ocupando de estas cuestiones, como un campo joven de indagación interesado por explicar, describir, comprender, caracterizar e interpretar los fenómenos sociales y los significados individuales en la profundidad y complejidad que los caracteriza. También considera los contextos naturales donde se desarrollan y bajo la perspectiva de los intereses, la idiosincrasia y las motivaciones particulares de cada uno de los agentes intervinientes. La lógica de funcionamiento de este enfoque de los problemas de investigación social y humanística es diferente del resto de las lógicas de investigación tradicionales; tiene sus particularidades y responde a una secuencia procedimental con entidad propia y ampliamente legitimada por la comunidad científica actual. Sin embargo, no se ajusta a una heurística universal que recorra un camino unívoco, aunque esto no nos exime de la necesidad de organizar un marco de principios de procedí-Los estudios de caso en la lógica de la investigación... miento básicos sobre los que programar una aproximación integradora a un campo fértil y de actualidad. Campo que algunos autores no han dudado en señalar de revolución silenciosa (Denzin y Lincoln, 1994;p. 9): Una revolución silenciosa ha tenido lugar en las ciencias sociales, a lo largo de las dos últimas décadas. Un mestizaje de los límites de las disciplinas se ha producido. Todas las ciencias sociales y las humanidades han volcado su atención hacia un enfoque más cualitativo e interpretativo de la teoría y la investigación... Dicha revolución se refleja en la multitud de manuales, revistas, informes de investigación y reseñas que han sido publicadas en los últimos años. En la literatura contemporánea conviven opciones metodológicas de corte radicalmente interpretativo, inspiradas en modelos de trabajo que no dan cabida a la más mínima idea de cuantificación, frente a otras visiones más eclécticas que hibridan sus procedimientos con algoritmos y operaciones matemáticas para fortalecer sus principios de cientificidad.^ Características generales del proceso de Investigación Interpretativa El proceso de LL está orientado por los intereses del marco de referencia al que se adscribe cada investigador, ya sea la Etnografía, la Etología, la Antropología, la Lingüística, e incluso la propia Ecología Humana. Los enfoques conceptuales de la LL vienen determinados por perspectivas teóricas con una amplia tradición disciplinar, que no sólo aportan una metodología, sino también un lenguaje, y una terminología propias. Pero independientemente de la adscripción a una u otra escuela o marco disciplinar, algunas de las características planteadas por Janesick (1994, p. 212), respecto al proceso de investigación interpretativa, son las siguientes: -El investigador debe permanecer durante un tiempo en el lugar de estudio familiarizándose con el contexto, la sintomatología o las pruebas periciales. -Es un proceso centrado en lo personal e inmediato que exige una relación directa, cara a cara. -Se preocupa por la comprensión de una situación social, grupal o individual, y no por la predicción. -Es un proceso holístico que adopta un enfoque global de la situación y busca la compresión de los hechos en su totalidad, como un retrato global. -Tal proceso está contextualizado al tener en cuenta las relaciones dentro del sistema social, de la institución o la microcultura. -El análisis de la información requiere, al menos tanto tiempo como el consumido en el escenario durante la toma de datos. -El investigador debe desarrollar una teoría o modelo de lo que ocurre en la situación social. Asimismo, el propio investigador es el instrumento base de la investigación y se requiere poseer las destrezas necesarias para observar y entrevistar. -Las decisiones deben negociarse respondiendo a cuestiones de tipo ético. -Incorpora espacios para describir los papeles del investigador, así como la consideración de los posibles sesgos e influencias ideológicas, históricas y culturales. -Exige un continuo análisis de la información, mediante procesos cíclicos de acercamiento reiterado al contexto y a la información obtenida, que a veces obliga a iniciar nuevos ciclos de toma de datos. La lógica de la investigación interpretativa Por lógica de la investigación entendemos todo el conjunto de etapas que ha de recorrer el investigador para alcanzar sus metas; etapas, más o menos comunes, en las que regularmente se suelen amparar mayoritariamente los investigadores para analizar sus datos y formular sus conclusiones. El sentido en que se utiliza el término dato es más genérico que una simple información numérica: dato cualitativo es aquella información que se obtiene en los procesos de investigación interpretativa, en cuanto información referida a conversaciones, documentos, narraciones, anotaciones de campo, entrevistas grabadas, representaciones, pruebas documentales, enseres de otras civilizaciones... Datos cualitativos pueden ser las cadenas verbales producidas en una entrevista, en una reunión, en un contacto interpersonal, o en documentos escritos, las conductas y sucesos recogidos en las notas de campo. También son datos cualitativos las fotografías, las filmaciones, las grabaciones realizadas en los contextos estudiados y que aportan al investigador información sobre ellos. Los objetos, su distribución, su uso,... constituyen fuentes de datos cualitativos (Gil, 1994; pp. 29-30). Por tanto, el análisis de estos tipos de información exige un tratamiento adecuado a la naturaleza compleja y a la carga de significación implícita que llevan consigo. Y puesto que los datos cualitativos no son de la misma naturaleza, lógico es pensar que no exista un único método de trabajo en la investigación interpretativa y que sus estrategias de análisis sean variadas. Es más, puede que cada investigador, al margen de asumir los procedimientos de una u otra escuela, teoría, corriente o Los estudios de caso en la lógica de la investigación... 537 disciplina, se vea obligado en el curso de su trabajo a desplegar, inventar y construir instrumentos o tomar decisiones sobre la marcha que generan novedades importantes en los procesos de planificación, acceso, recogida, análisis y diñisión de sus resultados. El desarrollo de todos estos procedimientos no ha obedecido a un proceso sistemático y bien estructurado por parte de la comunidad científica, sino más bien a un despliegue desordenado de programas de investigación. Cada programa ha ido inventando procedimientos y construyendo instrumentos en la medida en que, los problemas que aspiraban a abordar y resolver, así lo requerían. En muchos casos, el trabajo ha consistido simplemente en realizar un esfiíerzo de adaptación de algunos de los modelos y técnicas de trabajo empleados habitualmente por otras disciplinas; en otros, ha sido preciso improvisar procedimientos inéditos, respaldados muchas veces por los avances tecnológicos disponibles. Aun cuando existe abundante literatura de investigación sobre este joven campo, en lo que al proceso se refiere, quedan muchos vacíos por cubrir, y queda mucho camino por andar respecto a la modelización de estos procedimientos y la enseñanza, aprendizaje y divulgación de estas estrategias. Actualmente, disponemos también de recursos tecnológicos y sofí: ware para afirontar los diferentes tipos de datos que resultan de la investigación interpretativa. Ya existe un cuerpo de teoría, más o menos organizada por las diferentes disciplinas, acerca de cómo proceder en cada caso, según que los datos sean imágenes, dibujos, fotografías, registros narrativos, pruebas periciales o registros observacionales. Sin embargo, aún, la teorización que sobre estos modelos de trabajo se está llevando a cabo, es hoy día insuficiente, y supone un importante reto para los teóricos de la metodología la contemplación, clasificación, revisión y organización de la multitud de casos reales que ya hay disponibles. Por citar algunos ejemplos de las tendencias en el campo educativo, podemos señalar con Bogdan y Biklen (1982, p. 12) como ámbitos de aplicación de la 1.1, los tres frentes siguientes: -El estudio del papel de los diferentes agentes implicados en los procesos educativos tales como padres, profesores, orientadores, alumnos y especialistas en determinados campos. -Los programas de desarrollo profesional, inserción laboral junto a los procesos de socialización profesional, formación inicial y desarrollo profesional derivados. -Los procesos de innovación, evaluación e implantación de cambios curriculares y, en general, de reforma educativa. La metodología de investigación interpretativa está ampliamente aceptada por la comunidad investigadora. La enseñanza de esta metodología en las Universidades, desde los distintos campos disciplinares (jurídico, antropológico, arqueológico, médico, lingüístico, histórico, sociológico, psicológico, educativo...), se está considerando cada vez más oportuna. No sería aventurado afirmar que, pocas investigaciones contemporáneas del campo social o de las humanidades, se llevan a cabo hoy sin que, de forma exclusiva o complementaria, se incluyan diseños de investigación de esta naturaleza en los que el estudio de caso constituye el recurso metodológico principal de su arquitectura. Hasta hace unos años se trataba de una opción metodológica claramente marginal y con escaso poder de convocatoria. La situación en la actualidad parece comenzar a cambiar (Anguera, 1995a;p. La investigación interpretativa ha alcanzado en esta década un reconocimiento explícito como vía, no única desde luego, para acceder al conocimiento científico (Bartolomé, 1992;p. La complejidad metodológica en la Investigación Interpretativa Las dificultades que debe afirontar de cara al fiaturo este enfoque metodológico no son aún pocas, especialmente en lo que al proceso de investigación se refiere. 53) señalan las siguientes: ® La LL constituye un campo muy fructífero, pero muy disperso y bastante heterogéneo, poco organizado hasta el momento y necesitado de aportaciones integradoras y síntesis estructuradas acerca de sus posibilidades y métodos de trabajo. • Las técnicas son abundantes, aunque no existen reglas fijas para el análisis de los datos, cada investigador avanza y resuelve sus problemas con mayor o menor éxito, pero sin muchas fuentes donde consultar y aclarar sus dudas. ® Estos procesos se apoyan en la intuición, la experiencia, la pericia y la habilidad del investigador para crear, inventar y poner a punto técnicas que le sirvan. La singularidad y privacidad de las técnicas y procedimientos empleados y la falta de detalles con que sue-Los estudios de caso en la lógica de la investigación... len ser descritos los procesos en los informes, hacen que se pierda gran parte de la riqueza que los caracteriza. • La pluralidad de lenguajes y la diversidad de terminologías al uso, dificultan el intercambio de información y el entendimiento entre los distintos colectivos que investigan bajo esta perspectiva. • La intransigencia de algunos medios de difusión hace que el impacto de la investigación sea aún muy reducido y bastante restringido a determinados núcleos especializados. • Las restricciones presupuestarias obligan, con frecuencia, a reducir progresivamente el tiempo de permanencia en el escenario de trabajo, máxime cuando, además, requiere desplazamientos y estancias a tiempo completo. Esto ocasiona que el intervalo de recogida de datos se prolongue y que la investigación se vea afectada por acontecimientos, que no se habían previsto de antemano. • Las dificultades de formación, en que suelen verse envueltos los equipos, debido a la ausencia de un cuerpo de información organizado, y una falta de tradición en estos procesos determinan que los esfuerzos de trabajo inicial sean más intensos, restándole peso a la propia investigación en aras de una mayor formación. José Gutiérrez Pérez, Teresa Pozo Llórente. Tipologías de estudios de casos en la I.I. BOGDAN BIRLEN (1982) YIN (1984,1993) STAKE (1994) Los posibles diseños resultan de una matriz 4 x (3 x 2), donde se cruzan las siguientes variables: [propósitos con que se realiza el estudio de caso (niveles del estudio x acciones/productos)]. Resultando en realidad 12 tipos de diseños diferentes, ya que las acciones y productos se refieren a la misma idea. Propósitos = hacer una crónica/representar/enseñar/comprobar. Niveles del estudio = factual/interpretativo/evaluativo. Estudios de Caso Único: Histórico-Organizativo/Observacional/ Biografía/Comunitario/Situacional/Microetnografía. Estudios de Caso Múltiple: Inducción analítica modificada (trasferencia a la generalidad en un mismo contexto)/Comparación Constante (generalización a contextos diferentes). Los posibles diseños resultan de una matriz (2 x 2) x 5, donde se cruzan las siguientes variables: [(Caso único/Casos Múltiples x Global/Inclusivo) x (Exploratorio/Descriptivo/Explicativo/Transformador/Evaluativo)]. Resultan 20 tipos diferentes de diseños. Estudios de Caso Intrínseco. Se pretende alcanzar la mayor comprensión posible de un caso concreto. El caso en sí tiene interés. Estudios de Caso Instrumental. Se persigue con ellos ratificar una teoría o demostrar algún tipo de intuición o hipótesis. Estudios de Caso Colectivo. Se indaga sobre un fenómeno o acontecimiento a partir del estudio intensivo de varios casos relacionados con el mismo. La pertinencia del estudio de casos como metodología capital de la I.I. se justifica con los siguientes argumentos: -Provee densas descripciones que serán esenciales para generar juicios de transferibilidad a otros contextos. -Proporciona el mejor retrato de situaciones concretas y acontecimientos singulares. -Responde más adecuadamente a la concepción de múltiples realidades, dando cuenta de las interacciones entre el investigador y el contexto. -Facilita la comunicación de información con los participantes, favoreciendo el intercambio de puntos de vista y la reconstrucción de significados. Los estudios de caso en la lógica de la investigación... Permite corregir desajustes entre las perspectivas e interpretaciones del investigador y las visiones de otros agentes participantes. Fases en el estudio de caso interpretativo En términos generales, el desarrollo procedimental del estudio de caso interpretativo [desde ahora E.C.L] no responde a una estructura lineal y estándar, sino que existen tantas modalidades de trabajo como corrientes y autores han trabajado el tema. Los intentos por generar principios de procedimiento amplios no son nuevos; ya a comienzos del siglo pasado, desde los ámbitos de la Antropología Social se formularon intentos de este tipo bajo una denominación común de Método Compa-rativo^, que en sus diferentes variantes han llegado a nuestros días con aportaciones como las de Glasser y Strauss (1967) y Ragin (1987), preocupados por la construcción de teoría fundamentada. A partir de ese método de la comparación constante, se pueden identificar cuatro momentos básicos: a) Fase de codificación de los datos en categorías, realizando comparaciones entre aquellos datos incluidos en un mismo grupo, para generar propiedades teóricas de cada categoría. En paralelo, se van formulando las relaciones o hipótesis, que no son otra cosa que resúmenes interpretativos, a la luz de las ideas que van surgiendo de los propios datos. b) Fase de agrupación e integración de las categorías y de sus propiedades. La comparación sistemática con nuevos datos obtenidos mediante técnicas selectivas de muestreo teórico, permite describir relaciones y nuevos matices dentro de cada categoría. c) Delimitación de la teoría, a partir de las modificaciones oportunas, motivadas por nuevas comparaciones, se van perfilando progresivamente las relaciones, eliminando aquellas propiedades de carácter secundario, refundiendo categorías repetidas o incorporando nuevas categorías emergentes, hasta conseguir mayor rango de generalización y abstracción de los hallazgos. d) Explicitación de la teoría retomando de nuevo los datos primarios para documentar, caracterizar y operativizar cada uno de los matices de las diferentes categorías y justificar así las hipótesis o relaciones formuladas. En esta misma dirección, Goetz y Lecompte (1988, pp. 172-211) reducen a tres estas tareas: procesos de teorización, estrategias de selección secuencial y procedimientos analíticos generales. a) Procesos de teorización son procedimientos genéricos de análisis y abstracción sobre los cuales se construye y organiza la información a José Gutiérrez Pérez, Teresa Pozo Llórente.. partir de estrategias y decisiones de comparación, contraste, agregación, ordenación, determinación de vínculos y relaciones, y especulación. b) Tareas de selección secuencial son operaciones formales diseñadas para integrar el análisis y la recogida de datos a partir de estrategias como: la selección de casos negativos, la selección de casos discrepantes, el muestreo teórico y la selección de teorías relevantes. c) Procedimientos analíticos generales son estrategias sistemáticas de manipulación y organización de los datos y conceptos generados en la investigación. Estos procedimientos pueden ser muy variados, desde opciones radicalmente interpretativas con un fuerte predominio de los aspectos semánticos, hasta opciones mixtas donde se hace uso de la estadística textual y de los análisis temáticos. Inicialmente, el E.C.I. se ha intentado representar con una estructura lineal que comienza en la definición de objetivos, continúa con una recogida de datos, seguida de una fase de análisis y concluye con una formulación de conclusiones. Sin embargo, este tipo de estructura lineal ha sido fuertemente criticado, ya que la investigación interpretativa está sujeta por naturaleza a una estructura circular y recurrente, en la que los análisis exigen volver de nuevo a los datos. Una y otra vez, el investigador está obligado a interpretar los textos originales para verificar con pruebas positivas o negativas la fortaleza de sus clasificaciones. Como resultado, tal vez se ponga de manifiesto que, es necesario volver a recoger nuevos datos para profundizar en otros aspectos, que en un principio no había considerado, o a los que no se prestó demasiada atención. Estos procesos circulares ocurren también en otras fases de los análisis. Por ejemplo, muchas veces, el investigador, casi sin darse cuenta, comienza a descubrir que las categorías se solapan, se repiten o bien no contemplan aspectos relevantes. Entonces, estas pequeñas crisis obligan a emprender nuevos ciclos de revisión hasta conseguir un marco de categorización potente que resista, contemple e integre la variedad temática incluida en los múltiples textos. Evidentemente, tal tesitura no sería viable bajo modelos de trabajo lineal, en los que no fuese posible acceder nuevamente al campo, para recoger más datos, o bien volver a revisar los textos bajo nuevos criterios de codificación. Tesh (1990) modeliza este proceso desde una secuencia clásica de método científico ajustado a cuatro etapas diferentes: análisis exploratorio, descripción, interpretación y teorización (cuadro 2). Los estudios de caso en la lógica de la investigación. y Miles (1994, p. 429), organizan el proceso en torno a cuatro ideas clave: recogida, organización y reducción de datos, para terminar en la fase de formulación de conclusiones y verificación de resultados (cuadro 3). Aun cuando debemos reconocer que no se puede hablar en términos genéricos de un esquema común de E.C.I., en lo que se refiere a la lógica del proceso de la misma, tal y como lo reconocen Lincoln y Guba (1985), Goetz y Lecompte (1988), Tesch (1990), Guba y Lincoln (1994), Hammersley y Atkinson (1994), Maykut y Morhouse (1994), Huberman y Miles (1994), Pérez Serrano (1994), Rodríguez, Gil y García (1996), sí que podemos formular algunos patrones de intersección entre las diferentes corrientes, en cuanto herramienta-guía de orden integrador orientada hacia unas metas comunes: la comprensión de significados, la descripción de subjetividades o la caracterización de contextos. En dicho esquema común, el E.C.L consta al menos de cuatro hitos básicos: preparatorio, de trabajo de campo, analítico y de difusión de resultados. Fase preparatoria del estudio de caso interpretativo Es la etapa preliminar del E.C.L en la que el investigador, a partir de su formación, conocimientos, experiencias e ideología, establece un marco teórico-conceptual que le sirve de referencia para contextualizar y planificar sus actuaciones. Se incluye en esta etapa la revisión documental, la identificación del problema, la propuesta de diseño y acciones a emprender en el curso de la investigación, la delimitación de cuestiones a resolver, la caracterización inicial del escenario en el que se va a trabajar, así como la explicitación del marco teórico. El prototipo de investigador, que ilustra este enfoque, es el de un naturalista extremadamente meticuloso con personalidad detectivesca, que ocupa su tiempo tomando notas, haciendo dibujos y acopiando todo tipo de muestras, pistas y destalles sobre el caso observado. Fase de trabajo de campo y recogida de pruebas Esta fase depende de la formación del investigador en el manejo de determinadas técnicas y de su habilidad para acceder a la información que precisa, para seleccionar el escenario adecuado, elegir informantes clave y conseguir pruebas de interés. Requiere de una toma de decisiones acerca de los procedimientos de almacenaje de los datos. También demanda la puesta a punto de un ensayo piloto para poner a prueba los instrumentos y el diseño, así como decidir la oportunidad de recabar nueva Los estudios de caso en la lógica de la investigación. información y complemientar los muéstreos. A través de su habilidad y perspicacia, el investigador obtiene la información necesaria para producir un buen estudio interpretativo; esto destierra algunas creencias acerca de la trivialidad del trabajo de campo, cuyo aprendizaje no requiere de otra destreza que la de ponerse en el lugar de los hechos, e incluso puede llegar a relegarse como una práctica menor en manos de inexpertos: A menudo se oye decir que el trabajo de campo, simple recolección de material en bruto, puede dejarse para los más jóvenes, o bien a personas no especializados, puesto que se reduce a simples técnicas que recogerían esta primera materia prima, sobre la que trabajarían posteriormente los teóricos en la ciudad con imaginación (Panoff, 1975;p. La vuelta al campo, una vez realizados los primeros análisis, permite ejecutar contrastes sobre las intuiciones y primeras evidencias, así como elegir casos de contraste y afinar mucho más en las técnicas de muestreo más apropiadas. Fase de análisis de datos Por análisis de datos interpretativos, entendemos el proceso mediante el cual se organiza y transforma la información recogida por los investigadores sobre un determinado caso, para establecer relaciones, interpretar, extraer significados y sacar conclusiones'*. El análisis es la fase que sigue a la recogida de datos, y que precede a su interpretación, aunque en investigación interpretativa esto no es literalmente así, argumentan García, Rodríguez y Gil (1994;p. 183): Puesto que en ocasiones junto a las notas de campo y las descripciones suelen aparecer juicios, opiniones, sospechas, dudas, reflexiones e interpretaciones del investigador que alteran este proceso de forma que la interpretación se mezcla con el análisis y la recogida, sin un criterio claro de demarcación entre una y otra fase. Entre las fases comúnmente admitidas podemos distinguir las cuatro siguientes: reducción de datos; organización, archivo y transformación de datos; obtención de resultados y verificación de conclusiones. Las decisiones sobre categorización y codificación son las más inmediatas en el proceso general de reducción de datos. En ocasiones, éste suele ser un ciclo que exige una reorganización, revisión y contraste periódico cada cierto tiempo para robustecer y afianzar la consistencia de los cuadros de categorías. Tratándose de material documental, la división de la información en unidades puede realizarse siguiendo diferentes criterios (según se consideren líneas, páginas o bien unidades temporales, unidades gramaticales, unidades de significado,...). José Gutiérrez Pérez, Teresa Pozo Llórente,., Este problema ha sido resuelto desde la perspectiva del análisis de contenido por Sánchez Carrion (1985), Bardín (1986), Krippendorf (1990), Pérez Serrano (1994), Anguera (1995b), con la diferenciación entre unidades de contexto (que corresponden a las unidades de análisis) y unidades de registro (que son los fragmentos más pequeños de texto con significación propia dentro de cada unidad de contexto). La identificación y clasificación de unidades, a partir de la elaboración de sistemas de categorías exhaustivas y mutuamente excluyentes, seguidas de procedimientos de agrupamiento, operativización y reestructuración, son actuaciones necesarias en esta etapa. Una categoría es una unidad de sentido que justifica el reagrupamiento de varias observables. La categoría resulta de un dimensionamiento de la realidad o aclara una idea directamente ligada a un concepto. 535): el proceso que trata de romper el corsé del rigor matemático en busca de una simplificación de la realidad que respete un cierto grado de complejidad estructurada. La descontextualización es un primer paso del camino que lleva, por medio de la segmentación I categorización, desde una complejidad excesiva a un modelo con una complejidad manejable. Las tareas de disposición, organización y transformación de los datos en tablas de contingencia y tablas de incidencia, o bien mediante sistemas de representación gráfica convencional o diagramas creativos, junto al manejo de redes semánticas y mapas conceptuales, pueden ayudar al investigador en esta fase de interpretación de los datos. Las tareas de obtención de resultados y verificación de conclusiones implican el uso de metáforas y analogías. La inclusión de fotografías, representaciones o viñetas donde aparezcan fragmentos narrativos e interpretaciones tanto del investigador como de otros agentes, constituyen procedimientos útiles para esta fase que culmina con las oportunas estrategias de triangulación, auditoría y validación cara a cara con otros miembros del equipo y otros agentes del contexto. Fase de difusión de resultados En esta fase deben considerarse cuestiones importantes como: las características de la audiencia a quien va dirigido el informe, el estilo literario del informe, la validación y legitimación pública del mismo y las opciones de difusión y comunicación pública de los hallazgos obtenidos. El carácter abierto y cambiante de los E.C.L obliga a los investigadores a emplear grandes esfuerzos en la redacción de los informes. De he-Los estudios de caso en la lógica de la investigación... 547 cho, se suele admitir que la estructura libre de estos trabajos es la que mayor dosis de creatividad e imaginación requiere, a la hora de presentar y organizar los datos y las evidencias que de ellos se derivan. Un elemento decisivo de esta fase son los destinatarios, esto acarrea diferentes adaptaciones de ese informe final en orden a las características de la audiencia; adaptaciones en lo referente a estilo, vocabulario, contenido, orden de presentación de la información y detalles de la misma. Entre las posibles audiencias receptoras de un informe de esta naturaleza, podemos señalar: los patrocinadores (Administración Pública, entidades bancarias, fundaciones,...), que con sus fondos, recursos y apoyos hacen posible la investigación; la comunidad científica, formada por colegas universitarios, investigadores y expertos en esa parcela de conocimiento; sectores sociales con intereses en esa información (políticos, administradores, sectores profesionales...); los agentes de la propia comunidad donde se ha llevado a cabo la investigación. Conseguir la aceptación por credibilidad de un informe es, en parte, un logro intelectual y, en parte, una habilidad para comunicarse y tratar con superiores, colegas, instituciones y personas, que ejercen algún tipo de poder sobre la carrera del investigador, o tienen algún vínculo con la investigación. En el sentir y actuar ético de cada investigador reside el que esa tensión sea más un acto intelectual y un proceso de comunicación fluido, que una pura «maniobra» dirigida exclusivamente a recabar más fondos para el proyecto, a complacer a la audiencia receptora o a convencer a la jerarquía que ha de supervisar dicha investigación. Entre las posibles situaciones de interacción que puede generar un informe con sus potenciales audiencias locales, Erickson (1989;p. 284-286) señala cuatro patrones típicos, que resultan del cruce entre dos variables de interés: a) la diferenciación entre información conocida e información desconocida; y b) la distinción entre aquella información que al conocerse llegaría a ser positivamente valorada y aquella que podría despertar cierto recelo, suspicacia o incluso reacciones negativas por parte de los potenciales lectores locales. De la combinación de estas opciones resultan cuatro tipos de información diferentes: Es aquella información incluida en el informe, que ya conocían de antemano algunos o todos los miembros locales, y provoca una valoración positiva o neutra, o al menos, no despierta ningún tipo de reacciones en contra por parte de la audiencia. Es aquella que ya conocen todos o algunos miembros de la comunidad local y que podría despertar en todos o algunos miembros de la comunidad un cierto rechazo al ser difundida. Ésta es, sin duda, la información más delicada de presentar en un informe dirigido a un público local. Una información de esta naturaleza podría provocar serias reacciones de incomodidad o indignación en todos o algunos miembros del centro o comunidad, por tratarse de aspectos que afectan de forma muy directa a intereses, hábitos o conductas de determinados miembros. Es aquella infonnación desconocida para todos los miembros de la comunidad local en que se ha llevado a cabo la investigación, y que de conocerse sería muy bien recibida. Este es el tipo de información que menos problemas plantea, y la que más le complace recibir a los diferentes agentes participantes en un proceso de indagación prolongada, ya que supone un refuerzo positivo y aporta un interesante elemento de reflexión sobre aspectos que pasaban desapercibidos a los miembros de la comunidad. Información tipo 4, Es aquella que se desconoce y que podría despertar un cierto rechazo o actitud negativa por parte de la comunidad local. Debe ser manejada con sumo cuidado en los informes, aimque su impacto negativo, al ser desconocida, puede no ser tan intenso como la tipo 2, si bien puede afectar a la autoestima de ciertos individuos y grupos del contexto local. En definitiva, los informes de E.C.I., como consecuencia de la naturaleza de la información que manejan, deben poner especial atención a la diversidad de intereses personales e institucionales que entran enjuego, especialmente, en el seno interno de las comunidades locales. Por tanto, deben estimarse de antemano los posibles impactos que pueda causar la divulgación de una determinada información en las diferentes sensibilidades de los agentes de la comunidad local. El investigador interpretativo puede llegar a ejercer una poderosa influencia, sobre los individuos y los contextos en los que desarrolla su trabajo, ya que los resultados de su investigación pueden contribuir a estimular procesos de reflexión individual o colectiva que finalmente pueden originar transformaciones, cambios y decisiones de cierta trascendencia. Por estas razones, es usual que de un E.C.I. se deriven diferentes tipos de informes. En concreto, se suelen distinguir, al menos dos tipos con sus adaptaciones según los destinatarios (Denzin, 1994;p. El informe de caso interpretativo provisional (documento privado que se diferencia de las anotaciones o datos del cuaderno de campo por el grado de elaboración y la búsqueda de conexión entre los datos), y las diferentes versiones de informe de caso finale según los destinatarios, respaldado por la legitimidad que otorga la negociación del documento con otra serie de agentes (por lo general, colegas o investigadores colaboradores), y el carácter público que va adquiriendo al ser criticado, censurado, revisado, reescrito y asumido por otros miembros de la comunidad implicados en el proceso de investigación. Tras sucesivos ciclos de negociación, intercambio y lectura compartida de borradores, el informe de un E.C.L va ganando en estilo, comprensión, ética y disponibilidad para su divulgación e incluso publicación. El informe escrito de un E.C.L no es el único canal posible para dar a conocer el resultado de un estudio de esta naturaleza; a veces, la transmisión oral o la presentación bis a bis de los hallazgos, puede ser la mejor forma de dar a conocer los resultados de un estudio. La transmisión oral es una de las mejores estrategias para validar la calidad de las evidencias, especialmente cuando los destinatarios son el público local con el que se ha desarrollado la investigación. La comunicación de los resultados de la investigación, a la comunidad de investigadores o a otras audiencias potencialmente interesadas en el tema, es una etapa tan importante como las anteriores. No tendría sentido todo el trabajo previo si al final no se diesen a conocer los resultados. La ciencia se valida a sí misma por la capacidad de soportar y resistir ante las críticas de la comunidad, sin esas críticas no llegaría a legitimarse como tal y nunca podrían tener continuidad los trabajos de investigación. El valor de la investigación está en razón directa con las personas que lo leen. Una investigación que no se comunica, bien como memoria, conferencia, artículo o cualquier otro medio, no contribuye a aumentar el cuerpo de conocimientos teóricos y, por lo tanto, su valor es nulo (Colas, 1994). Pero, además, si los resultados no se comiunican de forma efectiva, no serán tenidos en cuenta. El investigador, y nadie más que él, es el responsable de la eficacia de la comunicación: sólo él será el culpable si nadie puede entender lo que ha hecho o juzgar su valor adecuadamente; la claridad, la sencillez de estilo y la brevedad son virtudes capitales. Antes de elaborar los informes es importante realizar las adaptaciones oportunas, según el tipo de público al que éstos vayan destinados. No es lo mismo un informe dirigido a una revista de educación, cuyos lectores potenciales serán profesores de universidad o investigadores educativos, que dirigirlo a un boletín informativo de carácter educativo destinado a profesores y equipos directivos de centros educativos, que dirigirlo a un periódico; ni tampoco es lo mismo dirigirlo a la institución que patrocina y subvenciona el estudio, que dirigirlo al grupo de centros, padres o colectivos que participaron en el trabajo. Para cada audiencia, el informe del caso se realiza con la finalidad de cumplir unos requisitos determinados. Cuando los informes aspiran a ser editados en forma de libro artículo o comunicación, deben ajustarse a una serie de patrones y manuales de estilo. El manual de estilo más ampliamente utilizado por la L I. es el propuesto por la Universidad de Chicago (1993), y recomendado por asociaciones como la A.A.A. (American Anthropological Association). José Gutiérrez Pérez, Teresa Pozo Llórente,. Criterios de validez del estudio de caso interpretativo A diferencia de la metodología positivista, que presume de validez interna y externa, la 1.1, prefiere hablar de una validez epistemológica, validez de consenso o validez cara a cara; es decir, sus fuentes de credibilidad están suficientemente garantizadas cuando: el texto está correctamente triangulado, basado en indicadores naturales, adecuadamente adaptado a una teoría, es comprehensivo en su enfoque, creíble en sus mecanismos de control utilizados, consistente en los términos de su reflexión, y representa de forma profunda, clara y completa las características del contexto y el sentir de los otros (Ruiz, 1996;p. 219), minimizando al máximo la pérdida de información relevante. Los criterios de verdad de un E.C.I. residen en la selección de aquellas construcciones que resulten mejor informadas, más documentadas y sobre las que se obtenga mayor consenso, en función de su adecuación a los datos y a la información disponible. Por tanto, la calidad de un estudio de caso no puede establecerse en orden a los clásicos criterios de validez y fiabilidad, más bien debe sustentarse sobre criterios propios; esto es, en criterios tales como: el valor de verdad, la aplicabilidad, la consistencia y la neutralidad (Lincoln y Guba, 1985;p. Criterios de la calidad de la 1.1. El valor de verdad/credibilidad, se refiere a la credibilidad y confianza que ofrecen los resultados de la investigación, basándose en su capacidad explicativa ante casos negativos y en la consistencia entre los diferentes puntos de vista y perspectivas. Es decir, al isomorfismo que se establece entre los datos recogidos y la realidad. La aplicabilidad/transferencia, se refiere a la posibilidad de transferir los resultados obtenidos en ese contexto a otros contextos de similares condiciones, bajo una situación de investigación en idénticas condiciones. La consistencia/dependencia, se refiere a la posibilidad de replicar el estudio y obtener los mismos hallazgos. La neutralidad/confirmabilidad se refiere a la independencia de los resultados frente a motivaciones, intereses personales o concepciones teóricas del investigador. Es decir, garantía y seguridad de que los resultados no están sesgados. Se requiere de estrategias complementarias de triangulación (triangulación de técnicas, de agentes, de tiempos, e incluso triangulación metodológica) y de la puesta a punto de procesos de auditoría interna y externa (basada en la comprobación de las inferencias y en la evaluación del diseño por parte de agentes internos-participantes o por expertos, externos al lugar donde se desarrolla la investigación). Todo ello permitirá documentar la información y contrastarla según diferentes puntos de vista. Entre las estrategias más usuales que suelen emplearse para dar calidad a un estudio de caso interpretativo, en orden a garantizar el rigor y la confianza de los hallazgos que de él se derivan, destacamos según criterio: --Respecto al criterio de credibilidad: uso de observación persistente, comentario de pares y comprobación con los participantes. Además, procedimientos de triangulación y acopio de material de contraste documental. -Respecto a la transferencia: uso de muestreo de máxima variabilidad, descripciones en profundidad y diversificación en las técnicas de recogida de información. -Respecto a la dependencia: empleo de auditoría y control de calidad externa de la información y procedimientos de réplica en la verificación de conclusiones. -Respecto a la confirmabilidad: utilizando la comprobación externa de conclusiones, fidelidad al dato directo mediante transcripciones textuales, fotografías, citas y referencias directas; así como, también, transparencia en los supuestos epistemológicos y metodológicos empleados. Sugerencias para una logística en el Estudio de Caso Interpretativo El desarrollo de programas informáticos adecuados, para el almacenamiento, manejo, búsqueda, codificación, organización, clasificación, análisis de datos y edición de informes ha supuesto una importante ayuda para el avance y desarrollo de los E.C.I. La Informática, fundamentalmente, ha liberado al investigador de una serie de tareas artesanales, que le obligaban a ejercer de coleccionista y documentalista a la vez, invirtiendo una fracción importante de su tiempo en actividades meramente mecánicas, pero con suficiente trascendencia como para afectar a la calidad final del producto. El manejo físico de los datos una vez recogidos ha sido una tarea tan importante y no menos complicada que las 551 José Gutiérrez Pérez, Teresa Pozo Llórente... restantes fases del proceso. Hasta hace apenas unos años, se consideraba un indicador de éxito en la investigación la propia habilidad de los investigadores para archivar y manejarse con meticulosidad, fluidez y orden en las montañas de datos con que trabaja la investigación interpretativa. Además, junto al factor abundancia hay que situar el carácter recurrente propio de la lógica de la investigación interpretativa: los datos cualitativos han de ser leídos y revisados en sucesivas ocasiones, ordenados, clasificados de acuerdo con los temas o conceptos a los que alude su contenido, y periódicamente sometidos a comprobaciones y contrastes. Esto ha obligado a los investigadores a disponer de estructuras físicas de almacenaje convencional en fichas, sobres, archivos y soportes de clasificación dinámicos y de fácil consulta. Es necesario, por tanto, disponer de recursos que agilicen el reiterado acceso, permitan una recomposición periódica, el traslado de un lugar a otro, la reorganización cada cierto tiempo, su agrupamiento y desagregación, así como su clasificación según criterios alfabéticos, numéricos, cronológicos, por colores y por contextos. Cada investigador, en definitiva, ha desarrollado sus propias artimañas para manejarse con los ingentes volúmenes de datos que se generan en la investigación interpretativa. Cuando deseo intentar la escritura del primer borrador de un capítulo completo, empiezo a trabajar en el suelo. Las categorías que se van a destinar a un capítulo en particular pueden ser así movidas de un lado a otro como un montón de tarjetas hasta que se llega a un fluido narrativo lógico y sensato. Primero esto, luego eso, a continuación aquello (Ball, 1995;p. Pero además de amplias superficies, donde desplazar y mover físicamente los datos, carpetas, sobres, ficheros, archivadores, vitrinas, tijeras, lápices de colores y etiquetas constituyen literalmente las herramientas y arsenales más usuales. Primeramente, sugieren Taylor y Bogdan (1984, p. 168): se recortan las notas de campo, las transcripciones y otros materiales y se colocan los datos de cada categoría en carpetas de archivo o en sobres de papel. 222): pongo en una misma carpeta un conjunto de sobres con datos en su interior y otro conjunto de notas analíticas y comentarios interpretativos. El investigador debería, entonces, disponer de una serie de carpetas que documenten su trabajo. Cualquiera de estas carpetas podría contener fotocopias, fotografías, cintas de audio o vídeo, recortes de publicaciones, notas escritas o documentos oficiales. Los títulos y contenidos de las carpetas podrían cambiar con el transcurso del tiempo. Incluso se recomienda escribir en la propia portada de las carpetas una breve descripción del contenido de cada categoría, acompañada de Los estudios de caso en la lógica de la investigación. una selecta elección de aquellas citas literales que mejor representen el campo semántico que cubre dicha categoría; eso facilita enormemente la redacción de los informes y el manejo de los datos. Junto a las carpetas, el uso de ficheros ha sido otra de las herramientas más empleadas. Cada unidad codificada podía ser trasladada a una ficha, y el conjunto de fichas podría ser organizado por temas dentro de un fichero. La aparición de la fotocopiadora, agiliza bastante esta tarea de elaboración de ficheros, evitando los esfuerzos de duplicación manual de aquellos fragmentos de texto que, al contener más de una categoría, debían clasificarse en varias fichas. Se han llegado a distinguir dos tipos diferentes de fichas: aquellas que simplemente transcriben literalmente los fragmentos de texto y aquellas que, además, incorporan una numeración de las líneas de texto y breves comentarios o memorandos al lado de cada fragmento, indicando posibles relaciones con otras categorías. Sin lugar a dudas, el gran avance en la mecánica y la artesanía del trabajo con los datos (lo que aquí hemos venido a denominar como logística) y la elaboración de informes se ha producido con la llegada del ordenador y la impresora conectados al vídeo y cámara de fotos digital, al menos en lo que respecta a estrategias de almacenamiento, organización, clasificación, búsqueda y recuperación de datos. El ordenador puede sustituir de manera satisfactoria a herramientas como: lápices de colores, fotocopiadoras, tijeras, cola de pegar o fichas, ganando claramente en eficacia cuando se trata de ordenar o recuperar los fragmentos de texto (Rodríguez, Gil y García, 1996;p. Pero, tenemos la melancólica impresión que, aquellas «mágicas» expectativas, que despertó la computadora desde el comienzo de la década de los ochenta para la realización de E.C.I., aún no han llegado a conseguirse plenamente, dado que el ordenador no ofrece soluciones automáticas a los problemas planteados en el análisis interpretativo (Ruiz, 1996;p. Los programas de análisis de datos cualitativos sirven solamente para sistematizar y controlar el procesamiento y el análisis de los datos, pero será el investigador quien debe asignar significados a esos datos antes y después de los análisis (Huber, 1988;p. Reconocer las limitaciones de la propia tecnología constituye un primer paso para poder aprovechar sus múltiples posibilidades. El ordenador ofrece una valiosísima ayuda en el tratamiento y manejo de textos y fotografías, en el reconocimiento de palabras, en la agregación y separación de unidades, en la estimación de distancias, en el conteo de frecuencias, en la verificación de jerarquías (Tech, 1990;p. 150), e incluso puede favorecer enormemente la construcción de teoría fundamentada con la si-José Gutiérrez Pérez, Teresa Pozo Llórente. mulación de modelos de inteligencia artificial. Pero la consecución de algoritmos y procedimientos tecnológicos, que se acerquen a la formidable complejidad de los sistemas semánticos humanos, es un reto aún por alcanzar. Hay tareas que son intrínsecamente humanas tales como el descubrir significados compartidos, el reconocer y elaborar categorías o el construir interpretaciones globales sobre el mundo y las concepciones que la gente posee sobre el mismo. El papel del ordenador es positivo, si contribuye con su velocidad y capacidad de almacenamiento a la investigación. Pero si el manejo de su tecnología absorbe parte de las energías y desvía la atención a problemas tecnológicos más que interpretativos del propio texto, sus enormes posibilidades se verán apagadas por sus amplias limitaciones en el desarrollo y resolución de los problemas educativos. ¿Serán capaces los ordenadores del fijturo de ir más allá de recuperar palabras, identificar formas, reconocer colores o contar sflabas en los procesos de análisis de textos e interpretación de sus significados literales o metafóricos? Mientras tanto, afortunadamente, será el cerebro del investigador el que interprete, busque relaciones y dé sentido a los datos. Notas ^ Hemos empleado el término Investigación Interpretativa, en lugar de Investigación Cualitativa, por considerarlo el más inclusivo de todos ellos, además por eludir la connotación de contrario a lo cuantitativo y por integrar todo el conjunto de enfoques de la investigación observacional (Erickson, 1989;p. También, esta acepción de interpretativo permite diferenciarlo debidamente de otros enfoques cualitativos más orientados al cambio y la toma de decisiones, como son los distintos tipos de Investigación-Acción. Tampoco nos hemos cerrado a una visión parcial de un tipo de investigación interpretativa, derivada de una escuela de pensamiento en concreto (como pudiera ser la Fenomenológica, el Interaccionismo Simbólico, la Etnometodológica, la corriente de las Teorías Fundamentadas o la propia Metodología Observacional), hemos preferido en su lugar optar por una visión integradora y global común a este cruce de enfoques teóricos y metodológicos, tal y como lo proponen Denzin y Lincoln (1994, pp. 3-4) o Walford (1995). ^ Aun a costa de perder profundidad en algunas cuestiones, hemos preferido organizar el tema desde una visión integradora que aglutine los diferentes enfoques metodológicos de corte humanístico-interpretativo y constructivista-cualitativo. ^ Se suele reconocer que Spencer, junto a Taylor y Malinowski, iniciaron con distintos matices el método comparativo, consistente en la «acumulación de costumbres e ideas recogidas en diferentes lugares y procedente de períodos muy distintos, a fin de justificar esquemas de desarrollo a los que se había llegado por una vía más especulativa» (Mair, 1978). En un intento de dotar de cientificidad a los estudios antropológicos, se fueron formulando variantes tales como la «comparación estructural» (Lévi-Strauss, 1975), la «com-
La investigación biográfica y narrativa se ha constituido en un enfoque propio de investigación. Este artículo, además de resaltar la dimensión narrativa de los informes de estudios de caso, hace una revisión actual de la literatura sobre la metodología de análisis narrativo de relatos biográficos, como base para la elaboración del informe, que es -a su vezuna forma particular de relato, para no perder dicho carácter narrativo. Las críticas a los tratamientos categoriales o analíticos están reclamando una mayor narratividad en los informes de investigación, que cuestionan los formatos habituales (tipo APA). El informe de investigación tradicional, en el que se enuncia el problema, se revisa la bibliografia, se diseña, se recogen datos, se analiza y se concluye, es especialmente inadecuado como informe de un estudio de caso [...] El informe puede parecerse a una historia. [...] Gran parte de los datos que recogemos de otras personas estarán en forma de historias que éstas cuentan, y gran parte de lo que transmitamos a nuestros lectores conservará esta forma. Los estudios de caso y la investigación biográfico-narrativa comparten, desde su origen como metodología de investigación social (Escuela de Chicago), ser enfoques hermenéuticos, alternativos a formas positivistas, 560 donde las «vivencias» (que decía Ortega siguiendo a Dilthey) o el «mundo de la vida» (Husserl) recuperan un papel relevante en la investigación. Aquel volumen monográfico que Thomas y Znaniecki dedicaban al relato de vida del campesino polaco Wladek emigrado a Chicago en las primeras décadas del pasado siglo, se considera, en este sentido, conjuntamente como un estudio de caso y una investigación biográfico-narrativa ejemplar. Pensamos, como aseveraban entonces Thomas y Znaniecki (1998, p. 45), que la personalidad humana constituye una base de la explicación causal de los acontecimientos sociales, en una interacción continua entre la conciencia individual y la realidad social objetiva. La investigación biográfica (desde la life-history) y, especialmente, narrativa {narrative inquiry) se han constituido, tras la crisis del positivismo y el giro hermenéutico en ciencias sociales, en un enfoque específico de investigación con su propia credibilidad, que reclama -como hemos defendido (Bolívar, Domingo y Fernández, 2001)-un modo distintivo del paradigma cualitativo convencional. Se trata de otorgar toda su relevancia a la dimensión discursiva de la individualidad, a los modos como los humanos vivencian y dan significado a su mundo mediante el lenguaje. En su momento, Geertz (1994) definió la cultura como «un ensamble de textos, ellos mismo ensambles, que el antropólogo trata de leer sobre los hombros de aquellos a quienes éstos pertenecen propiamente». Los datos del campo son, entonces, textos a interpretar {ínterpretandum) por medio de otro texto {interpretans), que en el fondo es el informe de investigación. En los estudios de caso, frecuentemente lidiamos con historias que la gente nos cuenta sobre cómo «experiencian» unos hechos o contextos y, para comprenderlos, nos vemos obligados a contarlos por medio de informes narrativos. Narrativas de gentes y narrativas del investigador, fenómenos y método se funden, productivamente, para comprender la realidad social. Para Donald Polkinghorne (1998) el relato narrativo {story) es «el esquema fundamental para conjuntar las acciones humanas individuales y acontecimientos en aspectos interrelacionados por medio de una composición comprensible». Como reconstrucción de la experiencia, que da significado a lo sucedido o vivido, requiere como elementos de su configuración, trama argumentai, secuencia temporal, personaje/s, y situación. El diseño, el trabajo empírico de recogida de datos sobre el terreno, el posterior análisis e interpretación, abocan a que el estudio de caso se configure en un informe. El investigador se convierte en aquel que construye y cuenta la historia {researcher-storyteller) por medio de un relato. La tarea investigadora consiste en observar los acontecimientos y personas. El estudio de caso como informe biográfico-narrativo solicitando que los agentes cuenten sus propias historias y trayectorias acerca de los hechos/acciones solicitados por el investigador y, a partir de su análisis e interpretación, construir nuevas historias/relatos, que serán leídas por el público lector. La investigación narrativa es un proceso, complejo y reflexivo, de mutación de los textos del campo a los textos para el lector. El investigador recrea los textos, de modo que el lector pueda «experienciar» las vidas o acontecimientos narrados. Vivir y revivir, contar y recontar historias forma, pues, parte del trabajo, en un proceso de dar significado a la experiencia. Enmarcamos y revisamos, en primer lugar, la relación entre estudio de caso y narrativa, para concentrarnos en cómo construir el relato y presentar el estudio de caso, es decir, contar la historia investigada. Xavier Coller (2000), en un buen trabajo español sobre el tema, con un criterio acorde con el que defendemos aquí, identifica el informe con la narración del caso. En el texto inicial Robert Stake sitúa lo que queremos tratar en este trabajo: inadecuación de formas convencionales de elaborar el informe de caso y un enfoque más congruente como narrativa. Pero, por eso mismo, la elaboración del informe es dependiente de la metodología de análisis narrativo de relatos biográficos, sobre la que apuntaremos algunas notas. Especialmente nos concentramos en estudios de caso descriptivos con un fuerte componente cualitativo en su diseño y metodología, por otra (biográfico), que versan sobre casos individuales o grupales. Hay, sin embargo, muchos estudios de caso analíticos que emplean -con predominio o no-metodologías cuantitativas (especialmente, encuestas y análisis estadísticos). No obstante, por la argumentación que desarrollamos, también en este metodología, en alguna medida el Informe debe tener una dimensión narrativa (Abbott, 1992), no tanto biográfica. La lógica de demostración e inferencia de hipótesis se apoya, en ambos casos, en la argumentación desarrollada. El estudio de caso y la investigación biográfico-narrativa Un estudio de caso, al buscar la comprensión de un hecho, suceso, individuo o grupo en su singularidad, más que una explicación causal por una generalización, suele adquirir -tanto en su proceso de investigación como en el informe-la forma de una investigación biográfico-narrativa. Por su parte, la investigación biográfico-narrativa se focaliza igualmente en casos ejemplares o singulares, y se configura como estudio de caso en la medida en que pretende desvelar un contexto de vida (individual o grupal) específico. Una gran parte de los estudios de caso versan sobre Antonio Bolívar Botía 562 hechos donde la dimensión biográfica es clave, importando el propio desarrollo dinámico de la trayectoria seguida. Este aspecto temporal (pasado, presente y futuro), junto con la necesaria trama argumentai (foco y dinámica) sobre el contexto, es lo que acerca al Informe de caso a una narrativa biográfica. Por eso mismo, se concentra en los procesos y dimensiones in situ de la vida, buscando una comprensión «densa» del sentido que le otorgan los participantes a las experiencias y contextos en que están inmersos. Tres espacios dimensionales constituyen una narrativa (en el doble sentido de fenómeno y método): temporal, equilibrio entre personal y social, y espacio o situación (Clandinin y Connelly, 2000), que deben ser trabajadas en el informe. Los estudios de caso, en el enfoque interpretativo o cualitativo que tratamos, suelen compartir con la investigación narrativa, entre otros, estos caracteres: -Hermenéutica: Se interesa por los significados, que son interpretados a partir de la observación y la voz (narración) de los agentes/actores. Se intentan conocer los hechos humanos a través de la experiencia humana, tal y como ha sido vivenciada. -Naturalista: Captar las realidades y acciones en la forma en que se presentan o suceden. La investigación biográfica, como los estudios de caso, se dirige a las situaciones particulares, individuos o eventos en su singularidad. Se busca comprender los valores, creencias y significados de las personas que están inmersas en la situación analizada. -La selección de personas o grupos es deliberada, no aleatoria o probalística, de tamaño reducido. No se pretende la generalización, cuanto la comprensión, por lo que importa que los sujetos seleccionados puedan incrementarla. -Dimensión temporal. La narrativa se relaciona específicamente con la comprensión humana del tiempo. Paul Ricoeur ha llegado a afirmar que: el tiempo se hace tiempo humano en la medida en que se articula en un modo narrativo, y la narración alcanza su plena significación cuando se convierte en una condición de la existencia temporal (1995,1). -El diseño es flexible y emergente, adaptado a las condiciones, normalmente cambiantes, en las que suele darse proceso investigador. Así, los casos pueden ser determinados por «bola de nieve» o «en cadena», según avanza la investigación. -El proceso de investigación suele emplear gran inversión de tiempo en los escenarios naturales, con un contacto directo con los partid-El estudio de caso como informe biográfico-narrativo pautes. Una parte importante de la información proviene de la observación directa de lo que pasa (eventos/hechos), importándonos principalmente cómo son vividos por las personas/agentes (entrevistas, otras técnicas discursivas o narrativas). Importa recoger todos los datos y voces que contribuyan a proveer una descripción holística del acontecimiento, situación, persona o grupo. En ocasiones, el estudio de caso vendrá dado por un solo informante, en otros, se podrá tomar el grupo como verdadero sujeto de estudio, dentro del cual, el sujeto y su relato individual adquieren un sentido contextualizado. Como producto o informe de investigación, un estudio de caso es -genéricamente-un relato narrativo, que -como tal-presenta determinados hechos con su propia trama narrativa (comienzo, desarrollo y conclusión o final). El estudio de caso como informe Los estudios de caso arrastran una ambigüedad inicial, pudiéndose referir (Merriam, 1998; Rangin y Becker, 1992) conjuntamente al objeto de estudio, al proceso, o al producto-informe: a) La unidad objeto de estudio. Desde esta perspectiva el estudio de caso no es una opción metodológica, sino la elección de un objeto, acotado como unidad singular, con unas fronteras claras («puedo cercar lo que voy a estudiar», dice Merriam, 1998); pudiendo ser investigado de diversas formas (cuantitativas o cualitativas). Ha sido, entre otros. Stake (1994Stake (,1998) ) uno de los que más ardientemente ha defendido que un caso viene definido por la delimitación de una unidad de estudio (con sus propios límites, forma un sistema con partes relacionadas), que puede ser individualizada o singularizada, por lo que se puede comprender dicho caso sin necesidad de recurrir a otros. Desde esta perspectiva, de cualquier objeto de naturaleza social puede construirse en caso, a condición de que sea relevante y de que por naturaleza (no artificial) cumpla dicha unidad (Coller, 2000). b) El proceso por el que se lleva a cabo la investigación. Consiste primariamente en un modo de investigar, con sus propias reglas y procesos en la recogida y análisis de datos. 23) como «una investigación empírica que estudia un fenómeno actual dentro de su contexto de vida real, especialmente cuando los límites entre el fenómeno y el contexto no son evidentes, y que suele requerir el uso de múltiples fuentes de evidencia». c) El informe de investigación. Una investigación, presentada como estudio de caso, vendría configurada como una descripción profunda (mi-Antonio Bolívar Botía 564 nuciosa y exhaustiva) y un análisis sistemático e intensivo de un determinado objeto de estudio, en modos que puedan poner al lector en situación de lo que el investigador ha aprendido en el campo. 27): «una descripción y análisis sistémico e intensivo de un determinado ejemplar, fenómeno o entidad». De ahí la ambigüedad, además de lo que pueda ser «caso» como unidad delimitada, del término «estudio», que puede referirse tanto al proceso de aprendizaje o investigación, como al resultado o producto de dicho estudio. Puede ser una unidad empírica o un constructo teórico. Algo similar acontece a la narrativa: puede ser el «fenómeno» investigado (relatos, acontecimientos o textos escritos o hablados), el «método» empleado para construir o analizar dichos relatos, y -en tercer lugar-el «uso» que se puede hacer del producto de la investigación con diferentes fines. Fenómeno investigado, proceso de investigación y resultado de la misma, conjuntamente adquieren la forma de relato. A su vez, la «historia de vida» se puede referir conjuntamente a la historia vivida por un sujeto, como a escritura o narración de modo autobiográfico o reconstruida por el biógrafo-investigador. El estudio de caso, en el tercer sentido, como producto o resultado, presenta una información detallada y precisa sobre un sujeto o grupo, elaborado mediante formas biográficas-narrativas; para lo cual frecuentemente, además de la descripción de los contextos, suele recoger voces de los mismos sujetos. Desde un enfoque «microscópico», se pretende desvelar los dispositivos que gobiernan la vida cotidiana de las gentes, mediante las vivencias y curso temporal de los individuos en situaciones específicas. Podemos distinguir tres tipos fundamentales de estrategia para el diseño de la investigación biográfico-narrativa: estudios de caso con relatos únicos, múltiples, o paralelos. En el primero, como estudio de caso intrínseco que dice Stake, deseamos comprender mejor un caso particular, donde un único individuo o grupo elabora su autobiografía que, como tal, es objeto de investigación, sin pretender ilustrar un problema más general. En los relatos múltiples, varios relatos de vida de personas del mismo entorno son cruzados para comprender, a varias voces (polifónico), la misma historia. Por último, los distintas voces pueden ser puestas en paralelo en torno a cada tema, para ampliar el conocimiento del tema de interés. Caracteres del informe de investigación como narrativa Una buena investigación narrativa no es sólo aquella que recoge bien las distintas voces sobre el terreno, o las interpreta, sino también aque-El estudio de caso como informe biográfico-narrativo 565 Ha que da lugar a una buena historia narrativa, que es -en el fondo-el informe de investigación. Desde esta perspectiva, lo que en la investigación convencional se llama «explicación», no sería más que la mejor forma en que se organiza un relato para que sea comprensible y convincente. Lo biográfico singular se tiene que inscribir en un marco de estructura general, las narrativas de acción en una genealogía de contexto que las expliquen. 89) es preciso lograr «un continuo equilibrio dialéctico entre lo más local del detalle local y lo más global de la estructura global de un modo tal que podamos formularlos en una concepción simultánea..., situar a ambas partes en un contexto en el que se expliquen mutuamente». En un excelente trabajo, Andrew Abbott (1992) critica las prácticas convencionales de confrontar la dicotomía de población (con amplios N de muestra) versus «estudio de caso» (con uno o varios sujetos), con la dicotomía de «análisis causal» versus «relato narrativo». Argumenta que los científicos sociales, en ambos casos, suelen practicar un análisis narrativo. Ni los estudios de caso individuales son los que únicamente pueden adoptar un formato narrativo, ni los estudios sobre grandes poblaciones suelen ser sólo «analíticos». Basándose en algunas investigaciones realizadas sobre grandes poblaciones también la narrativa suele ser la fuente última de explicación. La oposición entre población/caso y enfoque analítico/narrativo, bien examinada, no se sostiene: «La diferencia entre un enfoque a la población y al caso no es lo mismo que la diferencia entre enfoques analíticos y narrativos». Generalizaciones pueden ser hechas, con la misma legitimidad, a partir de múltiples casos y no sólo con el lenguaje de variables. El informe es siempre una recreación de la narración del/os informante/s, por lo que el investigador, practicando un cierto «arte del bricolaje», debe unir las diferentes piezas de modo que otorguen un significado, si es posible ampliándolo. Elaborar el informe es montar un cierto rompecabezas, cuyas piezas no están ya dadas, han debido ser determinadas en el análisis. A través de un marco interpretativo nos orientamos para organizar los datos, reuniendo las más parecidas por un lado; las más dispares, por otro; y -finalmente-identificando las líneas de relación establecidas, que hagan coherente el cuadro dibujado del rompecabezas inicial. Contar la historia en la elaboración del informe se puede hacer de muchas formas o géneros. Van Manen (1988) habla de que puede haber hasta siete estilos de presentación: realista, impresionista, confesional, crítico, formal, literario, o una conjunción de los anteriores. El informe convencional (tipo aconsejado por la Asociación de Psicología America-Antonio Bolívar Botía 566 na), con un marco teórico donde se enuncia el problema y revisa la bibliografía, se formulan las hipótesis, el diseño y procedimiento seguido, datos, resultados y conclusiones o implicaciones; como señalaba Stake, suele imponer un marco forzado en que no encaja la investigación propiamente narrativa. Cuando desaparece el carácter narrativo en el informe, por un fuerte tratamiento categorial o analítico, la investigación ha dejado de ser narrativa. En cualquier caso, tampoco cabe limitarse a ordenar los textos recogidos. Entre uno y otro extremo se juega un buen informe de investigación. 225), «trabajar con biografías actualiza agudamente el intrínseco dilema de hacer investigación en ciencias sociales. El material fuente, el relato de la vida de las personas, es tan múltiple pero al mismo tiempo tan singular que tenemos la impresión de estar deteriorándolo desde el momento mismo en que ponemos sobre ese material nuestras manos descriptivas y analíticas». El informe de una investigación narrativa debe, entonces, ser él mismo narrativo. 296), «paradójicamente, si bien muchos investigadores en las ciencias humanas han rechazado una concepción positivista de la objetividad en la metodología de la investigación, no han rechazado su influencia sobre el estilo de redacción», muy pegados a los modos convencionalmente establecidos. Para eso propone que en la forma de presentación se podría aprender mucho de la nueva etnografía, el nuevo periodismo y de los relatos creativos de ficción y no ficción (por ejemplo, novelas de realismo social). Así, las estrategias narrativas empleadas por los periodistas más innovadores pueden servir de modelo para la redacción de los informes de casos. Representar los datos de la investigación Una de las cuestiones básicas académicas actualmente es cómo realizar la hazaña mágica de transformar los contenidos de la conciencia en formas públicas que otros puedan comprender. El presupuesto de que el lenguaje de las ciencias sociales -lenguaje proposicional y números -son los agentes exclusivos de significado, de modo creciente está llegando a ser problemático y, como resultado, estamos explorando el potencial de otras formas de representación para iluminar el mundo educativo que deseamos comprender... el concepto de formas alternativas de representación de los datos presenta una imagen que reconoce la variedad de modos en que nuestra experiencia es codificada (Eisner, 1997, p. 4) Con la maestría que Eisner tiene en este campo plantea las «promesas y peligros» de formas alternativas de representación de la investiga-El estudio de caso como informe biográfico-narrativo 567 ción. Y es que es evidente que, desde el final de la modernidad clásica, estamos inmersos en una grave crisis re-presentacional, unida a una propia crisis de legitimación, donde los criterios habituales (validez, generalización, fiabilidad) también han empezado a tambalearse. La investigación biográfico-narrativa incrementa dicha crisis introduciendo una «fisura» entre la experiencia vivida y cómo deba re-presentarse en el discurso de la investigación. Ilustraremos, a modo de pinceladas, algunos ecos y signos de dicha crisis. 14): Renunciar a un intento de explicación de los fenómenos sociales que los entrelace en grandes texturas de causas y efectos para optar por otra que trate de explicarlos situándolos en marcos locales de conocimiento significa sustituir una serie de dificultades bien definidas por otras mal definidas. Y ese es justamente uno de los problemas de credibilidad de la investigación narrativa. No es posible aplicarle los cánones del modo paradigmático de conocer (por ejemplo, representatividad) a un modo que es distinto, pero prescindir completamente de ellos podría significar relegarla al campo literario. En este dilema nos movemos actualmente, como hemos analizado extensamente en el trabajo citado (Bolívar, Domingo y Fernández, 2001). Más bien, deben ser redefinidos en unos casos, y en otros, introducir nuevos. Precisamente, hace unos años, Elliot Eisner (Eisner et al., 1996) se atrevió a plantear, en un discurso presidencial en la convención anual de la Asociación de Investigación Educativa Americana, si una tesis doctoral escrita en forma de novela deba ser admitida como una investigación. La propia cuestión era ya un síntoma de que el paradigma establecido empezaba a tambalearse. Más allá de aspectos particulares en este debate, la cuestión última -como ejemplifica la interesante discusión entre Howard Gardner y Elliot Eisner (Eisner et al., 1996)-es si la investigación educativa es un saber disciplinado, y -por tanto-debe hacerse de acuerdo con los patrones de investigación y presentación de las disciplinas. Eisner defiende que, si bien la narrativa novelada no es el mejor vehículo de representación para todos los problemas educativos, puede ser un modo válido en otros, con tal que se base en un trabajo de campo exhaustivo y sistemático. Lo relevante es que sea fi:*uto de una investigación, y ésta no es una clase de la ciencia, sino la ciencia una especie de investigación. Por tanto, si la presentación narrativa es firuto de una investigación seria, no habría especiales problemas en admitir un relato narrativo como informe científico. Cada comunidad científica tiene sus propios criterios, a menudo implícitos, sobre lo que deba o no ser aceptado como buena investigación. Por eso, los informes suelen ser narrados de acuerdo con los cánones de cada comunidad de ciencias sociales. En una bella analogía, Kushner y Norris decían que la Academia se dedica a cuidar los jardines de la verdad, señalando qué flores, y cómo, deben crecer. Si desde el «Discurso del Método» de Descartes, se han impuesto unos modos paradigmáticos, sucesivamente reformulados; con el final de la modernidad, están entrando aguas turbulentas que desestabilizan los formatos establecidos en cada ciencia normal. No obstante, como dice Hunter McEwan (1998, pp. 237-8), parece evidente que «la mayor parte de los escritos académicos puede ser considerada un esfuerzo de sofocar el impulso de relatar una narrativa; y a su vez, las pautas de la composición académica tienden a favorecer las escrituras no narrativas sobre los relatos directos [...]. Así, la sofocación de la narrativa en la mayoría de los escritos académicos es algo más que una preferencia estilística: muchas veces es considerada un requisito académico previo y una demostración del ideal científico que identifica la objetividad con la distancia entre el científico y su objeto de estudio». Construir un informe, como texto narrativo, es realizar una interpretación hermenéutica, donde cada parte adquiere su significado en función del todo, y el informe como totalidad depende -a su vez-del significado de cada parte. El investigador se encuentra situado entre sus experiencias y textos del campo, y su esfuerzo por dar sentido a lo vivido/recogido. La selección de episodios, voces, observaciones, y especialmente su ordenación y conjunción, crean la historia del caso. A pesar de que contamos con algunas reglas para analizar y escribir el informe, es también una tarea artística; parecida al buen periodista que construye una excelente descripción de una realidad a partir de un caso. Clandinin y Connelly (2000) se refieren a la tensión inherente en el investigador enfrascado en la tarea de escribir un informe, situado entre las experiencias vividas y su inevitable reducción en un texto. En esta situación, el investigador debe lidiar entre tratamientos formales o reduccionistas y la recogida fiel de las palabras de las gentes como si fueran transparentes por sí mismas. Las experiencias vividas o las historias contadas, en cualquier caso, precisan de una «transformación» desde el plano personal al informe público. La forma ortodoxa (reducción a lenguaje preposicional y tablas numéricas) se está cuestionando crecientemente. Como ha dicho también Geertz (1994), «ciento quince años de prosa aseverativa e inocencia literaria son ya suficientes». Acudir a formas alternativas de representación (más fuertemente narrativas, en modos literarios y experimentales de escribir historias, hasta llegar a la ficción), como se aduce desde el postestructuralismo, no deja de El estudio de caso como informe biográfico-narrativo 569 ser problemático. ¿Cuáles son las formas válidas (es decir, aceptadas) de presentación? Es una decisión que depende, como señalaba, en último extremo, de las que son admitidas por una comunidad científica. En cualquier caso, una cosa es evidente: reducir cuantitativamente las dimensiones cualitativas de la experiencia ha empezado a tornarse problemático. Cualquier forma de representación alternativa puede ser empleada, dice Eisner (1997), con tal que pongan en escena mejor la experiencia e incrementen la comprensión. Algunas formas alternativas de representación tienen, entre otras, estas ventajas: a) Proveen un sentido de particularidad (carácter individual, cualidades distintivas, autenticidad) que las abstracciones impiden. b) El material presentado en estas formas alternativas suele ser más evocative que denotativo, al presentarlo en un texto más abierto a múltiples interpretaciones, lo que le aporta una «ambigüedad productiva». c) Los nuevos modos de representación amplían nuestros modos de ver y de abordar los problemas, incrementando las cuestiones que podemos responder. d) Los modos cualitativos de representación posibilitan, en mayor grado que los cuantitativos, la creatividad del investigador y sus cualidades individuales. Sin embargo, también tienen sus peligros. Si el objetivo de las ciencias sociales convencionales era reducir la ambigüedad e incrementar la precisión, algunas de estas formas alternativas no proveen precisión. Y si bien la ambigüedad puede ser productiva, también da lugar al «síndrome de Rorschach»: cada uno puede conferir un significado idiosincrático a los datos, impidiendo un cierto consenso. Nos importa, además, cómo el informe presentado es usado, para lo que es preciso proporcionar un amplio contexto en el que se sitúa el caso. El informe entre el análisis, la narración y la persuasión El informe narrativo de estudio de caso, aun cuando emplee los mismos datos, puede tener un carácter preferentemente descriptivo, interpretativo o evaluative; explicativo o analítico (Polkinghorne, 1998; Merriam, 1998): a) Descriptivo: Proporciona una descripción precisa y exhaustiva de los relatos que los individuos o grupos hacen de los acontecimientos de sus vidas o de los contextos en que trabajan. Esta amplia descripción puede ser base de una interpretación, apoyando presupuestos teóricos previos o, incluso, elaborando construcciones generales. Igualmente, si Antonio Bolívar Botía 570 junto a la descripción, se valora y enjuicia la situación (por ejemplo un programa social), el informe será evaluativo. b) Explicativo: En su uso explicativo, el interés se dirige a establecer una conexión entre los acontecimientos, acumulando aquellos relatos necesarios que puedan justificar tales conexiones. Se tratará de confirmar hipótesis previas, aportando todos aquellos elementos que contribuyan a clarificar los supuestos de partida. En cualquier caso, en ñmción del análisis de datos practicado, es un tema debatido si los informes deben adoptar un formato analítico, donde se desplieguen las relaciones entre las categorías como si fueran variables; o un informe no formalizado, propiamente narrativo, en una tarea cercana a la descripción literaria o buenos reportajes periodísticos. En fin, como esbozaremos, el problema metodológico en la investigación biográfico-narrativa es cómo combinar, de modo productivo, un estilo más analítico (etic) con otro descriptivo (más emic). Una cosa es la lógica de descubrimiento o investigación y otra la de exposición y justificación, aunque estén relacionadas. Es preciso combinar y recomponer los diversos datos en modos que puedan proporcionar una comprensión viva y densa. Los informes de investigación están compuestos de narrativas, integrados de datos observacionales, relatos que los informantes cuentan, relatos del investigador, y los modelos teóricos (que -a su vez-son estructuras narrativas) que guían la investigación. Una forma convencional de elaborarlo es partir de explicitar el problema a investigar, destacando su relevancia, surgimiento, teorías previas, posibles hipótesis, etc. A continuación, se pasaría a Injustificación de elección y construcción del caso, seguido de la metodología empleada en la recogida de datos, el análisis y modos de interpretación practicados y -finalmente-las conclusiones e implicaciones Sharan Merriam (1988) sugiere siete marcos analíticos para organizar y presentar los datos: El papel de los participantes, el análisis conjunto de intercambios formales e informales entre los grupos, histórico, temático, recursos, rituales y simbolismo, e incidentes críticos que cambian o refuerzan las creencias fundamentales, prácticas y valores. Los investigadores sociales podemos aprender a escribir informes de campos cercanos, como el llamado «nuevo periodismo» o periodismo literario, que comibina la investigación con la buena escritura. 298): «las estrategias de redacción y las técnicas empleadas por los nuevos periodistas parecerían constituir modelos apropiados para los investigadores de caso». Tom Wolfe propuso la definición del nuevo periodismo como la aplicación de técnicas de ficción realista al periodismo. Por ejemplo, la reconstrucción del evento por la representación El estudio de caso como informe biográfico-narrativo 571 de escena tras escena, la incorporación de diálogo, «meterse» dentro de la psicología del personaje y reflejar todos los elementos del ambiente, después de hacer varias «entrevistas a proñmdidad» a todos los involucrados. El problema implícito que suscita el nuevo periodismo es la relación entre los datos empíricos (la idea de la veracidad, lo factual, lo empírico) y la técnica narrativa, pues la objetividad es una convención establecida en el campo. Pero, al igual que en nuestro tema, planteó abiertamente que el paradigma del periodismo tradicional que se conduce por las preguntas básicas de ¿quién?, ¿qué?, ¿dónde?, ¿cuándo?, y ¿por qué?, para simular la objetividad, debía ser cuestionado. Los hechos no hablan por sí mismos, son de hecho una construcción. El reportaje es un modo de narrar y percibir los eventos, que necesariamente no se puede identificar con los acontecimientos. Los múltiples evidencias presentadas y la trama desarrollada en el discurso, a través de estudios de caso, deben -en último extremo-persuadir (Zeller, 1998). Las posibles objeciones que puede suscitar la persuasión deben ser situadas. Tomamos el término, de acuerdo con la «nueva retórica», no en un sentido peyorativo (manipular, argumentos artificiosos), sino como una forma de argumentación «razonable», con argumentos motivados que convenzan de lo que se describe. 67) llaman persuasiva a «la argumentación que sólo pretende servir para un auditorio particular, y nominalmente convincente a la que se supone que obtiene la adhesión de todo ente de razón», es decir, a un posible «auditorio universal». La persuasión induce a la acción, convencer es una operación intelectual. De este modo, queda definido el discurso convincente, como «aquel en el que las premisas y los argumentos son universalizables, es decir, aceptables, en principio, para todos los miembros del auditorio universal». El informe, pues, debe buscar la eficacia de las palabras, conjuntado con los argumentos y voces que lo justifiquen. 96), el informe o narración «es el medio a través del cual se intenta convencer al público de la veracidad de las conclusiones del estudio». La argumentación se hace, pues, en función del auditorio al que se dirige; empleando aquellos medios discursivos que puedan convencer de su realidad o veracidad. Si desde esta interpretación actual de la retórica, «toda argumentación se desarrolla en función del auditorio»; todo texto, si desea ser eficaz, debe estar condicionado en su escritura y presentación por el auditorio potencial al que va dirigido, para que pueda provocar su procesamiento social y adhesión. 57) añrma: «la indagación cualitativa, como las aproximaciones a la investigación cuantitativa convencional, es en última instancia una materia de persuasión, de ver las cosas de una manera que satisface, o es útil para los propósitos que nos señalamos». De este modo, las estrategias narrativas desplegadas en el Informe de Investigación buscan provocar la adhesión o asentimiento de los lectores al discurso desarrollado. Estos serán percibidos y entendidos, junto a los argumentos, datos y voces recogidas, en función de cómo se presentan y logran persuadir. «La calidad y la utilidad de la investigación no dependen -dice Stake (1998, p. 115)-de su capacidad de ser reproducida, sino del valor de los significados que han generado el investigador o el lector». El dilema entre el análisis categorial y la narración En el voluminoso informe sobre La miseria del mundo, Pierre Bourdieu y su equipo (1999) privilegian el testimonio oral hasta el punto de renunciar a realizar cualquier tipo de análisis (categorial o no) del amplio material biográfico-narrativo recogido. Se limitan a ordenar y titular de modo coherente la transcripción de las 182 entrevistas correspondientes. Así señalan al comienzo: «Entregamos aquí los testimonios que nos dieron hombres y mujeres en relación con sus existencias y la dificultad de vivir. Los organizamos y presentamos con vistas a conseguir que el lector les dirija una mirada tan comprensiva como la que nos imponen y nos permiten otorgarles las exigencias del método científico». El argumento principal para esta postura es «dar los medios para comprender, es decir tomar las palabras de la gente como son», dejando para el lector -en una especie de «democratización de la postura hermenéutica»-la tarea de análisis y comprensión. Sólo al final del libro se dedica un apartado (titulado «Comprender») a plantear algunos de los presupuestos epistemológicos con los que han operado en la investigación. Los estudios de casos son, así, pequeños relatos de las gentes, debidamente ordenados según características afines por tema o situación de vida. Si bien dice no creer en «la ilusión espontaneista del discurso que habla de sí mismo», y que han operado ya una interpretación al reescribir las entrevistas orales para que sean legibles, asombra que no aparezca ningún tipo de análisis, justo para ser fiel de la mayor manera posible a las voces de la gente. El estudio de caso como informe biográfico-narrativo Las reacciones que ha suscitado, en el que algunos se han atrevido a acusar la obra de «la miseria de la sociología» o que contradecía formas con las que el propio Bourdieu había trabajado anteriormente, son muestra de la crisis metodológica y de cómo re-presentar las palabras de las gentes en que nos encontramos. Un análisis formalista o fuertemente categorial fragmenta en elementos codificables el discurso, descontextualizándolo. Pero una «fidelidad» extrema al propio discurso, limitaría el análisis a proporcionar otra narrativa de la información recogida, sólo que ahora el discurso se encuentra enhebrado. Las relaciones entre quien informa y analiza la información, creemos, no pueden limitarse a «tomar nota». La tarea es, por una parte, descifrar significativamente los componentes y dimensiones relevantes de las vidas de los sujetos, y -por otra-situar los relatos narrativos en un contexto que contribuya a proveer una estructura en que tome un sentido más amplio. Para que los relatos sean relevantes a propósitos de investigación, deben ser reconstruidos de acuerdo con determinados modos paradigmáticos aceptados de analizar la información. La obra, también francesa, de Demazière y Dubar (1997) Cómo analizar las entrevistas biográficas es también ejemplificadora de este grave déficit metodológico sobre cómo analizar las entrevistas biográficas, que son discurso narrativo. En ella, si bien hacen una fundamentada crítica de los métodos convencionales de análisis, cuando llegan a proponer como alternativa el análisis estructural de relatos, tipo Barthes, no nos parece una salida definitiva. Rechazan como insuficientes tanto unsi postura ilustrativa, que se limita a hacer un uso selectivo de las palabras de los entrevistados al servicio de lo que quiere mostrar el investigador, como una postura hiperrealista, que trata de dar todo el valor a las propias palabras de los entrevistados, como si las palabras fueran por sí mismas transparentes. En su lugar, defienden un modo analítico de abordar las entrevistas, con una teoría generada del análisis de los datos, y decidiéndose por un análisis estructural de los relatos biográficos. En este sentido piensan que las diferentes técnicas de análisis de contenido son inadecuadas para analizar las entrevistas biográficas. En efecto, extraer ad hoc (es decir, descontextualizados) trozos o párrafos que permitan ejemplificar, concretar o ilustrar lo que ya, previamente, se pretende demostrar, no es una posición defendible. Pero tampoco lo es, por el contrario, restituir simplemente las entrevistas en su retranscripción literal, para no «traicionar» la palabra de los sujetos, reduciendo los comentarios al mínimo. Las palabras de los entrevistados no son transparentes, ni hablan por sí mismas. Si se las quiere comprender, es preciso que el investigador las retraduzca y 574 analice, por lo que no debe limitarse a ser portador de la palabra de una persona o grupo. Una postura analítica busca producir, de modo metódico, sentido a partir de la explotación de las entrevistas de investigación Bajo el lema de rechazar las generalizaciones y las posibles distorsiones de la narración de los sujetos, no se puede sacralizar el discurso emic de éstos. Al fin y al cabo, los propios relatos de los profesores son construcciones sociales que dan un determinado significado a los hechos, y que, como tales, deben ser analizados por la investigación. Como comenta Huberman, parece legítimo en la investigación educativa buscar temas y sentidos comunes en las biografías docentes singulares, que nos induzcan posibles explicaciones de por qué dicen lo que dicen. De hecho, esto es lo que han pretendido las ciencias sociales. La cuestión última es qué estatus se le debe dar a las palabras de la gente o, en otros términos, si lo biográfico es complementario o deba tener autonomía; en cualquier caso cómo re-presentar las voces, en una coyuntura de crisis de la representación. Estas no son transparentes por ellas mismas de la realidad, construyen discursivamente un mundo vivido por los agentes, la entrevista obedece a reglas específicas de producción de sentido. Ni las posturas ilustrativas (extractos de entrevista, citados para ilustrar lo que se dice, en una «apropiación selectiva»), ni en el caso extremo, el textualismo radical (otorgar un gran lugar a la palabra de los entrevistados, restituyendo las palabras como si lo dijeran todo), resultan hoy sostenibles. Mientras tanto, la salida intermedia de un análisis categorial (con todas las variantes, incluidos programas por ordenador, de análisis de contenido), ha conducido a un cierto desengaño, pues no estamos antes textos informativos, sino ante relatos biográficos que construyen humanamente (sentir, pensar, actuar) una realidad. Se ha reparado poco en que el análisis empírico de contenido categorial surgió inicialmente (Berelson) para el tratamiento de textos informativos o periodísticos, donde la dimensión personal-afectiva está ausente; por ello su aplicación a textos que no describen hechos sino que reconstruyen un mundo/vida en el propio discurso es siempre deficiente, nunca cabe atrapar los matices de la narrativización de una vida bajo una categoría temática. 94) llegan a afirmar que, en el caso de las entrevistas narrativas, «las diferentes técnicas de análisis de contenido son inadecuadas para el análisis de las significaciones que queremos realizar». No obstante, cabe combinar análisis cualitativos y hermenéuticos del contenido, con los propios análisis cuantitativos, en una conjunción El estudio de caso como informe biográfico-narrativo fructífera, aún cuando un equilibrio sea inestable, presto a romperse por un extremo. Hemos dado cuenta de la tendencia en ciencias sociales a «recortar» las voces registradas de los agentes, según el gusto del investigador, manipulando el discurso originario. Actualmente, el asunto se juega en lograr un equilibrio entre una interpretación que no se limite -desde dentro-a los discursos de los entrevistados, ni tampoco una interpretación -desde fuera-que prescinda de los matices y modulaciones del discurso narrado. Superar el mero «collage» de fragmentos de textos mezclados ad hoc, implica que el investigador debe penetrar en el complejo conjunto de símbolos que la gente usa para conferir significado a su mundo y vida, logrando una descripción lo suficientemente rica donde obtengan sentido. Recurriendo a la metáfora del paisaje, Bruner (1988) decía: «el relato debe construir dos paisajes simultáneamente»: el paisaje exterior de la acción y el paisaje interior del pensamiento y las intenciones. Nos encontraríamos, entonces, en que hay un doble discurso: enunciado de hechos o acontecimientos, y lo que piensa/siente ante ellos. Se evoca el pasado junto a un juicio sobre su vida y presente, lo que suscita la anticipación de futuros posibles. En relación con el primer paisaje, a lo largo de las entrevistas o narraciones biográficas se hacen continuas referencias a acontecimientos externos en relación a los cuales se va inscribiendo la vida. Además de esta función referencial (describe el estado de cómo son las cosas), hay unsi función modal (lo que se piensa de ellas), e incluso unsi función de acto (alterar el estado del oyente). Si el primer tipo de discurso, con función referencial, puede ser categorizado; el segundo, más modal, no se deja atrapar con categorías temáticas. Hay que practicar en la investigación narrativa, entonces, en una especie de visión binocular, una «doble descripción». Por una parte, se necesita un retrato de la realidad interna del informante; por otra, se tiene que inscribir en un contexto externo que aporte significado y sentido a la realidad vivida por el informante. Si hay que situar las experiencias narradas en el discurso dentro de un conjunto de regularidades y pautas explicables sociohistóricamente, pensando que el relato de vida responde a una realidad socialmente construida, sin embargo, no se puede desdeñar que es completamente única y singular. En fin, estamos ante el dilema, ya referido, de conjugar un punto de vista del nativo (emic) y del investigador (etic). En muchas ocasiones, los papeles del cognoscente y conocido 576 cambian o, mejor, dejan de diferenciarse para conjuntarse, rompiendo con lo que ha sido un principio intocable de la objetividad cognoscitiva moderna. Tal como hemos apuntado, actualmente, en nuestra coyuntura posmoderna, el asunto de redacción del informe de estudio de caso se juega entre no sacralizar los relatos, ni tampoco asimilarlos a tradicionales modos paradigmáticos de conocer, en los que vanamente encajarían. En suma, un modo abierto de investigar y relacionarse con las voces de las gentes, aun cuando conjugar ambos extremos -preciso es reconocerlo-no deja de ser en la práctica un equilibrio inestable, presto a romperse en un extremo u otro. En último extremo, estamos ante qué debe contar como investigación, y -por otro-si la investigación debe asimilarse a los modos científicos establecidos. Formas enteramente narrativas, como una buena novela (realista), pueden aportar un grado de conocimiento de una realidad que ya lo podrían reclamar investigaciones cuantitativas. Pero, como investigación, debe tener conjuntamente un formato de argumentación narrativa y apoyarse -con algún grado de sistematicidad-en datos. La forma de presentación (más narrativa o analítica y formalizada) no determina por sí misma su carácter de investigación, sino el modo como argumenta y justifica. A la hora de elaborar un informe hiográfico-narrativo nos encontramos, pues, entre no querer violar/expropiar las voces de los sujetos investigados, imponiéndoles análisis categoriales alejados de las palabras de los sujetos, y someterlos a los cánones formales que nos induzcan a explicar por qué dicen lo que dicen. Nuestro problema es que si respeta en exceso el discurso emic de los actores sociales, la interpretación queda presa dentro de los horizontes de los interpretados (como sería la quimérica etnografía de los trobiandeses hecha por ellos mismos), imposibilitando toda explicación comparativa, generalizable o teórica; lo que torna superfina cualquier tarea de análisis. Con las especificaciones antes señaladas, abogamos por que -para que dichos relatos sean relevantes a los propósitos de la investigacióndeben también someterse a determinados modos paradigmáticos aceptados de analizar la información. Un «textualismo radical», excluyendo todo tipo de análisis paradigmático, plantea una ruptura con los modos académicos de investigar. En esta coyuntura, por ahora, un marco de inteligibilidad de las narraciones tiene que conjugar aquellos elementos tal y como fueron dichos en descripción emic, y -al tiempo-no renunciar a hacer descripciones interpretativas que vayan más allá de los horizontes de los interpretados. 22), de lo que se trata es de: reorganizar las categorías de un modo tal que puedan
Con este trabajo se pretende justificar que la consecución de la explicación-relación de fenómenos psicológicos trasciende del tipo de diseño que se aplique para la obtención de datos de interés investigador. De forma que se hace explícito cómo los distintos diseños explicativos, los grupales y los de sujeto único, implican formas distintas para llevar a efecto las acciones comparativas pero igual de rigurosas. Asimismo, se intenta demostrar que no tiene demasiado sentido entender que algunos de ellos son mejores que otros, sino que para su elección debe imperar el criterio de adecuación estructural y analítica a los fenómenos naturales que se pretenden constreñir. Para ello, tras una breve introducción se hace una exposición de ideas acerca del estado actual de la metodología en Psicología para finalmente llegar a una reconceptualización de los diseños de sujeto único. Reconceptualización ésta, llevada a cabo desde lo puramente estructural y no sólo desde lo absolutamente estadístico. Algunos autores adscritos a ciertas tendencias teóricas de la Psicología evitan los diseños de sujeto único (n=l), al considerarlos producto de una orientación teórica conductista, neoconductista o del análisis fun-580 Humberto M. Trujïllo Mendoza clonal de la conducta, o anclados en los planteamientos más radicales del inductivismo y el positivismo lógico, aspectos éstos que no suscriben. Igualmente, con relativa frecuencia se considera a los citados diseños como diferentes a lo que debería ser el paradigma de un diseño científico en Psicología, es decir, estructurar la obtención de datos con grupos de sujetos (n>l) y analizarlos con técnicas estadísticas ancladas en los planteamientos, por ejemplo, de Fisher, de Neyman y de Pearson. Estas posturas persisten a pesar de ser conocido que autores clásicos como Wundt, Fechner, Pavlov, hacían planteamientos muy similares a los que subyacen a los diseños de n=l. Y a pesar, también, de que autores más recientes como Sidman (1960), Castro (1975), Johnston y Pennypacker (1980), Kazdin (1982), Barlow y Hersen (1988), Arnau (1995), Anguera et al (1995), entre otros, los consideran y demuestran como potentes estructuras de obtención de información experimental y, por lo tanto, con una alta potencia probatoria de causalidad y, así, explicativa-relacional de los datos que generan. Además, cabe decir que actualmente el desarrollo en este campo metodológico, en el que las unidades de observación son una o muy pocas, no se ha restringido sólo a la búsqueda de nuevos diseños o a la modificación y la mejora de los existentes, sino que además ha surgido una nueva forma de pensar acerca de las estrategias para analizar los datos que éstos producen y que ha contribuido a conseguir la «tan preciada», aunque no siempre necesaria, sensibilidad y validez de la conclusión estadística de los resultados de tales análisis. Así, el objetivo de este trabajo es mostrar y justificar cómo este tipo de diseños, tanto desde un punto de vista técnico-metodológico como estadístico-analítico, se constituyen en potentes instrumentos de investigación en áreas básicas y aplicadas de la Psicología. Sobre todo en el ámbito de la Psicología Clínica Aplicada, en el que tiene poco sentido utilizar estructuras de obtención de datos grupales, y mucho considerar el cambio de la conducta a través de distintos y, a ser posible, numerosos momentos temporales; aspecto éste consustancial a los diseños de caso único y que favorece el poder estudiar con detalle las variables que median en el desarrollo, mantenimiento y extinción del comportamiento de las personas. 2, El estado de las cosas Quizás, el estado actual de la metodología en Psicología se podría decir que se caracteriza por una insuficiente sistematización de lo explica-¿Diseños de sujeto único versus de grupo? Esto es, falta una teoría general del método científico, como lo demuestra el hecho de que los modelos existentes se centran fundamentalmente en aspectos tecnológicos y formales. No es difícil llegar a concluir que esto se pudiera deber a una falta de definición de lo que debe ser el objeto de estudio de la metodología. No obstante, cada vez más se considera que el objeto de estudio de la metodología de la ciencia, en general, y de la metodología de la Psicología, en particular, debe ser el conjunto de actividades que lleva a cabo el científico. Tales actividades abarcarían, por supuesto, cuestiones formales de tipo matemático-estadístico, para asegurar la sensibilidad de los resultados o validez de la conclusión estadística de éstos, pero además debería afrontar la estructuración de nuevos procesos de razonamiento a efectos de generar distintos planteamientos para la producción de estructuras de obtención de información empírica más sensibles y válidas; esto es, estructuras que aseguren la validez de los datos, sea cuales fueren sus planteamientos y formas de constreñir la realidad. Sin embargo, parece que la labor metodológica está excesivamente impregnada por anclajes en la matemática, ya sean éstos de tipo estadístico o no. Aunque nadie pone en duda que esto es, a veces, importante para las distintas fases del proceso investigador como, por ejemplo, para el análisis de los datos o el control de las variables perturbadoras, sin embargo, con excesiva frecuencia a estas formalizaciones estadístico-analíticas se les otorga el valor de elementos exclusivos de lo metodológico. Quizás, con la identificación de un objeto de estudio empírico, bien acotado éste, y con las aportaciones epistemológicas, matemáticas y lógicas oportunas, la metodología podría aspirar a conseguir la estructuración de una teoría propia que pudiese evitar el estado de inconexiones entre algunos de los aspectos, que la conforman y le dan entidad, y el escaso desarrollo de otros. No obstante ya lo expuesto, toda disciplina científica que se precie de serlo, como lo es la Psicología, debe dar respuesta al qué y cómo se deben desarrollar los contenidos específicos que le son propios y sin ningún tipo de presión procedente de paradigmas imperantes o de modas normativas. Debiéndose poner de relieve la importancia del método, el cómo, para el desarrollo de la ciencia, postulándose que el estudio y desarrollo de éste debe dar cumplida respuesta de cuáles deben ser sus estrategias para la obtención de información sobre los fenómenos naturales de interés. Así, no se debe olvidar que sea cual fuere el objeto, el qué, de una disciplina científica, ésta siempre se sustenta en un método o forma de actuar y que éste nunca debe ser dogmático. Método que sólo puede ser uno, el científico, y que se debe anclar en los supuestos de orden, déterminisme y Humberto M, Trujillo Mendoza comprobabilidad de los fenómenos naturales, y con el que se debe aspirar a alcanzar la descripción, explicación y predicción de éstos (Trujillo, 1999). Pues bien, en Psicología son distintas las estrategias metodológicas que pueden dar forma al método científico y que están al servicio de su objeto de estudio dentro del nivel técnico-metodológico del modelo general de investigación científica. A saber, metodología experimental, cuasiexperimental, de encuesta y observacional. Y esto, independientemente de las herramientas lógicas utilizadas, como lo son la inductiva, la deductiva y la hipotético-deductiva, y las estructuras para la obtención de datos aplicados. Abundando algo más en lo aquí expuesto, decir, que según Kish (1987), las cuatro estrategias metodológicas propuestas se pueden diferenciar unas de otras según las características de la información que facilitan. Así, la experimental se caracterizará por un elevado control de las variables extrañas como elementos de confundido de la relación de causalidad entre antecedentes y consecuentes; la cuasi-experimental por un control relativo de aquellas pero suficiente a efectos de validez interna; la metodología de encuesta por la gran representatividad de la información que aporta; y, la metodología observacional por el realismo de los datos que genera. Otro concepto importante en este entorno expositivo será el de diseño, que viene a ser como la particularización y concreción de la estrategia metodológica para un objetivo específico de estudio. Esto es, como una estructura de obtención de datos a efectos de dar cumplida respuesta al problema investigador, pudiendo existir en número tantos casi como investigaciones se realizan y todos ellos válidos si su aplicación es la correcta. Aceptando, que la teoría metodológica en Psicología aún es inconclusa y aceptando también que lo epistemológico supone distintas ópticas de entender lo metodológico, podría resultar provechoso empezar a aplicar esta forma de entender las cosas a todas aquellas cuestiones metodológicas que sea posible. En este orden de cosas y teniendo como guía esta forma de enfocar el problema que subyace en esta área de conocimiento, en este trabajo se intentará considerar a los diseños experimentales de sujeto único desde tal punto de vista. Utilizando como elemento vertebrador la idea de que las características de este tipo de diseños no son otra cosa que concreciones de las características de todo diseño explicativo-relacional. Esto es, al igual que ocurre en cualquier diseño explicativo-relacional de grupos, los diseños de sujeto único se pueden considerar como el conjunto de actividades que el científico lleva a efecto para dar respuesta a preguntas que demandan la identificación de los efectos de las causas sobre lo medido. Por lo tanto, todo diseño experimental, en general, y así los de sujeto único, en particular, no tendrán que ser otra cosa que un conjunto de quehaceres concretos encaminados a la validación de ¿Diseños de sujeto único versus de grupo? 583 explicaciones-relaciones, y que una vez formalizadas éstas pudieran ser consideradas distintas de lo particular. Desde este punto de vista, el elemento central en todo diseño explicativo-relacional, sea grupal o de sujeto único, será el conjunto de acciones comparativas que realiza el investigador. Siendo éstas esencialmente, y según Moreno (1988), las siguientes: (1) al menos se deben considerar dos variables diferentes, de las cuales una es la variable dependiente o variable que se desea explicar y la otra la variable independiente, la que se considera como la base de la explicación; (2) se debe considerar como mínimo dos niveles o modalidades empíricas de la variable desde la que se explica; (3) ante cada nivel de la variable que se utiliza para la explicación, se registrarán los valores de la variable a explicar, para así indagar la covariación entre los distintos valores de ambas variables; (4) estas covariaciones se deberán realizar un número suficiente de veces para cada uno de los niveles de la variable base de la explicación; y, (5) ya que la realidad de los fenómenos no es univariada, habrá que conseguir que los factores colaterales o variables extrañas que puedan afectar a la variable a explicar, a la vez que a la variable que explica, resulten eliminados o controlados. Estos procedimientos o estrategias para llevar a cabo comparaciones sería mejor entenderlos como esquemas a seguir en aquellas acciones encaminadas a la búsqueda de la relación o covariación entre variables, ya se concreticen éstos en aproximaciones selectivas, experimentales, inductivas o deductivas, o en cualquier otro planteamiento investigador. Y esto mejor que considerar a dichos esquemas simplemente como formas para la inducción del conocimiento experimental. Al hilo de lo planteado se puede decir que la Psicología, como no podría ser menos, y como disciplina científica que es, ya ha conseguido acotar varios y diversos patrones de explicación-covariación, si bien no otros. Partiendo del conjunto de relaciones entre los conceptos expuestos, se intentará reconceptualizar a los diseños experimentales de sujeto único, en un intento de reorganizar sus elementos, los cuales parecen haber sido desatendidos como consecuencia de haberlos percibido de forma aislada y no estructural. Principios generales de la investigación explicativa-relacional con diseños de grupos Como ya se ha hecho explícito en un apartado anterior, la ciencia, en general, y así la Psicología, como disciplina científica que es, tiene como objetivo último la explicación de los fenómenos naturales que le son propios. La explicación de un fenómeno pasa por el hecho de poder demos- Humberto M. Trujillo Mendoza trar una relación de causalidad inequívoca entre un antecedente y un consecuente, así como demostrar la covariación clara de los cambios entre el primero y el segundo; esto es, una relación clara y no confundida entre una causa y su efecto, de forma que la causa debe estar en relación de precedencia temporal con el efecto. Cuando esto es así, y además se consigue un elevado control sobre las variables extrañas, como covariables ajenas a la causa indagada, pero que pueden incidir sobre el efecto, se puede decir que los datos que se generan tienen una alta potencia probatoria de causalidad. Además, en estos casos, se puede decir que el sentido de la inferencia conceptual válida va desde el antecedente al consecuente; o sea, desde la variable independiente manipulada directamente, la causa, a la variable dependiente medida, el efecto. También, para poder considerar experimentales y así explicativos los datos que genera un diseño, éste, como estructura o estrategia para la obtención de aquellos que es, debe contemplar en su plan de acción lo siguiente: (1) manipulación directa de los niveles de la variable independiente; (2) control de las variables extrañas; y, (3) para el caso de los diseños con estructura de grupos, la selección aleatoria de las unidades de observación que constituyen la muestra de la población total, la asignación aleatoria de éstas a los distintos grupos de tratamiento y, por último, la asignación aleatoria de los distintos niveles manipulados de la variable independiente a los distintos grupos muéstrales. Aunque quizás, también habría que exigir a una situación investigadora como la descrita el cumplimiento de dos supuestos más: (1) que los niveles elegidos de la variable independiente estén lo suficientemente distantes en magnitud, como para que generen cada uno de ellos un efecto distinto sobre la variable dependiente, y que éste sea significativo, no sólo desde un punto de vista estadístico, sino también comportamental; y, (2) sensibilidad de la variable dependiente medida a los distintos efectos de los niveles de la variable manipulada; además de haber resuelto adecuadamente los problemas consustanciales a la medida de ésta, a saber, la unicidad de la medida, la significación y sobre todo la representación de ésta, o lo que es lo mismo, asegurar el homomorfismo entre el sistema relacional empírico y el sistema relational numérico aplicado. Hacia la reconceptualización de los diseños experimentales de sujeto único El concepto de medidas repetidas ha sido y es un tópico para la justificación de la validez de los diseños de sujeto único. Parece que la repetí-¿Diseños de sujeto único versus de grupo? Una antigua... ción de los registros de las variables a explicar es algo imprescindible si se quiere disponer de una cierta garantía de la verosimilitud no confundida de una relación encontrada. Pues bien, este requisito se puede conseguir de varias formas, además de con estructuras de sujeto único. A saber, los distintos valores de la variable a explicar, variable dependiente, se pueden obtener de distintas unidades de observación distribuidas en grupos diferentes pero homogéneos en cuanto a variables extrañas se refiere; o quizás, constituyéndose un solo grupo de unidades de observación, siendo éstas el medio de control, en cuyo caso habrá que tomar como poco una medida de cada sujeto en todos los niveles o condiciones de la variable considerada como base de la explicación; o bien utilizando diseños de sujeto único como estrategia de control de variables colaterales, con los que será necesario tomar secuencialmente medidas, en distintos momentos temporales y bajo distintas condiciones de la variable independiente, si se aspira a la estabilidad de la covariación entre las variables explicativas. También, se suele considerar como algo propio y específico de los diseños de sujeto único, lo referido a las operaciones de retirada de los tratamientos y la inversión. Pues bien, cuando en estos diseños se retira un nivel de la variable ya administrado, se debe pensar que no se hace otra cosa que llevar a efecto la manipulación de diferentes niveles de la variable independiente, o sea presencia o ausencia del tratamiento. Por lo tanto, no se está haciendo con esta estrategia otra cosa que lo que esencialmente se lleva a cabo en los diseños con estructura de grupos. Otro tópico proyectado sobre los diseños de sujeto único es la meticulosidad con la que se registran los datos en éstos. Decir pues, que esto es algo común y consustancial a cualquier tipo de diseño experimental que tenga como objetivo la identificación de relaciones explicativas. Esto es, la recogida cuidadosa de los datos es necesaria si se quiere proyectar verosimilitud sobre la covariación de éstos. No obstante, como indica Moreno (1988), no se debería confundir a los diseños experimentales, válidos internamente, de n=l con otros planeamientos investigadores como, por ejemplo, los observacionales; los cuales, aunque pueden implicar registros sensibles de uno o pocos sujetos, sin embargo, no proyectan acciones comparativas sino descriptivas. Con menor motivo debería asociarse los diseños n=l con los estudios realizados con un único sujeto a efectos exploratorios, y por tanto sin suficiente control, como sucede con los llamados estudios de caso. En relación al análisis de datos que generan los distintos diseños y la inferencia de conclusiones a partir de los resultados de éstos, se suele defender que los diseños de grupos aplican modelos estadísticos mientras que en los diseños de sujeto único será el análisis gráfico-visual de los da-Humberto M, Trujillo Mendoza tos lo que impere. Así, el número de sujetos participantes en una investigación no debe determinar el tipo de modelo de análisis a aplicar. Antes bien, cuando el conocimiento sobre un efecto es escaso se suele utilizar diseños grupales a efectos de facilitar el afloranúento de tendencias claras en los datos, lo que propicia la aplicación de técnicas estadísticas de análisis para poder inferir conclusiones claras a partir de éstos. Por lo tanto, los modelos estadísticos de análisis no sólo son de utilidad cuando se aplican sobre los datos obtenidos con diseños de grupo sino también en los obtenidos con diseños de sujeto único, en los que el control sobre las variables de confundido y el conociraiento de los fenómenos estudiados no sean suficientes. Otra afirmación equivocada que se vierte sobre los diseños de sujeto único es que los datos que éstos generan presentan insuficiente validez y control, desatendiéndose el hecho de que estas insuficiencias no dependen tanto del tipo de diseño como del conocimiento que se tenga acerca de los factores implicados en el fenómeno a estudiar. Además, a lo ya expuesto, hay que añadir al menos dos limitaciones que impiden llegar a la explicación-relación óptima sea cual fuere el diseño aplicado, de grupos o de sujeto único. La primera, según plantea Cronbach (1975), es el carácter multivariado de los fenómenos de estudio en Psicología, por lo que el análisis de las múltiples interacciones entre los factores mediadores difícilmente podrá ser todo lo exhaustivo que sería de desear sea cual sea el diseño aplicado; y, la segunda, que ningún diseño aplicado para la búsqueda y acotamiento de relaciones causales puede asegurar por él mismo el carácter explicativo y puro de la relación encontrada entre variables. Sin embargo, reconocer las limitaciones expuestas no debería impedir la realización de investigaciones objetivas, sólo que se debería tener en cuenta que cualquier relación-explicación necesitará de una aproximación múltiple y progresiva para su contrastación, lo que viene a significar que será a través de la sucesión de estudios y tras la replicación de éstos como se podrá llegar a una delimitación suficiente de las relacionesexplicaciones buscadas; y esto claro está, dará lo mismo hacerlo con estructuras de obtención de datos de sujeto único o de sujeto múltiple. Otro aspecto controvertido en relación a los diseños de sujeto único es que a éstos se le achaca la no posibilidad de aleatorizar las unidades de observación a los grupos de tratamiento a efectos del control posible sobre las variables colaterales del proceso investigador. Como es obvio, no podría ser de otra forma, ya que en estos diseños se trabaja con un único sujeto. Acerca de esto, decir que según Judd y Kenny (1981), si bien es ¿Diseños de sujeto único versus de grupo? Una antigua. cierto que no se puede aleatorizar los distintos sujetos a los grupos, porque no los hay, no obstante, es verdad que sí se pueden elegir aleatoriamente los momentos temporales en los que se aplican los distintos niveles de la variable base de la explicación. Por lo tanto, la regla de asignación de los momentos de la serie de tiempo puede ser aleatoria, lo que en unión de la manipulación directa del hecho base de la explicación y el control de los factores colaterales, favorece la posible generación de covariación en situaciones de control. Por último, no parece tener sentido el enfrentamiento, entre los partidarios de los diseños de sujeto único frente a aquellos que lo son de los diseños de grupo, en atención a las excelencias de cada una de estas estrategias para poder generalizar los resultados, y así poder conseguir la tan anhelada validez externa de los datos que generan. Si bien es cierto que, dicha validez, en sus manifestaciones de temporal, ecológica y poblacional, se asegura en las estructuras grupales con la aleatorización en el muestreo y la inferencia estadística, no menos cierto es que con la aplicación de estructuras de sujeto único ésta y sus manifestaciones se consiguen, respectivamente, con replicaciones a través de líneas de base aplicadas en distintos momentos, contextos y sujetos participantes. Así, las cosas, parece conveniente concluir que los distintos tipos de diseños relacionales-explicativos implican una forma distinta de llevar a cabo las operaciones comparativas; por lo que no tiene demasiado sentido entender que algunos de ellos son intrínseca y absolutamente mejores que otros, sino que algunos son más adecuados que otros según sean las circunstancias y los fenómenos naturales que se pretenden constreñir desde un punto de vista explicativo.
La investigación nace de la curiosidad e inquietudes personales, observando hechos que no tienen explicación lógica o que son contradicto- A lo largo de los últimos años la investigación clínica se ha desarrollado de manera significativa y ha contribuido a que actualmente las ciencias biosanitarias estén más fundamentadas en pruebas y evidencias científicas. La investigación en biomedicina se realiza a dos niveles, básico y epidemiológico. El enfoque epidemiológico presenta unos objetivos muy variados: desde la simple descripción de una realidad (caso clínico o case report) hasta la verificación de una hipótesis en relación con unos factores causales. En todo el espectro posible se pueden aplicar diferentes diseños epidemiológicos, para lograr la finalidad última que se persigue, aunque la validez de la elección determina el rigor científico de las conclusiones del estudio. Un elemento importante de cara a la inferencia de causalidad, sin posible participación de errores o sesgos, es la existencia de un grupo de comparación sobre el que el investigador no interviene (grupo no tratado o control) y, especialmente, la aleatorización del proceso, es decir, cuando la inclusión de los individuos en uno u otro grupo (tratado o control) depende exclusivamente del azar. El establecimiento de causalidad se realiza en base a las características cualitativas y cuantitativas de la asociación existente entre el proceso morboso y los factores de riesgo estudiados. Antonio Hernández Jerez 590 rios con las teorías clásicas. La investigación requiere dos condiciones básicas: observar críticamente la realidad para definir preguntas relevantes y aplicar un método lógico y reproducible para encontrar las respuestas a esas preguntas. En el caso de la investigación biomédica, la interpretación de los resultados de los estudios clínicos y su posterior traslación a la práctica clínica está siendo actualmente objeto de debate. La profesión médica se está moviendo hacia lo que se denomina Medicina Basada en la Evidencia y la evidencia empleada en la toma de decisiones clínicas (tanto diagnósticas como terapéuticas) debe estar sustentada por métodos estadísticos fiables y fácilmente interpretables. Esta corriente científica, que ha inundado el quehacer clínico diario, se basa en que todo acto médico debe apoyarse sobre estudios científicos, fundamentalmente estudios de intervención, que hayan demostrado la efectividad de una determinada actitud terapéutica o prueba diagnóstica en el caso de que vaya a ser utilizada. De esta forma, la experiencia personal, la de otros compañeros o la opinión de expertos pasan a un segundo plano. No se trata de un movimiento nuevo, ni siquiera de una corriente revolucionaria, sino simplemente de una redefinición de los postulados científicos. De esta manera, todos los artículos publicados en la literatura científica son revisados metodológicamente y se establece su validez para que sus resultados y conclusiones puedan ser extrapolados a la población general. La parte fundamental de un estudio es el método utilizado para su realización ya que si el diseño no es el adecuado, todas las conclusiones que se deriven del mismo son erróneas y, por lo tanto, no aplicables a la población general. Desde el punto de vista metodológico, la estrategia predominante para la identificación de causalidad descansa en la combinación inducción-verificación, planteamiento que nació como reacción al dogmatismo medieval. Se trata de un proceso racional que intenta encontrar explicaciones generales a partir de la observación de lo particular, tras lo cual se plantean hipótesis y, finalmente, se verifican. El enfoque inductivo establece, por una parte, que una teoría puede y debe emerger de la observación y, por otra, que dicha teoría ha de ser verificada contrastándola con la práctica de sus derivaciones. Avanzado el siglo XX, Popper realizó un planteamiento alternativo al inductivismo verificacionista y sostenía que la clave para avanzar no se halla en la verificación sino en su antítesis, la refutación. Popper concede más interés a la hipótesis que más se aleje de lo que el conocimiento vigente permite esperar, ya que si no pudiera refutarse, tal resultado sería mucho más informativo. La lógica de este enfoque descansa en un hecho formalmente cierto: por Del case report a la evidencia epidemiológica de... 591 muchas confirmaciones que se consigan para un resultado, éste no queda por ello demostrado; un solo caso negativo, sin embargo, permitiría descartarlo como cierto. Podría pensarse que el enfoque popperiano, al plantear que el progreso científico discurre a través de conjeturas y reñitaciones y no mediante comprobaciones, no constituye realmente una visión opuesta al inductivismo. La negación de una hipótesis explicativa bien definida entraña una multitud de explicaciones alternativas. La confirmación de que una asociación es real (en el sentido de que no puede explicarse solamente por el azar) es, en efecto, equivalente a refutar la afirmación de que tal asociación es debida a la casualidad; pero no identifica a ninguna de las muchas otras explicaciones que pueda tener el hecho de haberla observado, tales como el efecto de uno o más sesgos, errores de medición, o la interferencia de factores de confusión. Popper y sus seguidores señalan, por tanto, que siempre pueden existir explicaciones alternativas y reclaman una permanente actitud de escepticismo que nos resguarde de la tentación de dar por cierto algo por el mero hecho de que se ha observado muchas veces. Los inductivistas desdeñan el apego estricto a esta doctrina, considerada por ellos paralizante, a la vez que reivindican importantes éxitos en materia de causalidad. La historia de la ciencia biomédica les concede, en principio, una importante cuota de razón; por ejemplo, un éxito relativo del pensamiento inductivo lo constituyen las primeras hipótesis acerca de la causalidad infecciosa del SIDA. Si sólo fuera posible refutar hipótesis y no confirmarlas no existiría ninguna base sobre la que diseñar pfogramas, elaborar normas, difundir mensajes sanitarios, emitir regulaciones o leyes. En cualquier caso, los investigadores adscritos a la corriente refutacionista, sean del ámbito clínico o epidemiológico, salen parcialmente del escollo, que supone la inevitable toma de decisiones médicas, diciendo que ésta ha de guiarse por la hipótesis que mejor resista los embates de las pruebas más exigentes. Lo interesante es que, para la investigación biomédica y epidemiológica, tanto uno como otro enfoque reivindican la intervención de la estadística, a la vez que ninguno de los dos rechaza procedimiento estadístico alguno sobre la base de sus respectivos presupuestos teóricos. Por ejemplo, las pruebas o test estadísticos de contraste de hipótesis son vistas por unos como un instrumento corroborativo y por otros como un medio para la refutación. La epidemiología inductivista, desde luego, las aprecia desde la perspectiva ortodoxa: a partir de la muestra se sacan conclusiones sobre la población general y ese es el objetivo fundamental de la estadística inferencial. La ciencia avanza gracias a los esfuerzos investigadores que se realizan desde diversas áreas. Pero la investigación no puede ser caprichosa sino que debe seguir un orden racional que desde hace una serie de siglos viene denominándose método científico. Se entiende como tal al conjunto de procedimientos ordenados y sistematizados que se utilizan para adquirir conocimiento científico. Este método supuso un cambio muy importante en la forma de pensar y de entender la vida. 1.^ Objetivación: alcanzar una serie de datos y parámetros mediante el empleo de instrumentos objetivos de observación o medición. Hay que tener presente dos aspectos fundamentales: que el número de casos incluidos en el estudio sea suficiente para lograr dicha objetivación y, en segundo lugar, utilizar controles internos al experimento. 2.^ Generalización de los datos, es decir, la validez externa del experimento. Los resultados que se obtengan en el estudio deben ser aplicables no sólo a la muestra que se ha analizado sino a toda la población de referencia. En este sentido es necesaria la reproducibilidad de los datos, o sea, que otros investigadores lleguen a las mismas conclusiones en otros contextos y poblaciones diferentes, lo que podríamos llamar consistencia de los resultados. Antes de que el método experimental irrumpiera en el mundo científico, el conocimiento humano se basaba en la teología (filosofía moral) y en la metafísica (filosofía especulativa). La base del conocimiento metafísico es la razón, lo importante es la lógica formal, la inferencia deductiva. Lo que legitima cualquier idea es el modo en que haya sido elaborada, esto es, un racionalismo cartesiano. Sin embargo, la lógica formal por sí sola no puede darnos a conocer la naturaleza. Para el científico no basta con que una hipótesis sea más o menos lógica, sino que hay que someterla al juicio de la experiencia mediante la aplicación del método. Si la hipótesis no supera la prueba ha de ser rechazada, sin importar que su mecanismo de elaboración sea lógicamente irreprochable. Esto nos conduce a la necesidad de recurrir a la experiencia para poder verificar la hipótesis. Nace de este modo la tercera forma de conocimiento humano, la ciencia o filosofía natural. No existe una sola ciencia sino muchas, cada vez más, siendo el método aplicable a todas ellas. Estas ciencias se dividen en formales por acciones deductivas, es decir, aquellas que obtienen la verdad particular a partir de principios generales, y en fácticas por acciones inductivas, es Del case report a la evidencia epidemiológica de... 593 decir, la obtención de principios generales a partir de verdades particulares. Todo conocimiento científico tiene que alcanzarse a través del método. La medicina es una ciencia fáctica, de manera que todo aquello que no haya pasado por el método es pura hipótesis. De esta manera se diferencia de las ciencias formales (lógica y matemáticas), siendo éstas puramente deductivas que se ocupan de entes que no existen en la naturaleza sino en el mundo abstracto, producto del pensamiento humano. No obstante, algunos fenómenos naturales se pueden explicar en términos de leyes físicas o químicas que tienen una base matemática. Como la ciencia estudia las causas eficientes, rechaza las causas primeras, finales u ocultas, propias de la teología y de la metafísica. El método científico tiene unas etapas claramente definidas y se caracteriza por ser sistemático, reflexivo, ordenado, crítico, universal e intemporal. Inicialmente, el investigador observa atentamente los hechos, a continuación formula una hipótesis que los explique conforme a los conocimientos científicos preexistentes, posteriormente trata de verificar la hipótesis mediante la experimentación o la observación estructurada y, por último, acepta, modifica o rechaza la hipótesis definida anteriormente. La etapa clave y diferencial del método epidemiológico es la verificación de la hipótesis mediante la experimentación, en la que el investigador realiza diferentes intervenciones a su voluntad, bien incrementando o reduciendo la intensidad de la hipotética causa para ver si la magnitud del efecto varía en la misma proporción, bien aplicando la causa contraria para ver si se produce el suceso contrario; o aplicando la misma causa a elementos diferentes. Las nuevas observaciones recogidas por medio de cualquiera de estos procedimientos permitiría verificar o refutar la hipótesis de trabajo. Sin embargo, si la hipótesis que se quiere demostrar es de naturaleza etiológica, es decir, el investigador trata de analizar la relación causaefecto entre un supuesto factor causal y una determinada enfermedad, el esquema experimental no puede realizarse en poblaciones humanas por razones éticas, prácticas y legales. Ha de recurrirse a la experimentación animal (cuyos resultados no son siempre extrapolables a la especie humana), o alternativamente a diseños observacionales que permitan analizar adecuadamente los fenómenos y circunstancias que acontecen de forma espontánea o habitual sobre humanos. Gracias al método científico, a lo largo del siglo XX, se ha hecho imparable, el avance de la Medicina, que inició su despegue exponencial a comienzos de la Edad Moderna, en el periodo postrenacentista. Así, por ejemplo, en el último medio siglo se han alcanzado más conocimientos que en los 2000 años anteriores. Una importante consecuencia de la apli-Antonio Hernández Jerez 594 cación del método científico es que ha permitido comunicar y divulgar los conocimientos generados, así como su posterior transferencia a la industria tecnológica permitiendo, de esta manera, el progreso de la humanidad y la mejora tanto de los procedimientos diagnósticos como terapéuticos. Ello ha redundado en un aumento tanto de la esperanza como de la calidad de vida de los hombres. Tipos de estudios en investigación. La Epidemiología es la disciplina científica que comprende el estudio de la frecuencia, la distribución y los factores determinantes de las enfermedades en las poblaciones humanas. Se fundamenta en la utilización del método científico aplicado a los problemas de salud pública, es decir, en el denominado método epidemiológico. Los diversos estudios epidemiológicos se basan sobre tres ideas implícitas: 1. Aunque la práctica clínica diaria intenta verificar o rechazar diferentes hipótesis sobre la situación de salud de un paciente (lo que se denomina «diagnóstico»), el enfoque epidemiológico utiliza, sin embargo, información sobre la distribución de los problemas de salud y sus determinantes no en individuos sino en colectivos de personas, ya sean enfermas o sanas. Si bien en muchos casos es suficiente la descripción de la situación en un colectivo, generalmente se suelen realizar comparaciones con lo que ocurre en otros. Esas comparaciones son, a veces, implícitas, intuitivas, pero en la mayor parte de los diseños habrá que explicitar un grupo de comparación que además sea el más adecuado. La distribución de la enfermedad. Los dos puntos anteriores se basan en una asunción previa: los problemas que afectan a la salud tienen una distribución no aleatoria, es decir, no se distribuyen al azar. Como consecuencia, es posible encontrar diferencias entre los distintos grupos que se comparan, diferencias que dependerán de la desigual distribución entre ellos de diferentes factores de exposición. El abanico de posibles diseños es muy amplio y la elección de un determinado tipo de estudio estará condicionada, entre otras cosas, por la pregunta de investigación planteada y según los objetivos o hipótesis. Además, debe tenerse en cuenta el estado del conocimiento previo sobre el problema a investigar. Este será indudablemente un determinante del tipo de pregunta que se plantee y, por tanto, del tipo de estudio. En líneas generales se puede decir que los dos grandes tipos de estudios epidemiológicos son los observacionales (o no experimentales) y los experimentales. Los observacionales son los más elementales pues no hay intervención del investigador en el diseño, ni aleatorización. Estos estudios pueden ser descriptivos (sobre individuos o sobre una población, pero no hay grupo de comparación) o analíticos (en este caso existe un grupo de comparación). Por el contrario, los estudios experimentales presentan la ventaja de que existe intervención en el diseño por parte del investigador y, además, aleatorización. Su utilidad es la verificación de hipótesis generadas en estudios analíticos previos. Así, en una primera fase, nos encontramos con que lo importante es definir precisamente en qué consiste el problema, a pesar de que con frecuencia aparenta estar bien definido. Si el conocimiento existente sobre el problema identificado es escaso, el estudio más indicado será de tipo descriptivo. Se trata de «medir» el problema buscando diferencias entre los distintos grupos y subgrupos, en función de la desigual distribución de otras variables. En este caso, los estudios más adecuados son los ecológicos y transversales. Cuando existen suficientes evidencias obtenidas a partir de estudios descriptivos previos se da un paso más y se intenta evaluar la posible asociación, de tipo causal, entre diferentes factores y el problema de salud de interés. En este momento de la investigación habrá que optar entre dos grandes grupos de estudios, los analíticos y los experimentales. En el primer caso están incluidos los estudios de seguimiento y los de casos y controles. La elección entre uno u otro dependerá de los objetivos, de criterios éticos, así como de los recursos y tiempo disponibles. En el grupo de los experimentales, se encuentran los estudios aleatorios controlados o ensayos clínicos y los diseños «cuasiexperimentales». El objetivo a esta altura de la investigación es la verificación de la hipótesis. Se intenta averiguar si hay una determinada asociación y si existen evidencias de que esa relación es de tipo causal, en cuyo caso podría hablarse de factores de riesgo. Estudios no experimentales u observacionales No cumplen ninguna de la.a tres condiciones del diseño experimental puro (hipótesis, grupo control y aleatorización), siendo el diseño más débil y por tanto es difícil extraer de él conclusiones válidas, ya que no se Antonio Hernández Jerez 596 pueden contrastar hipótesis. Algunos los consideran trabajos «no científicos» y otros, con mejor criterio, trabajos «cuasi científicos», ya que no se les puede negar todo el valor, siendo útiles en un gran número de circunstancias si están bien realizados. En líneas generales, describen el nivel de salud en una determinada población, estableciendo su distribución según diversas variables de persona, lugar o tiempo. Estos estudios permiten medir la importancia de un problema de salud, identificar posibles factores responsables conocidos e identificar grupos de riesgo. Entre estos estudios hay que mencionar los siguientes: a) Caso clínico {case report). Estudio de un solo caso que por sus características excepcionales lo hacen merecedor de un alto interés científico. Es una forma muy popularizada de publicación en casi todas las revistas biomédicas. Obedece al interés de los profesionales de compartir su experiencia de diagnóstico y tratamiento con pacientes individuales. El hecho de que los casos clínicos no sean una muestra representativa de la población los priva de validez externa en términos de poder extrapolar los resultados a un universo. Sin embargo, estos estudios han contribuido de forma muy significativa al progreso de la medicina cuando se han realizado con el debido rigor metodológico. b) Serie de casos. Recogen ordenadamente las observaciones comunes efectuadas en una serie de casos clínicos (agrupados alrededor de un mismo diagnóstico o problema clínico) recogidos por un mismo observador. Son muy habituales en las revistas médicas y, a menudo, ofrecen los primeros datos para caracterizar una enfermedad de reciente aparición (por ejemplo, el SIDA a principio de los años ochenta o más recientemente la variante humana de la enfermedad de las vacas locas). Algunos autores los denominan múltiples case report y son útiles si nos informan de hechos no conocidos hasta el momento en esa patología concreta, o si generan hipótesis etiológicas que puedan ser contrastadas en posteriores estudios. Se calcula que en España las publicaciones de este tipo suponen entre el 50 y el 80% de la producción científica médica, aunque su utilidad presenta una serie de limitaciones. En principio, no sirven para probar hipótesis estadísticas, dado que representan la experiencia de un solo observador o de un pequeño número de ellos. Desde un punto de vista epidemiológico presentan un problema crucial: la inexistencia de algún grupo que pudiera servir como comparación o control. Su validez en Medicina se basa en que contienen información de casos adquiridos a lo largo del tiempo y cuentan con pacientes pertenecientes a una serie que comparten algo en común (enfermedad, tratamiento, etc.). Incluso se pueden comparar de forma indirecta con series anteriores o con pacientes que hayan recibido distintos trata-Del case report a la evidencia epidemiológica de. mientes para las mismas enfermedades, aunque con la lógica limitación de la falta de un grupo control. c) Estudios ecológicos: estos estudios presentan una particularidad única consistente en que su unidad de análisis no son individuos en sí sino grupos de individuos. Requieren la existencia y disponibilidad de datos agregados, ambientales o globales, algo que no era disponible hasta hace poco tiempo, debido a la inexistencia de registros. La progresiva informatización de datos secundarios (ya existentes) está facilitando im.a enorme accesibilidad y, por lo tanto, la proliferación de estudios de tipo ecológico. La confidencialidad de las bases de datos, cada vez más demandada, impide en muchos casos el uso de información individualizada y obliga al uso de datos agregados. Estos diseños utilizan medidas que relacionan características de poblaciones en su conjunto y permiten describir los problemas de salud con respecto a elementos relacionados con características de las personas, el lugar y el tiempo. Así, se pueden cumplir objetivos tales como la rápida generación de hipótesis etiológicas o una fácil aproximación a la evaluación de programas preventivos o de intervención. Se clasifican en tres tipos: a) descriptivos o de mapas, en los que los datos se agregan por unidades geográfico-administrativas; por ejemplo, comparación de la prevalencia de SIDA por comarcas, provincias, comunidades autónomas, países, etc.; b) series temporales: describen el comportamiento de problemas sanitarios a To largo del tiempo; por ejemplo, evolución de la mortalidad por cáncer a lo largo de los años; y c) correlación ecológica: analiza el grado de relación entre niveles promedio de exposición y el comportamiento del efecto hipotético, por ejemplo consumo promedio de tabaco y mortalidad por infarto de miocardio en distintas zonas o momentos del tiempo. En estos estudios puede presentarse un error de interpretación (denominado «falacia ecológica») si los fenómenos observados sobre una base colectiva se intentan extrapolar a individuos. d) Estudios de prevalencia: son los más utilizados. Recogen información sobre la situación de salud de un grupo poblacional en un periodo concreto de tiempo establecido previamente en el diseño. La información se obtiene a través de encuestas específicas (encuestas de prevalencia) que, simultáneamente a los datos de interés, incorporan todo tipo de variables o exposiciones que se consideren oportunas. Estos estudios permiten cruzar información acerca de la prevalencia de problemas de salud con datos sobre la distribución de factores de exposición o de riesgo en un momento dado (corte transversal o «fotografía» de la situación). Si además se puede comparar esa descripción con lo que ocurre en distintos grupos, las diferencias que se encuentren servirán para generar hipótesis útiles en el diseño ulterior de estudios analíticos. Como se compara 597 Antonio Hernández Jerez 598 simultáneamente exposición y presencia del efecto, surge el problema de si la exposición precedió a la enfermedad (en un esquema lógico de causalidad) o a la inversa. Otro problema radica en la muestra escogida, planteándose el dilema de si es representativa o no de la población general. Para que lo sea debe efectuarse un muestreo aleatorio de la misma, evitando incluir a voluntarios pues estos pueden alterar la representatividad de la muestra. Como se puede ver, los estudios epidemiológicos descriptivos son estudios exploratorios, ya que sirven para generar hipótesis bien razonadas. Además, sus resultados pueden estimular la realización de otros estudios y servir de argumentación para desarrollar actividades de vigilancia y control biológicos en diferentes ámbitos sanitarios. Son estudios de asociación ya que buscan demostrar que existe una asociación entre un determinado factor de riesgo y una o varias enfermedades, así como la magnitud de esa relación. Metodológicamente, se puede optar por seguir el desarrollo natural del proceso de enfermar y así clasificar a los individuos según estén o no expuestos al factor de riesgo en el que estamos interesados y, una vez definido un periodo de seguimiento, observar si la exposición influye sobre la aparición de la enfermedad; éste sería el fundamento de los estudios de cohortes. Otra aproximación metodológica consiste en clasificar los individuos según la presencia o ausencia de una enfermedad o alteración de la salud e investigar posteriormente si existió o no exposición al factor de estudio; este diseño se denomina estudio de casos y controles. En el caso de los estudios de seguimiento el planteamiento es simple. Se parte de una o varias hipótesis que predicen la asociación entre una exposición y algún efecto sobre la salud. Si esa hipótesis es cierta, es razonable esperar que los individuos expuestos tengan una mayor probabilidad de desarrollar el efecto después de un periodo de tiempo más o menos largo. Estos resultados podrían compararse con los de otro grupo en el que no estuviera presente la exposición al factor de riesgo. Se dispondría entonces de, por lo menos, dos grupos: uno expuesto y el otro no; esos grupos se denominan cohortes. Ya solo queda seguir a ambas cohortes en el tiempo y verificar si efectivamente, en términos relativos, se produce un mayor número de nuevos casos en la cohorte expuesta en comparación con la no expuesta. En este diseño, a diferencia de los estudios experimentales, los investigadores no deciden qué individuos están expuestos y quienes no. Por distintas razones algunos individuos perte-Del case report a la evidencia epidemiológica de... 599 necen a alguna cohorte o a otra y sólo es posible observar qué ocurre a lo largo del tiempo. Como consecuencia, tampoco existe otra intervención que no sea la derivada de la observación y de la medición. Los estudios de cohortes pueden ser de cohorte prospectiva (seguimiento) o retrospectiva (cohorte histórica), siendo estos últimos los más frecuentes en epidemiología laboral por ser más rápidos y menos costosos. Ambos tipos de diseño siguen una misma metodología, diferenciándose en el periodo de seguimiento. En los estudios de cohorte histórica es como si el investigador se trasladara en el tiempo y el periodo de seguimiento se iniciara mucho tiempo antes del inicio real del estudio. Los datos necesarios sobre la exposición y el nivel de salud que deben recogerse se obtienen de uno o varios registros, siendo por ello imprescindible disponer de registros documentales de buena calidad para poder realizarlos. Habitualmente son estudios de mortalidad, puesto que es muy difícil encontrar otros indicadores de morbilidad disponibles en registros. En los estudios de casos y controles se parte de un grupo de individuos que presentan la enfermedad estudiada (casos) y otro libre de ella (controles) y se investiga retrospectivamente cuántos han estado expuestos al agente en estudio. Mediante un estudio de este tipo se identificó la asociación entre el consumo de cigarrillos y el desarrollo de cáncer de pulmón. Como medida cuantitativa de la asociación se calcula el exceso de riesgo de presentar la enfermedad en los expuestos al factor o agente nocivo con respecto a los no expuestos. Los estudios de seguimiento plantean dificultades diversas, entre otras, el amplio tiempo de seguimiento que se requiere, especialmente cuando el análisis se centra en enfermedades con largos periodos de desarrollo (desde que se inicia la exposición hasta que aparece el efecto). Por ello los diseños del tipo casos-control son una opción frecuentemente preferida, ya que no presentan este problema. Los diseños observaciones de tipo analítico son, pues, una buena opción cuando se intenta evaluar hipótesis, aunque no pueden aprovechar las ventajas de la asignación aleatoria y el control de las intervenciones, característico de los estudios experimentales. El problema va a ser, ya que no existe experimentación, en qué medida otros factores pudieran estar distorsionando la observación. Se engloban aquí un conjunto de diseños en los que existe una intervención planificada por los investigadores. El objetivo de un estudio Antonio Hernández Jerez 600 experimental es evaluar la eficacia de cualquier intervención, con fines terapéuticos, preventivos o rehabilitadores. La elaboración de un plan de investigación es uno de los aspectos más importantes del método experimental. Por esta razón, el diseño experimental debe ser escogido con sumo cuidado a la hora de plantear una investigación, ya que los errores que se cometan en esta fase difícilmente serán subsanables. Las condiciones que precisa un diseño experimental para ser considerado puro son, en sentido estricto, las siguientes: tener hipótesis de trabajo, disponer de un grupo control (de comparación) y asignación aleatoria de los participantes, es decir, garantizar que la distribución de la muestra entre el grupo control y el grupo de estudio se haya realizado al azar. Sin embargo, no todos los diseños cumplen estas tres condiciones. La intervención consiste en la manipulación de una variable. Se somete un grupo a alguna exposición (por ejemplo un nuevo fármaco para tratar una enfermedad) y se compara con un grupo no expuesto que se usa como referencia o control (al que se le administra un placebo). La variable de exposición es la que se manipula y el objetivo es medir su efecto. Lógicamente la exposición consciente de seres humanos sólo es posible si se presume que tendrá efectos beneficiosos para ellos. Por eso este tipo de diseños tiene restringido su uso a evaluación de intervenciones preventivas, nuevos tratamientos o nuevas tecnologías diagnósticas. Los estudios experimentales son, por tanto, los únicos en los que la intervención está integrada en el diseño. El ensayo clínico o estudio aleatorio controlado es el mejor diseño posible para verificar una hipótesis y el que cumple todas las condiciones necesarias para ser considerado un trabajo experimental; de hecho es lo más parecido a la experimentación pura en seres humanos, de ahí que sus conclusiones sean fácilmente interpretables y asumibles. Estas afirmaciones se sustentan en una serie de supuestos. En primer lugar, el experimento permite el control de la asignación. El hecho de incluir aleatoriamente a las personas en los grupos que se van a comparar (es decir, lo decide el azar, no el investigador) tiene una ventaja sobre el resto de estrategias consistente en que los grupos de comparación son muy similares entre sí (máxima comparabilidad). Es decir, para múltiples variables (como sexo, edad, etc.) es posible conseguir grupos homogéneos que presenten una distribución semejante de las variables distintas a la exposición que pudieran interferir en los resultados. De esta manera, se neutraliza el efecto de confusión que una distribución desigual podría introducir. Así, si se encuentran diferencias sólo quedaría una explicación: la intervención o manipulación de la variable. Del case report a la evidencia epidemiológica de. 601 Una opción intermedia es la que ofrecen los denominados estudios cuasiexperimentales. En ellos puede no existir asignación aleatoria individual sino que como mucho se decide al azar sobre qué grupo se va a intervenir (en estos estudios la composición de ambos grupos, control y experimental, nos puede venir dada). Una vez decidido esto, solo las personas que integran este grupo recibirán la intervención. Incluso es posible el diseño cuasiexperimental en el que no exista grupo control, sino que se evalúa la situación en un solo grupo antes y después de la inter-' vención. Se utilizan en epidemiología para estudiar efectos de un agente nocivo y, dada la finalidad del trabajo, los grupos control y experimental están definidos previamente, de manera que los individuos no son asignados aleatoriamente a un grupo o a otro. Por el contrario, en un estudio experimental, los individuos se distribuyen al azar en dos grupos y sobre uno de ellos se efectuará la intervención novedosa, que interesa contrastar, mientras que en el otro se realizará la intervención estándar preexistente. Aún cuando los estudios experimentales pueden parecer enormemente atractivos por sus ventajas, en multitud de ocasiones son impracticables. Por un lado, razones éticas impiden exponer a seres humanos a situaciones que pudieran ser perjudiciales para ellos (por ejemplo, ensayo de un nuevo medicamento sobre mujeres embarazadas). Por otro lado, también presenta limitaciones científicas: la aleatorización no garantiza la homogeneidad de ambos grupos, efecto que sólo está presente cuando la muestra sea de tamaño suficientemente grande. Por tanto, la homogeneidad no podrá darse por supuesta si el número de factores que pueden influir en el resultado es grande y la muestra no es muy numerosa, no pudiéndose aplicar la ley de los grandes números. Por último, cada vez es más frecuente que la investigación etiológica se dirija hacia exposiciones ligadas a formas y estilos de vida; en este caso, cualquier modificación potencialmente beneficiosa puede ser imposible de conseguir porque los individuos asignados aleatoriamente no estarían dispuestos a modificar sus hábitos y costumbres (por ejemplo, dejar de fumar, cambiar de dieta, hacer deporte). De todo lo expuesto se desprende que en clínica humana es difícil hacer diseños experimentales puros, ya que sus limitaciones son al menos tan grandes como sus ventajas. Suelen quedar reservados para estudiar problemas de gran trascendencia, en los que se pretende evaluar mejorías cuantitativamente moderadas pero científicamente importantes. En estos casos está justificada la gran inversión en número de pacientes, dinero y tiempo, asumiendo sus limitaciones como precio a pagar por investigar con seres humanos. Población y muestra Una vez organizado el diseño experimental, el investigador debe establecer los criterios de selección de los sujetos que van a formar parte de su estudio. Por tanto, no trabajará con toda la población sino que escogerá un número determinado de casos a los que se denomina muestra. Los resultados obtenidos con esa muestra serán los que posteriormente se generalicen extrapolándolos a toda la población mediante cálculos estadísticos apropiados. Se define «muestreo» o extracción de muestras al proceso de seleccionar parte de una población para que la represente a toda ella. Una muestra será por tanto un subconjunto de unidades que comprenden la población. Los científicos generalmente trabajan con muestras y no con poblaciones, ya que es más económico y eficaz hacerlo así, con grupos pequeños de elementos y no con todo el conjunto. Por ello, las muestras son formas prácticas y eficaces de obtener datos. Se define población como toda la agregación o cúmulo de casos que cumplen con un conjunto predeterminado de criterios. Se distinguen dos tipos de poblaciones: población diana o blanco, que es aquella correspondiente al conjunto de individuos al que hace referencia la pregunta a efectuar y que es centro del estudio; sería la población a la que se desearía generalizar los resultados. En segundo lugar, está la población de estudio accesible, constituida por el conjunto o agregado de casos que cumplen con los criterios predeterminados y que es accesible al investigador como el conjunto global de sujetos a estudiar. Para conseguir una muestra homogénea, el investigador utiliza la definición de población y los criterios de inclusión y exclusión. El criterio de inclusión más importante es la definición de la enfermedad que se estudia. Dicha enfermedad se puede definir sobre la base de diversos parámetros, debiendo el investigador elegir los más aceptados al respecto. Para ello resulta de gran utilidad la bibliografía. Es importante utilizar, siempre que sea posible, más de un criterio para definir la enfermedad. Los criterios deberán quedar establecidos de un modo claro, objetivo y preciso para evitar posteriores dudas. Con respecto a los criterios de exclusión, algunos pacientes que hayan sido definidos previamente deberán ser excluidos del estudio sobre la base de dos consideraciones fundamentales: por presentar condiciones que supongan un riesgo adicional para ese paciente o por presentar algunas características que puedan alterar los resultados que buscamos. Por ello, se deberán eliminar del estudio los pacientes cuyas circunstancias específicas puedan modificar la respuesta o fenómeno que vamos a analizar. Una de las propiedades de los seres vivos es la variabilidad, lo que los convierte en una población heterogénea respecto a muchos factores (sociales, económicos, profesionales, físicos, culturales, etc.). Sin embargo, el investigador está interesado en que la población de estudio sea razonablemente homogénea para que de esta forma sus resultados se vean afectados sólo por el factor a evaluar. El encontrar una variabilidad excesiva en un estudio nos podría explicar por sí sola las diferencias encontradas en el mismo. No obstante, esto es un arma de doble filo. Si se establecen unas condiciones básales muy estrictas (utilizando los criterios de inclusión y exclusión correspondientes), la población resultante será muy homogénea, pero difícilmente representará a la población general, heterogénea por definición. Los resultados obtenidos serán fácilmente interpretables, pero habremos limitado seriamente el alcance del estudio, pudiéndose aplicar las conclusiones sólo a los escasos individuos que cumplan los requisitos impuestos en las condiciones básales. Caso de establecer unos criterios excesivamente laxos, nos encontraremos con el problema contrario. Por ello, debemos buscar un equilibrio entre homogeneidad y la representatividad. Los criterios de selección no deberán ser muy laxos ni estrictos, sino exactos y suficientes. Los criterios de inclusión no deberán ser muy restrictivos, ni los de exclusión demasiado numerosos. Debemos apoyarnos en la bibliografía para solventar dentro de lo posible este problema. Es importante mantener esta norma general: en caso de duda se debe dar prioridad a la validez interna del estudio (homogeneidad) sobre la validez externa (representatividad). Con ello deberemos excluir a un gran número de pacientes de nuestro estudio, siendo la población resultante menos representativa que la que vemos en la práctica diaria, pero este es un precio a pagar por investigar con seres humanos, variables y heterogéneos por definición. En cuanto al tamaño de muestra, todo investigador debe estudiar un número suficiente de casos para obtener resultados clínicamente relevantes, pero no tanto para malgastar tiempo y dinero, así como causar molestias innecesarias a los pacientes. Cuando se utilizan técnicas probabilísticas es posible conocer de antemano el tamaño necesario de la muestra para lograr un nivel específico de precisión. Sin embargo, no es posible señalar una sola fórmula debido a que el tamaño de la muestra a estudiar depende de varios factores: el grado de precisión requerido, lo heterogéneo de los atributos en investigación, las técnicas de muestreo que utilicemos y el tipo de técnica de estimación usado. Vuelve a ser necesaria en este apartado la bibliografía para orientarnos. Si la bibliografía no nos saca de dudas habrá que calcular estadísticamente qué ta-Antonio Hernández Jerez 604 maño debe tener nuestra muestra en función de la variabilidad del parámetro que queramos estudiar, así como de la precisión de la estimación y el nivel de confianza deseado. En otras ocasiones habrá que recurrir al llamado «estudio piloto» o preliminar, realizado a base de una pequeña muestra. La investigación en medicina clínica necesita de estudios experimentales muy potentes para detectar posibles avances. Caso de no disponer de un número de pacientes suficientes y requerir de una muestra grande, se puede recurrir a diferentes procedimientos, entre ellos los denominados estudios multicéntricos, en los que colaboran varias instituciones separadas geográficamente entre sí. De esta forma se obtendrán resultados que quedan fuera del alcance de un trabajo individual aislado. Sin embargo, estos estudios presentan dos inconvenientes: la pérdida de la unidad de juicio por participar diferentes investigadores y la disminución de la homogeneidad de la muestra y el aumento de forma paralela de la dispersión de los datos. Las investigaciones clínicas se suelen clasificar en etiológicas y evaluativas. Las primeras se ocupan de estudiar las relaciones causa-efecto, mientras que las evaluativas valoran nuevos métodos diagnósticos o terapéuticos disponibles. Los estudios o investigaciones etiológicas intentan analizar e interpretar los diversos índices de aparición de enfermedades, estableciendo una relación causal entre el factor de estudio y las posibles modificaciones que se observen en el criterio de evaluación. Esto es, índice de aparición entre individuos expuestos y controles que no están expuestos al factor etiológico sospechoso. Este tipo de trabajos necesita de un grupo control, pues en caso de no poseerlo nunca se podría establecer una relación causa-efecto, todo lo más una asociación. Este es el principal motivo por el que un diseño descriptivo no es aplicable a este tipo de investigaciones. Una relación entre dos factores puede ser falsa, casual o causal. Las falsas asociaciones suelen estar motivadas por diseños defectuosos que conducen a conclusiones erróneas y que pueden evitarse con una correcta planificación. La asociación casual o por azar puede aparecer cuando tanto la enfermedad como la exposición tienen relación con un tercer factor, detectado al medir la exposición al supuesto agente etiológico. Cualquier investigador, que pretenda establecer una relación causa-efecto, debe pensar con anterioridad si existe alguna otra explicación para los Del case report a la evidencia epidemiológica de. hechos que han ocurrido que no sea la directa de causa y efecto. Si se descarta la relación casual, suponemos que la asociación es causal. La asociación causal de un estudio para contrastar una hipótesis necesita demostrar no sólo que un determinado factor contribuye a la aparición de una enfermedad, sino que su eliminación disminuye la incidencia o gravedad de la misma. Los métodos estadísticos ayudan a este tipo de tarea pero no se bastan por sí solos para garantizar una relación causal (podría si el estudio fuera aleatorizado, pero no es posible éticamente). Criterios adicionales en que se basa la relación causa-efecto El estudio de relación causa-efecto se basa fundamentalmente en descartar explicaciones alternativas, como podría ser el papel del azar o la contribución de factores de confusión o errores de método. Cuando faltan estas explicaciones alternativas, la interpretación de una relación causaefecto se basa en unos criterios que se enumeran a continuación: ® Fuerza de asociación. Cuanto mayor sea la medida de asociación que utilicemos, mayor será la probabilidad de que el factor sea causa del efecto. Cuanto más intensa sea, más verosimilitud adquiere la hipótesis subyacente. Ello se debe a que una de las incertidumbres estriba en que la correlación observada pudiera ser sólo un reflejo del efecto que ejercen otros condicionantes; si la asociación es intensa, la probabilidad de que pueda explicarse enteramente por el efecto de tales factores (los llamados factores de confusión) es mucho menor. ® Consistencia de la asociación. El hecho de que diferentes investigadores en poblaciones distintas hayan obtenido resultados similares da fuerza a la idea de causalidad. Lo contrario no significa que esta asociación no sea causal, sino que habría que tener en cuenta la metodología empleada y la calidad de cada estudio. ® Relación temporal entre el factor de estudio y el efecto. Significa que la causa debe preceder al efecto. Aunque este principio sea evidente, en los estudios transversales y en algunos diseños de casos y controles esta condición no siempre se puede asegurar. ® Existencia de un gradiente biológico. La observación de una sostenida relación dosis-respuesta (a mayor dosis del factor, mayor intensidad del efecto o de la respuesta) aumenta el grado de confianza que se deposite en la validez del silogismo causal. ® Plausibilidad y coherencia biológica de la asociación. La hipótesis debe ser verosímil. La esperanza de que la plausibilidad biológica no sea exigida es la levadura de muchas expresiones de la pseudo-Antonio Hernández Jerez 606 ciencia. Por otro lado, los resultados obtenidos tienen que ser compatibles (coherentes) con los conocimientos anteriores sobre la historia natural y biológica de la enfermedad. Esta regla es discutible, ya que en realidad todo resultado científico es provisional y los nuevos paradigmas que mencionara Kuhn (1975) se forjan sobre la base de la irreverencia hacia la obra de los antepasados. En la experimentación pura el investigador modifica la realidad según un plan y registra lo que ocurre como resultado de la evaluación del efecto de su intervención. En los últimos años se ha reavivado el debate entorno a la utilidad de los estudios no experimentales para demostrar relaciones de causalidad. El pensamiento epidemiológico predominante defiende que los esfuerzos de investigación que no hacen uso de la experimentación son, a pesar de ello, de extrema utilidad ya que contribuyen a fundamentar empíricamente las hipótesis. Últimamente se advierte una desenfrenada producción de trabajos observacionales (sobre todo estudios casos y control) destinados a la identificación de factores de riesgo. Además de que tales esfuerzos nunca darán respuestas definitivas, esta práctica parece estar generando más confusión que esclarecimiento. Una relación causa-efecto sale fortalecida cuando existe una relación similar en otra situación. Si otros factores siguen caminos causales análogos a los de la hipótesis que se valora, la convicción de que sea válida se incrementa. Este criterio puede ser útil en algunas circunstancias, pero dista de constituir una demanda, a diferencia de lo que ocurre con la experimentación. Precisión y validez de los estudios epidemiológicos Aunque sea el diseño ideal, no siempre es posible realizar estudios experimentales, con grupos de tamaño suficiente. La mayoría de los estudios epidemiológicos se basan en la observación de determinados fenómenos en uno o varios grupos de individuos. El tamaño del grupo estudiado, por una parte, y las limitaciones derivadas de la mera observación de un grupo de individuos determinado, por otra, hacen que los resultados que se obtienen en los estudios epidemiológicos no estén exentos de limitaciones. Estas limitaciones se refieren habitualmente a dos aspectos importantes: la precisión y la validez. La precisión está en relación con el tamaño del grupo o muestra, de manera que el grado de precisión de los resultados obtenidos es tanto Del case report a la evidencia epidemiológica de... más elevado cuanto mayor sea el tamaño del grupo estudiado. Dado que los problemas de precisión están ligados al tamaño de la muestra, la importancia de los mismos y sus consecuencias pueden conocerse con antelación. Los problemas de validez, por su parte, pueden ser más sutiles y difíciles de prever, por lo que representan un mayor reto para la adecuada interpretación de los resultados. En Epidemiología se dice que un resultado es válido cuando está libre de errores sistemáticos. El error sistemático o sesgo, a diferencia del error aleatorio, no depende del tamaño muestral, es decir, no se atenúa aumentando la muestra estudiada. El error sistemático puede introducirse en diferentes fases del estudio y tiene como consecuencia la producción de resultados sesgados. Estos problemas de validez pueden surgir: a) al incluir en el estudio muestras de personas que no son representativas de la población de referencia que realmente se desea estudiar, al menos en aquellas variables que son objeto del estudio (sesgo de selección); b) por errores en la información sobre la exposición, la enfermedad u otras condiciones en los grupos que se comparan (sesgo de información), y c) por falta de comparabilidad de los grupos en relación con variables que, si bien no son objetivo central del estudio, están asociadas con ellos y pueden confundir los resultados (sesgo de confusión). El epidemiólogo está obligado a evitar o controlar los errores que pueda haber cometido en su estudio y, en todo caso, a evaluar su impacto cuando interpreta sus resultados. En resumen, antes de concluir sobre la validez de los resultados de un estudio hay que descartar que éstos se deban al azar, a sesgos de selección, a sesgos de información o al efecto confundente de terceros factores. Las referencias a la validez realizadas hasta ahora se refieren a la validez de los resultados del estudio para la población objeto del mismo, lo que se denomina también validez interna. Por el contrario, la validez externa se refiere al hecho de poder extrapolar los resultados, es decir, si los resultados obtenidos se pueden aplicar o generalizar también a otras poblaciones similares. Lo fundamental es que la validez interna es un requisito indispensable para la validez externa.
Este estudio bibliométrico indaga el status de la metodología del estudio de casos, utilizando intercambiablemente los términos CASE STUDY y CASE-REPORT, en las bases del INSTITUTE FOR SCIENTIFIC INFORMATION (ISI) de Filadelfîa: SCIENCE CITATION INDEX (SCI), SOCIAL SCIENCE CITATION INDEX (SSCI) y ARTS AND HUMANITIES CITATION INDEX (A&HCI). El hallazgo central testimonia un uso extenso, progresivo y diversificado del estudio de caso en tales bases, a lo largo del tiempo, en las más diversas disciplinas, temáticas y en un gran número de revistas científicas.!• Introducción Dentro del repertorio de métodos de investigación disponibles contamos con el Estudio de Casos [desde ahora abreviadamente EC]; tal vez sea éste el método primario de indagación científica. No vamos a discutir aquí el estatus metodológico del EC (véanse aportes y discusión abundante en este mismo número), sino que trataremos de averiguar cómo y cuánto se está utilizando este método en los diversos ámbitos del conocimiento a escala universal. En el fondo, tratamos de contrastar la hipóte- Emilio Delgado López-Cózar y Antonio Fernández Cano sis de investigación que conjetura que el EC es un método fértil usado en los más diversos campos disciplinares y temáticas científicas, y que tal uso viene manteniéndose e, incluso, aumentando con el paso del tiempo. Tal evidencia podría ayudar a disipar, entonces, la inñmdada pero extendida creencia de que el EC es una metodología precientífica y exclusiva de determinadas ramas del conocimiento. En la medida en que se pretende oñrecer un panorama general y universal del empleo del EC, como herramienta metodológica en las publicaciones científicas, se precisa una ñiente de datos que sea multidisciplinar, en el sentido de que incluya todas las áreas de conocimiento, y, al mismo tiempo, internacional, en donde esté representada la ciencia generada en distintos países. De entre todas las fiíentes de información posibles, las únicas que pueden cumplir este requisito son las bases de datos [desde ahora BD] propias del Institute for Scientific Information [desde ahora ISI] de Filadelfia\ en concreto: Science Citation Index (SCI), Social Science Citation Index (SSCI) y Arts and Humanities Citation Index (A&HCI). Estas bases, en agosto de 2001, indizaban 8648 revistas científicas^ y alrededor de 7000 libros y actas de congresos, pertenecientes en un 61% al área de Ciencia y Tecnología, el 21% al de Ciencias Sociales y un 18% a las Humanidades. En las BD del ISI se encuentra la bibliografía científica de mayor difusión, visibilidad e impacto internacional. Es bien conocida la ley de dispersión de Bradford, la cual establece que un número muy reducido de revistas publica el mayor número de trabajos sobre un tema cualquiera, y al mismo tiempo, esas pocas revistas reciben el mayor número de citas. Pues bien, las BD del ISI vacían precisamente las revistas más productivas y que más influencia o impacto producen. Por otra parte, las BD del ISI, se han convertido en una herramienta fundamental en la evaluación de las instituciones, de las revistas y de los propios científicos en buena parte del mundo, debido a la razón antedicha y a que proporcionan indicadores bibliométricos únicos (Bellavista et al. 1997; Bordons y Zulueta, 1999; Fernández Cano, 1995; Garfield y Welljams-Dorof, 1992; López-Piñero y Terrada, 1992c-d; Sancho, 1990; van Raan, 1993). Publicar en una revista indizada por el ISI se ha convertido en un signo intrínseco de calidad que es valorado positivamente por los más diversos sistemas de evaluación. Esto está provocando que las revistas cubiertas por el ISI atraigan los mejores artículos de investigación. De ahí que pueda presumirse que en las BD del ISI estén no sólo los mejores trabajos, sino también aquellos que gozan de mayor sofisti-El estudio de casos en las bases de datos del Science, cación y calidad metodológica. Este último aspecto es muy relevante para el presente estudio. En definitiva, con este trabajo se pretende conocer el uso que se viene haciendo del EC en la literatura científica internacional utilizando como espejo las BD del ISI. Se trata de un estudio descriptivo longitudinal de carácter retrospectivo sobre una muestra de 49190 trabajos publicados, categorizados e indizados, como EC en las BD del SCI, SSCI y A&HCI, entre 1992 y 2000. Es por lo que de modo complementario, se efectuaron búsquedas en los discos de dicho año (actualizaciones enero-abril para el A&HCI y enero-julio para SCI y SSCI). Dado que las BD del ISI no utilizan vocabularios temáticos controlados del tipo de los tesauros, resulta fundamental para la validez de los resultados elegir cuidadosamente los términos, los campos y la ecuación de búsqueda a implementar. Los vocablos elegidos han sido case(s) study(ies) o case(s) report(s). Con el fin de asegurarnos de que estos son los términos habitualmente admitidos en inglés para representar el concepto objeto de estudio, se consultaron los tesauros^ empleados en las bases de datos bibliográficas de diversos campos de conocimiento. Como puede apreciarse en el Cua- La ecuación de búsqueda empleada ñie: case'^ stud^ OR case"^ report^. Se utilizó, por un lado, el operador de truncamiento de sufijo (*) para recuperar el singular y plural de los vocablos elegidos y, por otro, el de adyacencia, que en las BD es implícita, pues por defecto se localizan los registros que contienen los términos adyacentes en el mismo orden y forma indicada. De este modo, se eliminan muchos documentos no pertinentes. Los campos elegidos para la búsqueda han sido el título, resumen, descriptores o palabras-clave del autor y descriptores adicionales {Key-El estudio de casos en las bases de datos del Science... word Plus), Este ultimo es un campo que contiene palabras-clave derivadas automáticamente de los títxilos de las referencias bibliográficas citadas en cada documento. No obstante, la posibilidad de buscar en todos estos campos no está disponible en las tres BD. Mientras que las versiones de SCI y SSCI lo permiten desde 1992 -y esta es la razón que justifica el ámbito cronológico elegido-, en el A&HCI sólo es posible buscar en el título. Este inconveniente constituye una limitación importante y contribuye a sesgar los datos obtenidos en el sentido de recuperar en el A&HCI muchos menos documentos de los potencialmente pertinentes. Dado que algunas revistas son indizadas simultáneamente en más de una base de datos, se procedió a detectar los duplicados, cuya cifra ascendió a 3682 documentos. El procedimiento adoptado presupone aceptar que una revista puede clasificarse simultáneamente en más de un campo (asignación múltiple) y que todos los artículos publicados en una revista pertenecen al campo temático donde la revista esté adscrita. Esto es especialmente discutible en el caso de revistas multidisciplinares que publican trabajos de muy diversas especialidades. A pesar de las posibles distorsiones que puede introducir este método de análisis, hay que decir que no existe otro que sea tan factible y operativo, y que, como ya ha señalado en otros estudios bibliométricos (Bordons y Zulueta, 1999):...toda la clasificación temática es en cierto modo arbitraria, el uso de la clasificación de revistas del ISI, que ha sido realizada con asesoramiento de expertos en cada área y está sujeta a modificaciones periódicas que garantiza su actualidad, permite una delimitación objetiva y posteriores comparaciones a lo largo del tiempo entre diversos sujetos.... -Temática asociada al EC, al objeto de denotar vínculos conceptuales entre EC y otros términos. Para ello se emplean las palabras clave asignadas por el autor o por la propia BD automáticamente. Es obligado advertir que 15210 registros, es decir, el 30% de los do-El estudio de casos en las bases de datos del Science... 615 cumentos carecen de palabras clave, distribuyéndose de forma desigual en función del campo científico: Así, en Humanidades, sólo el 49% de los documentos de la muestra poseen palabras clave; mientras que en Ciencias Sociales sube al 57% y en Ciencias al 75%. Asimismo, el promedio de palabras clave por registro es muy variable, distribuyéndose también de forma sesgada: se pasa de 5 palabras clave en Ciencias, a 3 en Ciencias Sociales y 2 en Humanidades. Esto denota que los resultados están indudablemente sesgados. ~ Revistas que incluyen EC, tratando de verificar el ajuste al modelado de Bradford. ~ Autoría, al objeto de determinar el número de autores que colaboran en la publicación de EC, registrando las distintas pautas de comportamiento existentes en cada disciplina. Este análisis únicamente se ha aplicado a los documentos categorizados por el ISI como originales, ya que la multiautoría puede ser sensible al género documental. ~ Extensión, tratando de denotar el tamaño prototípico del artículo de EC, midiéndolo en número de páginas. Se pretende observar, al mismo tiempo, las diferencias que puedan existir entre disciplinas. Dado que la extensión de un trabajo en una revista depende del tipo documental que sea (revisión, editorial, artículo, nota...), se ha circunscrito el análisis sólo a los documentos categorizados por el ISI como originales. Tratamiento de los datos La información bibliográfica procedente de las BD del ISI se descargó en una base de datos ProCite. Los campos se exportaron al paquete informático Statistica (Statsoft 2000), para un tratamiento estadístico bastante elemental a nivel meramente descriptivo. La producción diacrónica desde 1992 hasta 2000 para los términos de búsqueda indicados se incluye en la Tabla 2. Es evidente que la producción ha ido, por lo general, aumentando cada año con una tasa media de crecimiento del 8%. Si bien este porcentaje, ni es superior al propio de las BD del ISI, ni se ajusta a la curva de crecimiento descrita por Price Emilio Delgado López-Cózar y Antonio Fernández Cano (1986), es sintomático de que estamos ante un método de investigación que no sólo no cae en desuso sino que se mantiene vivo. Queda bien de manifiesto que son artículos, mayoritariamente, el tipo de documentos asociados al tópico de EC (Tabla 2); aunque habría que destacar el amplio número de revisiones y editoriales asociadas en una u otra medida con el EC; especialmente importante es el crecimiento a lo largo del período de estas últimas. La necesidad de editorializar y revisar periódicamente la literatura producida sobre EC podría ser un indicador de la actualidad de esta metodología. Por otro lado, destaca la radical caída de los documentos tipo «notas» sobre EC a partir de 1995, aunque estimamos que tan drástica disminución obedeciera a un cambio en la política de indización de ISI, en el sentido de asimilarlas a originales. Distribución por campos disciplinares Es de relevancia denotar como el método de EC se distribuye en los diversos campos disciplinares. La Tabla 3 da una visión diacrónica del número de EC según disciplinas. La presencia de EC en las más diversas disciplinas y áreas de conocimiento es palmaria, aunque son evidentes también grandes diferencias en número de documentos relativos a EC según campo general. No sorprende, que sea en Ciencia y Tecnología donde más se use el EC (75% de los documentos), frente a las Ciencias Sociales (19,7%) y Humanidades (5,3%), aunque sí las diferencias porcentuales tan acusadas que se producen. Lo más destacable es el elevado valor alcanzado en Ciencia y Tecnología, muy por encima de lo que representa esta área en las BD del ISI (61%), y el ínfimo obtenido por las Humanidades, muy por debajo de lo que representa el área en las BD del ISI (18%). Resulta paradójica la escasa popularidad en Humanidades de un método con una fuerte tradición histórico-humanista (véanse aportes ad hoc en este mismo número), plasmado en autobiografías, historias de vida o episodios vitales. Esta omisión pudiera ser imputable más a los sesgos de que adolece este trabajo que a una escasa preocupación metodológica por el EC por parte de artistas y «gentes de letras». Las peores prestaciones en recuperación de la información que presenta el A&HCI, donde sólo es posible buscar en el título y no en el resumen y palabras clave que, por otra parte, escasean en esta base de datos, junto a la nula estandarización, el bajo consenso cognitive y metodológico existente en las áreas humanísticas y a su diversidad terminológica, pues podrían ser múltiples los vocablos con que fuera conocido el EC (biografías, historias de vida...), es lo que explicaría estos paupérrimos porcentajes. Los mismos argumentos, pero vueltos del revés, podrían explicar los buenos resultados del EC en Ciencia y Tecnología. Las Ciencias Sociales, en cambio, se posicionarían en una situación de «normalidad». Si acercamos más la lente del retrato disciplinar, recurriendo a la clasificación por áreas temáticas empleada por el ISI, podremos detectar cuales serían las disciplinas concretas (especialidades utilizando la terminología biosanitaria) más productivas en EC. Una relación de las 30 áreas más productivas, en cuanto a número de documentos que guardan cierta relación con EC, viene dada por la Tabla 4. De esas 30 primeras áreas, todas corresponden a especialidades biomédicas excepto cinco, de las que cuatro se adscriben a las Ciencias Sociales (Educación e Investigación Educativa, Planificación y Desarrollo, Gestión, Estudios Medioambientales) y una al área biológica. La razón A/B (número de revistas / número de documentos recuperados) podría ser \in indicador del grado de uso del EC dentro de cada disciplina. Es de resaltar que, en la especialidad Medicina de los Cuidados Clínicos {Clinical Care Medicine), esa razón alcanza el máximo valor 201.5 (403 documentos / 2 revistas). El empleo del EC en las ciencias de la salud, en general, y en algunas de sus revistas más prestigiosas tanto a escala internacional {The New England Journal of Medicine o The Lancet) como en el caso español {Medicina Clínica o Revista Clínica Española) había sido evidenciado hace años (Alvarez Dardet et aL 1987). No obstante, se ha detectado un descenso considerable en el empleo de dicha metodología en estas revistas: ha pasado, de ser empleada en el 30% de los originales publicados en dichas revistas en los setenta, a un exiguo 5% en los noventa (Aibar et aL 1999). Estos datos no concuerdan con lo reflejado en este estudio, aunque bien pudiera ocurrir que dicho descenso se produzca en las revistas de primer nivel y no en el conjunto. Asimismo, por otra parte. Pardo García et al. (1996) destacaron la importancia del EC en Cirugía, que es la especialidad que se muestra más productiva en esta metodología. Bajo este epígrafe tratamos de relacionar términos presentes en un mismo documento asociados a nuestros términos de búsqueda {case study o case report). En concreto, hemos recuperado 65536 palabras clave ligadas a esos términos. El Cuadro 2 reproduce las treinta más frecuentes y el número de veces (#) en que tal asociación dual se presenta. Los términos más frecuentemente asociados a EC son susceptibles de agruparse en tres categorías: el mundo de los niños (niños, infante, infancia,..), la relación salud-enfermedad (enfermedad, paciente, carcinoma, infección,...) y aspectos operativos (gestión, diagnóstico, experiencia, informe,..). Es evidente que la temática biosanitaria represente la parte central de la relación establecida. En esta radiografía intensiva y extensiva del ISI, también hemos localizado cuáles y cuántas revistas, incluidas en tales BD, publican artículos relativos a EC. Se han localizado un total de 4689 (casi dos tercios) revistas que incorporan EC; una sola de ellas (Neurosurgery) incluye 1387 documentos afines al método que aquí se indaga. Cuando relacionamos número de revistas con número de documentos afines a EC, denotamos un patrón de resultados propio del modelado de Bradford (1948); en el sentido de que unas pocas revistas concentran la inmensa mayoría de los documentos sobre EC; véase tabla 5: Las veinte primeras revistas (un escaso 5 por mil) incorporan ya 7659 documentos relativos a EC (el 14.5% del total); véase tabla 6, junto con la ordenación correspondiente. Por ello, aunque el ajuste al modelo de desarrollo geométrico que propuso Bradford (1948) no sea tajante, sí es evidente un patrón de acomodación a dicho modelado. Ajustándose a la composición de las BD del ISI, las revistas norteamericanas y en lengua inglesa son las más abundantes, aunque para esta relación es bastante destacable el número de revistas francesas: Annales de Dermatologie et de Venereologies Archive de Pédiatrie y Presses Medicales. Es también llamativo que sean tres revistas de Neurocirugía las que encabecen la lista de publicaciones más productivas. Son, además, las responsables directas de que tanto la Cirugía como la Neurología Clínica se erijan en las especialidades que mejor abono ofrecen para cultivar la metodología del EC. La propia naturaleza del EC, junto al hecho de que sea un método que presenta una menor complejidad metodológica, unas menores exigencias en la recogida, tratamiento y análisis de datos, y, por ende, una menor carga de trabajo global, debieran traducirse en una exigua tasa de colaboración o multiautoría. Pues bien, muy en contra de lo que pudiera pensarse, el número de autores que firman las publicaciones de EC es muy elevado, puesto que el 55,5% de los documentos poseen entre dos y cuatro autores, el 22,5% cinco o más, y sólo el 21% tienen un autor. Se ha llegado incluso a encontrar cuatro trabajos con más de 51 autores. Sin embargo, esta distribución no es nada uniforme ya que existen profimdas divergencias entre campos científicos. Así, mientras que en Ciencia y Tecnología, el promedio de autores por trabajo es superior a tres y el autor único está en peligro de extinción (11% de los trabajos); en Humanidades, el promedio se sitúa en un autor que es, por otra parte, la especie mayoritaria (60% de los trabajos); y en Ciencias Sociales el promedio de firmas por trabajo se sitúa en dos y el autor único representa algo menos de la mitad (47%). Se aprecia una perfecta gradación entre las ciencias «duras», cuyo núcleo está constituido por las ciencias de la vida y las biomédicas, en particular, y las «blandas», conformadas por las Artes y las Letras donde es el trabajo individual es el que prima. Este patrón no es más que una nueva manifestación de unos hábitos de publicación, que son bien conocidos, que han sido prolijamente descritos y que responde, en parte, a la presión por publicar que recorre como reguero de pólvora todos los círculos científicos. La diversidad de formatos, diseños tipográficos, estilos, familias y cuerpos de los caracteres empleados, en las casi cinco mil revistas objeto de este estudio, hacen muy difícil, por no decir casi imposible, definir el tamaño prototípico del artículo original sobre EC. Sin embargo, sí se puede afirmar que su extensión no es reducida (en torno a 13 páginas), comparada con la de otros tipos de artículos. Bien es verdad que se denotan grandes diferencias entre los artículos provenientes de las distintas disciplinas. Así, los artículos de revistas de Ciencia y Tecnología ocu-El estudio de casos en las bases de datos del Science... pan la mitad de espacio (7 páginas es lo habitual) que los de Ciencias Sociales, que son ligeramente más cortos (Moda 12, Mediana 13) que los de Humanidades (Moda 15, Mediana 14). De nuevo se observa una perfecta modulación según el grado de «dureza» del campo disciplinar: se va de 4 páginas de promedio en Biomedicina hasta 20 en Historia. La solvencia de los resultados arrojados por un estudio, como el que aquí se presenta, depende de que la ñiente de datos elegida cubra adecuadamente el tópico objeto de análisis. Entre ellos cabe destacar los siguientes: Sesgo a favor de la ciencia básica, en general, y hacia disciplinas como la Física, Química, Matemáticas, Biología y Farmacología. En particular, las Ciencias Médicas que se encuentran ampliamente cubiertas en detrimento de las áreas aplicadas y tecnológicas (Ingeniería, Arquitectura, Agricultura, Informática, Metalurgia...), que están infrarrepresentadas (Braun et al. 2000). Esto quiere decir, que los temas de interés básico y alcance internacional están mejor reflejados que los de interés local y alcance local o regional. Sesgo a favor de la ciencia producida en los países anglosajones. Las revistas publicadas en países como Suiza, Holanda, Reino Unido y países escandinavos están sobre-representadas frente a las editadas en países de la periferia científica y, especialmente, de las provenientes del Tercer Mundo (Gibbs, 1995). El potencial editorial de estos países en las BD del ISI está muy por encima de su potencial editorial real (Braun et al. 2000). Ejemplo paradigmático es, de un lado. Reino Unido y, de otro, España, que posee 44 revistas en el conjunto de las BD del ISI. Este exiguo número representa el 0,5% del total, un valor muy por debajo de su potencial científico y editorial, que viene calculándose en todos los indicadores de producción científica torno a valores del 2,5-3%. Sesgo a favor de las publicaciones en lengua inglesa. A pesar de que la cobertura de las BD va sufriendo pequeñas variaciones (en torno a 250 revistas se incorporan anualmente), los sesgos perduran con el paso del tiempo debido a los criterios empleados en la selección de revistas (Garfield, 1990; Testa 1998). El factor clave para la inclusión de una revista es su tasa de citación. Son las revistas de orientación básica, publicadas en países anglosajones y en lengua inglesa las que más probabilidad tienen de ser citadas por las revistas que ya se encuentran indizadas que, son a su vez, muy representativas de la comunidad anglosajona. El estudio de casos en las bases de datos del Science.,. Ahora bien, aun siendo verdad todo lo comentado, de lo que no hay duda es que en las BD del ISI se encuentra la bibliografía científica de mayor difiísión, visibilidad, impacto internacional y sofisticación metodológica. Por otra parte, siempre nos quedará una duda razonable sobre si, al efectuarse la búsqueda en lenguaje natural, los términos elegidos cubren la multiplicidad de vocablos con que es conocida la metodología de EC, en las distintas áreas de conocimiento e indizada en las BD que las representan. En este sentido, conviene recordar el importante sesgo detectado en el trabajo que penaliza los resultados hallados en las Humanidades. Sin embargo, bien podemos afirmar que la hipótesis que anticipamos se verifica plenamente: el EC como método de investigación es usado en los más diversos campos disciplinares, disciplinas y temáticas; con un uso que se ha venido acrecentando progresivamente. Un campo disciplinar cual es el biosanitario acapara la mayoría de los EC indizados en ISI. No parece entonces justificada la creencia que asocia EC con la preciencia o con las Humanidades, sino, que se nos manifiesta como un rico y fértil método de indagación, que opera en todo los ámbitos del conocimiento. Más insidioso sería aún imputar a las áreas o especialidades, donde se realizan estudios con metodología de EC, un estatus científico bajo, en las que el conocimiento no es bastante consistente, universal ni bien articulado. Antes bien, casos específicos y relevantes siempre estarán presentes en la realidad natural, social y cultural; cuan más compleja sea esa realidad y más ansia tengamos de conocer, se nos manifestaran casos, cuyo estudio constituye el primer paso básico del quehacer científico. ^ Se realizó la consulta al Master Journal List del ISI el 29-08-2001; disponible en red: http://www.isinet.com/cgi-bin/jrnlst/jlresults, cgi? ^ Los tesauros son herramientas terminológicas que determinan cuales son las palabras admitidas y no admitidas para describir un concepto, estableciendo relaciones jerárquicas y de correspondencia entre ellas. Su uso generalizado, en la recuperación de información y su aplicación por parte de especialistas en cada área temática, asegura la pertinencia de los términos elegidos. ^ MRI: Magnetic Resonance Imaging (Imágenes por resonancia magnética). ^ CT: Computer Tomography (Tomografía por ordenador).
El Congreso Internacional de Matemáticos (ICM2006), celebrado en agosto de 2006 en Madrid, por primera vez en España en su ya centenaria historia, nos ha revelado nuevos y a veces insospechados aspectos de las Matemáticas. El ICM2006 venía a reconocer internacionalmente el extraordinario progreso experimentado por la disciplina en la última generación, que ha puesto a España en el mapa internacional. Pero además, la cuidada organización a cargo de los matemáticos españoles ha significado un hito en la historia de los ICM en varios aspectos: la espectacularidad del acto inaugural con la presencia de S.M. El Rey, la calidad de los premiados (Medallistas Fields y Nevanlinna, Premio Gauss), el cuidado en cada detalle, y como no, el extraordinario eco mediático fruto de una preparada colaboración con un gabinete de prensa aliado con la apasionante historia del ruso Grigori Perelman y su solución de la conjetura de Poincaré. En primer lugar, se ha puesto en marcha un proceso de creación del Instituto de Ciencias Matemáticas (ICMat) en colaboración con tres universidades de Madrid (Universidad Autónoma de Madrid, Universidad Carlos III de Madrid y Universidad Complutense de Madrid). Tras un proceso de selección llevado a cabo por la ANEP, se han identificado los investigadores de las cuatro instituciones que se integrarán en el instituto mixto. Este instituto está dotado con un número apreciable de plazas de nueva creación a fin de conseguir un centro de investigación que sea un referente en España y Europa. La normalización de la política de personal en el campo de las Matemáticas deberá ser completa y alcanzar también a las plazas de promoción interna, tal como proponía el citado Comité internacional en sus recomendaciones. Este nuevo instituto nace con una sede singular. El CSIC y sus socios han aprobado la construcción de la misma en el campus de la UAM, compartida con el Instituto de Física Teórica (IFT, instituto mixto con la UAM). Con más de 12.000 metros cuadrados construidos y hasta 17 millones de euros presupuestados, el proyecto arquitectónico, ya adjudicado y en la fase final de elaboración, prevé poner su primera piedra el próximo mes de septiembre, para comenzar su andadura en la primavera de 2009. Este instituto contará con una Biblioteca de Matemáticas singular (1050 metros cuadrados), que será a la vez un Centro de Documentación en coordinación con el CIN-DOC y la Coordinación de Bibliotecas del CSIC, dando servicio a toda la comunidad matemática española. En este y otros aspectos, el CSIC quiere ser así una pieza clave en el diseño y funcionamiento del futuro Instituto Español de Matemáticas. No serán estas las únicas medidas que el CSIC pondrá en marcha. En su nueva andadura como Agencia Estatal el CSIC seguirá cuidando la disciplina, buscando incorporar a los mejores investigadores internacionales y apostando como hasta ahora por la juventud. En efecto, el ICMat ha ido incorporando en los últimos años a un 20% de los contratados Ramón y Cajal en el área, varios de los cuáles ocupan ya puestos permanentes. La intención es seguir en esta línea ofertando al menos dos plazas por año. Y no sólo en este aspecto el CSIC apostará por los jóvenes matemáticos. La apuesta de esta institución por la ciencia se plasma también en su programa «El CSIC en la Escuela», al que deberán sin más dilación incorporarse los matemáticos y contribuir así a unos mejores resultados escolares en una disciplina fundamental en el sistema educativo. Otra muestra más del interés por las matemáticas es la participación del CSIC en programas como Ciencia en Acción (con la FECYT y las Reales Sociedades de Matemáticas y Físicas), o la recientemente puesta en marcha con DIVULGAMAT (portal divulgativo de la Real Sociedad Matemática Española). Pero no debe olvidarse el importante papel que el CSIC ha desempeñado y desempeña en la financiación de diversos programas de la European Science Foundation: redes temáticas, workshops exploratorios, etc. La comunidad matemática española no es a veces consciente de este papel. El CSIC es sin duda crucial para un despegue definitivo de la matemática española. Las interacciones matemáticas con Europa, Norteamérica y las potencias científicas emergentes como India o China, serán sin duda facilitadas por la implicación del CSIC en el área. Y el carácter multidisciplinar de la institución facilitará también el acercamiento necesario de las matemáticas a otras ciencias y a los sectores tecnológicos. El principal organismo público de investigación del país ha ignorado la disciplina muchos años y es tiempo de cambios. Como afirma el lema del CSIC: "Es tiempo de investigación, es tiempo de vida, es tiempo CSIC"; bien, quizás es momento de afirmar también que "es tiempo de Matemáticas".
No hace mucho podimos contemplar en la pantalla de nuestros cines una película que lo afirmaba en su mismo título: Sin noticias de Dios. Y no dejaba de tener su misterio la frase porque en medio de un silencio inexplicable de Dios, todo el mundo del más allá, tanto el decadente cielo parisino como el sofocante y erótico infierno, estaba seriamente en peligro por un complot que dejaría sin premio o castigo las acciones humanas. Es decir, sin noticias de El, nadie iba a hacer nada por reivindicar el bien y el mal, Y quizá precisamente por estar «sin noticias de Dios» los teólogos han pretendido siempre encerrar a Dios en palabras humanas, Y ésta parece ser una pretensión inútil. Su discurso se halla tensado muy a menudo sobre un territorio imposible. Porque la pretensión del creyente de todas las épocas no ha sido solamente hablar de Dios, que al fin y al cabo, Dios, su vida y también su muerte, ha llegado a ser una noticia que corre de boca en boca en lo cotidiano, sino que, rompiendo todas las reglas de la comunicación, ha pretendido hablarle al Dios. Noticias de Dios las contamos todos, todos hablamos de Dios o quizá de su Sombra. Además, como nos ha enseñado Lacan, el lenguaje habla antes que nosotros nos propongamos siquiera abrir los labios. Como seres de palabra habitamos dentro de un Logos Espermático, un territorio original que nos ha gestado y nos ha dado a luz sobre esta tierra, Pero es que «ser religioso» significa disponer del idioma de Dios, Porque entre los dioses y los hombres sólo cabe entenderse en el lenguaje del Dios, Las palabras de hombres y mujeres no valen para ello. Es necesario iniciarse en un lenguaje propio de la divinidad, creárselo, al decir de Barthes^, convertirse en Logoteta, en un creador de lenguaje. Pretendiendo articular lo inarticulable: los gemidos inefables del Espíritu esencial. Dirigirse al Dios significa proferir siempre palabras originales, ensayar el balbuceo, afrontar con palabras propias lo que no se puede decir. El teólogo pretende ser, en realidad, un mistagogo. Quiere ensayar el lenguaje del misterio. Noticias de una mistagogía Y en este ejercicio de inventar un lenguaje para el Dios es donde aparece la metáfora, no como el intento de apresar lo divino, ni de interpretarlo. Presentación sino de crearse los modos de decir lo propio, pero no a los otros seres de carne, sino al Dios vivo. Se trata de romper el lenguaje de los hombres, de abrir la brecha entre lo sabido y lo ignorado, entre lo deseado y el Deseo. Al decir Dios estamos expresando esa brecha, estamos profundizando en esa herida. No hay otra metáfora más radical que ese mismo Deseo en la pretensión de alcanzar al Dios con nuestra mistagogía teológica. Y para ello se hace necesario ser un logotécnico, ejercitarse en unas determinadas técnicas semióticas. Para crear una lengua nueva hace falta, en primer lugar, partir del vacío, poner por obra un espacio nuevo, separado del cotidiano, sin interferencias, en donde el estorbo de lo conocido y sabido no se superponga a la actividad creadora. Por eso en este ejercicio de acceso al misterio el aislamiento es la matriz de la enunciación. En segundo lugar, es preciso asegurar la articulación de los signos; no hay lengua sin que éstos se integren en una combinatoria, que se ensamblen, compongan para reconstituir una totalidad inteligible. Y, por fin, para dar a luz una lengua nueva, es necesario favorecer una gran secuencia de ordenamiento en la que poder decir lo que se dice, para dar sentido a la enunciación. Es preciso no exceder el código, desarrollar una «economía» lingüística, un plan escalonado que pueda fundar la nueva lengua que se está creando. El lenguaje que maneja la teología es un discurso sobre la experiencia interior. Es preciso vivir la pasión por el Dios antes que narrarla. Sólo desde dentro, actuando la voluntad en las diversas operaciones que se pueden describir, se advierte la unidad que el pensamiento discursivo puede separar. Por eso el recorrido lo hace la sensibilidad interior, que siempre resulta decisiva, aun cuando desborde el nivel consciente, o quizá precisamente por ello. Son los sentidos interiores, según nos recuerda Bataille, los que, tensando la voluntad, «disipan el torpor, la ausencia a la que las palabras inclinan»^. Es la dramatización la que hace salir de sí mismo, es la voluntad, que se añade al discurso, la que lo tensa. Yen esa teodramática se invisten las muchas figuras de una erótica divina en la que nos adentramos con los símbolos y los nombres del mismo Dios Amor. ¿Noticias de Dios o figuras del Deseo? Para descubrir los mejores acentos eróticos la teología tiene que beber en las orillas del océano de la Mistica. En ella percibimos el drama del Amante en la ausencia desgarradora del Amado. Es más bien una dina-Presentación XI mica de atracción que presiente una plenitud deseada, que moviliza fiíerzas vitales y espirituales hacia el logro y la misma superación de la dispersión, esto es, lo que nos resulta atrayente del amor divino. Desiderium Dei, pues, no como el grito de una carencia, sino como la búsqueda incoada, como la superación de la dinámica de la necesidad que se agota en la satisfacción del impulso, en la culminación del recorrido, en la consecución de la meta y el sosiego de la pulsión. La dinámica de la necesidad parte de lo que no tiene, y al alcanzarlo, se agota en su misma búsqueda; la dinámica de este deseo permite acoger un plus de búsqueda, va más allá de satisfacción de las necesidades, porque parte de una realidad positiva del corazón humano, como de un germen instalado ahí que busca desarrollarse y plenificarse. En la figura de la seducción la posesión del Dios es desplazada siempre un poco más allá de la satisfacción inmediata, que se reconoce como una anticipación de la plenitud acabada, pero que no permite descansar definitivamente en ella. Desearle es seguir deseando, es no dejar que el deseo nos agote la capacidad de desear en adelante. Y ello configura una dimensión humana del deseo como fuente y no como simple objeto de satisfacción. La fascinación que ejerce sobre nosotros el Dios como objeto de deseo está relacionada con la idealización de lo deseado, porque el objeto del deseo desborda los límites de lo posible, de lo razonable incluso. Sólo el misterio es digno de amor, sólo aquello que roza la hondura de htro mundo. Del Dios nos seduce lo inacabado, lo presentido, lo que debemos descubrir si nos arriesgamos a hacerlo. Sólo en el misterio hay hondura. Y una cosa de la que podamos disponer ya no merece la atención de nuestro deseo. La fascinación del yo por el Dios es una verdadera atracción de la voluntad, una polarización de inquietudes y deseos. Lo que nos fascina en el Dios es lo indefinible, lo no fijado, porque fijarse es encerrarse en uno mismo, es detenerse, es morir. Y lo inacabado, lo impreciso, lo huidizo del Dios es la materia prima de la fascinación^. Así es como el Dios seduce el corazón humano: como una fuerza de atracción que polariza su desear y que se adueña del centro de la vida. Lo atractivo, lo bello, lo sugestivo forma parte de la ingeniería del deseo. Redescubrir una cultura cristiana del deseo supone que nos alejamos de un concepto de lo divino ligado a experiencias de lo tremendo, aterrorizador, para acercarnos a lo amable, lo gracioso, lo atrayente. Supone que nuestra vivencia de Dios se vincula con más frecuencia a lo atrayente y armonioso, que toma un nuevo carácter cuando es marcado por la belleza y el XII Presentación amor en lugar de serlo, como por desgracia es tan frecuente, por las categorías del poder^. La predicación cristiana de nuestro desencantado siglo ha olvidado que eros y religión estuvieron una vez íntimamente unidos, y que charis, gracia, no significa otra cosa que infinita fuerza de atracción, encanto divino, prestancia. De tal manera que podemos decir que lo amable, lo atrayente, lo bello corporal tiene que ver con la Gracia en su misteriosa profundidad, en su dimensión de captación y plenificación del deseo. La ascesis cristiana no es sino ejercitarse en hacer el éxodo del Eros al Ágape y por ello es, primariamente, una perversión de la cultura actual del deseo, o sea de las formas como se experimentan la insatisfacción y los proyectos existenciales dirigidos hacia lo que vale la pena desear. Noticias de una desmesura El Amor apasionado del Dios se adueña de su sirviente ingenuo, Y esa es precisamente la Señal que nos llama a discernir el amor auténtico del otro: que se hace nuestro dueño, que no podemos controlarlo con nuestras pobres fuerzas, que nos sabemos siempre en sus manos, sometidos a Él, a sus caprichos. La erótica divina es caprichosa porque rompe los moldes de nuestra débil lucecita de la razón; es más que lógica, es deseo que se levanta rebelde y atrevido contra los mismos límites de la condición humana. El que ama así se atreve a bailar sobre la misma tumba de la muerte y es capaz de mirarla a la cara con aire de desafío. Por eso el Cantar de los Cantares nos recuerda que el amor es más fuerte que la muerte y sus flechas una llama del Señor de los ejércitos. Dueño intransigente, tirano indomable, dulce tormento, así le llamaban nuestros clásicos,,. Amar con mesura es un intento vano. El que ama se alimenta siempre en la fuente abundante de la vida divina y ama, como el Dios, con locura, dejando siempre atrás la moderación y el equilibrio. Ama como quien sabe que no puede hacer otra cosa digna del ardor de su corazón, como quien se aventura al éxtasis, que es un estar fuera de sí, un extralimitarse de su propia condición para aspirar a otra, la divina^, Freud decía que desde siempre los sabios han tratado insistentemente de disuadir a los hombres de la elección del camino del amor, porque nos sitúa en una relación de dependencia de la realización del deseo en lo otro, en los otros, Pero hay otro lenguaje para el amor que se atreve a compartir lo que une y lo que desgarra: la propia finitud, Y éste nos revela íntimamente el carácter trágico del amor divino. Que se atreve a establecer con el Presentación XIII ser humano una relación de compasión. Para amar así, en un nivel muy acusado de participación y comunión existencial hace falta compartir la desgarradura, la misma impotencia de trascender la propia condición. El Dios hecho Carne nos incluye en una extraña comunidad del Deseo. Su kénosis es un vaciamiento real, que rompe su pertenencia a una comunidad divina cerrada y protectora. Su encarnación es un naturalizarse humano, un ponerse en comunión con aquello que amenaza su propia integridad: el contacto con lo otro, con lo extraño, con lo desconocido. Se trata de ser introducidos en una comunidad de hombres y mujeres deseantes, en una «comunidad del corazón», nunca del todo constituida, pues los seres que podrían integrarla son seres de deseo, incompletos, inacabados, incesantemente desgarrados por la herida de su propia finitud. Pero es justamente este acabamiento lo único que puede permitir a los seres comunicarse entre sí. El Dios Compasivo acoge a las personas con tal respeto que nunca invade la intimidad, ni otorga favores como quien practica obras de misericordia, sino que más bien alcanza a remover lo más propio de cada uno, aquel fondo dormido del corazón. Enriquece sin oprimir, como devolviendo a todos lo más propio, haciendo descubrir los deseos y oreándolos con su bendición. Pero de un modo tan hondo que atrae y seduce. Dios el Seductor, que puede ser visto como el genio del corazón. Nietzsche nos lo ha dicho así: «... el genio del corazón, que a la mano torpe y aprestxrada le enseña a vacilar y coger las cosas con mayor delicadeza, que adivina el tesoro oculto y olvidado, la gota de bondad y de dulce espiritualidad escondida bajo el cielo grueso y opaco y es como ima varita mágica para todo grano de oro que yació largo tiempo sepultado en la prisión del cieno y la arena. Aquel de cuyo contacto todo el mundo sale más rico, no agraciado y sorprendido, no beneficiado y oprimido como por un bien ajeno, sino más rico de sí mismo, más nuevo que antes, removido, oreado y sonsacado por un viento tibio; tal vez más inseguro, más delicado, más frágil, más quebradizo, pero lleno de esperas que aún no tienen nombre»^. El número de ARBOR que ahora presentamos nos fue encargado al Instituto Universitario «Fe y Secularidad». El Instituto Fe y Secularidad fue creado en 1967 con la finalidad de afrontar los retos que se presentan a la fe cristiana en el marco de la sociedad actual. Desde sus orígenes, el Instituto Fe y Secularidad estuvo relacio-XIV Presentación nado con la Universidad Pontificia Comillas, primero como Instituto Adscrito y luego como Centro Colaborador. En la actualidad se encuentra integrado en la Facultad de Teología de dicha Universidad, Al llevar el título de «universitario», asume, de acuerdo con los Estatutos de la misma, la condición de ser un centro especializado de investigación y enseñanza, llevadas a cabo ambas con todo el rigor exigible al ámbito académico en que se encuadra y a las importantes demandas de los temas con que se ocupa. Entre sus objetivos se cuentan: ® El estudio de los contextos sociales y culturales en los que se inserta la vivencia de la fe en sus diversas manifestaciones en la sociedad de la modernidad tardía. ® La confrontación del discurso teológico con las áreas de la ética en la vida pública, la promoción de la justicia, la ciencia, las nuevas tecnologías y la comunicación social; y el análisis de las preguntas recíprocas que surgen de tal confrontación. ® La promoción, en el horizonte de la fe cristiana, de un espacio de diálogo lúcido y creativo con las diversas concepciones de la persona humana vigentes en la pluralidad cultural de nuestra sociedad. Los trabajos que presentamos en el presente número de la Revista AR-BOR se deben a colaboradores del Instituto, a especialistas reconocidos en la materia o a personas afines a sus objetivos y actividades. Creemos presentar un elenco de problemas que responde al título que le hemos asignado al número: el enigma de la religión. Al lector, que tiene en sus manos este monográfico le correponde juzgar -espero que benévolamente-nuestro trabajo. Xavier Quinzá Lleó Notas
Una reflexión filosófica sobre la experiencia humana del mundo, sobre sus condiciones universales y sobre sus variaciones históricas, no puede dejar de responder a estas tres preguntas entrelazadas: ¿qué es eso a lo que llamamos religión? ¿es algo inherente a la experiencia humana del mundo? ¿cuáles han sido sus variaciones históricas? Tras una relectura de los grandes críticos de la religión (Marx, Nietzsche y Freud), ésta es redefinida como una dimensión universal de la vida humana, que cumple una triple función cultural: articular y legitimar las tres relaciones sociales básicas (el parentesco, la economía y la política), invertir o trascender esas tres relaciones profanas (instituyendo de este modo el orden de lo sagrado) y componer conjuntamente el lado profano y el lado sagrado de la experiencia humana (proporcionando así un mundo simbólicamente compartido y una determinada orientación existencial). Finalmente, el artículo concluye distinguiendo cuatro grandes tipos de religiones: las mitológicas, las teológicas, la moderna religión tecnológica y la post moderna religión ecológica. No es fácil pensar la religión. No es fácil hacerlo con toda la franqueza y todo el rigor que el ejercicio del pensamiento exige de nosotros. Lo más frecuente es que sigamos uno de estos dos falsos atajos: por un lado, el atajo de pensar sobre (o ante) la religión, como si sólo se tratase de un hecho objetivo, externo y ajeno a nosotros, del que podemos ocuparnos con una atenta y amable curiosidad, pero del que podemos igualmente despreocuparnos con una distante y despectiva indiferencia; por otro 638 Antonio Campillo Meseguer lado, el atajo de pensar bajo (o desde) la religión, como si sólo se tratase de una vivencia subjetiva, tan íntima y tan propia que nos posee y nos constituye por entero, hasta el punto de convertirse en nuestra última e inapelable fuente de autoridad. En ambos casos, sea que hagamos de ella el objeto o el sujeto de nuestra palabra, estamos dando por supuesto que ya sabemos lo que es la religión: ya sabemos dónde, cuándo y cómo se manifiesta, puesto que hemos trazado el límite que la delimita y hemos determinado si estamos fuera o dentro de ella, si somos nosotros los que hablamos de ella o es ella la que habla en nosotros. Así que, antes de empezar a pensar, ya está todo sabido y decidido. Por eso son atajos, porque nos ahorran el incierto e inquietante ejercicio del pensamiento. El ejercicio del pensamiento nos sitúa, por el contrario, en un inhóspito no-lugar en el que nada está sabido ni decidido de antemano, en una tierra de nadie en la que todas las definiciones y delimitaciones son dudosas e inestables, en un desierto sin caminos en el que el horizonte de lo humanamente pensable se desplaza a medida que se desplaza el ejercicio mismo del pensamiento. Para pensar la religión, sin atajos de ningún tipo, hemos de hacerlo en el marco de una reflexión filosófica más general sobre la experiencia humana del mundo, sobre sus condiciones universales y sobre sus variaciones históricas. Y, a la inversa, una reflexión filosófica sobre las condiciones universales de la vida humana y sobre sus variaciones espacio-temporales, no puede dejar de plantearse la pregunta por la religión. O, más exactamente, no puede dejar de plantearse tres preguntas a un tiempo: primero, ¿qué es eso a lo que damos el nombre de religión?; segundo, ¿es algo inherente a la experiencia humana del mundo?; tercero, ¿cuáles han sido sus grandes variaciones o manifestaciones históricas? Antes de intentar responder a estas preguntas, y precisamente para poder responderlas, describiré brevemente el horizonte de pensamiento en el que creo que nos encontramos situados los humanos de comienzos del siglo XXP. Nuestra condición humana es constitutivamente paradójica: por un lado, formamos parte del mundo que nos rodea, estamos hechos de la misma sustancia que el resto de los seres y dependemos de ellos para seguir siendo lo que somos, de modo que mantenemos con ellos un parentesco originario, una imborrable identidad ontológica; por otro lado, nos separamos radicalmente de todos los otros seres y nos oponemos frontalmente a ellos desde el momento en que decimos «nosotros» y nos autoafirmamos como humanos frente al mundo no humano, instituyendo así una extrañeza igualmente originaria, una diferencia ontológica igualmente imborrable. Lo humano de la condición humana tiene, pues, una doble cara: es algo que recibimos pasivamente y algo que recreamos acti-El enigma de la religión 639 vamente, es una realidad objetivamente dada y una posibilidad subjetivamente instituida, es un qué susceptible de conocimiento científico y de manipulación técnica, pero es también un quién susceptible de reconocimiento político y de responsabilidad ética. Como en la cinta de Moebius, que tiene a la vez dos caras y una sola cara, los dos lados de lo humano son a la vez irreductibles e inseparables entre sí. Esta irresoluble paradoja nos permite comprender por qué lo humano de la condición humana no es una esencia eterna, estable y universal, dada de una vez por todas y para siempre, sino una existencia histórica, cambiante y plural, que ha venido experimentando incesantes variaciones espacio-temporales. En efecto, la condición humana es constitutivamente histórica, entendiendo esta historicidad como una relación de mutua e incesante remisión entre los seres humanos singulares y el mundo igualmente singular en el que habitan, es decir, como una reversión sin fin entre el lado «subjetivo» y el lado «objetivo» de la experiencia humana del mundo. Esta remisión recíproca entre lo humano y lo mundano se rige por el principio ontológico de la variación espacio-temporal, que postula la diversificación inagotable y la mutación imprevisible de todo cuanto acontece. Ahora bien, no es posible dar cuenta de la diversidad de la experiencia humana sin intentar determinar qué hay de humano, y, por tanto, de común o de comunicable, en esa diversidad. ¿Qué es lo que nos permite reconocernos unos a otros como humanos y decir «nosotros», a pesar de las profijndas e imborrables diferencias que separan nuestras diversas condiciones históricas de vida? ¿Por qué, a pesar de enfrentarnos unos a otros hasta el punto de la mutua negación y el mutuo exterminio, lo hacemos siempre en nombre de una cierta idea y un cierto ideal de humanidad? La experiencia histórica nos dice que la posible comunidad o comunicabilidad entre las diversas formas de lo humano no puede fundarse en una supuesta unidad o identidad dada a priori, ni tampoco puede postularse como la meta de un proceso teleológico ya sabido de antemano y que habrá de conducirnos de forma inexorable a un definitivo «final de la historia», sino que más bien hemos de suponerla como la idea reguladora de una posible relación, en modo alguno segura, entre las diferentes sociedades y los diferentes seres a los que llamamos humanos. La humanidad no es, pues, sino la resultante de la relación entre las diferentes manifestaciones de lo humano. Pero, mientras sigan viniendo al mundo nuevos seres humanos, esas diferentes manifestaciones seguirán proliferando, de modo que la resultante nunca podrá ser definitiva ni definitoria. Teniendo en cuenta la historia de las sociedades humanas hasta ahora conocidas, es posible discernir unos cuantos rasgos comunes que se re- piten en todas ellas, aunque de forma siempre diferente. Ante todo, la vida humana es una vida eminentemente social, plural, intersubjetiva, formada por un complejo y cambiante entramado de relaciones más o menos institucionalizadas, a un tiempo conflictivas y comunicativas. Además, todas las sociedades humanas hasta ahora conocidas cuentan con tres tipos de relaciones sociales (económicas, parentales y políticas) que se encuentran fuertemente institucionalizadas, porque responden a tres condiciones naturales de la vida humana: la supervivencia orgánica, la reproducción sexual y los conflictos inherentes a una pluralidad de individuos y de grupos que conviven en un mismo territorio. Por medio de estas tres relaciones sociales, los seres humanos instituimos nuestra humanidad, esto es, nos autoafirmamos y nos reconocemos unos a otros como sujetos humanos. En efecto, el proceso de subjetivación o de autoafirmación de lo humano tiene lugar a través de una triple diferenciación: la diferencia sujeto-objeto, que funda las relaciones económicas; la diferencia yo-tú, que funda las relaciones parentales; y la diferencia nosotros-los otros, que funda las relaciones políticas. Estas tres relaciones sociales son irreductibles e inseparables entre sí, de modo que no cabe establecer entre ellas una relación de jerarquía, es decir, de derivación y dependencia unilateral, sino más bien una relación de mutua tensión y mutua dependencia. No cabe conceder a una sola de estas relaciones sociales la primacía absoluta en la configuración de la sociabilidad humana, como han pretendido muchos teóricos de la sociedad. Así, Smith y Marx concedieron ese privilegio a la economía, Freud y Lévi-Strauss se lo concedieron al parentesco, mientras que Hobbes y Schmitt se lo concedieron a la política. Sin embargo, lo cierto es que cada una de ellas hace posible el tránsito y la simbiosis entre la naturaleza y la cultura, entre la animalidad y la humanidad, entre el lado objetivo y el lado subjetivo de la experiencia humana del mundo, de modo que no es posible hablar de una sociedad humana sin la presencia simultánea e inseparable de estas tres formas de relación social. Ahora bien, estas tres relaciones sociales se han ido articulando entre sí de muy diversas maneras según los tiempos y los lugares, dando origen a un incontable número de variaciones históricas. Siguiendo el procedimiento de los tipos ideales propuesto por Weber y Durkheim, es posible agrupar todas esas variaciones en cuatro grandes tipos históricos: las sociedades tribales, las sociedades estamentales, la moderna sociedad capitalista y la naciente sociedad global. Esta tipología nos permite llevar a cabo una nueva interpretación de la historia, que no estaría ya basada en la moderna idea de evolución sino en la posmoderna idea de variación. El enigma de la religión Creo que ahora ya estamos en condiciones de enfirentarnos a los grandes interrogantes que la religión nos plantea. Todas las sociedades cuentan con tres relaciones sociales básicas (económicas, parentales y políticas), con las que tratan de responder a tres diferentes necesidades o condiciones «naturales» de la vida humana: la supervivencia, la procreación y la rivalidad; de modo que no parece posible la vida humana, en cuanto vida social o «cultural», si no es en el marco de estos tres tipos de relaciones. Ahora bien, ¿tiene la religión este mismo carácter universal? Es decir, ¿constituye una cuarta condición de la vida humana, de modo que la vida humana, en cuanto vida social, no sería posible sin ella? Y, si así fuera, ¿a qué necesidad «natural» respondería? Más aún, ¿qué respuesta «cultural» y qué relación social podrían ser consideradas como específicamente religiosas? Por último, ¿cuáles serían sus principales variaciones históricas? Para responder a todas estas preguntas, habría que comenzar por definir el concepto mismo de religión. Habría que plantearse si es posible dar cuenta de las más diversas creencias y prácticas religiosas, desde los mitos y ritos tribales hasta las grandes «religiones de salvación», a partir de un único concepto de religión. Así como lo político es un campo de relaciones sociales que está presente en todas las sociedades, y que por tanto no puede ser identificado con una forma cultural determinada (como es el caso del Estado, que sólo aparece en algunas sociedades, y sólo en un momento histórico relativamente tardío), habría que plantearse si es posible definir el campo de lo religioso sin identificarlo con formas culturales aparecidas sólo en algunas sociedades a partir de un determinado momento de su historia (como es el caso de las citadas «religiones de salvación», contemporáneas de los primeros grandes Estados). Más aún, esa definición de lo religioso, para ser universalizable, debería dar cuenta del proceso de «secularización» seguido por el Occidente moderno y de la pretendida desaparición o «superación» histórica de las formas religiosas tradicionales. De no ser posible tal concepto, la religión no podría ser considerada como esencial a la condición humana, sino simplemente como una forma cultural característica de determinadas sociedades en un determinado período de su historia. Así, si limitamos el concepto de religión a las grandes «religiones de salvación», como suele ser habitual, quedarían excluidos los relatos míticos y los ritos mágicos (mucho más antiguos y más extendidos que ellas), y quedarían igualmente excluidas las sociedades modernas o «secularizadas», en las que tanto la «magia» como la «religión» habrían sido reemplazadas o marginalizadas por la «racionalidad» (y la mutua autonomía e irreductibilidad) de los saberes científico-técnicos, de las reglas ético-jurídicas y de las creaciones artístico-literarias. Desde el evolucionismo del siglo XIX, se han hecho habituales esta clasificación formal y esta periodización histórica: la «magia», la «religión» y la «ciencia» serían tres formas diferentes y sucesivas de pensar el mundo y de regular la acción humana. Todos los grandes críticos de la religión, desde Feuerbach en adelante (pasando por los tres «maestros de la sospecha»: Marx, Nietzsche y Freud), han entendido la religión en este sentido limitado, como una forraa histórica pasajera, más aún, como una enfermedad infantil del pensamiento humano, fruto de la explotación económica (Marx), el resentimiento moral (Nietzsche) y la culpa edípica (Freud). Y han considerado que lo propiamente «moderno» de la cultura moderna es el esfuerzo por curarse de tal enfermedad. La «mayoría de edad» de la cultura moderna, su madurez intelectual y moral, su superioridad sobre el resto de las culturas, su legitimidad para afirmarse sobre ellas y guiarlas por el camino del «progreso», se funda precisamente en el supuesto de haber logrado curarse o liberarse de la enfermedad religiosa. Ahora bien, ¿en qué consiste la enfermedad religiosa para estos críticos? Evidentemente, se trata de una enfermedad mental, que afecta a las capacidades intelectuales y morales del ser humano, a su poder para razonar y decidir por sí mismo acerca de lo verdadero y lo falso, lo bueno y lo malo. Al contraer esta enfermedad, los seres humanos se convierten en unos enajenados. Siguen pensando y actuando, pero lo hacen de forma delirante, ignorándose y contrariándose a sí mismos, contraviniendo las necesidades y posibilidades propias de su condición. Si hemos definido la condición humana como el movimiento de autoafirmación de la subjetividad en el triple dominio económico (sujeto-objeto), parental (yo-tú) y político (nosotros-los otros), la religión vendría a ser la negación de ese triple movimiento, y por tanto la negación de la condición humana en cuanto tal. Por medio de la religión, el ser humano se niega a sí mismo en cuanto sujeto, es decir, en cuanto ser capaz de autoafirmarse frente a los objetos y frente a otros sujetos. La religión, pues, sería esencialmente nihilista. Pero este nihilismo religioso, según sus críticos, no sólo lleva al ser humano a negar o trascender de forma delirante su propia condición, sino también a atribuírsela a los seres no humanos. Si el viviente humano adquiere su humanidad mediante un triple movimiento de autoafirmación (sujeto-objeto, yo-tú, nosotros-los otros) que da lugar a tres tipos de relaciones sociales (la economía, el parentesco, la política), la religión sería un movimiento de dirección contraria, que engendraría a su vez un nuevo tipo de relación social. La religión hace que los seres humanos alienen su humanidad, su subjetividad, pero esto no sólo significa que renie-El enigma de la religión gan de ella sino que en el mismo movimiento la proyectan fuera de sí y la transfieren a otros seres (reales o imaginarios), a los que atribuyen sus propias cualidades o capacidades humanas, y con los que pretenden establecer unas relaciones análogas al resto de las relaciones sociales. Mediante esta proyección o transferencia de cualidades y de relaciones, el propio ser humano cree poder proyectarse o trascenderse a sí mismo, cree poder rebasar los límites de su condición específicamente humana. La religión sería, pues, una forma de pensar y de actuar que, lejos de limitarse a configurar «culturalmente» las condiciones «naturales» de la vida humana, trataría de suprimirlas o trascenderlas por completo. La religión sería, en este sentido, una hipertrofia de la cultura. Ahora bien, ¿cómo es posible que los seres humanos se nieguen a sí mismos y pretendan trascender las condiciones que los constituyen como tales? ¿Cuál es el origen de esta enfermedad mortal que los enajena y que incluso los aniquila? ¿Por qué esta hipertrofia cultural está presente en las más diversas culturas? ¿Por qué la llamada cultura «moderna» es la única que pretende haberse inmunizado contra tal enfermedad? Si la religión es esencialmente la negación de la condición humana, su reiterada presencia en las más diversas sociedades y épocas de la historia humana se convierte en un verdadero enigma. Los críticos de la religión tienen una respuesta a todas estas preguntas: ha sido la infancia histórica del ser humano, su minoría de edad cultural, es decir, su dependencia real (económica, parental, política) con respecto a otros seres (humanos y no humanos), lo que ha engendrado en él esa negación de sí y esa hipertrofia del poder atribuido a otros seres considerados sobrehumanos. En otras palabras, la religión es explicada a partir de la explotación económica (Marx), la represión patriarcal (Freud) o la dominación política (Nietzsche). Para estos tres autores, la religión es a la vez una enfermedad mental y una forma de pensamiento infantil, que afecta tanto a la capacidad de conocer y dominar el mundo como a la capacidad de regular las propias relaciones sociales. La religión desorienta al ser humano, lo incapacita para orientarse racionalmente en el mundo y lo pone en manos de otros seres humanos. Por tanto, el viviente humano no adquiere su verdadera humanidad más que a través de un largo proceso de curación y maduración, por el que se afirma a sí mismo como sujeto y niega toda dependencia con respecto a otros sujetos (y, en general, con respecto a todo otro ser). La humanidad plenamente realizada sería, pues, la humanidad liberada del delirio infantil de la religión. Pueden formularse muchas objeciones a estos grandes críticos de la religión. En primer lugar, ellos suelen tomar como infancia de la huma- nidad un período relativamente tardío, en donde ya había clases sociales, familia patriarcal y Estado, pero en las primitivas sociedades tribales no había ninguna.de estas tres formas de dominio (económico, parental y político), tal y como han mostrado los más recientes estudios de prehistoria y de antropología social. En segundo lugar, allí donde surgieron tales formas de dominio, las religiones no sólo cumplieron una función de legitimación sino también de subversión o de contestación (como mostró Max Weber en sus estudios de sociología de la religión, y especialmente en sus análisis de las formas «carismáticas» de religiosidad)^. En tercer lugar, el ejercicio de la razón (en su triple dimensión cognoscitiva, moral y estética) no se afirmó simplemente frente a la religión, como si ésta fuese un mero obstáculo externo, sino que más bien se desarrolló dentro de ella, en estrecha relación con ella, y la propia historia de las religiones, desde las más antiguas formas del pensamiento mágico, ha de entenderse como el resultado de la creativa y polimorfa racionalidad humana (así lo mostró Weber, una vez más, y así lo ha defendido también la escuela francesa de sociología, desde Durkheim y Mauss hasta Lévi-Strauss)^. En cuarto lugar, la específica forma de «racionalidad» que ha caracterizado a la cultura moderna no surgió como una negación sino como una transformación interna de la religión judeo-cristiana (como han señalado, desde diferentes perspectivas, Max Weber, Louis Dumont, Karl Lôwith y David F. Noble)^. En quinto lugar, las creencias y prácticas religiosas tradicionales no han desaparecido en la época moderna, sino que siguen vigentes en amplios sectores de la población, junto con prácticas y formas de racionalidad secularizadas o desacralizadas; además, han aparecido nuevas formas de religiosidad que pueden ser consideradas como una «resacralización» de prácticas e ideas seculares^. Por último, la llamada «racionalidad» moderna no ha eliminado el dominio entre los seres humanos, ni tampoco les ha asegurado el dominio sobre la naturaleza, sino que ha engendrado nuevas y despiadadas formas de sumisión (como es el caso de los regímenes totalitarios), y ha provocado nuevos y terribles peligros (como es el caso de los peligros ecológicos). La teocracia ha sido sustituida por la tecnocracia, pero eso no significa que el ser humano esté ahora más orientado o menos desorientado que antes; significa que sus criterios de orientación son otros. ¿Habrá que concluir, entonces, que la tecnocracia moderna es la religión de nuestro tiempo, que el mito del progreso es el heredero del mito escatológico judeo-cristiano, y que «mientras no cambien los dioses, nada ha cambiado», como afirma Sánchez Ferlosio?^ ¿Habrá que pensar, como piensa García Calvo, que ser «ateo» no es tan fácil como creían Marx, Freud y Nietzsche, puesto que la creencia científica en un principio últi-El enigma de la religión 645 mo e inapelable de Realidad es equivalente a la creencia religiosa en una Divinidad última e inapelable?"^. ¿O habrá que pensar, por el contrario, que la religión no es una desviación enfermiza ni una fase infantil del pensamiento humano? Si esa enfermedad se da en todas las culturas y ese infantilismo persiste en todas las épocas, tal vez haya que preguntarse por qué los humanos no somos capaces de curarnos ni de madurar, por qué retorna en nosotros, una y otra vez, ese delirio infantil. Tal vez haya que considerar la religión no ya como una excepción sino como la regla, es decir, como una dimensión constitutiva de la sociedad humana, tal y como defendió Emile Durkheim. Pero, en tal caso, ya no puede ser interpretada de un modo meramente negativo, como el movimiento de alienación de la subjetividad humana; o, en todo caso, ese movimiento de negación tendrá que proporcionar al ser humano algún tipo de positividad, tendrá que permitirle adquirir una forma nueva o suplementaria de subjetividad; de modo que el ser humano no podrá ser comprendido como tal más que a partir de esta duplicación de sí mismo. Esto es lo que propone Durkheim, al recoger de su maestro, Fustel de Coulanges, la distinción ente lo sagrado y lo profano como dos dimensiones irreductibles y complementarias de la experiencia humana. Pero esto no significa que los análisis críticos de la religión pierdan todo su valor, sino que deben ser reinterprotados. Esos análisis nos han enseñado tres cosas muy importantes. Primero, que la religión tiene que ver con el pensamiento, con la necesidad «natural» que todo ser humano tiene de orientarse en el mundo. Podemos considerar que esta necesidad de orientación es «natural» en la medida en que el ser humano nace desorientado, es decir, en la medida en que cuenta con una escasa determinación genética de su conducta; y la «cultura» no es sino el conjunto de criterios de orientación que le permiten relacionarse con el resto de los seres naturales, con su propio cuerpo y con los otros semejantes a él; de modo que la religión tendría esta positiva y decisiva función «cultural» de orientar al ser humano en su relación (teórica y práctica) con el mundo. Lo que distingue al ser humano no es solamente que regula de forma colectiva su subsistencia, su reproducción y sus conflictos, que somete a reglas el hambre, el sexo y la violencia, sino que, para instituir y articular entre sí esas diversas reglas, se sirve de un lenguaje, más exactamente, de un pensamiento simbólico que comparte con otros y que le permite orientarse en el mundo, que le permite componer con ellos un mundo común, en fin, que le permite comprenderse y conducirse a sí mismo como un ser singular de ese mundo. Y esa es la función «cultural» que han cumplido todas las religiones. Por eso, no resulta posible separar la Antonio Campillo Meseguer idea de religión de la idea de cultura. Ésta es la tesis defendida por Thomas Luckmann en La religión invisible^. En una obra anterior, escrita con Peter L. Berger^, ambos habían mostrado que la «realidad» es construida socialmente mediante la elaboración de «universos simbólicos», y que son estos universos simbólicos los que permiten al ser humano orientarse en el mundo y adquirir una determinada conciencia de su propia singularidad. En La religión invisible, Luckmann da un paso más y considera que la religión es precisamente ese horizonte último de sentido, que permite al ser humano trascender su mera condición biológica o natural y constituirse como un ser social o cultural. Lejos de identificarla con alguna de sus diversas «formas sociales», Luckmann define la religión como una «condición antropológica» universal, como el distintivo más característico de la vida humana. Desde una perspectiva «materialista», Gustavo Bueno ha defendido una tesis análoga: la aparición de creencias y prácticas religiosas es el «criterio más sólido» para diferenciar a los humanos de los demás animales, por lo que es preciso «tomar a la religión como criterio que marca la transición del protohombre al hombre»^^. Una segunda enseñanza puede extraerse de los grandes críticos de la religión: por medio de la religión, el ser humano trata de trascender los límites de su humanidad, tanto los que le han sido «naturalmente» dados como aquellos otros que él mismo ha instituido por medio de las reglas «culturales». ¿Cómo se relaciona esto con lo anterior? Podría decirse que en toda «cultura» humana hay dos aspectos contradictorios entre sí: uno profano y otro sagrado. Por un lado, la cultura es el conjunto de procedimientos profanos o racionales (racionalidad técnica, racionalidad moral, racionalidad estratégica) por medio de los cuales el ser humano afirma su propia subjetividad frente a los otros seres (por la triple vía de la organización laboral, de las coerciones sociales y de las alianzas y rivalidades políticas); pero, por otro lado, esa subjetividad tan dolorosamente adquirida hace de él un esclavo de sus propias restricciones culturales. Por eso, el ser humano no puede dejar de negarse a sí mismo, no puede dejar de trascender sus propios límites, y no puede hacerlo sin relacionarse de un modo diferente -de un modo sagrado-con su propio cuerpo y con el resto de los seres, es decir, sin engendrar nuevas creaciones culturales, nuevas formas de relación social, que dislocan las reglas de su propia racionalidad y ponen en cuestión los límites de su propia humanidad. Esta es la tesis defendida por Bataille en su Teoría de là religión^^. Ahora bien, para hacer compatibles estos dos aspectos contradictorios de la experiencia humana, para que esta disociación no desoriente por completo al hombre, toda «cultura» tiende a componerlos entre sí, tiende El enigma de la religión a integrarlos en un conjunto único. Así se explica la tercera característica de la religión: ésta no se limita a trascender las reglas establecidas por los propios seres humanos en el triple dominio de la economía, el parentesco y la política, sino que simultáneamente viene a darles su más firme ñmdamento, su más inapelable «legitimidad». Lo sagrado no es sólo lo que se opone a lo profano sino también lo que le sirve de último fundamento «ideológico». Si la religión cumple una positiva y decisiva función «cultural» de orientación de la vida humana, es porque permite al ser humano pensar simultáneamente las dos caras de su propia humanidad. Por eso, no es de extrañar que la religión sea entendida a un tiempo como el movimiento que funda toda idea de Realidad (tal es la interpretación de García Calvo), y como el movimiento que la impugna radicalmente. Esta última es la definición de religión que nos ofrece Sánchez Ferlosio: «El rechazo del principio de realidad como criterio pertinente para dirimir acerca del bien y el mal del mundo», es decir, el rechazo de todo principio absoluto de orientación en el mundo. No le es esencial a la religión, como ya decían Durkheim y Weber, ni la creencia en dioses ni la esperanza en una vida bienaventurada tras la muerte. Desde este punto de vista, la religión es esencialmente subversiva y a un tiempo esencialmente afirmativa: es la afirmación más extrema del deseo humano de felicidad, es la voluntad insobornable de trascender todo límite, es el rechazo a aceptar justificación alguna para el mal del mundo, es la apuesta por la que el ser humano trata de transformar su propia condición y el estado de cosas del mundo, sin resignarse a acatar una identidad y una realidad dadas. Pero el propio Sánchez Ferlosio reconoce que este movimiento de subversión del principio de realidad se invierte y se integra, en las religiones históricamente constituidas, en un movimiento de restauración y reforzamiento de dicho principio: «El principio de realidad, expulsado del Templo por la puerta, ha vuelto a entrar, bajo el nombre de Voluntad de Dios, por la ventana»^^. Esto nos remite a la tensión irresoluble entre el hombre profano o utilitario y el hombre sagrado o soberano, descrita por Bataille. La humanidad, dice Bataille, no puede ser definida como un estado, sino como un proceso interminable. Y ese proceso está animado por un doble y contradictorio movimiento. Por un lado, el ser humano se afirma a sí nnsmo como un sujeto frente al objeto, como un sujeto frente a otros sujetos y como un «nosotros» frente a «los otros», es decir, por un triple movimiento de negación o de separación (con respecto al resto de los seres, pero también con respecto a sí mismo, a su propia animalidad inocente o preconsciente). Esto es lo que le permite constituirse como sujeto laborante. Antonio Campillo Meseguer parental y político, en una palabra, como ser profano. Pero aquello que ha sido negado por el ser profano no puede dejar de retornar a él una y otra vez. No retorna la animalidad en cuanto tal, sino una animalidad transfigurada, divinizada. En efecto, el ser humano no puede dejar de sentirse arrastrado o impulsado por un movimiento de dirección contraria, que le lleva a negarse a sí mismo, en cuanto subjetividad separada y segura de sí, y a cultivar una segunda forma de relación con el resto de los seres (y con su propio cuerpo), caracterizada por el contacto, la participación, la comunicación sagrada con ellos^^. Este doble movimiento, por el que el ser humano se afirma a sí mismo separándose del resto de los seres y se niega a sí mismo comunicándose con ellos, es lo que explica la esencial ambivalencia de lo sagrado. Lo sagrado es a un tiempo lo que aterroriza y lo que fascina, lo que amenaza con destruir el mundo de la racionalidad profana y lo que permite al hombre trascender ese mundo, superarlo o relativiziarlo. Por eso, la relación con lo sagrado exige toda una serie de reglas que limiten su aparición y a un tiempo la hagan posible. Estas reglas conciernen al modo de relacionarse con los animales, con las plantas, con los fenómenos físicos, con los objetos fabricados, con el propio cuerpo y sus manifestaciones fisiológicas, con las enfermedades, con los sueños, con el nacimiento, con la muerte, con las otras personas, con los sucesos imprevistos o extraordinarios. Todo ser y todo acaecer puede devenir sagrado (y, por tanto, benéfico o maléfico), y los humanos queremos saber exactamente qué o quién, cuándo y dónde, por qué y para qué. Ahora bien, esto no quiere decir que el campo de lo sagrado (con las reglas y relaciones que lo constituyen) se añada sin más al campo de lo profano (es decir, al triple campo de la economía, el parentesco y la polít]Lca)^*sino que lo recubre, lo invade y lo atraviesa por entero. Todo ser y todo acaecer tiene una doble faz, profana y sagrada, y toda relación con él adquiere esta misma ambivalencia. Por tanto, más que hablar de unas relaciones específicamente religiosas, tendríamos que hablar de la dimensión religiosa con la que se invisten todas las reglas y relaciones sociales (económicas, parentales y políticas). De hecho, la religión no sería sino el modo en que se componen entre sí lo sagrado y lo profano, en una sociedad determinada. Y a las diferentes sociedades les corresponderían formas religiosas igualmente diferentes. En resumen, la religión puede ser considerada como una dimensión universal de la vida humana, siempre y cuando la consideremos no como una cuarta forma de relación social (Junto al trabajo, el parentesco y la política), sino como aquello que articula esas tres dimensiones profanas de la vida humana, las invierte y las inviste con un sentido sagrado. La El enigma de la religión religión tendría, pues, una triple e inseparable función en toda cultura: la función de inversión de lo profano, la función de conjunción entre lo profano y lo sagrado, y, como consecuencia de lo anterior, la función de componer el mundo y de orientar al ser humano en él. Ahora bien, puesto que la economía, el parentesco y la política se han venido articulando entre sí de muy diferentes maneras según los tiempos y los lugares, y puesto que esas diferentes articulaciones han dado origen a cuatro diferentes tipos históricos de sociedad (tribal, estamental, capitalista y global), no es de extrañar que cada uno de estos tipos de sociedad haya contado también con un tipo particular de religión o de universo simbólico. En efecto, creo que es posible hablar de cuatro grandes tipos de religión: las religiones mitológicas, propias de las sociedades tribales; las religiones teológicas, que surgen con las sociedades estamentales; la religión tecnológica, que ha servido de legitimación a la moderna sociedad capitalista; y, por último, la religión ecológica, que puede llegar a convertirse en el nuevo universo simbólico de la naciente sociedad global. Pero estos cuatro tipos de religión no se sustituyen unos a otros, sino que más bien se superponen y se entretejen unos con otros. Así, la aparición de las religiones teológicas, habitualmente llamadas «religiones de salvación», «religiones universales» o «religiones» a secas, no hizo que desaparecieran sin más las religiones mitológicas, sino que éstas fueron reorganizadas por aquéllas, produciéndose entre ambas todo tipo de sincretismos. De manera análoga, la aparición de la moderna religión tecnológica en la Europa judeo-cristiana, y su posterior expansión al resto del mundo, no significó la desaparición de las grandes religiones teológicas, sino que éstas se vieron obligadas a reorganizarse y a combinarse de uno u otro modo con aquélla. De hecho, la religión tecnológica surgió del seno mismo de la religión judeo-cristiana, y ambas se expandieron juntas a medida que Europa extendía sus colonias por el resto del mundo. Finalmente, la religión ecológica ha surgido del propio interior de la religión tecnológica, como una especie de herejía renovadora y autocrítica, y al mismo tiempo ha retomado y reelaborado algunos aspectos de las religiones mitológicas y teológicas precedentes. Se equivocan, pues, quienes creen que el siglo XXI se va a caracterizar por una «guerra de culturas» o un «choque de civilizaciones» entre el mundo judeo-cristiano y el mundo árabe-musulmán, es decir, entre dos diferentes tipos de religión teológica, como si aún estuviéramos en la época de las cruzadas. El verdadero conflicto religioso de nuestro tiempo es el que enfrenta a la moderna religión tecnológica, hasta ahora imperante, y a la posmoderna religión ecológica, que ha surgido en las últimas dé-Antonio Campillo Meseguer cadas y que -si sigue el actual proceso de cambio social: crecimiento demográfico, desigualdad Norte-Sur, migraciones masivas, emancipación de las mujeres, multiplicación de los riesgos tecnológicamente inducidos, mundialización de las comunicaciones y de todas las relaciones socialespuede llegar a convertirse en la nueva religión de la humanidad^^. Génesis y apogeo de la ideología económica, Taurus, Madrid, 1982, y Ensayos sobre el individualismo. Una perspectiva antropológica sobre la ideología moderna. Alianza, Madrid, 1987; Karl Lôwith, El sentido de la historia. Implicaciones teológicas de la filosofía de la historia, Aguilar, Madrid, 1973; DAVID F. NOBLE, La religión de la tecnología. La divinidad del hombre y el espíritu de invención, Faidós, Barcelona, 1999. ^ RAFAEL DÍAZ-SALAZAR, SALVADOR GINER y FERNANDO VELASCO (eds.). Formas modernas de religión. Alianza, Madrid, 1994. ^ RAFAEL SÁNCHEZ FERLOSIO, Mientras no cambien los dioses, nada ha cambiado, AHanza, Madrid, 1986. "^ AGUSTÍN GARCÍA CALVO, «Sobre la realidad, o de las dificultades de ser ateo», en Lalia. Ensayos de estudio lingüístico de la sociedad, Madrid, Siglo XXI, 1973(reeditado en La venta del alma. Ensayos sobre Bataille, Gomares, Granada, 2001. ^^ Escribo estas últimas líneas pocos días después del 11 de septiembre de 2001, fecha del ataque suicida lanzado por un grupo de diecinueve terroristas islámicos -mediante el secuestro de cuatro aviones de pasajeros, uno de ellos estrellado cerca de Pittsburgh, antes de alcanzar su objetivo-contra las Torres Gemelas de Nueva York y contra El enigma de la religión el Pentágono de Washington, símbolos respectivos del poder económico y militar de la primera potencia mundial. En respuesta a este ataque brutal y espectacular, que ha causado miles de muertos y que ha sido visualizado en directo por millones de espectadores de todo el mundo, el gobierno de Estados Unidos ha solicitado la cooperación internacional, el apoyo militar de la OTAN y el amparo jurídico de la ONU, y al mismo tiempo ha puesto en marcha una gran operación antiterrorista denominada Justicia Infinita (y rebautizada luego como Libertad Duradera). Muchos comentaristas (tanto occidentales como orientales) han querido ver aquí un combate cultural y religioso entre el Occidente judeocristiano y el Oriente árabe-musulmán. En mi opinión, es un episodio más en la quiebra progresiva de la religión tecnológica, que hoy día tiene su máxima expresión en el prepotente poderío militar, económico y mediático de Estados Unidos. Bruscamente, los norteamericanos han descubierto la extrema vulnerabilidad de ese poderío, la necesidad de contar con la ayuda de todos los Estados del mundo y los compromisos internacionales a los que esa ajaida les obliga. Pero lo que está socavando desde hace tiempo la creencia en la invulnerabilidad del poderío estadounidense -y en la religión tecnológica que le sirve de sustento-no son los grupos terroristas islámicos, defensores de una religión teológica premoderna que se resiste a modernizarse, sino las numerosas organizaciones civiles «no gubernamentales» y «sin fronteras» que han proliferado en todo el mundo durante las tres últimas décadas. Estas formas post modernas de fraternidad religiosa están luchando -de manera pacífica pero muy activa-no contra la «globalización», como suele decirse, sino todo lo contrario: por una verdadera civilización global, fundada en los nuevos valores sagrados del cosmopolitismo ecológico.;
del hombre después del fracaso del idealismo absoluto y de sus secuelas. Se trata de un tiempo que ha sido comparado con justicia al de una «segunda inocencia», donde importa esencialmente afrontar en toda su amplitud y seriedad el problema del mal y la posibilidad de una esperanza realmente dirigida a la salvación de Dios, y no a cualquier objetivo intramundano. Tratar de la cuestión de Dios es siempre el camino más derecho para ir al fondo del problema de la realidad sin detenerse en lo secundario y sin dar rodeos inútiles, porque no es ni puede ser el ejercicio de un pensar como cualquier otro, sino el dificilísimo intento explícito de igualarse en la teoría a la tensión existencial suprema. Siempre me ha atraído el encanto de aquella declaración de Simone Weil en la que recordaba su adolescencia: aquel tiempo en que, abrumada por el peligro extraordinario de resolver mal la cuestión de Dios, se decía a sí misma que lo único sensato era evitar su planteamiento. Constantemente he asociado esta advertencia con aquel dicho de luz y amor de Juan de la Cruz en que el santo se burla de (y se apena por) aquellos tantos que querrían que Dios no les costase «mas que hablar, y aun eso mal». Y es que, ¿qué significa eso de igualar con el pensamiento la tensión existencial suprema? Si se filosofa sobre Dios, no es en absoluto obligatoria partir de que lo que ha de hacerse es analizar los dos clásicos problemas (la existencia y 666 Miguel García Baró la esencia de Dios) en un modo que haga abstracción de las religiones concretas, bien para situarse del todo al margen de ellas, o bien para elevarse por encima de todas ellas. No hay que prejuzgar que existan espacios al margen o por encima de la existencia religiosa, precisamente reservados para este extraño explorador de lo divino que puede ser el filósofo. Lo que en cambio sí dice, desde luego, la palabra «filosofía» es que en ella se trata de remontar a una lucidez sobre las raíces de toda otra lucidez que no es el estado corriente de nuestra vida. Quienes creemos por experiencia (claro que experiencia deficiente) en la realidad indudable de la filosofía, admitimos que pertenece a nuestra esencia el torpor de la estupidez, la imposibilidad de mantener realmente tensada la vida y despierta para todas sus posibilidades de energía. Reconocemos que aspiramos a vivir una existencia en la que se haya conseguido volver habitual un estado que, por desgracia, no nos es inmediatamente natural, y para el cual resulta muy difícil evitar las metáforas que aluden a la luz y la vigilia. Como si el estado en el que nos encontramos más habitualmente fuera el de ignorar nuestra situación auténtica. Los aspirantes a la filosofía no podemos desconectar el factor lucidez de la representación que nos hacemos del estado de suprema tensión existencial, sólo desde el cual puede ser Dios o el Misterio nuestro referente intencional (en lo que, por cierto, estamos de acuerdo con cualquier hombre religioso). Y, por cierto, esa tensión suprema puede muy bien consistir en hallar activísimamente el acceso a una serenidad, a una pasividad absolutamente hiperbólica. No hay, pues, que partir de la idea de que filosofar sobre Dios debe consistir, en primer lugar, en olvidarse de las religiones, dando por entendido que no hay religión histórica concreta que no sea una aproximación errónea a su peculiar objeto. ¿Es que sólo se ha debido a los movimientos peculiares de las ideas el hecho de que esté finalizando la edad que ha confiado en la inocencia y la suficiencia de la razón para emancipar al hombre del mal? Las convulsiones y las desesperanzas del final de la modernidad están ligadas a que han sucedido muchos de aquellos acontecimientos que eran la consecuencia de los principios modernos y a que se tiene la certeza de que estas consecuencias son de hecho fatales para sus lejanos principios, de tan justa e inocente apariencia. No es precisamente que la historia del siglo que ha terminado se limite a una aséptica reductio ad absurdum de sus premisas culturales: más bien se trata de una horrenda reductio ad malum, Claro está que el mal (el sufrimiento, la culpa) es el auténtico absurdo; y es enormemente probable que todas las grandes crisis entre épocas históricas hayan ocurrido según este mismo esquema de la reductio ad malum. ¿No hemos ganado así alguna verosimilitud acerca de que la vieja filosofía pueda ser, como sostenía entre guerras Rosenzweig, más bien un tósigo que nos impide vivir valientemente en el gran día de Dios, suficientemente sensibles tanto para el mal como, por ello mismo, para los misterios de bondad de la relación interpersonal? A través de la desgracia y la vergüenza, ¿no podemos empezar a pensar que nuestra historia arriba ahora a una suerte de segunda inocencia, en la que no sólo cabe lo que por tal entendía estrictamente Nietzsche (o sea, el ultrahombre que ha atravesado la consumación del nihilismo, una vez muerto Dios y sepultado su terrible cadáver), sino también, como escribió hace pocos años Schillebeeckx, la era post-crítica de las religiones, en la que podemos de nuevo caminar con Dios por el Jardín como con el Cercano en quien confiamos y que es nuestro Familiar? ¿Qué aspecto tiene para la filosofía este paisaje que quizá vislumbramos ya? Naturalmente, toda prevención será poca contra el más evidente riesgo que toma sobre sí aquel que se ve llevado de alguna manera al juicio de la historia inmediata: el peligro de que sus limitaciones lo conduzcan de regreso a algo que él ignora que ya ha sido probado hasta el fondo y hallado falto. En toda crisis de final de época revive el recurso de que ya antes existió lo que nos tiene que servir de modelo para salir adelante. En ningún momento como en el momento de la crisis cobra tanta vida, incluso, el espejismo de que se ha dejado tras sí, dentro mismo de la historia, el arquetipo de todas las épocas, irrecuperable por ninguna. Por otra parte, la audacia de un pensamiento que se lanza hacia lo futuro con máxima conciencia de todo el pasado se trunca si no realiza su esfuerzo a la vez en todas las vertientes del conocimiento, mutatis mutandis. En la actualidad, esto significa, sobre todo, que los cultivadores de las ciencias positivas deben conseguir entender sus actividades no sólo a la luz de las discusiones lógicas y sociológicas de la filosofía contemporánea de la ciencia (lo cual ya sería un progreso notabilísimo respecto de lo que de hecho sucede), sino que no pueden mantenerse despectiva o ignorantemente al margen del apasionante camino recorrido por los saberes filosóficos, humanos y teológicos desde la crítica kantiana hasta el presente. Además de que sea ridicula la muy extendida admiración por las ciencias duras como si fueran oráculos divinos, en la comprensión crítica de sí mismo por parte del científico particular se juega un capítulo decisivo del equilibrio y el progreso de toda la cultura de nuestra época. 4a La edad moderna se cifra en el proyecto de la total autoliberación del hombre por el hombre mismo. ¿Quién podrá negar que la historia debía, necesitaba conocer una fase como la edad moderna (o sea: el proyecto de total liberación del hombre por el hombre mismo) y que debía además experimentar hasta el final las posibilidades de semejante proyecto? El racionalismo hacía coincidir la autoliberación humana con el universal imperio de la razón calculante intemporal e inespacial, bajo la cual habían de someterse no sólo las múltiples confesiones cristianas de la Europa dividida por las guerras de religión, sino también toda la variedad de las culturas en cuyo contacto se estaba ampliando el horizonte histórico de la cristiandad. Este sometimiento ha supuesto con firecuencia el aplastamiento de la variedad, y ha repercutido en el cristianismo, no sólo purificándolo, sino también volatilizándolo. El hombre es en este programa simultáneamente el sujeto y el objeto de la acción emancipadora. El supuesto básico es que el ideal que hay que realizar, e incluso el poder eficaz para llevarlo a cabo, estén desde un comienzo en quien emprende viaje. Tal ideal y tal poder se dejan comprender en un solo término: se trata de la plena identidad del hombre consigo mismo, o sea, del logro perfecto de su destino, de la liberación de toda enajenación de su ser, de toda (auto)alienación. El hombre en quien comienza el proceso de emancipación se compone a la vez de humanidad que debe ser superada (los idola baconianos) y humanidad arquetípica o auténtica, o sea, definición ideal, vocación inalienable, que es a un mismo tiempo causa final, eficiente y ejemplar de la autohumanización o autoliberación. Si es verdad que Kant hizo entrar al hombre moderno en la plenitud de su finitud, sólo fue posible porque, dicho en la lengua de Espinosa, creyó poder probar que ni el Pensamiento ni la Extensión son atributos infinitos de la Sustancia Infinitamente Infinita. Pero también y al mismo tiempo porque su crítica consiguió reunir la Vida y la Razón, a las que Hume había declarado en conflicto irresoluble. Y ya que la Razón no es Atributo de la Sustancia, tampoco le es posible al idealismo crítico declarar absoluta la poderosidad de la Vida irracional, del Deseo, del impulso, el instinto y la pasión. El idealismo kantiano es a un tiempo crítica de la teología racionalista en cualquiera de sus formas (teísta, deísta, ateísta y panteísta) y crítica del vitalismo empirista. Ahora bien, el sujeto que realiza esta crítica es ante todo la razón finita, de modo que a ésta compete el papel de principio de la integración de la finitud toda del hombre. Y no es sólo razón teo-rética sino, más radicalmente, razón práctica. El destino del hombre no es trascendente, sino finito; pero ello no afloja la tensión en que ha de consistir la historia de la autoliberación hu-¿Dios problemático? 669 mana, sino que pretende conducirla a su máximo. Si el ideal se traslada a lo Más Allá, el núcleo del esfiíerzo se convierte en un antiesñierzo: es el quietismo, el místico fatalismo, que realmente consiste en abandonarse a lo no-humano, o sea, en dejar del todo a un lado el proyecto de autoemancipación. Si todas las posibilidades del ser del hombre son finitas, abandonarse en lo no humano tiene que ser cosa absolutamente diferente de ponerse en las manos de Dios: sólo será en realidad descender de la condición humana y hacerse uno mismo el esclavo de cuanto de animal y de muerto se oculta en las zonas de tiniebla del hombre empírico y necesitado de liberación. Además, el idealismo crítico lleva a máxima tensión real la historia de la autoliberación, porque en él el ideal de la autohumanización queda siendo para siempre un ideal. El hombre empírico, o sea, el hombre concreto, es, además de razón finita, también naturaleza, sensibilidad, pasividad del placer y el dolor; y, sobre todo, ha dado entrada, como resorte de su acción, a una máxima o principio práctico que ya siempre concede la palabra a las inclinaciones egoístas y no deja que hable pura y sola la razón. La adopción de esta máxima, por cuya virtud es siempre trabajoso para el hombre dejar que sea el santo respeto a la ley moral el solo fundamento de determinación de su voluntad, es el pecado de origen del hombre. De hecho, la tensión moral de la historia es tanta gracias a que ningún hombre llega a conocerse éticamente a sí mismo tal y como es. Este velo de ignorancia que nada puede conseguir que levantemos, nos deja en la sospecha de si no actuaremos siempre movidos por el egoísmo, pero también nos impide desesperar, al mismo tiempo que nos impide jactarnos de que la filosofía de la historia tenga estatuto de ciencia. Y este obstáculo es en realidad un elemento de salud fundamental, que previene contra la fanática certeza de estar realizando, sin duda, el bien, pese a los dolores y la sangre de la revolución que comporta tanta bondad. La autoliberación es, pues, en la perspectiva del idealismo crítico, una infinita tarea desinteresada, un deber infinito para el hombre, quien, sin embargo, conoce que respetando la santidad de este deber no rinde culto a ninguna fuerza inferior, maligna y regresiva, sino a la humanidad pura misma, o sea: a la libertad finita (autónoma, sí, pero ciudadana del reino de los fines o mundo inteligible, y no cabeza de este reino). Ahora bien, esta visión del ser del hombre ciudadano a la vez del reino de la naturaleza y del reino de la libertad, es evidente que exige que el tiempo no se conciba primordialmente en los términos en que lo define la mecánica universal de la ciencia física de la naturaleza. Por mucho qu^ la tarea de la incesante lucha de la razón contra la «inclinación» no Miguel García Baró sea un espectáculo al que podamos asistir directamente en la conciencia, ya que la conciencia empírica es parte de la naturaleza, esa tarea, esa tensión nos impone la necesidad de pensar la historia y su temporalidad en términos de historia trascendental de la libertad. Si, como la Estética transcendental propone, el tiempo sólo perteneciera a la finitud «empírica», también sería sólo una cuestión «empírica» la tensión hacia el ideal. Se necesita, pues, pensar con más proñmdidad la unidad de la subjetividad finita. No cabe escindirla en «empírica» y «trascendental», si es verdad que la razón pura es, al tiempo, práctica. De aquí que el idealismo crítico absoluto de Fichte sea en su esencia «crítica de toda revelación» y, por fin, fimdamento de toda revolución. Sólo que mantiene el término de idealismo «crítico» para aludir precisamente a la diferencia entre Dios y la finitud, y así condena al nihilismo todo el saber, dado que, en el fondo, el «saber absoluto» únicamente se puede entender a sí mismo como automanifestación y autorrealización de la finitud, como destino o ser del hombre. La tarea no estará terminada mientras quede alguna fisura entre la historia trascendental y la historia empírica. La subjetividad finita en vías de autoliberación no puede conformarse hasta que llega a pensar como integrantes de su empresa (de la Historia de la Libertad) todos los «fenómenos». La historia empírica, la naturaleza, cada instante y cada cosa y cada idea, cada alegría y cada dolor, cada proyecto y cada vida y cada muerte integran la Historia, la Autoconsumación del Espíritu, la Autoliberación. No cabe tomarse en serio con radicalidad absoluta esta historia en tanto se pretenda que el idealismo absoluto sea crítico en el sentido de finito. La última distinción que debe ser abolida es la que el Saber Absoluto trazaba entre la Historia y Dios. Semejante «reserva escatológica» impregna de arbitrariedad a la misión de la Ilustración moderna y de escepticismo a la filosofía que la fundamenta. La Historia es Dios en devenir. No otro es el significado real de la Encarnación de Dios. La filosofía cristiana (hegeliana) deja definitivamente atrás la Antigüedad y la Edad Media cuando por fin piensa la Encarnación de Dios en unidad con la humanización del hombre. ¿Cómo pudo, entonces, ocurrir que esta culminación de la modernidad comportara a la larga como secuelas la guerra y la catástrofe y, en definitiva, la diseminación del sentido? El pensamiento contemporáneo y, en general, la Edad Contemporánea, el largo final de la modernidad, pueden entenderse, sin grave injusticia, como el conjunto de los esfuerzos por ser y pensar más allá de Hegel o contra Hegel (o sea, suficientemente al margen de Hegel). La clave de estos esfuerzos es, a mi entender, la tesis central de la obra multiforme de Kierkegaard: que la salvación no puede ser la obra del hombre. Que la autoliberación tiene una condición decisiva: la de que su motor sea previamente liberado él mismo, e incluso mucho más: liberado de sí mismo. Kierkegaard situaba, para ello, en el primer plano la pecaminosidad de la libertad concreta humana o del ser hombre en tanto que tal, y la destacaba con el pensamiento de la trascendencia de la «existencia religiosa» respecto del mismo ideal de la razón pura práctica (el «estadio ético»). La actualidad del problema al que remite el término «Dios» es, pues, vista a esta luz, la que posee la cuestión capital de la historia en el presente: el replanteamiento de las condiciones bajo las que está el proyecto de la «autoliberación del hombre». Me atrevo a sostener la tesis de que «Dios» significa primordialmente hoy aquello que libera de sí misma a la libertad creativa del hombre hasta constituirla, por ello, en auténtica libertad (finita). De aquí que, en uno de sus aspectos, la actualidad filosófica de Dios coincida con la que tiene la mutación verdaderamente contemporánea del concepto y la tarea de la filosofía -y, con él, de los conceptos y las tareas de la «teología», las «ciencias», el arte y, en consecuencia, absolutamente todos los componentes de la realidad en su más amplio sentido posible-. Desde luego, el concepto de la religión está también implicado en esta transformación propiamente histórica, y ello condiciona la perspectiva en que se entiende adecuadamente la nueva época como momento dominado por el fenómeno cultural del diálogo universal de las religiones -y los ateísmos y los agnosticismos-. La importancia absoluta del judeo-cristianismo radica en el hecho de que es él quien ha enseñado al hombre explícitamente a adorar y a pensar a Dios como aquello que libera de sí misma a la libertad del hombre. No parece que sean posibles más que dos alternativas: o autoliberación o autoenajenación* Y realmente, si no hubiera más, se trataría de un dilema tétrico, cuyas dos ramas conducen a la misma desesperación. Si se manifiesta irracional la exacerbación del proyecto moderno, hay que ver claramente que tampoco podrá hacerse racional por ninguna vía la recaída en la enajenación pura. Si es la verdad la que encuentra los Kmites críticos, la dialéctica de la Ilustración, sólo un suplemento de verdad podrá conducir más allá de lo criticado. Sólo la verdad de la edad moderna puede superar definitivamente a la edad moderna misma. En general, la auténtica historia es, sobre todo, la verdad del tiempo que ella «deja atrás». Pues bien, la fórmula que habla de la liberación de la libertad humana respecto de sí misma, muy lejos de significar la condena de la libertad y la razón finitas, es el anuncio de su triunfo. ¿Cómo nos haremos con alguna concepción no inapropiada acerca de las realidades fundamentales que hay que pensar de nuevo: el tiempo, la Miguel García Baró historia, la libertad, la finitud, la razón, la verdad, la identidad humana, la alteridad divina, lo absoluto divino? Si no lo conseguimos, ¿cómo defender la significatividad de expresiones tales como «ser sí mismo sin pensarse centro absoluto de la realidad»; «ser cada vez más sí mismo por el procedimiento de que otro libere de sí»; una «segunda inocencia»...? Es preciso aferrarse, sobre todo, a este pensamiento: la libertad finita únicamente puede ser liberada de sus fantasmas y sus perversiones, sólo puede ser devuelta libremente a sí misma como tal libertad finita, por una alteridad que, lejos de oponérsele enajenándola, la enseñe, por así decir, desde su centro mismo la verdad de su identidad. La libertad finita tiene que ser libertada para sí y colocada sobre su verdad propia únicamente por la virtud de una alteridad que sea el fundamento de su verdad y su ser, el centro libérrimo de su finitud libre. Reflexionemos de nuevo sobre la naturaleza de las crisis de la historia. Hemos dicho ya que en ellas lo que esencialmente sucede es que el mal, esto es, la experiencia concreta de la historia como mal, refuta la presunta verdad, al menos (o sobre todo) como verdad religiosa, o sea, como verdad referida a lo absoluto. En primer lugar, esta afirmación significa que la verdad religiosa va ligada con el concepto del bien. No que toda verdad haya de ser consoladora y, en este sentido, benéfica; sino que si la verdad de la religión es tal, entonces es que el bien existe. Más aún: si es verdadera la religión, entonces es que el bien absoluto existe. Al bien absoluto llama el hombre, habitualmente, salvación. Esta no es sino el bien absoluto que afecta al hombre concreto en la historia, en la naturaleza, en la sociedad a las que pertenece o en medio de las cuales existe. Al parecer, la salvación como verdad de la religión no consiente una definición perenne que sea algo más que una mera definición formal. Pero este fenómeno se debe positivamente a que la salvación no se agota en lo que un hombre concreto se representa como tal, por más que, indudablemente, tenga que tener que ver con esta su representación precaria, limitada, ambigua. La salvación-que-viene-de-Dios (así escribe Edward Schillebeeckx) imprescindiblemente debe hallarse en algo así como la prolongación de la imagen o del concepto de ella que posea el hombre al que se dirige. Sólo en tal caso puede ser recibida, escuchada, vivida como tal salvación-de-Dios. Pero en la prolongación, y nunca ya contenida en esa imagen o en ese concepto (que, en caso contrario, se vuelven verdaderos ídolos, como Rosenzweig o Marion o Levinas han dicho repetidamente). De este modo, la salvación-de-Dios está vinculada con la interpretación concreta que de sí mismo, en el interior de la naturaleza, la historia y la sociedad, tiene el hombre {un hombre, pero en tanto que miembro de estos conjuntos socio-culturales y naturales; y, por descontado, casi siempre, quizá, incluso, siempre se trate de una autocomprensión no explícita ni articulada lingüísticamente). Pero la verdad de la religión sólo puede ser tal si, precisamente, la salvación en que consiste desborda esencialmente de las fronteras a sabiendas estrechas de la esperanza humana de salvación. El Dios de las religiones, el Misterio religioso no existe sino en la medida en que lo absoluto de su bondad como salvación del hombre (y del conjunto universal de la naturaleza, la sociedad y la historia) trasciende todos los proyectos posibles del hombre en orden a la mejora radical de todas las cosas. La perpetua paz de Dios tiene por principio que redoblar hasta lo infinito, hasta lo indecible, la paz perpetua que quizá un día el hombre -obedeciendo en esto, justamente, la voluntad eterna de Dios-consiga establecer en y con el Universo. Pero -tercer momento-la hermenéutica de la verdad religiosa necesita, entonces, de un fundamento ulterior. Si la salvación-de-Dios sólo es anticipable imperfectamente en las experiencias concretas de máxima dicha y, sobre todo, en las esperanzas que, encendidas por esas experiencias, iluminan de alguna manera al creyente la ruta insondable de la trascendencia, ello depende, sin duda, de la masiva experiencia del mal en que consiste, en definitiva, la estancia (constante y esencial) del hombre en la finitud, en el mundo, en lo no-divino. No quiero decir con esto que la experiencia del mal esté siempre y por naturaleza consumada en todo hombre. Lo cierto es lo contrario. Pero lo que sucede es que en la «anticipación» del mal excesivo que es la concreta vivencia de los males de la vida está ya enteramente presente la esencia de la experiencia del mal («el dolor»), mientras que en las experiencias prolépticas del bien lo único que nos cabe poseer de la esencia de la experiencia del bien («la salvación») es sólo, justamente, una anticipación lejana de ella. La «experiencia contrastante del mal» es la base de la hermenéutica que se abre a la verdad de las religiones. La esencia dada ya del dolor posee varios otros componentes, pero uno de ellos es el «veto absoluto» (la expresión es de Schillebeeckx) que suscita en quien es su sujeto. Del mal presente hay que huir. Mejor dicho: el absurdo de negatividad que vivo en el dolor no sólo no debería existir, no tiene derecho a existir, sino que me compromete a combatirlo sin cuartel. Si el hombre estuviera abandonado a sus propias fuerzas, este compromiso sería el exclusivo sentido Miguel García Baró supremo de la existencia; pero, desde luego, un desesperado sentido, en la medida en que el dolor no es un asaltante exterior del hombre, sino un elemento omnipresente, un componente «esencial» de la experiencia humana: aquel que precisamente constituye su finitud. (¿O es que la finitud es sólo la limitación espacio-temporal y causal de la existencia? No, sino que es la condición insuperable de estar sumido el hombre en la experiencia de que la salvación está ausente: de que Dios aún no «reina», como dice la metáfora apocalíptica dominante del anuncio evangélico de Jesús de Nazaret). Pero lo que es capital para la «filosofía de la religión» en estos hechos es que conozco el mal y el dolor y de su experiencia constante -poco más o menos en carne viva y más o menos combinada con la anticipación del bien-brota una respuesta también constante (aunque susceptible de olvido y preterición): el absoluto veto al mal, que no significa sólo la huida de él, sino que, por contener la certeza de que no debiera existir, también comporta la exigencia de aniquilarlo. Para lo cual no tiene el hombre que considerarse limitado a sus propias fuerzas, que son demasiado exiguas para la empresa (ya que él es de suyo ser afectado por el mal, y no inocencia, justicia, chispa divina en un mundo de mal ajeno e él). El reconocimiento auténtico de la finitud, dolorosidad o no-divinidad del ser del hombre en el conjunto de la sociedad, la naturaleza y la historia hace de la «experiencia contrastante del mal» y el «veto absoluto» que implica el origen mismo del clamor por la salvación-que-viene-de-Dios (y prolonga, sin embargo, el furioso esfuerzo heroico del hombre por «salvar» él mismo este mundo). El mal debe ser aniquilado. Exige en su contra todas mis fuerzas. Pero estas fuerzas mías participan del poder de su enemigo. He aquí entonces que en el centro de mi ser se eleva un clamor que atraviesa mi vida, la historia, toda la naturaleza, las culturas todas, para ir a unirse en lo oscuro con aquel Bien Absoluto que me lo hace lanzar. Habla por esto Levinas de una más que arcaica an-árquica alianza entre el Bien y el hombre. Este clamor mío es mi centro y, a la vez, no soy simplemente yo ni es sólo cosa de «este mundo». Pero, en la medida en que también eso soy yo, es una exigencia precaria, ambigua, que se deja empañar y extraviar en cuanto, por decirlo imaginativamente, se aleja de su centro para internarse en la maleza de mi libertad, mi finitud, mi conocimiento, mi voluntad y mis esperanzas y valoraciones. Anterior al mal y al dolor es este centro vulnerable o sensible -y, a la vez, invulnerable-. Sólo porque el hombre experimenta el mal en su maldad, sólo porque la existencia del hombre es (también) «dolor» esencial, sabemos de este espíritu que exige un futuro de Dios para todas las co-sas que sufren. El mal es el contraste, el azogue en el espejo. En la superficie radiante de éste no está sólo mi rostro, sino la luz por la que el azogue y mi rostro cumplen en el espejo sus funciones. En todo caso, por la realidad certísima del mal -que amenaza de continuo con crecer y cambiar su cualidad hasta el sufrimiento insoportabledescubrimos que no somos redentores de nosotros mismos ni de nadie ni nada, pero que nuestro ser es un no al mal que salta infinitamente más allá de las fronteras del mundo. Y que, por esto mismo, menos que nada consiente la cosificación o mundanización de Dios, en el sentido de su plena y definitiva identificación con cualquier entidad, estructura, proceso o historia intramundanos. Dios no es jamás ni esto ni aquello, porque el mal continúa también allí -es decir, porque la salvación absoluta no reina todavía-. Toda experiencia de bien necesita siempre ser enmendada y traspasada. Necesita ser descubierta como, simultáneamente, dolor en algún modo, para quedar así abierta siempre, cada vez más, a la Presencia Divina Absoluta en cuanto Futuro Absoluto. Toda imagen de Dios tiene que ser superada; toda reificación de la salvación tiene que ser reformada, o, mejor, debe constantemente ser purificada. Porque no es que esté infinitamente separada de Dios, sino, más bien, está soportada en su ser-creador justamente en la medida en que está abierta al Futuro Absoluto de Dios, justamente en la medida en que es un signo prof ético de la venida del Reino de Dios, y no únicamente mal sin sentido. Pero el mayor de los signos es aquel que a todos los demás los interpreta como tales: el hombre concreto, por cuanto él es experiencia del mal contrastante y, por lo mismo, posee en su centro la reclamación de la existencia patente de Dios. El ya ahora del siempre todavía no de la salvación-de-Dios es el hombre mismo en su centro invulnerable. Y en este sentido la imagen única adecuada de Dios en el hombre es este centro absoluto, interior intimo meo, superior supremo meo. Adecuada, pero no trasladable a copia más clara; adecuada, pero sólo imagen. No el hombre mismo, sino sólo la luz del bien y el futuro: esto en su ápice y su núcleo que hace del hombre «duración real», o sea: apertura al Futuro Absoluto de la salvación. Toda la vida del conocimiento y de la acción, de la creación y el sueño es para el hombre su personal relato de lo absoluto, su experiencia de los altos y los bajos de la esperanza y la decepción, la emoción y la resignación. Pero todo esto no hace tampoco de los males magnitudes constantes u objetos inequívocos en la experiencia. No menos que el bien, el mal contrastante está sometido a la interpretación humana. Paralela a la hermenéutica del bien religioso es la hermenéutica del mal.
¿Qué sentido tiene hablar de Dios hoy? ¿Cómo hablar de Dios en este mundo posmoderno? ¿Cómo vivir frente a estos retos diferentes la fidelidad al mundo presente y la fidelidad al mundo que tiene que venir? El presente trabajo intenta dar respuesta a estos interrogantes en la «aldea global» que es nuestro mundo vinculado entre sí por los juegos del poder y por la red de las comunicaciones, Dos grandes contextos se dibujan y caracterizan a la actual situación histórica del cristianismo. «La Iglesia no se halla allí donde fracasa la capacidad humana, sino en el medio de la aldea»: estas palabras de Dietrich Bonhoeffer, escritas en un tiempo en que la conciencia creyente parecía experimentar el des-Bruno Forte 678 tierro y el silencio de Dios en la tragedia de la guerra y en los horrores de la Shoah, esbozan un programa, al que es justo atenerse también en otras circunstancias de la historia, si es que queremos dar una respuesta responsable a la pregunta: ¿Qué sentido tiene hablar de Dios hoyl La «aldea global», que es nuestro mundo vinculado entre sí por los juegos del poder y por la red de las comunicaciones, se muestra compleja a quien quiera proponer la palabra de la fe en medio de ella: dos grandes contextos se dibujan y caracterizan a la actual situación histórica del cristianismo. ¿Cómo hablar de Dios en este mundo post-moderno? ¿Cómo vivir frente a estos retos diferentes la fidelidad al mundo presente y la fidelidad al mundo que tiene que venir? 1. La teología en el mundo posmoderno a) La parábola del tiempo moderno puede describirse como el proceso del nacimiento y desarrollo del proyecto de emancipación de la razón ilustrada, a través de la dialéctica de la Ilustración, hasta el perfilarse de lo posmoderno. «Emancipación» es la palabra clave que caracteriza a toda la época que está bajo el signo de la Ilustración: ella expresa el sueño de la razón moderna de hacer que el hombre sea finalmente adulto, libre de hipotecas ultramundanas, capaz de querer y de ser objeto de su propia historia. En cuanto tal, la emancipación señala el proceso de autoliberación y de autoafirmación del hombre, tanto si se le toma individualmente como si se le entiende colectivamente en los dinamismos históricos del cambio revolucionario. En este sentido la celebración más alta del acto de la razón, que es la filosofía hegeliana, puede entenderse como la lectura refleja de la revolución francesa, como una especie de comentario especulativo de la transformación emancipatoria que se llevaba a cabo. Ya Kant, respondiendo a la pregunta: «¿Qué es la ilustración?», había afirmado: «La ilustración es la salida del hombre de su minoría de edad, que él ha hecho a sí mismo. La minoría de edad es la incapacidad de ser-virse del propio entendimiento sin la guía de otro. Y esta minoría de edad depende de sí mismo si su causa reside en la falta, no ya de inteligencia, sino de la decisión y del coraje de servirse de ella sin la guía de otro». «Sapere aude»: ¡ten la osadía de servirte de la razón! He aquí la divisa de la Ilustración, la fascinación y la grandeza del reto moderno: poner el mundo y la vida en manos del hombre, responsabilizar al sujeto personal y colectivo, provocándolo a que se haga libre y creador de su propia historia, para respirar a pleno pulmón el gusto por la veracidad y la crítica, es decir, por una libertad adulta y emancipada. En el aspecto teológico la empresa se ha traducido tanto en el rechazo de la imagen de un Dios émulo del hombre, como en la reducción de todo Absoluto al quedar aprisionado dentro de los horizontes mundanos. Quizás nadie como Friedrich Nietzsche haya sabido expresar la grandeza y el carácter trágico de esta empresa en el aforismo del hombre loco, que en pleno día encendía una linterna y echaba a correr por la plaza gritando sin cesar: «¡Busco a Dios! Como allí había muchos que no creían en Dios, su grito provocó la hilaridad. El loco se precipitó en medio de ellos y los traspasó con su mirada gritando: «¿Dónde se ha ido Dios? Yo os lo voy a decir: ¡Nosotros lo hemos matado! ¡Todos nosotros somos sus asesinos!... ¡Y somos nosotros quienes le hemos dado muerte! ¿Cómo nos consolaremos nosotros, asesinos entre los asesinos?» {La gaya ciencia, Aforismo 125). La razón, al absorber a Dios, ha ahogado dentro de sí toda posible alteridad. Todo límite le resulta insoportable, todo confín es para ella una provocación a la superación. La ideología, en todas sus formas teóricas así como en todas sus realizaciones prácticas, es la expresión de este hambre y sed de totalidad. La emancipación se convierte en totalitarismo; el sueño de la razón se queda en algo incompleto y frustrado, precisamente cuando parecía que podía celebrarse su cumplimiento; la Ilustración, maestra de la sospecha, se hace sospechosa a sí misma. La «dialéctica de la ilustración» es precisamente la denuncia de las presunciones y de los límites de la razón emancipadora. La crítica que se ha venido desarrollando podría recogerse en torno a las categorías de la culpa, de la muerte y del más allá. Si queda eliminado todo sujeto metahistórico, ¿quién tendrá la culpa de los fallos históricos? La defensa de los derechos soberanos de la razón emancipadora determina en ella la necesidad de crearse mecanismos de autojustificación; se señalan entonces otros sujetos sobre los cuales descargar la responsabilidad del fracaso, sujetos trascendentales -la naturaleza, el Espíritu con la necesidad de lo negativo requerida por su movimiento dialéctico, como sucede en la ideología burguesa-o sujetos históricamente determinables -los enemi-Bruno Forte gos del proletariado, los capitalistas, como sucede en el marxismo-. Si para unos la historia de los vencidos y el mal que devasta la tierra son el precio inevitable del desarrollo, la otra cara del proceso del Espíritu, para otros todo se debe a las culpas históricas de la burguesía. La ideología liberal del progreso, como la ideología marxista de la revolución, acaban ambas revelándose incapaces de una autocrítica liberadora; al buscar otros sujetos a los que imputar la historia de la culpa, para reservarse a sí mismas la historia del éxito, ponen de manifiesto los límites de la razón emancipadora, su incapacidad radical para conciliar las contradicciones de lo real. El sufidmiento de los vencidos denuncia cómo la historia de la emancipación puede resolverse, y de hecho se ha resuelto, demasiadas veces, en el triunfo de la violencia de los vencedores. Si firente al firacaso la razón moderna reacciona con la autojustificación, firente al compromiso del presente tiende a una lectura solar, sin sombras ni ausencias. En relación con esta desconfianza de la Ilustración firente a la noche, cuando «todas las vacas parecen negras» (Hegel), se perfila la exigencia de restituir al hombre la muerte; la conciencia ilustrada produce una «filosofía sin la muerte». La voluntad de totalidad se traduce en una especie de presencia plena que lo reduce todo a uno mismo y que asegura siempre una explicación razonada de la ausencia. Es verdad que el mal y la muerte constituyen una dificultad, pero esta dificultad vuelve a entrar en el orden como un momento negativo necesario, que no se opone a la vida del Espíritu, sino que constituye una etapa o un precio pagado a la causa de la revolución para el fiaturo de todos. En la lucidez omnicomprensiva del pensamiento emancipado se ha producido sin embargo un resquebrajamiento: se descubre la presencia inquietante de la «flor negra» (Hegel), metáfora de los espacios de realidad no aclarados por la presencia ni por la plenitud. Encontrar de nuevo el valor y la dignidad de la muerte, redescubrir el sentido de la interrupción y el peso de la ausencia significa ciertamente renunciar al sueño emancipador de totalidad, pero significa también respetar la verdad de la vida, con todas las interrupciones que se oponen a la pretensión ilustrada de un cumplimiento a toda costa. En este retorno de la muerte, la crítica a la Ilustración coincide con la que se dirige a todo sistema cerrado, presuntuosamente exhaustivo y completo, en favor de la realidad, en la que la noche, la quietud y el silencio no representan un papel menor que la luz del día, el movimiento o la palabra. Finalmente, el sentido del más allá revela el cerrazón de la razón frente a lo que es verdaderamente nuevo, extraño y sorprendente para nosotros. En la presunción de la totalidad no queda espacio para el futuro; el «domingo de la vida» de la ideología acaba siendo una especie de «viernes santo del porvenir»; donde se ha alcanzado el vértice, no queda espacio para un cumplimiento ulterior, no existe disponibilidad para el asombro de la novedad. A la Ilustración en su versión burguesa le falta la esperanza porque donde la posesión lo es todo, no queda espacio para el éxodo; en su versión revolucionaria le falta la fantasía, porque la dictadura del proletariado se convierte en una rendición ante el presente o, todo lo más, en una deducción del futuro a partir del mismo. La razón emancipadora saborea las cebollas de Egipto: «El verdadero destierro de Israel en Egipto consistió en que los hebreos habían aprendido a soportarlo» (Martin Buber). El aburrimiento se extiende sobre todas las cosas: «Es como en un eclipse parcial de sol: todo parece extrañamente gris, y los pájaros no cantan o no cantan igual. El ser trascendente es débil» (Ernst Bloch). b) Frente a la crisis de la Ilustración se perfila la incertidumbre de la condición posmoderna. Se advierte con nueva seriedad el peso de la pregunta de Holderlin: «¿De qué sirven los poetas en el tiempo de la pobreza?». Donde ha fracasado la razón totalizante, en el tiempo de una nueva pobreza respecto a la presunción de la posesión, se perfila la nostalgia de una palabra que evoque y no aprisione, que rompa el cerco de la presencia y abra al gusto y al valor de la ausencia. La totalidad cede su lugar al fragmento; la división y la separación parecen reinar en donde antes todo era orden y unidad; todo se hace fluido, discontinuo, interrumpido. Se da un adiós a las certezas para navegar hacia lo desconocido. Este adiós, este largo adiós es la condición posmoderna: es un tiempo de pensamiento débil, de aventuras de la diferencia, de crisis de la ideología. En su rechazo crítico de la Ilustración esta mentalidad no es muchas veces más que su forma invertida, un pensamiento de negación y de ruptura en donde aquella era pensamiento de afirmación y de conciliación; al conocimiento solar se le opone el amor a las tinieblas; al sentido de la posesión y de la consistencia, la «insoportable levedad del ser» (M. Kundera). Y es precisamente en este ser «antipensamiento» donde reside el riesgo de lo posmoderno de convertirse en una mera continuación dentro del signo de lo contrario de lo que intenta abandonar. La sed de totalidad de la razón emancipadora puede pasar a ser una nueva totalidad, la de lo negativo, que abarca todas las cosas. ¿Acaso el mismo nombre de posmoderno no esconde el peligro sutil, descrito admirablemente por aquella frase de Kundera: «La luz rojiza del atardecer lo ilumina todo con el hechizo de la nostalgia, incluso lo guillotina?» Por eso mismo se va dibujando en la búsqueda de lo posmodemo una nueva figura: el totalmente Otro. Se expresa así el límite infranqueable de la razón, eso de lo que ella no puede decir qué es, aunque no tiene más re-medio que reconocer que es. La única manera de escapar de la presunción de la razón moderna es confesar una alteridad que rompa el dominio omnicomprensivo del sujeto y se le ofrezca como origen sin origen y fin sin fin, Otro indeducible de todo cuanto está a nuestra disposición e imposible de resolver en todo lo que nos es conocido. De esta alteridad es huella «el rostro del otro» (Emmanuel Lévinas), que rompe con su sola presencia todo imperialismo del sujeto, para afirmar -en la desnudez de su ofirecimiento en unos rasgos a veces muy pobres e insignificantes-la dignidad y la consistencia de la diferencia, irreducible a la identidad. La percepción de la alteridad radical en la epifanía del rostro del otro puede interpretarse como descubrimiento de un principio de heteronomía: nos^desQibrimos llamados a consentir con una anterioridad que no fundamos nosotros, aun cuando podamos situarnos respecto a ella. Una metáfora poderosa de esta alteridad es el «Ángel necesario» (Massimo Cacciari): «Yo soy el Ángel de la realidad, vislumbrado un instante en el umbral... Yo soy el Ángel necesario de la tierra, porque el que me ve, ve de nuevo la tierra, libre de los cepos de la mente, dura, terca, y el que me escucha, escucha cómo se eleva su canto monótono con una líquida lentitud y cómo aflora en sílabas de agua» (W. Stevens). El Ángel es testigo del misterio en cuanto misterio, trasmite lo invisible en cuanto invisible, sin «traicionarlo» por los sentidos. Entonces es necesario luchar con el Ángel, para que la tierra y las cosas se nos confíen en su verdad profunda; y este luchar con lo inefable es ya invocación. Donde ésta falta, donde son mayores el rechazo y la presunción, no se da ningún éxodo y ningún adviento... c) En el medio de esta aldea posmoderna, salida de las aventuras de la emancipación oscilando entre el hechizo de una pura negatividad, herencia dialéctica de la ilustración, y el reconocimiento del Otro, es donde viene a situarse hoy la teología cristiana en el Norte del mundo, una teología que no es extraña a las vicisitudes que acabamos de describir. A una teología moderna, liberal y progresista, hechizada por la seducción del proyecto emancipatorio y dispuesta a identificar el evangelio de la liberación con el sueño de la emancipación, el giro dialéctico de Karl Barth ha opuesto precisamente un retorno a la «viva vox evangelii», a la narración santa de la salvación, en donde se realiza la llegada de Aquél que es totalmente Otro. Al riesgo presente en esta teología dialéctica de un «positivismo de la revelación», que salta simplemente sobre las exigencias de la subjetividad, el «giro antropológico» de la teología contemporánea ha opuesto el proyecto de un reflexión existencial, que apunta al encuentro entre el hombre vivo y el Dios vivo. Entre estas dos actitudes, cuyo mayor riesgo consiste respectivamente en celebrar la gloria de Dios a costa de la muerte del hombre o en celebrar la gloria del hombre a costa de la Hablar de Dios en la «aldea global».... muerte de Dios, la palabra de la fe ha buscado una síntesis superior: en el común rechazo del «Deus mortuus» de la razón liberal y del «Deus otiosus» de la escolástica decadente, la parábola del siglo XIX se ha ido abriendo a una teología de la narración y de la analogía, dirigida a evocar lo inefable en el respeto a su inefabilidad y al mismo tiempo a hacerse cargo de las limitaciones y de las esperanzas producidas por la razón moderna y por las aventuras de la diferencia. Respecto a la Ilustración, a esta teología le gustaría ofrecerse como un pensamiento débil, que renuncia en principio a la totalidad omnicomprensiva de un sistema, producido por la razón emancipadora; respecto a la posmodemidad afirma la necesidad del Presupuesto inefable, al que se acerca con temor y temblor en compañía de la tradición memorante-narrativa de la fe, y al que se abre según una escucha del adviento, que respeta la ulterioridad del Misterio. A esta teología, para que sea significativa y liberadora, no se le pide que lo diga todo o que lo explique todo; si lo hiciera, sería un producto más de la ideología moderna. Tampoco se le pide que calle, cayendo así en la insignificancia más completa. Se le pide que recuerde el Origen, haciendo memoria de él según las narraciones sagradas de la fe; se le pide que señale la Patria, vislumbrada en la promesa, pero no poseída aún; se le pide que inquiete al presente, denunciando sus ídolos, pero también las caídas en la negatividad sin esperanza. Se le pide que se mantenga, como debería mantenerse toda la Iglesia, en unión con el Crucificado, «el acontecimiento de la caída de los dioses» (Karl Rahner). Respecto a la sed de totalidad de la razón modema se le pide que pruebe ante todo la más breve definición de religión: «interrupción» (Johannes Baptist Metz). Frente a la nostalgia por el Otro, parece perfilarse la exigencia de una teología que narre, que hable de Dios contando el amor que nos ha manifestado en Jesucristo y que piense ese amor más grande con la discreción de la analogía; se trata de una teología fuertemente anti-ideológica que recuerde el proverbio hebreo: «El hombre piensa y Dios ríe», y que esté atenta por eso mismo a pensar sólo en lo que se necesita para suscitar en El una sonrisa... Teología desde el reverso de la historia a) La «aldea global» que es el mundo en que estamos puede observarse desde otro punto de vista, distinto del de la parábola del hombre adulto que ha producido el proceso de emancipación y que ha sido llevada por él a las contradicciones sin salida de la modernidad. Este otro punto de vista es el del pobre, el del oprimido. Frente a una historia enten-Bruno Forte dida como progreso, que margina y desprecia la historia de los vencidos, el reverso de la historia (Gustavo Gutiérrez) está cargado de la memoria de los oprimidos, borrada o reprimida demasiadas veces, de su presente de dolor, de lucha y de esperanza, del sueño de su futuro. El sujeto de esta otra historia es el otro: no ya el burgués que está tras la ideología liberal o tras la ideología de la revolución, sino el conjunto de las no-personas, las clases explotadas, las razas marginadas, las culturas oprimidas y despreciadas. Su interlocutor no es el espíritu moderno, ni la razón adulta, sino la enorme situación de miseria en que vive la mayor parte de la humanidad, los «subterráneos» del mundo, la suma infinita de historias de sufrimiento humano. En esos «bajos fondos», no menos que en el alto y agrietado edificio de la modernidad y de su larga cola que es la posmodernidad, es donde está llamada a situarse la teología cristiana. Y ello no con una decisión tomada en el despacho, en una especie de diálogo intelectual, sin compromisos y sin pasiones, sino estando dentro, en el corazón de esa historia, como acto segundo en relación con la primacía de lo vivido. La teología desde el reverso de la historia viene después de la mística y de la práctica del compartir: a Dios, en primer lugar, se le contempla al mismo tiempo que se pone en práctica su voluntad, su reino; solamente después se piensa en El. Las raíces profundas de esta teología desde el reverso de la historia se pueden encontrar en la gran mística española del «siglo de Oro» (Teresa de Jesús, Juan de la Cruz, Ignacio de Loyola). A través de la piedad popular, que valora el corazón, la intuición y el recurso a las formas sencillas, pero profundamente contemplativas, de oración repetitiva y litánica, a través de la devoción a la pasión del Señor, que se expresa en formas densas e impresionantes y que alimenta la capacidad de aceptar los sufrimientos en compañía con el Crucificado, a través del sentido de la lucha y de la fiesta, que fomenta los itinerarios de penitencia, de conversión y de compromiso, y las explosiones colectivas del gozo por la salvación dada y recibida, se deja vislumbrar un sentido profundo de la presencia y de la acción de Dios en todos los aspectos de la vida. En las raíces de la mejor teología en la praxis de liberación asoma entonces algo muy distinto de una tierra extraña y lejana para el alma cristiana; en profundidad está el encuentro con el Absoluto y con la historia que proclama el evangelio en Jesucristo y la asimilación de este encuentro, tal como se realizó en las grandes figuras de los espirituales españoles, que influyeron fuertemente en las vicisitudes de su tiempo, alimentando una búsqueda y un deseo de Dios, que no llevan fuera de la historia, sino a la brecha, no a la soledad de un intimismo egoísta, sino a la compañía de los pobres y de los crucificados de este mundo. b) Estas raíces, próximas y remotas, filtradas a través del grito y de la oración de los pobres, llegan a dar fruto bajo el impulso del anhelo inextinguible de justicia, del que está cargada la situación del «reverso de la historia». Va surgiendo una nueva conciencia de la fe: la pobreza no es un simple vicio que haya que curar con la piedad de un asistencialismo benévolo, ni se trata de un mero retraso que exija un réformisme, en donde el pobre no es más que objeto de una acción que baje de arriba. La pobreza es fruto del sistema injusto de dependencia que liga al centro y a la periferia del mundo: el pobre -el negro, el indio, la mujer, el humillado y el ofendido del sentimiento popular-es el hijo de Dios desfigurado. No basta con prestarles una asistencia según un modelo de desarrollo, proyectado y gestionado por otros a su medida y según sus intereses: la crisis del «desarrollismo», que había inspirado también las relaciones entre los países desarrollados y el llamado «tercer mundo», es un camino sin retorno. Se impone en toda la línea el análisis de las dependencias, suscitando una praxis compleja y diversificada, que pasa ante todo a través de la concienciación del pobre. El pobre se va haciendo sujeto de su propia historia; recupera la identidad de su memoria, que le hace percibir toda la inmensa dignidad de su dolor pasado, del dolor de los vencidos; lee con ojos nuevos el presente, descubriendo relaciones injustas de dependencia en donde antes veía tan sólo el fruto de la fatalidad o el precio de una antigua culpa de retraso, y proyecta pasos concretos y posibles de liberación. Todo esto no se realiza más que lentamente, a costa de mucho dolor, en medio de renuncias y de caídas, de desilusiones y de falsas esperanzas, de fracasos y de muerte. Entonces la pregunta más profunda que se le plantea a la teología en la praxis liberadora se convierte en la de una apología del dolor inocente, la de un sentido que asentar y la de una buena nueva que anunciar, que motiven el compromiso a pesar de la dura permanencia de los desgarramientos: «¿De qué manera hablar de un Dios que se revela como amor en una realidad marcada por la pobreza y por la opresión? ¿Cómo anunciar el Dios de la vida a personas que sufren una muerte prematura e injusta? ¿Cómo reconocer el don gratuito de su amor y de su justicia desde el sufrimiento del inocente? ¿Con qué lenguaje decir a los que no son considerados como personas que son hijos e hijas de Dios?» (G. Gutiérrez, Hablar de Dios desde el sufrimiento del inocente, Salamanca 1982, 18s). Quien eludiese el peso de estas preguntas, quien se resistiera a asumirlas y a asumir con ellas el mundo de miseria y de dolor que allí se expresa, quien no sintiera sim-patía por esta historia de liberación de tantos humillados y ofendidos, no podría comprender el sentido de una teología desde el reverso de la historia El mundo de las no-personas exige el abandono de toda epistemología racionalista, que se contente con reconciliaciones puramente ideales, en favor de una epistemología de sabor bíblico, en la que comprender signifique al mismo tiempo amar y comprometerse por los demás. c) Esta teología que se arraiga en la memoria espiritual del pueblo pobre y oprimido, bajo el reto de sus gemidos presentes y de su sed de liberación, se nutre de silencio y de atención para hacerse palabra: silencio acogedor y receptivo ante el dolor de los últimos y atención religiosa a la palabra del Dios vivo; palabra provisional y creíble para señalar el camino. Este itinerario no puede realizarse más que junto con los demás, al lado de ellos y por ellos: la des-privatización del mensaje cristiano comienza en la teología liberadora por el propio sujeto de la misma, que es el teólogo intensamente inserto en la vida de la comunidad y en la historia del pueblo. Sólo así es como puede llevar a cabo aquella confrontación de dos memorias -la memoria de la gente oprimida y la memoria «peligrosa» de la fe cristiana-en que consiste sobre todo su tarea. La fidelidad al mundo de los pobres, con todo el peso de sus limitaciones, viene a unirse con la fidelidad al mundo de Dios, a su revelación histórica, criterio de orientación, de juicio y de consolación, para trasladar el futuro de Dios al presente de los hombres y transformarlo con eficacia Este itinerario de elaboración teológica, alimentado de la vivencia y de la acogida de la palabra de Dios en la compañía de la vida y de la fe, no está evidentemente libre de riesgos. Estos se presentan en cada uno de los momentos del camino. Si en principio está la praxis, ¿no se corre el riesgo permanente y sutil de reducir toda la reflexión a una lectura puramente sociológica y política de la realidad, sobre todo cuando ésta se presenta con esos dramas y con esos problemas que casi llegan a aplastar la posibilidad de una mirada dirigida al Otro? Si el criterio es la Palabra, ¿no se corre el riesgo de querer hacer que funcione demasiado, para dar explicaciones baratas y traicionar a aquella «inactualidad» que es al mismo tiempo un aspecto de la verdad que no se deja aprisionar en esquemas funcionales e ideológicos? Y finalmente, si se vuelve a la praxis, primera y última palabra del recorrido de la reflexión, ¿no se corre el riesgo de que todo quede absorbido por ella, en los resultados alcanzados o buscados, en un eficacismo que lo mide todo por el parámetro del éxito y no por el de la cruz, y que hace incomunicable la palabra alcanzada con formas y situaciones diversas? Son los mismos mejores artífices de la teología liberadora los que señalan estas posibles tentaciones: olvido de las raíces místicas, inflación del aspecto político, subordinación del discurso de fe al discurso de la sociedad, absolutizaciones indebidas, acentuación de las rupturas, cerrazón al diálogo de la comunión eclesial... Hablar de Dios en la «aldea global». Sin embargo, todo esto no impide que la teología desde el reverso de la historia tenga un sentido y esté llena de promesas, porque tiene en cuenta la condición de éxodo del vivir y del morir humano, no ya en abstracto, sino en la concreción de las humildes historias de los vencidos, de los que no tienen futuro, de los humillados y oprimidos. En este sentido la palabra de la fe en esta teología viene a situarse en medio de la aldea, en el corazón de la otra historia, que el Dios cristiano demuestra en su cruz haber privilegiado y hecho suya. Teología situada en la verdad del éxodo, no por eso se muestra menos fiel al adviento: la Palabra resuena en ella no como extraña y lejana, sino como familiar y cercana, capaz de dar sentido al compromiso y de contagiar la esperanza, realizando de este modo la promesa divina. Entre el éxodo y el adviento, entre el camino de los pobres hacia la tierra prometida y el don divino que viene a rescatar y a salvar la historia, la teología liberadora es mediación crítica, comprometiendo el pensamiento y la vida. Les devuelve la memoria a los humillados y oprimidos, alimenta la compañía del compromiso, contagia la esperanza. Les devuelve a los sin-futuro la capacidad de soñar: «Dichosos los que sueñan, porque llevarán la esperanza a muchos corazones y correrán el dulce riesgo de ver realizado su sueño» (Helder Cámara). Palabra provisional, camino que tendrá tanto mayor fuerza y significado cuanto más sepa seguir siendo fiel al Dios vivo y a la historia real. ¿Quién podrá sentir que ha llegado a la meta, mientras sea tan inmenso el pueblo de los oprimidos y parezca tan inconsolable su miseria? ¿Quién podrá decir que ha encontrado la respuesta exhaustiva y final a la acuciante pregunta del salmo: «¿Cómo cantaremos los cantos del Señor en tierra extranjera?» Una leyenda rabínica habla de un río en tierras lejanas, de un río tan piadoso que durante el sábado dejaba de correr: «Si en vez del Main -apunta Martin Buber-ese río pasase por Frankfurt, seguramente todos los judíos de Frankfurt observarían escrupulosamente el sábado. Pero Dios no realiza esos signos. El siente un horror manifiesto de sus consecuencias inevitables, o sea, de que en ese caso serían precisamente los menos libres, los tímidos y los mezquinos los que se harían más piadosos. Y es evidente que Dios sólo quiere para sí a los hombres libres». A la teología no se le pide violentar la libertad de las conciencias con alardes de fuerza. Tampoco se le pide que se sienta segura, porque nada separa tan completamente al hombre de Dios como una piedad que esté segura de sí misma. A la teología se le pide que hable de Dios como humilde sierva. que tienda hacia Él como peregrina hacia la luz, guiada por la estrella de la redención que apareció en la noche de los tiempos, sin seducciones de cumplimiento o de posesión. En el Norte, como en el Sur del mundo, frente a la aldea posmoderna, como frente al reverso de la historia, a la teología se le pide de seguir viviendo la doble y única fidelidad, al tiempo y al Eterno, al presente de los hombres y al mañana de Dios, en la compañía del pueblo elegido por el Señor para ser en medio de los pueblos la Iglesia del amor, la comunidad de la esperanza más fuerte que el dolor y la muerte.
Mística y secularización (En medio de las afueras de la ciudad secular) «¿Tiene sentido hablar de mística en este tiempo extintor de tradiciones?». A partir de este pregunta y de la constatación de que la ciudad secular es el lugar de la gran liquidación de tradiciones, el trabajo delimita el núcleo duro de la experiencia cristiana como «místico», es decir, portador de la virulencia de lo cristiano, entendido como relación con Dios e inseparablemente relación con el otro como prójimo y como socius. La trans-ascendencia de la experiencia de la fe llama a una seriedad en la reinterpretación del patrimonio místico como un exilio en medio de la ciudad. Cuatro preguntas a presuntos herederos La ciudad es el símbolo de la cultura modernizada, y el proceso de modernización aparece hoy como el vehículo que propaga aceleradamente la secularización. Para los sociólogos, esta última es sólo la dimensión cultural de la modernización. La ciudad modernizada y su cultura sufren hoy una crisis de tradición. Su tiempo aparece como gran liquidador de tradiciones. Por lo que se refiere a la posibilidad de transmitir la fe cristiana, F. X. Kaufmann^ opina que lo nuevo no está tanto en el retroceso de la pertenencia a la Iglesia, sino en la nueva forma de conciencia con que vivimos hoy este retroceso. Pues no se trata simplemente de un fenómeno cí-690 Alfonso Alvarez Bolado clico cuasi-natural, sino de un desafío histórico como quizá no habíamos encarado otro hasta ahora. Este desafio afecta «a la constitución global del cristianismo bajo las condiciones de una cultura ampliamente indiferente a lo religioso y que, en su estimación consciente, ha dejado a sus espaldas al cristianismo». Autoridades de Iglesia describen la situación con afirmaciones fundamentalmente idénticas. La nueva forma de conciencia, estrechamente vinculada al conjunto de cambios inducidos por la Ilustración y la industrialización, ha transformado las modernas relaciones societarias hasta tal punto que estas se presentan como «radicalmente diferentes de todas las anteriores formas humanas de convivencia». El proceso «abarca más o menos los últimos doscientos años». Pero se tiene la impresión de que «esta modernización ha alcanzado su plena expansión en los últimos cuarenta años». Sin que separemos estos últimos treinta o cuarenta años de los doscientos anteriores, la batería de preguntas que de inmediato proponemos, brota desde la experiencia de la onda expansiva de los últimos cuarenta. ¿Tiene sentido hablar de mística en este tiempo extintor de tradiciones? Celebrábamos en 1991 el centenario de dos grandes místicos cristianos: Ignacio de Loyola y Juan de la Cruz. Hemos hablado y escrito mucho acerca de ellos. ¿Con qué intención, propiamente? Desglosaré esta pregunta en otras cuatro: 1.^ Los patrimonios místicos y ascéticos alumbrados por los hombres santos a quienes hemos conmemorado, ¿no reposan en un glorioso pero gélido Olimpo de monumentos espirituales? Sus hechos y doctrinas, ¿no se convertirán en meros objetos de una reconstrucción arqueológica, todo lo noble que se quiera? Así lo creen muchos de nuestros contemporáneos, aunque sea con resignada nostalgia. 2.^ Concreta la anterior, implicándonos. ¿Encuentran hoy Ignacio de Loyola y Juan de la Cruz herederos de la «genuina virulencia de lo religioso» específicamente cristiano que ellos sembraron en la historia? No son pocos los que contestan la pregunta negativamente. Permítaseme un ejemplo que me da que pensar. Salvador Giner escribía con ocasión del centenario ignaciano: «El enemigo de la Compañía [de Jesús] es hoy muy otro [no es el Papa; y los jesuítas lo saben] y más insidioso que los del pasado, porque es más un ambiente que un adversario concreto: es el espíritu de una época cuya característica es no tenerlo. Sus hombres [los jesuítas] sucumben así con suprema facilidad a las delicias del relativismo, a la despenalización del pecado y al descrédito general del infierno que caracterizan a nuestro mundo. Hoy nadie quiere pasar penalidades, ni siquiera los jesuítas. Desde el territorio de la modernidad parece evidente que contra el hereje se vivía mejor», Y terminaba de esta significativa manera: «... diríase que san Ignacio y el puñado de hombres que forjaron la Compañía de Jesús no podrían ya ser héroes de nuestro tiempo»^. Otros, en cambio, estimamos que nuestros grandes místicos -y de manera muy especial Juan de la Cruz, cantor de la Noche Oscura como fase integrante de la vida cristiana-nos permiten interpretar y vivir este nuestro tiempo extintor de tradiciones como noche oscura colectiva o epocal. Nos sorprendemos a nosotros mismos diciéndonos con él: «a la verdad, no es éste tiempo de hablar con Dios, sino de poner, como dice Jeremías, la boca en el polvo, si por ventura viniese alguna actual esperanza»^. Pero esta apropiación de la visión de Juan de la Cruz nos plantea otras dos preguntas. 3.^ Para ser honestos, ¿estamos significando lo mismo que Juan de la Cruz quería significar, cuando nos refugiamos en su lenguaje? ¿O nos apropiamos sólo estéticamente retazos de un universo de sentido que irremediablemente ya no es el nuestro? F. Ruiz se ha referido con precisión al problema cuando escribe, a propósito de Teresa de Lisieux: «Santa Teresita, por ejemplo, vive tres siglos después de san Juan de la Cruz, y su experiencia dolorosa está afectada por el ateísmo de la cultura contemporánea. Hundida en la tiniebla o metida en el túnel, no piensa que Dios la abandona, sino que Dios no existe. Ni como hipótesis u ocurrencia, ese pensamiento viene a la mente del alma que describe san Juan de la Cruz»'*. Pero supongamos que sí, que la Noche Oscura de Juan de la Cruz, como noche sensitiva y noche espiritual, sea para nuestra época la forma inevitable de entrar en la sustancia mística de la vida cristiana. Entonces, precisamente, la última pregunta se nos plantea con un carácter práctico y transformador a quienes nos consideramos herederos de Ignacio de Loyola o Juan de la Cruz. 4.^ ¿Estamos dispuestos a existir como fraternidades capaces de transmitir tan precioso patrimonio a través de nuestra noche epocal? ¿Seremos capaces de reactualizar y reinterpretar este patrimonio desde y en el contexto estructural y cultural de nuestro tiempo como ellos lo hicieron desde el suyo? ¿Nos atreveremos a cumplir, y no sólo a declamar, la palabra de Juan de la Cruz: «Entremos más adentro en la espesura» («Es, a saber, hasta los aprietos de la muerte, por ver a Dios»)? ¿O habremos celebrado el centenario de los grandes reformadores sin que haya reverdecido en nosotros el espíritu de reforma capaz de responder al desafío de nuestro tiempo? Uno de los méritos de todo desafío es provocar la reacción de quienes lo suñ"en (personas o culturas). F. X. Kaufmann, refiriéndose a las condiciones y escenarios de la renouacidn religiosa en este tiempo extintor de tradiciones, enumera y describe hasta cuatro posibles modelos. El tercero de ellos ha animado estas reflexiones. Escribe: Modelo «Orden», En todo tiempo parecen posibles nuevas formas de asociación comunitaria, especialmente las vinculadas a orientaciones místicas y/o ascéticas. En este ámbito se esconde la genuina virulencia de lo religioso específicamente cristiano, que no se deja ni sustituir ni echar fuera del mundo por todos los éxitos y firacasos de la modernidad. Verosímilmente, el modelo más preñado de futuro, a la hora de alumbrar nuevos espacios de experiencia de lo cristiano, son formas comunitarias parecidas a las órdenes (¡también de gente casada!) es decir, fraternidades religiosas dotadas de un cierto vínculo y duración en el tiempo. Naturalmente que tales formas comunitarias necesitan también, para ser creíbles, de una tarea, de un servicio específico. Ciertamente existen yacimientos colectivos de problemas que parecen estar sólo esperando la presencia y animación religiosa...». Y, después de hacer un elenco de tales yacimientos, concluye: «El modelo "Orden" presupone tan sólo grupos relativaraente pequeños y convencidos, que se hacen cargo de determinados problemas con voluntad testimonial, buscando así hacer creíble la energía del cristianis-mo^». La entereza de la mística cristiana Básicamente, se trata de la entereza de la vida teologal -la vida de fe, esperanza y amor-tal coipo se nos ha manifestado en la plenitud de Cristo, vivida en todas sus fases y en todas sus dimensiones: entereza a la que están llamados todos los cristianos. La vida teologal cristiana vive en el filo del tiempo y la eternidad, y transcurre a través de todas las fases en las que la eternidad se abre al tiempo y lo va recapitulando: creación, encarnación, redención, noche sensitiva (purificación de los sentidos), iluminación transformante, unión, noche del espíritu (vaciado de las mediaciones espirituales), comunión anticipante. La vida teologal cristiana ama a Dios en todas las cosas, y a todas las cosas en Dios. Ama, pues -el libro del Génesis nos hace poner este acento-, el universo de la naturaleza (desde las órbitas de las galaxias en expansión, hasta la imperceptible florecilla de alta montaña). Ama ese universo que es el lugar de sus delicias, de su trabajo, de su riesgo y de su pasión; siempre de su responsa-bilidad. Ama esa naturaleza de la que el hombre es cualitativa extensión y que constituye para nosotros el radical contexto ecológico que hemos de humanizar. Por tanto, la vida teologal cristiana no representa un claustro de la vida, sino el todo de ella vivido concéntricamente desde, en y para Dios. Escribe Juan de la Cruz: «Dios tiene recogidas todas las fueras y apetitos del alma, así espirituales como sensitivos, para que toda esta armonía emplee sus fuerzas y virtud en este amor; y así venga a cumplir de veras con el primer precepto, que, no desechando nada del hombre, ni excluyendo cosa suya de este amor, dice: Amarás a Dios de todo tu corazón»®. Es, pues, una vida comprometida en la historia concreta -en el sentido demandado por D. Bonhoffer-, en la medida en que se esfuerza por recapitular redentoramente situaciones y acontecimientos en Cristo para Dios. «Amar a Dios sobre todas las cosas», lejos de excusar cualquier fuga del mundo, posibilita la libertad de amar a Dios en todas las cosas, conforme a lo que cada cosa es y a la relación entre ellas. Posibilita la libertad de amar todas las cosas en Dios, es decir, con la ternura y la lucidez del Creador y Redentor. Pues tanto la naturaleza como la historia no sólo necesitan ser reconocidas y respetadas, sino también redimidas. Origen y término de la vida teologal y de la mística cristiana son, conjunta e inseparablemente. Dios y el «otro mundano» de Dios, el «otro hombre», en su doble figura de proximus y de socius. No es ésta una afirmación de una presunta teología moderna sino sustancia de la propia enseñanza de Jesús de Nazaret y de su discípulo predilecto, Juan. Para la fe cristiana, el otro hombre, en su doble figura, no es nunca el mero miembro de la especie de mamíferos inteligentes, regularmente bípedos, entre los que surgen a veces relaciones de mutua utilidad que, por ráfagas, puede llegar hasta los bordes de la filantropía e incluso traspasarlos. Ese prójimo, aun en la más pervertida de sus posibles figuras históricas, conlleva una dignidad inamisible, aunque su realidad empírica sugiera otra cosa, no siempre inmediatamente discernible como dato empírico. En esa dignidad humana, incombustible aun en sus más hórridas formas históricas, arde el fuego del Dios vivo. Y es desde ella, desde esa ardiente zarza, desde la que se hacen escuchar la palabra, la caricia, el silencio, el lamento, el clamor e incluso el rugido de Dios. Porque esto es así, se atreve Pablo, el Apóstol, a proclamar al verbum crucis, ápice de la sabiduría de Dios, y Juan el Evangelista, a presentar al excelso Crucificado como el lugar divino-humano hacia el que conver-gen todas las miradas y la admiración toda. Ese «prójimo», o es descubierto por la fe, la esperanza y el amor teologales, o bien corre el peligro de perderse en la grisura de un gradual y matizadísimo olvido, cuando no desprecio. Si somos capaces de verlo, sentirlo, reconocerlo, es de la misma forma en que, según Tomás de Aquino, vieron los Apóstoles al Cristo resucitado, «fide oculata», con unos ojos embargados por la fe. La trans-ascendencia de la vida cristiana Es preciso insistir en el carácter de trans-ascendencia de la vida cristiana. Esta es trans-ascendente en la búsqueda, anticipación y fruición de Dios mismo como futuro absoluto de la humanidad y de cada hombre; en su entrega en favor del otro hombre (proximus o socius); y como incesante promoción de valores y horizontes históricos progresivamente más humanos... De todas estas formas colabora activamente a que pase «la apariencia de este mundo» (1 Cor 7,31). Con el término «trans-ascendencia» pretendía Schillebeeckx -en el debate de los años sesenta en torno a Honest to God-subrayar el carácter distintivo de la transcendencia cristiana frente a los oscilantes usos de este término en el pensamiento moderno. Hagamos más clara esta distintividad por referencia a tres autores conocidos. Por referencia a L. Feuerbach: para él, la especie humana en su universalidad debe convertirse en dios (referencia absoluta) para cada hombre; y ésta es la única transcendencia que define lo humano, una vez que el hombre ilustrado se ha hecho consciente de que «el Dios de lo alto» -no menos que «el de lo profundo y lo íntimo»-no era otra cosa que una proyección sustitutoria, sucedáneo del único absoluto inmanente: la especie humana. Y un feuerbachismo difuso, aunque de talante bastante menos heroico, impregna todavía algunas de las aspiraciones más altruistas de la cultura contemporánea. En contraste patente, quizá nunca la historia fáctica haya presentado con tanta evidencia cuan escasamente se sienten los individuos humanos y sus agrupaciones religados por el amor a la especie y por la posibilidad de su futuro. Como más tarde diremos, prevalece el ombliguismo de la actualidad y del fragmento. Para la existencia cristiana, en cambio, sólo la «gracia» de Dios en nosotros nos invita y fuerza a trascender de manera durable y sólida, sin excusas, nuestro egoísmo proyectivo -bárbaro o ilustrado-y nuestro amor fragmentario y discriminante. Sólo ella nos invita a ascender (o descender, si se prefiere) al descubrimiento y al tratamiento del otro humano como imagen e hijo de Dios. Por referencia a F, Nietzsche: para él la trascendencia humana es sólo la flecha disparada hacia la meta del superhombre, el hombre de la voluntad de poder que será, en plenitud, el sentido de la tierra. Que Dios haya muerto es condición del libre vuelo de la flecha sobre los horizontes y los valores que han de ser dejados atrás. Y también un nietzscheanismo más o menos difuso impregna sectores importantes de la crema intelectual. Para la existencia cristiana, en cambio, la flecha se trasciende cuando reconoce y asume, en su vuelo libre, el impulso originante y permanente, la incesante incitación del Arquero; y asciende -con el hijo del hombre, muerto y resucitado-hacia la ciudad de la comunión. Y de esa ciudad no tenemos imágenes que no sean prof éticas y enigmáticas, por-» que no se la puede identificar con ninguno de los semblantes sucesivos de la realización histórica. Es la ciudad en la que «todo Principado, Dominación y Potestad» habrán quedado abolidos (Col 1,21). Galvanizada, hacia esa ciudad asciende la flecha humana; y, en su ascenso, aporta su contribución para rectificar y transformar -soportándolos, redimiéndolos y transfigurándolos-épocas y valores, tierras y cielos. Por referencia a J.P. Sartre, para quien también toda forma del humano trascender debe partir de que «précisément nous sommes sur un plan où il y a seulement des hommes»^. Sectores de la cultura contemporánea viven también un sartrianismo difuso, a veces teórico, a veces pragmático, sin aquel dramatismo que prestaba al filósofo francés un aura de nihilismo heroico. La afirmación del filósofo francés no necesita ser despreciada -ni ella misma ni las raíces de experiencia de las que brota-cuando es interpretada de manera tan distinta. Para la trascendencia cristiana el plano de nuestra soledad es inseparablemente el plano de una voz en ofí" que hace de él, pese a la soledad, espacio de un diálogo; nuestra soledad no es la soledad reflejo de la nada (propiamente, la soledad de nada). La percibimos desde una ausencia que se hace sentir. Escribía E. Schillebeeckx: «Propiamente, no se da ninguna verdadera experiencia de Dios mismo, ni siquiera en esta real reciprocidad con Dios. El testimonio que Dios nos da de sí, lo experimentamos en nosotros mismos. Últimamente, sólo experimentamos la existencia humana llamada personalmente por Dios; con Dios mismo sólo estamos personalmente unidos en la fe: por la entrega a lo no-visto, a lo no-experimentado. Esta inmediata e íntima, esta recíproca presencia, es, sin embargo, una presencia que sólo puede ser aprehendida en la fe: una Quasi-ausencia»^. Es esa ausencia así cualificada la que nos hace estar a la escucha, por la calidad de su palabra y su silencio: nuestra soledad -difícil de soportar, sin duda-es, por tanto, escucha paciente, cotidiana y esperanzada del que en cualquier momento volverá. Aunque desde un talante epocal que hemos reconocido ya muy distinto, Juan de la Cruz ha vivido, expresado y cantado paradigmáticamente esa soledad creyente a la espera y en la búsqueda de Dios. El término «trans-ascendencia» empleado por Schillebeeckx, un tanto complicado, resulta útil para la comprensión distintiva de la existencia cristiana. En mi personal comprensión, el término va conectado a una referencia muy anterior, anterior también a Ignacio de Loyola y a Juan de la Cruz. Me refiero al atrevido término latino inventado por Buenaventura de Albano, que describe la trascendencia cristiana como ascensión: acción hacia arriba (sursumactio). Escribe el gran místico franciscano: «Estando el sumo bien sobre nosotros, nadie puede llegar a ser feliz si no asciende sobre sí mismo, no con ascenso corporal, sino cordial. Pero levantarnos sobre nosotros no podemos sino por una fuerza superior que nos eleve. Porque, por mucho que se dispongan los grados interiores, nada se hace si no acompaña el auxilio divino. Y en verdad, el auxilio divino acompaña a los que de corazón lo piden humilde y empeñadamente (...). La oración, por tanto, es la madre y origen de la acción-hacia-arriba (sursumactionis)»^. La existencia cristiana -acción o contemplación, realización de sí o entrega por los otros-es siempre trans-ascendencia. Su origen en la oración subraya el carácter siempre dialogal de ese ascenso. Sería inútil jugar a oponer tal trans-ascendencia a cualquier clase de traxis-descendencia, preferida para subrayar el sentido servicial, encarnatorio y de preferencia por los pobres, que es específico de la vida cristiana. Pues, como ya subrayó Pablo de Tarso al proponernos el único paradigma de Cristo, ascenso y descenso son correlativos y se incluyen recíprocamente (Ef 4,7-23), La vida cristiana -si es real, no sólo nocionalmente vivida-nunca ha dejado de tener aquella orientación a la dimensión del super, que M. Heidegger considera profundamente olvidada en la cultura moderna. Por esta razón, toda vida cristiana es mística. Ello implica tomar radicalmente en serio la distinción newmaniana que comentamos. Escribía J. H. Newmnan en 1870: «La religión, cuando es personal, debiera ser real; pero, exceptuando un pequeño número de personas, ordinariamente no es real en Inglaterra. En los países católicos, como los de la Europa medieval o la España de hoy, o en los países semicatólicos, como Rusia, el asentimiento al objeto religioso es real, no nocional pero esta fe no cuadra con el talante de la moderna Inglaterra. En el mundo literario existe ahora la afectación de llamar a la religión "sentimentalismo"; y hay que confesar que no es nada más que esto entre nuestro pueblo, tanto educado como rudo»^^. El «talante de la moderna Inglaterra», para decirlo presurosamente, se ha extendido a toda Europa en los 140 últimos años. De ahí la urgente necesidad de una nueva evangelización. Esta ha de procurar que el cristianismo convencional, inercial y residual recupere la trans-ascendencia y reverdezca la fe cristiana real entre los favores y disfavores del clima de nuestro tiempo. Si hemos celebrado a nuestros místicos, lo hemos hecho porque ellos fueron en su tiempo actores de este reverdecimiento cristiano, y pensamos que pueden inspirar poderosamente el nuestro. La vida cristiana realmente vivida trans-asciende por la historia, porque no sólo cuida el progreso instrumental, la multiplicación de los recursos y el progresivo mejoramiento de las condiciones de convivencialidad, sino que, además, invita a cada época, desde su circunstancia, a elevarse a los valores de las bienaventuranzas, a confesar la incesante necesidad de redención y abrirse a ella. Y porque, rompiendo con todo narcisismo mundano y toda resignación a la finitud sin más, mantiene, desde el interior de los sucesivos semblantes de la ciudad terrestre, el anhelo de aquella ciudad de comunión cuyo arquitecto y constructor es Dios; la ciudad dispuesta para quienes superan crudeza, espesura y oscuridad de la existencia en fe, esperanza y amor. Aunque muchos de entre ellos nunca lleguen a nombrar explícitamente, ni con nombres cristianos, esa trans-ascendencia. Esta vida teologal cristiana es conciencia y experiencia -oblicuas y simbólicas, sin duda-, puesto que el término de su transascendencia no puede ser dado ni a la sensación ni a la imaginación. Quizá pueda decirse que, más que en cualquier otra forma de conciencia y experiencia, la conciencia y experiencia místicas cristianas son conciencia y experiencia del peculiar término de esa trans-ascendencia. Y el «yo perceptor» se percibe y reinterpreta a sí mismo y su calidad transformada de sujeto, desde la prevalencia de aquel término que se convierte también en el ambiente radical de su autopercepción y que, revelándose gratuitamente, le apela, invade y eleva sobre sí mismo. Por esta razón escribe san Pablo: «Y vivo, pero no yo, sino que es Cristo quien vive en mí» (Gal 2,20). De ahí la siempre concomitante percepción de la humildad e insignificancia del «ego humano», inseparable también de la dignidad y misión a que ha sido ascendido por lo santo, que se le manifiesta y establece con él libre y duradera alianza. Y es en el interior de esa agraciada relación donde la trascendencia humana se desvela como trans-ascendencia. Esta relación es, me parece, poco concebible y expresable desde el primado del ego representativo, quizá la línea más fuerte de desarrollo de la filosofía moderna. ¡Tal es la soberanía y gratuidad de lo Santo, que se revela en esa relación dialogal como origen permanente, ambiente y término, sobre el «ego. agraciado», desbordado, elevado, ensanchado al «nosotros», sacado de sí y sus proyectos, enviado al otro hombre. Esa soberanía, sin embargo, no se establece en el deslumbramiento y en la evidencia, sino en la oscuridad de la noche de la fe, como tan poética y profundamente expresó Juan de la Cruz o expresa en nuestro tiempo el citado texto de Schillebeeckx. Se echa de ver enseguida que esa trans-ascendencia inmediata pero oscura, por su condición estructural y por su dinámica, implica la conversión como actitud permanente. F. X. Kaufmann habla de «orientaciones místicas y/o ascéticas». En la vida cristiana, mística y ascética son inseparables: anverso y reverso de nuestra única vida teologal. La trans-ascendencia de la que he hablado resulta simplemente imposible sin lo que el propio Nuevo Testamento llama abnegación, Ignacio de Loyola describe como «salir de su propio amor, querer e interés», y Juan de la Cruz como un salir el alma «de sí misma por olvido y descuido de sí», que abarca el «saliendo de todas las cosas». Deberíamos tenerlo muy claro en un tiempo que necesita, muy peculiarmente, de la noche oscura de los sentidos y que ha de soportar intensidades muy fuertes de la noche oscura del espíritu. Los místicos cristianos y la reinterpretación contemporánea de su patrimonio Asegurado que, básica y vocacionalmente, toda vida cristiana es mística, volvamos los ojos a los que llamamos «místicos» por excelencia. Llamamos así, por ejemplo, a Ignacio de Loyola y a Juan de la Cruz, por tres motivos. Primero: porque en ellos la vida teologal y su trans-ascendencia acontecen con entereza extraordinaria, ejemplar. Esa entereza y ejemplaridad se ven con frecuencia favorecidas y señaladas por vivencias y hechos fuera de lo común. Pero no es esta excepcionalidad la que constituye primeramente la entereza y ejemplaridad de sus vidas cristianas. Segundo: se les concedió el carisma de una capacidad excepcional de reflexividad sobre las dimensiones, fases y peripecias de la vida cristiana que con tanto coraje habían ellos vivido y que con tan gran capacidad de discreción habían ayudado a otros a vivir. De manera que, en su experiencia y sabiduría de la vida cristiana, ésta se sedimenta con gran sistematicidad en aquellas sus dimensiones, fases y peripecias esenciales a las que me he referido antes. En este tipo cristiano de hombres y mujeres -Teresa de Jesús es otra de estas figuras ejemplares-biografía, sa-biduría y doctrina se esclarecen y potencian recíprocamente. Tercero: impulsados ellos mismos -no necesaria, pero sí frecuentemente-por la dinámica del anterior carisma, o bien solicitados por el discipulado que se ha congregado en torno a ellos, objetivan en una tradición oral o, preferentemente escrita, aquella experiencia, sabiduría y capacidad de magisterio, fomentando así poderosamente la creación de fraternidades y tradiciones garantes y portadoras, a través del tiempo, de tan preciosos patrimonios místicos y ascéticos. Los valores radicales de la experiencia, sabiduría y doctrina de Ignacio de Loyola o de Juan de la Cruz tienen en nuestro tiempo tanta o aún mayor actualidad que en el de ellos. Pero no resultan vivibles y socializables, con capacidad modeladora de futuro, por ninguna acomodación repetitiva o manierista. Son su inspiración y la calidad de su experiencia, y no tanto, frecuentemente, su sistema conceptual ni la literalidad de su lenguaje, las que nos ayudarán a abrir nuevos espacios de futuro a la experiencia cristiana. Y esto es así, por mucho que valoremos su sistema conceptual y su lenguaje como el cofre que guarda y preserva para nosotros aquella inspiración y calidad que tan urgentemente necesitamos. Tanto Ignacio como Juan vertieron su experiencia espiritual, con toda naturalidad, en el cuadro de la física ingenua, y a veces mitológica, de su tiempo; en los moldes de una sociedad muy jerarquizada de estados y clases; en los marcos conceptuales de una psicología, filosofía, exegesis y teología que no pueden ser, sin más las nuestras. Esa reinterpretación de los Ejercicios, en el caso de Ignacio de Loyola, y del conjunto inseparable de experiencia, poesía y doctrina que constituye la obra poética y su declaración en prosa, en el caso de Juan de la Cruz -una reinterpretación capaz de conservar la dinámica de sus símbolos y valores relativizando las formas culturales y los esquematismos de época en los que ambos los encarnaron y modelaron-, es una tarea de tanta finura como audacia, una aventura de vida espiritual y de rigor intelectual fuera de lo común. Nunca insistiremos bastante en la necesidad y urgencia de esta reinterpretación, sobre la que volveremos todavía al final de este ensayo. Exige conocimiento de una vida que se ha hecho mucho más compleja y contingente; exige finura de percepción y reflexión acerca de la trama de uno mismo y de la sociedad y del mundo, y una poderosa «imaginación teológica». Ha de ser el resultado de una múltiple y convergente iniciativa. Esa reinterpretación no puede ser nunca entendida en meros términos de comprensión y proyecto intelectuales, aunque se trate de una creativa inteligencia capaz de abarcar la diferencia entre ambos horizontes culturales y de apercibirse de los progresivos y sutiles incrementos críticos que median entre una y otra época. La reinterpretación ha de ser, ante todo, una praxis de transformación e innovación de vida. Creo generalizable a cualquier intento de reinterpretación del patrimonio de nuestros místicos lo que, acerca de este desposorio de actualizada experiencia contemplativa y praxis servicial -imprescindibles ambas para una creativa reinterpretación-escribí recientemente a propósito de los Ejercicios Espirituales de Ignacio de Loyola: «Los Ejercicios Espirituales van inseparablemente unidos a toda una serie de experiencias a las que Ignacio se vio sometido, a las que, después de su conversión deliberadamente se expuso, y a las que sus seguidores han de exponerse en términos no manieristas, sino contemporáneos. Me refiero a su exposición duradera a la intemperie de la pobreza; a su cercanía servicial a los más pobres y marginados en hospitales y en la convivencia callejera; a sus tareas de rehabilitación de la mujer prostituida; a su sistemática "pérdida de tiempo" enseñando el catecismo a los niños... Sin estas experiencias, que preceden, acompañan y subsiguen a los Ejercicios Espirituales y los hacen pasar incesantemente de la mística a la. praxis, y regresar, con las resistencias y contradicciones de la vida irredenta, al fuego transformador de la contemplación y discernimiento ignacianos, los Ejercicios serían una de las más sutiles formas de idealismo. El reto de los Ejercicios Espirituales es, pues, doble: no solo traducir sus valores y su coherente dinámica a nuestro horizonte y sensibilidad culturales, sino romper la dura costra de la sociedad consumista con experiencias que nos expongan a compartir la situación de los pobres y la pobreza, de los excluidos y de la exclusión, a la dureza de la marginación de la injusticia y de la insolidaridad, de la descalificación social y, cuando sea preciso, con temor y temblor, también la eclesiástica; al aprendizaje, por tanto, de una confianza radical sólo en Dios»^^. Desde las exigencias de esta reinterpretación -lúcida, creativa y práxica-se hace evidente la necesidad de esas nuevas fraternidades que, contagiadas de la genuina virulencia religiosa específicamente cristiana que emana de nuestros místicos, la pongan por obra reinterpretando sus sentidos en los lenguajes, las situaciones y la cultura de este transicional comienzo de siglo y de milenio. Ello supone que estas fraternidades arrostran la travesía de la ciudad secular hoy. En medio y a las afueras de la ciudad secularizada Esta virulencia debemos vivirla en medio de la sociedad secularizada, modernizada, consumista. «En medio» significa, ante todo, solidariamen-te conscientes y partícipes del impresionante esfuerzo que ya realizan nuestros conciudadanos, conscientes y partícipes de lo que aún queda, codo con codo, por hacer. Pero «en medio» significa también; en solidaridad crítica, conscientes de la distintividad de la aportación cristiana. Sin mitificar el presente de la ciudad modernizada, sin resignarnos ante sus relumbrantes ídolos. Los cristianos sólo intermitentemente se exiliaron de la ciudad, y siempre para volver a ella. Jesús comenzó su vida pública en la soledad del desierto, pero sólo para ascender a Jerusalén y hacer oír su palabra profética en medio del templo, que era el corazón de aquella ciudad, y para «morir donde mueren los profetas» ( Le 13,[33][34][35]. Ignacio maduró su conversión justo en las afueras de una ciudad. Recorrió en su formación algunas de las más famosas ciudades (Barcelona, Jerusalén, Roma, Alcalá, Salamanca, París, Bruselas, Londres), para empezar definitivamente el asentamiento de su misión en la ciudad que era y es cabeza de la Cristiandad^^. Juan de la Cruz, aun en sus apartamientos campestres o en los valles de las afueras, aunque se refugie en peñascales para vacar a la contemplación, «no es un eremita. Es un hombre de trato agradable, servicial. Le visitan muchas personas de la ciudad, por dirección espiritual, por amistad, por los trabajos del convento»^^. La distintiva manera que ellos tenían de estar en medio de la ciudad queda significativamente marcada por lo que ambos, universitarios sin engolamiento, recomendaban a sus discípulos con referencia a los estudios. Juan de la Cruz enseñaba a sus estudiantes: «Religioso y estudiante, religioso por delante». Ignacio, una vez acabados los estudios, deseaba que sus discípulos se hundieran por todo un año en la schola affectus, en un horno de resocialización cristiana. Con estilos muy distintos, ambos pretenden que la virulencia del fermento cristiano penetre capilarmente la ciudad. Tampoco nosotros, cristianos que queremos experimentar y transmitir en este comienzo de siglo y milenio «el fuego que Cristo vino a traer a la tierra» (Le 12,49), constituiremos un «ghetto» o vamos a exiliarnos de esta sociedad... de no ser buceando hacia su corazón reprimido. Contemporáneos -en posibilidades y riesgos-de nuestros hermanos, queremos contribuir a elevar la pesadumbre de su bajo techo y hacer crecer en ella aquel «suplemento de alma» que echaba de menos Pablo VI. Sin triunfalismos de ninguna clase, en solidaridad autocrítica, con temor y temblor, porque somos conscientes de la opacidad con que nuestra conducta ha «velado más que revelado el genuino rostro de Dios y de la religión»^^. A las afueras de la ciudad me refiero en diversos sentidos complementarios, y me fijo en tres que me parecen más importantes. En las afueras mienta, en primer lugar, el desierto físico y simbólico. Allí donde es posible experimentar la intemperie, desprotección y desnudez, pero también la familiaridad del Dios -Creador, Redentor, Espíritu vivificante-que forjó a su pueblo y «probó» a su propio Hijo en el desierto (la experiencia manresana de Ignacio, que le acompañó, en diversas formas, toda su vida; la experiencia de Duruelo y los sucesivos desiertos de Juan). Sin esta dimensión de desierto, que sólo se puede llevar consigo después de haberlo habitado efectivamente, la fe cristiana pierde fácilmente su germinal virulencia. Resulta un cristianismo homologado en todo a los usos y modas de la ciudad, sin distintividad, sin sorpresa profética, un cristianismo domesticado (¡meteco!). En las afueras significa también salirse del orden desordenado de nuestra sociedad, donde pululan -sin poder siquiera acampar-las diversas clases de marginados que Juan conoció desde su infancia y cuya compañía buscó Ignacio, una vez convertido, en los hospitales. Para entrar «más adentro en la espesura», resulta imprescindible salir del cogollo de la ciudad y penetrar en ese cuarto mundo que la ciudad segrega y excluye, y después disimula hasta desconocer la exclusión practicada. Ese cuarto mundo no es simplemente la corona de suburbios de la ciudad, sino una dimensión reprimida de ella misma. Ese paso del envés al revés de la ciudad desgarra el narcisismo de ésta. Y no solamente de ella, sino del cristianismo bien-pensante y meteco, que considera extremoso el carácter prof ético de su fe. En esas afueras hay que aguantar hasta borrar de nuestro rostro la niñesca inocencia, la falaz autosatisfacción de la sociedad secularizada y consumista. Salir a las afueras significa, además, romper culturalmente con las espirales de silencio que tratan de convencernos de que no existen... tales afueras. Algunas de estas actitudes y conductas para romper la espiral del silencio pertenecen, sin duda, a la actuación cristiana en medio de la ciudad. Pero, como siempre, actuar cristianamente en medio de la ciudad no es posible sin haber salido fuera -haciéndose violencia-de su campo de gravitación. En este caso, se trata de salir del círculo de su saber convencional. Esta decisión puede resultar especialmente costosa a los intelectuales cristianos. Porque lo que escribe Ignacio Sotelo de la «inteligencia de izquierdas» vale también, en mi opinión, de la derecha neoliberal e ilustrada. A saber: «Todavía ha de ser agnóstica una persona que de verdad quiera ser admitida en los círculos en que predomina la cultura de izquierda, o por lo menos mantener una cierta distancia frente a la creencia religiosa»^^. Al hablar de la memoria dialogante y de la reinterpretación, ya había mencionando un desbordamiento decisivo del tiempo de la ciudad, cuyo ombligo es el «ahora». Sólo quienes, en las afueras de ese orden, se liberan de la resignación a él y son encendidos nuevamente por la utopía de las bienaventuranzas, emergerán en la ciudad para infundir, desde dentro, «un suplemento de alma» a su corazón oprimido de ñnitud -saciado unas veces; insaciado otras-, pero también instalado en ella, resignado a ella.
El ámbito de lo íntimo tiene que ver, en el mundo de lo religioso, con la experiencia mística. Frente al lado visible y analizable del fenómeno religioso está también su lado interior. El presente artículo, de la mano de algunos textos de san Juan de la Cruz, intenta explorar, a través de las pistas elusivas de un místico sin igual, la estructura del camino místico y la experiencia de radical transformación que supone en la vida de cuantos se atreven a introducirse en esa travesía dramática pero llena de plenitud. Hablar de lo íntimo en el ámbito de la experiencia religiosa es, sin duda, referirse al fenómeno místico. Si todo dato religioso apunta, por un lado, a la Realidad de la religión (el Misterio), a la que simboliza y, por otra parte, expresa la vida religiosa; en el caso de los místicos aparece significado con mucha mayor fuerza este hecho de poseer el fenómeno un lado visible que expresa una intención que no se agota en él pero que la hace posible como expresión de la vida religiosa y como apuntamiento del Misterio. Por acaecer la experiencia de éste en lo más íntimo del sujeto, y debido al carácter elusivo de la Realidad de la religión en el testimonio del místico, muchas veces expresado paradójicamente por el silencio, se hace difícil acceder a lo «íntimo» de esa experiencia si no fuera por los signos, también «elusivos», que nos dan muchos de ellos con sus textos y su vida (símbolos, poemas, tratados, etc.). La valoración del lenguaje místico, expresado en los innumerables documentos que nos han legado, hace que las peculiares expresiones literarias de la experiencia mística posean una variedad enorme de géneros literarios que van desde las expío-sienes más doxológicas, pasando por las expresiones simbólicas y poéticas hasta los testimonios autobiográficos o teológicos. Al ser un lenguaje eminentemente experiencial, el místico, aunque sea también un consumado teólogo, privilegia no tanto el hablar de Dios, cuanto el hablar propio del que se le ha agraciado con una presencia originaria concreta {Patiens divina). De ahí el carácter paradójico de esta experiencia y su índole escondida y secreta como una noche oscura o «mística teología, que quiere decir sabiduría de Dios secreta o escondida, en la cual, sin ruido de palabras y sin ayuda de algún sentido corporal ni espiritual, como en silencio y quietud, a oscuras de todo lo sensitivo y natural, enseña Dios ocultísima y secretísimamente al alma sin ella saber cómo; lo cual algunos espirituales llaman entender no entendiendo» (SAN JUAN DE LA CRUZ, Cántico espiritual [B], 39, 12). Lo místico se caracteriza, entonces, por un fuerte subrayado de lo experiencial, de esa especial intensidad que tiene en ellos la vivencia de su propia religión, la «presencia en la experiencia» o experiencia «sensible», ñ-uitiva, de encuentro con el Misterio configurado de las más variadas formas; es decir, no sólo sabido, no algo de lo que se habla sin más, sino una realidad padecida. El místico tiene conciencia de esa Presencia constituyente que se le está dando, haciendo posible su constitución como sujeto al sentirse término de esa donación o agraciamiento originarios. La conciencia de la unidad o unión, dependiendo del carácter monista o teísta de la experiencia mística, con el término de la misma, se configure como se configure éste, y la conciencia aguda de la imposibilidad de objetivarle, de tener con él una relación como la que tiene lugar entre las realidades intramundanas; es decir, que no se da como algo frente al sujeto (= oh-jectum, ob-jeto; pro-blema, en la terminología de Gabriel Marcel) y sus capacidades de conocer, experimentar, sentir, etc., como ocurre con las cosas, sino que, más bien, se da constituyendo, rodeando, abarcando, al modo como nuestra experiencia de unos padres no es sólo la de ellos, sino también la de un ámbito indefinible de desvelos, sacrificios, cuidados, preocupaciones, generosidades y desprendimientos, alegrías y dolores; amor abarcante o rodeador (misterio, en la terminología de Marcel), son dos características permanentes de lo místico y explica el hecho de que la mayor parte de las imágenes, símbolos y metáforas de casi todos ellos hablen del Misterio en términos de profundidad, Realidad radical, raíz, fuente, origen, fundamento, firmeza, etc. La misma etimología de la palabra latina y alemana experiencia sugiere esta condición extática que hace posible percibir a Dios como fundamento, origen y meta. En efecto, como señala Bruno Forte, experientia está compuesta de ex, que evoca ese movimiento exodal: un «salir de» (cf. exitus) para «ir hacia» (origen, apertura y término hacia el que se va), y de perior, que está en la raíz de peritus (= perito, el que tiene conocimiento de primera mano, «por experiencia», sin intermediarios o intérpretes) o de periculum (peligro, riesgo, prueba, imponderable, contacto directo sin previsiones ni defensas). Y, en alemán, erfahrung, de erfahren -experimentar-, que viene de Land fahren, «atravesar el país». Así, la experiencia supone «un conocimiento concreto e inmediato, que no se basa en lo "sabido de oídas", sino en el contacto personal, que compromete a la totalidad del protagonista en el plano sensible y en el intelectual, que implica un riesgo y exige una cierta audacia, estimulando a la persona a ser viva y activa, y no simplemente pasiva y receptiva, frente a lo que acontece («erleben» alemán -otro término para designar la experiencia-indica precisamente «estar vivos ante el acontecimiento»). Por eso mismo, la experiencia afecta no sólo al plano existencial de la persona, determinando o modificando su modo de ver la vida, sino también el plano «existentivo», a su misma relación concreta con el conjunto de los acontecimientos en que se sitúa» {Teología de la historia, Sigúeme, Salamanca 1995, 211-212). En el caso del camino místico, la pasividad que suponen los estadios finales del mismo, la noche oscura por la que ha de pasar o padecer el sujeto implica, paradójicamente -lo místico es el reino de las paradojas-, la actividad de saber recibir, cuya ciencia es infinitamente más difícil, como sabía Blondel, que la de dar, de consentir ser literalmente «pelado como una naranja» sin oponer resistencias tales como la huida, la racionalización, la construcción de un ídolo o la indiferencia. Muchas veces, el lenguaje de los místicos es fundamentalmente descriptivo. En algunos casos, como en san Juan de la Cruz, es de una gran finura fenomenológica. Por debajo de la capa superficial de los textos, se señala o apunta una experiencia real del espíritu. Los místicos tienen un paradigma o modelo de organización de sus «textos». En parte ese modelo se corresponde (simbólicamente) con el núcleo de sus experiencias. Estos paradigmas determinan el «aire» de los testimonios o textos: el aire teresiano o tauleriano, susiano, sanjuanista o eckhartiano, etc. Y también determina sus «paradojas» lógicas. Lo dado en la experiencia mística no se percibe como caso particular de algo más genérico. El lenguaje místico no sólo es «deictémico», es decir, señalador hacia la experiencia y no hacia el diccionario, sino catalizador de la experiencia o, al menos, capaz de poner en el camino hacia ella (= experiencia intensa de unión con Dios): una experiencia subjetiva e interior cuyo contenido no se deja expresar por medio de términos cuyo sentido sería fijado por referencia a la percepción extema. En realidad, habría que matizar lo dicho anteriormente, en el sentido de que los textos místicos tienen naturaleza de ejemplos de lo que no se deja ejemplificar. Por lo tanto hay que distinguir, en rigor, su significado de su referente. Pero sabiendo que ese significado no es propiamente un «deictema» para catalizar experiencias en el lector. Podríamos decir, forzando un poco el lenguaje, que es un «deictema» no catalizador. Es claro que el místico sabe que su experiencia es don de Dios, no don de un texto, en cuanto texto, aunque empiece a veces con ocasión de un texto; por ejemplo, del Evangelio de Juan o de una carta de Pablo, etc. Esto puede cuestionar no la fenomenología del fenómeno, sino la aplicación de una fenomenología «genérica». Los místicos son singularistas, y uno de los capítulos por los que sienten que sus textos o testimonios no expresan la experiencia, es porque son necesariamente genéricos. Lo que tienen de «no inteligibles» es (entre otros motivos) lo que tienen de esfuerzo por forzar un lenguaje naturalmente generalizante a hablar de lo no general. Estas dificultades explican, de algún modo, el carácter transgresivo del lenguaje místico; es decir, «la tendencia a llevar el sentido primero de los vocablos hasta el límite de su capacidad significativa y en la utilización simbólica de todos ellos» (J. MARTÍN VELASCO, El fenómeno místico, Trotta, Madrid 1999, 53); su recurso constante a las paradojas y al estilo hiperbólico y exagerado, como una manera de «romper el nivel del pensamiento en el que se produce la antinomia para despertar a la nueva forma de conocimiento que corresponde a una realidad inefable en el nivel conceptual» (Ibid., 55); las frecuentes antítesis y la presencia del oxímoron que traducen en palabras la coincidentia oppositorum, de esa docta ignorantia que es la experiencia mística. Muchas veces, en fin, el lenguaje místico desemboca, como hacen algunas páginas de la música religiosa más sublime, en el silencio o, al menos, confinan con él. En cualquier caso, incluso cuando el místico parece distanciarse algo de la experiencia recurriendo a una especie de descripción fenomenológica, no puede evitar que se note su carácter autoimplicativo, lo que suele dar a sus textos esa peculiar potencia expresiva, cuando no coinciden en el mismo sujeto el teólogo, el artista poeta, el pensador y el místico, como es el caso, entre otros, de san Juan de la Cruz. Todas estas huellas indirectas del lenguaje de los místicos, permiten «reconstruir» algunos de los rasgos más importantes de la experiencia mística y de la manera como esa vida religiosa apunta o simboliza a la Realidad de la religión (el Misterio). De ahí que los estudios sobre el tema destaquen, además de su carácter totalizador u holístico y englobante -rodeador y abarcador, dijimos más arriba-, su «inmediatez» mediada, su carácter fruitivo y de plenitud; la cierta pasividad activa que lo acompaña; la oscuridad, inefabilidad y a la vez certeza de la que parece gozar el místico; la simplicidad o sencillez que parece acompañar a los estadios más elevados de la experiencia mística (pobreza de espíritu, decía san Juan de la Cruz), etc., y que no son sino otros tantos ecos o reflejos de una experiencia más originaria de la que surgen, de un núcleo esencial e irreductible que supone toda una ampliación inmensa de la antropología y que está hecho de contemplación, éxtasis y unión (o unidad, cuando se trata de místicas monistas), como experiencias básicas de dicho fenómeno. El misticismo no es algo añadido o al margen de la religión, sino la vivencia de ésta en la mayor plenitud y lucidez en todos los órdenes de la que se es capaz o, mejor dicho, de la capacidad de que dota el Misterio cuando el sujeto consiente a dejarse encontrar y agraciar por El. De ahí que la vida de los místicos de todas las tradiciones religiosas sea un éxodo permanente de sí mismos, un transcendimiento absoluto, un éxtasis no siempre fruitivo, pues esa «inversión intencional» (Martín Velasco) que produce, supone un sufrimiento, una muerte, una noche, una conversión; un perderse en el abismo insondable del Misterio para encontrase y ganarse en un estadio que los estudiosos del fenómeno místico denominan teopático. En las místicas teístas de la bhakti hindú, o en las formas de mística cristiana, esto no es sino la otra cara del amor con que Dios ama al sujeto y éste se vive, en un anhelo incurable, como término de ese amor y «flecha» cuya inercia es ese mismo amor hacia el que vuela. La atención a la forma de configuración del término de la experiencia mística, al modelo de relación que comporta con el sujeto (místico) -si se trata de unidad, fusión o unión-y a la «antropología» que supone; es decir, a la manera de concebirse éste a sí mismo, al estadio en el que se encuentra y del que parte hacia el encuentro con el Misterio, así como a las etapas o «escalones» del Mystical path, hará posible una fenomenología y una tipología de los distintos tipos de mística, permitiendo incorporar a ella las formas de mística no religiosas y, al mismo tiempo, haciendo ver la diferencia fenomenológica con respecto a las formas religiosas de la misma; pero no seguiremos aquí ese camino, sino más bien -de la mano de san Juan de la Cruz-, presentaremos el camino místico que propone destacando la condición transformadora e iniciática del mismo. En efecto, también la experiencia mística consiste en un morir y en un nacer a una nueva condición. Si se atiende al que parece ser el sujeto de la relación, le encontramos en un estado preliminar (A), de partida, como señala 2 Subida 2, y de forma menos dinámica y más diacrónica 1 Subida 2, que exige una «negación inicial» (Baruzi), un recogimiento, pues el término de donde el sujeto parte es de una estructura de atadura en esta fase de tiempo TI, que debe ser liberada. Este status inicial (A) desemboca en la primera experiencia de la Noche, el gran símbolo total de Juan de la Cruz. Comienza el tránsito, el margen o la transición: «Se llama noche este tránsito que hace el alma a la unión con Dios» (1 Subida, 2, 1). Cuando alguien está en un estado de umbral, separado de su condición anterior y aún no incorporado a una nueva (= unión con Dios), constituye una amenaza para sí mismo; la identidad peligra y se pierde pie, el miedo puede detener a muchas almas a entrar en esta purificadera y radical experiencia: «Las cuales comenzando el camino de la virtud, y queriéndolos nuestro Señor poner en esta noche oscura para que por ella pasen a la divina unión, ellos no pasan adelante; a veces por no querer entrar o dejarse entrar en ella, a veces por no se entender y faltarles guías idóneas y despiertas que los guíen hasta la cumbre» {Subida, prólogo, 3). Este tránsito o Noche pasiva de la contemplación estará jalonado por umbrales de paso por los que la purificación se hace más radical: todo el sujeto (entendimiento, memoria y voluntad) debe despojarse en pobreza espiritual, en fe absoluta para atravesar ese tránsito, vivido al principio como un impulso del deseo {élan místico) -como muestran las estrofas 1-12 de Cántico (A)-, pero, después, con el paso a la contemplación, como un don de la gracia. Por último, el término del movimiento -el status B, en la fase de tiempo T2-, la unión con Dios en el amor como estado teopático final, jalonado por una noche más terrible aún: la noche del espíritu, la aurora de la revelación de Dios en el amor. Volviendo al punto de partida. El sujeto se encuentra fijado por lo que Juan de la Cruz denomina apetitos. Varios autores modernos han señalado el contexto correcto de esta expresión; no es simplemente un uso escolar el que hace de él Juan de la Cruz, sino que apunta a un fenómeno de experiencia real: la fijación, la inmovilización del dinamismo afectivo por detenimiento en una etapa infantil que compromete así la expansión y el equilibrio de la plenitud de la vida. Con la misma radicalidad que el filósofo actual Jean-Luc Marion (cf. L'idole et la distance, Grasset, Paris 1977, 23ss), Juan de la Cruz quiere impedir a toda costa que el sujeto objetive, congele y paralice ese impulso infinito hacia el absoluto y lo divinice, haciendo de él un ídolo. La mirada coaguladora de lo divino de Marion, que evita atravesar la representación y perderse en el infinito, aparece en Juan de la Cruz vivido en un nivel más radical, más total: toda la existencia humana puede curvarse sobre sí y negarse el futuro, entrando en un proceso mítico de venida a menos del tiempo. En el estado de la Noche del sentido, el sujeto parece vivirse como ftnitum non capax infiniti, y así hablan los textos, aparentemente duros, de 1 Subida 4. En este texto se habla de que la relación Dios-ser de las criaturas es como la que hay del ser a la nada; es decir, parece negar toda posible analogía entis en una postura muy barthiana de fe absoluta. Tanto Fernando Urbina como F. Kelly Nemeck han llamado la atención sobre el hecho de que «nada» no apunta aquí a la realidad existente de las cosas, cuanto al «apetito» o «fijación» que ata posesivamente a la realidad. Lo que lleva a la nada es precisamente la atadura, la detención de un ser -el hombre, hecho para lo infinito-, en una realidad finita-idolizada. Para quebrar esta estructura de atadura el sujeto debe crear unas disposiciones previas: unificación, concentración, estar presente a sí mismo; es decir, tiene que haber un verdadero sujeto. Este es el objetivo de los caminos ascéticos de todas las religiones, de todas las vías iniciáticas, hacer llegar al sujeto religioso a una madurez tal, a una tal provocación, a una estatura tal, que le irrumpa y se le de -de forma gratuita e inmanipulada-el término de la relación religiosa. Con todo, el sujeto no está completamente abandonado de Dios e incapacitado para ir a El. Es Él mismo quien, en los textos de Juan de la Cruz, parece meter al alma en ese tránsito (= ser el agente del tránsito): «Sin otra luz y guía / sino la que en el corazón ardía», pues «el amor solo que en este tiempo arde, solicitando el corazón por el Amado, es el que guía y mueve al alma entonces, y la hace volar a su Dios por el camino de la soledad, sin ella saber cómo ni de qué manera» (2 Noche, 25, 3). En la primera canción del Cántico B, comentando el verso «Amado, y me dejaste con gemido», dice Juan de la Cruz: «Este gemido, pues tiene aquí el alma dentro de sí en el corazón enamorado, porque donde hiere el amor allí está el gemido de la herida clamando siempre en el sentimiento de la ausencia» (Cántico [B], 1-14). Que el sujeto esté herido es tanto como decir que está abierto. Este descubrimiento se hace experiencia en la Noche y se convierte en impulso para seguir adelante hasta donde pueda, pues llega un momento en que debe ser liberado por otro, entrar en una hondura mayor, en una pasividad. Esta fase ascética que es a la vez activa y pasiva (cf. 1 Subida, 13, 1), ha puesto al sujeto ante su abismo, le ha llevado a su «más profundo centro», a su abismo más hondo, al toque sustancial, al corazón (cf. 2 Noche, 2, 17, 2: «Dentro del alma sustancialmente»). Es precisamente este «centro del alma» -Grund, fondo, raíz, apex animae, chispa, Grund-Abgrund (fondo sin fondo) de los místicos del norte-quien es capax Dei. De la actitud de posesión se pasa en esta iniciación a la pobreza de espíritu (cf. 2 Subida, 7; 24, 8), a la irrupción y experiencia de ser referido al término, en tender al cual consiste como sujeto. Este «profundo centro» sólo se pone en marcha cuando irrumpe el término de la relación, que en todo momento no pierde su calidad de Mis-terio, de totalmente otro, indisponible, verdadero sujeto y centro de una relación originaria y originante, sólo accesible por un acto de absoluto trascendimiento: «Entróme donde no supe / y quedóme no sabiendo / toda sciencia trascendiendo» {Poema 9, 1.^ estrofa). Una realidad íntimamente presente que supera toda dualidad de lo que es relativo permitiendo la unidad sin confusión de la participación, como muestra la constante fómula de Juan de la Cruz: «Cuan se puede en esta vida». Trascendencia que en Juan de la Cruz designa el carácter propio de Dios expresado en la kénosis del Hijo como palabra única y última para el hombre, como muestra el gran texto cristológico de 2 Subida 22, 5. Juan de la Cruz ve en este momento al hombre como «Dios por participación», cuyo centro es Dios mismo: «El centro del alma es Dios, al cual cuando ella hubiere llegado según toda la capacidad de su ser y según la fuerza de su operación e inclinación habrá llegado al último y más profundo centro en Dios» (Llama, canción 1.^, 12). ¿Qué ocurre, además, en este tránsito con la relación misma? También sufre una radical transformación y conversión. Al superar por medio de las Noches las ataduras a los apetitos, supera la forma de relación que rige para con los objetos del mundo. La experiencia de la iluminación contemplativa libera la profundidad de la razón que se abre a su fundamento, acogiendo, convirtiéndola en deseo radical que la saca de sí. Expresiones como «noticia general amorosa» nos ponen en la pista de esa nueva mirada inobjetiva acaecida por la iluminación; el que estaba herido «del alma en el más profundo centro» descubre que es una «atractura», amor de Dios puesto en pie; que su fondo último, lo realmente real de su ser -su esencia-, es ese ser-de-referencia al fundamento al que está abierto. Es el impulso del amor el que hace que en este momento nazca un «milagro»: el aparente finitum non capax infiniti, se convierte ahora en capaz de Dios. El místico ve la analogía entis porque vive desde más abajo de ella, le parece tan sólo como la corteza cognoscitiva de una experiencia mucho más honda de carácter anagógico. Para comprender mejor esta escisión íntima o herida ontológica en que consiste la presencia inobjetiva del Misterio en el hombre -y que hace posible el paso por la noche-, de su carácter constituyente y provocador de todo tipo de expresiones, habría que analizar con mucho mayor detenimiento la paradójica constitución corporal del hombre: la experiencia de la desproporción entre lo que somos y lo que tendemos a ser; o, como decía Blondel, el hecho de que «de mí a mí mismo hay un abismo que nada puede colmar» {La Acción, BAC, Madrid 1996, 386), se despierta o hace posible porque somos un «cuerpo subjetivo» (categoría que Michel Henry, por ejemplo, toma de Maine de Biran) que nos abre al mundo precisamente porque está inhabitado de interioridad, porque hace de nosotros el habitáculo en el que estamos y somos vivientes («alma», en la terminología de Henry), permitiendo que seamos una «caja de resonancia» de ese más allá de nosotros mismos que nos constituye y que habla, precisamente, haciéndonos hablar (J. L. Chrétiene), provocándonos, como el motor de nuestra vida espiritual, a poner nombre a esa «visita originaria», imposible de explicar porque está en la base de toda comprensión como aquello, precisamente, que la hace posible. Una «caja de resonancia» que, permitiendo esa «extraña acústica del mundo espiritual» (M. Henry), y todo tipo de conexiones y reverberaciones, ilumina la realidad creada permitiendo verla, gracias a esa anagogía, como el reflejo de la Belleza, la Verdad y el Ser que tienen en Dios su fundamento. El hombre es un ser capax symbolorum porque él mismo es un símbolo originario, porque hay una interesante relación entre interior y exterior, entre interioridad y exterioridad en su misma constitución. Nunca termina de ver reflejado del todo en el «espacio exterior» la previa presencia originaria y donante del Misterio que provoca a que, desde su «espacio interior», resuene y cobre voz al reflejarse en las realidades intramundanas. La experiencia del paso por la noche hace posible la decostrucción del sujeto a partir de la irrupción de la exterioridad, del o(0)tro, así como el «acceso» a la profundidad patética del propio ser, escrutando las zonas más recónditas del mismo para descubrir la presencia inobjetiva del Misterio que se manifiesta, sin dejar de ser tal, en la esfera más íntima de la subjetividad. Según Michel Henry, la esencia de la manifestación es la afección, la vida que se nos revela antes que todo en nuestra propia vida, y ante la cual no nos encontramos como frente a un objeto; del mismo modo que la luz, que hace posible lo iluminado pero que ella misma no se ve, así «nadie ha visto nunca la vida ni la verá jamás. ¿Quién ha visto la propia pena, la propia angustia, el propio amor? ¿Quién ha visto jamás a Dios?», se pregunta Henry en el prefacio que escribió para la traducción italiana de su Genealogía del psicoanálisis (1985; 1990). Por lo que respecta a Dios, no sabemos nada sino en la medida en que El se revela. En el intento de preguntarse cómo se manifiesta Dios a nosotros, coinciden la búsqueda fundamental de la fenomenología con la indagación propia de la teología, puesto que de lo que se trata no es tanto de establecer qué cosa se dona, se revela o manifiesta, sino el cómo se dona o revela (Dios, en el caso de la teología; las cosas o la vida, en el de la fenomenología). Evitar que la luz de lo que se muestra no ciegue para detectar el aparecer mismo (que Henry llama «fenomenicidad») de lo que aparece. Es lo que expresa en textos tan difíciles como este: «Revelación sólo hay y sólo puede haber cuando el modo de donación extático en el afuera de un mundo, deja paso a un modo de fenomenización de la fenomenicidad tan radicalmente diferente, que no es un destello de luz del primero que penetrara en la materia fenomenológica del segundo, sino que de este modo, al ser heterogéneo al primer modo de aparecer, el segundo se da como ima revelación» («Qu' est-ce qu 'une révélation», Archivio di Filosofía 1-3 [1994] 52). Para que haya revelación, se necesita que se dé una ruptura radical entre la aparición inicial y lo que se desvela en último término. Ruptura que afecta al cómo de la donación misma y no tanto al modo en que se manifiesta. No pensemos que términos como «esencia» o «fenomenicidad» apuntan hacia algo abstracto o general; antes bien, señalan la plenitud individual y la máxima concreción. Como si en el núcleo íntimo de lo que se muestra hubiera ya algo que se resiste a ser objetivado y que escapa del saber de la representación. Pero la vida humana es autoafección, auto-sentir y auto-padecer, afectividad, soledad cuyo contenido es la Parusía como esencia de la vida. Por tanto el Absoluto, además de trascendencia suma, es también pasividad, radical inmanencia. La vida es sufrimiento y alegría nunca separados. El primero es como la carne de la que la Alegría está hecha y mediante este sentimiento tornasolado, la subjetividad que somos aparece como «autoafección del Absoluto» que nos hace seres vivos con el sentimiento de sí mismos; donde la afectividad, como esta experiencia inmediata de sí y como experiencia no teórica o especulativa, aparece como lo más concreto del «sentirse a sí mismo»: pasividad ontológica originaria, amor espiritual. Hasta el punto de que el cristianismo viene a sustituir la pura formalidad de la ley kantiana por la ley del amor: «Con la sustitución del amor por el respeto, y precisamente gracias a ella, Kant se ha creído en sintonía con el cristianismo, pero éste reposa justamente sobre la sustitución inversa, sobre la de la ley por el amor, y es por ello que su pensamiento supremo es el no-pensamiento, la unidad con la vida absoluta, [...] con Dios mismo» (L'essence de la manifestatiom, PUF, Paris [1969] 1990, 666). Esta experiencia estalla en la obra diurna: Cántico y Llama. Juan de la Cruz descubre ahora la realidad transfigurada; ve el lado por el que las cosas y las personas están cargadas de infinitud: aquél por el que creadas por y para Cristo -y en él consistentes (Col 1, 15-20)-remiten al Padre. Llama canta el hecho y la fe de verse inmerso en ese movimiento circular de la Trinidad en la historia. Nada es remitido al Padre sino por o en el Espíritu Santo, verdadero protagonista de Llama. El Padre le ama en y con el amor que engendra al Hijo (históricamente encarnado, muerto en la cruz y resucitado -cf. el texto cristológico-); y él ama al Padre en y con el amor con que el Hijo lo ama y lo conoce, y procede del Padre, y utiliza su amor para ejercer su amor al Padre, y ese amor es Dios Espíritu Santo. Y esto lo vive el místico no como un sentido de cosas, sino como un acontecimiento real -sucediente-, como sentimiento real de presencia de Dios real. Vive el misterio trinitario del amor de Dios como su patria real, si bien el Cristo joánico fue más atrevido: nosotros somos la patria de la Trinidad -«vendremos a él y liaremos morada en él» (Jn 14, 23. Y así, en el status B (tiempo T2), Juan de la Cruz contempla el misterio último de la realidad como un océano de amor que pone todo en razón: «[...] En lo cual parece al alma que todo el universo es un mar de amor en que ella está engolfada, no echando de ver término ni fin donde se acabe ese amor, sintiendo en sí, como habemos dicho, el vivo punto y centro del amor» (Llama, 2, 10). Estado teopático, o misterio de la unión con Dios que conjuga la dialéctica del acto religioso cristiano -la unión y la diferencia-, en una transformación que es participación en la vida de Dios y, por ello, hominización total. Al tener Juan de la Cruz una representación fuertemente personalizada del Misterio, no porque a éste se le atribuyan las notas de la persona, sino porque es el fundamento de nuestro ser personal, expresará la unión en términos de adecuación de voluntades entre Dios y el hombre (cf. 1 Subida,11). Como ya se ha insinuado en otra ocasión más arriba, la experiencia mística tiene lugar en el interior de la fe de cada tradición religiosa como una vivencia plena y lúcida de ésta. El místico hace la experiencia de que todo es más de lo que es: las cosas todas, la naturaleza, nuestro mundo, las personas, el sujeto mismo. Vive todo como dotado de un lado interior, invisible, profundo; como cargado de infinitud. Cuando se trata de un místico cristiano, esa infinitud es consecuencia del hecho y la fe de que todo ha sido creado en por y para Cristo, remitiendo al Padre por o en el Espíritu Santo. Todo remitiendo, apuntando, señalando hasta el padecimiento y la sed de que nada «sabe decirme lo que quiero», pero que no termina en la desesperación, a pesar de las más oscuras noches, porque siempre dura más tiempo que las ausencias y desamparos la tenue y silente voz de ese hacia o para final y de origen que el místico percibe tan instalado en las cosas y las personas, de modo que se vive todo él como anhelo, «tensión hacia» (epextasis, decía Gregorio de Nisa, el más platónico de los padres), capacidad de recepción de la presencia constituyente de Dios, paradójica sed e insuficiencia que, por gracia, plenifica. «Estas cavernas -dice san Juan de la Cruz-son potencias del alma [...] las cuales son tan profundas cuanto de grandes bienes son capaces, pues no se llenan con menos que infinito» {Llama de amor viva, 3, 18, 22), magnífica expresión del finitum capax infiniti. De ahí el talante lírico de muchos místicos, puesto que podríamos decir, sin temor a exagerar, que lo místico es lo lírico de la experiencia religiosa, por su afán de intimidad y confidencia, por la potenciación y glorificación de todo lo concreto al vivirlo desde su dimensión de profundidad, gracias a la «inversión intencional», y a la potenciación, también, del registro afectivo de sentimientos y emociones que no dejará de tener un eco en el mismo lenguaje. Lo místico es como el «por de dentro» (Quevedo) de la experiencia religiosa que, sin embargo, no puede dejar de irrumpir, de llegar a expresión, siendo a su vez, la condición de posibilidad de la lucidez en todos los órdenes: especulativo, ético, estético, religioso. En su experiencia del precipitarse de todo hacia Dios, los místicos padecen la hermosura de las cosas porque las ven caducas, al ser hoy y no ser mañana; al pasar y, sin embargo, estar dotadas de esplendor, las viven a la vez como siempre nuevas aunque no duren casi nada. De ahí que muchos de ellos, dotados de genio artístico, hayan intentado eternizar el instante de lo que es hermoso por efímero. Al afinar la sensibilidad lírica, la experiencia mística hace posibles y convoca las experiencias éticas, teóricas o de amor al prójimo sin sentirlo como un añadido contrapuesto a su núcleo esencial, sino como una consecuencia obediente a su lógica interna. La verdadera «inversión total de intencionalidad» (J. MARTÍN VELASCO, O.C, 414) que supone el paso por la noche oscura, transmuta las maneras de conocer, sentir, imaginar, etc., de un uso controlador, posesivo y dispersante a otro participative o receptivo, agápico y libre -sin ataduras, o al menos consciente de sus peligros-, unificante. Es justamente este cambio, verdadera conversión de la mirada y el corazón, ahora raíz de ella, el que dota al místico de esa vivencia tan peculiar de la fe como es la figura de la contemplación. Basta para constatarlo, leer un texto realmente increíble de San Juan de la Cruz, cuando comenta el verso «y vamonos a ver en tu hermosura»: «Que quiere decir: hagamos de manera que por medio de este ejercicio de amor ya dicho lleguemos hasta vernos en tu hermosura en la vida eterna; esto es, que de tal manera esté yo transformada en tu hermosura, que, siendo semejante en hermosura, nos veamos entrambos en tu hermosura, teniendo ya tu misma hermosura; de manera que, mirando el uno al otro, vea cada uno en el otro su hermosura, siendo la una y la del otro tu hermosura sola, absorta yo en tu hermosura; y así te veré yo a ti en tu hermosura, y tu a mi en tu hermosura, y yo me veré en ti en tu hermosura, y tú te verás en mi en tu hermosura; y así parezca yo tú en tu hermosura, y parezcas tú yo en tu hermosura, y mi hermosura sea tu hermosura y tu hermosura mi hermosura; y así seré yo tú en tu hermosura, y serás tú yo en tu hermosura, porque tu misma hermosura será mi hermosura; y así nos veremos el uno al otro en tu hermosura» (Cántico espiritual [B], 36, 5). Veinticinco veces, sin contar las variaciones adverbiales o adjetivas, aparece en este texto monumental del lirismo la palabra hermosura. En él no estamos firente a una simple descripción, sino en el terreno «exagerado» de la adoración religiosa, de la oración, de la religión en acto, donde el transcendimiento del sujeto está más en «el Amado» -en el Dios filiante (cf. la cita siguiente de Jn 17, 10), término de la actitud religiosaque en el lector. En quien decían que se holgaba de que Dios tuviese tanta hermosura, no sorprende una creación semejante que, por otra parte, no es un texto aislado en su obra (cf. Cántico, 5, 4; 6, 1; 11, entre otros). Con todo, el místico auténtico es una persona lúcida, que no se engaña. Basta para ello leer con detenimiento los primeros capítulos de la Noche oscura de san Juan de la Cruz, para darse cuenta de la finura con que el santo pone el dedo en la llaga de los peligros que acechan a quien se adentra en la búsqueda de la unión con Dios y ha pasado ya los primeros estadios en los que los avances parecen espectaculares; es decir, de las ilusiones y engaños que pueden ocultarse sub angelo lucis. La aguda conciencia de un fenómeno típico de la vida religiosa, y por tanto también de la intensidad de la experiencia mística, de que sucede como si, a la par y en uno, estuvieran juntas la religión y lo que en ella la contradice (la falta de religiosidad). Si existir religiosamente es reconocer personalmente al Tú Eterno, dándole espacio en la propia vida y haciéndole sitio en el mundo, eso supone ya la entrega de uno mismo a un proceso o dinamismo de transcendimiento que no nos deja igual para el resto de la vida. Por eso, la tentación de la falta de religiosidad, como consecuencia de experimentar en vivo la gran distancia, el abismo que hay de mí a mí mismo (y que yo no puedo colmar, como gustaba de decir Blondel) entre mi testimonio y la intención que lo inhabita y provoca, puede tomar las más diversas formas; entre otras: la constante caída en el desamor y en el egoísmo; el ceder al «entristamiento» o al sin sentido; la participación irreflexiva en los actos litúrgicos; el refugio en un falso «misticismo», creyendo poder estar casi de continuo en el ámbito de lo sagrado disponiendo de él a nuestro antojo; el engañarse sobre Dios con teorías insignificantes, haciendo absolutos de nuestras «teologías» y rechazando todo lo que no entra por los estrechos moldes de ellas y aceptando, sólo, lo que subraya o confirma nuestras opiniones, etc, etc. El místico no ve otra solución a todo esto que pedir denodadamente a Dios la virtud de la humildad y el arrojo de no ceder al abandono de la tensión del espíritu. En esos momentos, toma conciencia de que su vida religiosa es muchas ve-ces, al menos, una trivial y muy frecuentemente aburrida conversación por su parte con un interlocutor de una calidad excelsa. Esa humildad le pone al místico en camino de reconocer que está siempre en el inicio de la comprensión y que, en cuestiones de religión vivida, puede darle lecciones cualquiera (como en casi todo). El camino de ese transcendimiento es largo y semejante desapego costoso. Los éxitos en el mismo, el hecho de que a veces esté inspirado y que, dentro de él, la presencia inobjetiva de Dios le dote de capacidad, de resonancia que hace de toda criatura «palabra y símbolo» (como decía Nietzche, refiriéndose a la inspiración poética, con un lenguaje de asombrosa correspondencia homeomórfica con la revelación religiosa); que le remita, apunte y hable -como se dijo más arriba-, convirtiéndose en «palabra», no le ciega de tal modo que no vea la posibilidad, siempre actual, de comenzar a precipitarse por el plano inclinado del gozo de su «sí-mismo» deteniendo, en ese mismo instante, la actitud extática de reconocimiento y adoración de la alteridad suma de Dios que, por ser tal, puede al mismo tiempo ser la presencia más íntima a nosotros que quepa imaginar {interior intimo meo).
La compleja trayectoria que, mediante ruptura o compromiso, configura la relación entre la esfera pública y la privada, ha definido una nueva manera de concebir, vivir y preservar la realización de lo religioso en el mundo. Para delimitar el campo de estudio se establecen tres usos de la dicotomía «público-privado». Es posible establecer de este modo la triple dimensión del espacio en que recíprocamente se determinan. La compleja trayectoria que, mediante ruptura o compromiso, configura la relación entre la esfera pública y la esfera de la existencia privada, ha definido una nueva manera de concebir, vivir y preservar la realización de la fe y la figura de la Iglesia. Cualquiera que sea el origen de la distinción y el momento de su nacimiento, la diferencia entre lo público y lo privado persigue a la reflexión actual con la fuerza de una pesadilla. La dicotomía público-privado se ha impuesto como categoría básica del pensamiento jurídico (derecho privado y derecho público), determina la índole de los intereses en la vida colectiva (interés público y privado), expresa la forma en que los individuos regulan sus relaciones (atentos al público o al privado) y, finalmente, se ha convertido en un criterio para interpretar los acontecimientos (historia de la vida privada). El proceso de creación de ambos territorios no ha sido lineal, regular y unívoco. Los límites entre ambos son difusos, ya que dependen de las latitudes geográficas, de las prácticas sociales, del régimen político constitucional y de aquello que en cada momento se considera administrable. La dimensión pública del proyecto de vida inspirado en el Evangelio de Je¡?ús de Nazaret es decisiva para que la Iglesia Católica no malogre su misión en el momento histórico actual (BELDA: 53) y constituye la prueba decisiva que marca hoy la diferencia entre los distintos modelos de Iglesia. Para delimitar, representar y ordenar el campo de investigación estableceremos tres usos de la dicotomía «público/privado» que pueden iluminar la realidad y demostrar su idoneidad en la problemática actual. Es posible establecer de este modo la triple dimensión del espacio en que recíprocamente se determinan lo público y lo privado en su carácter dinámico y en su contraste. Hay un área particular, netamente delimitada, que hace referencia a esa parte de la existencia identificada como privada, una zona de inmunidad ofrecida al repliegue, al retiro, donde uno puede abandonar las armas y las defensas de las que le conviene hallarse provisto cuando se aventura en el espacio público; donde tmo se distiende, donde uno se encuentra a gusto, «en zapatillas», libre del caparazón con que nos mostramos y nos protegemos del exterior. Es el lugar familiar y doméstico (DUBY: 10). Lo público se distingue de lo privado como se contrapone el mundo sistémico al mundo de vida, que es el ámbito de las relaciones interindividuales, el espacio de lo íntimo y familiar, el lugar de la interacción cotidiana y de lo irreductiblemente personal. El mundo sistémico, por el contrario, evoca la organización estructural, la coacción institucional y la sociedad anónima y administrada. A un lado, un remanso de paz, refugio familiar en que se eligen amistades y libertades; al otro, las imposiciones de la vida pública, la disciplina del trabajo jerarquizado, el rigor de los compromisos. Esta dicotomía valora los encantos del terreno reservado, incesantemente amenazado por la fatal intrusión de las exigencias públicas (GASTAN: 413). El espacio público se caracteriza por estar abierto al espectador, frente al espacio privado que se caracteriza por estar escondido. Si lo primero está presidido por la publicidad, lo privado es amigo del secreto. La accesibilidad es la nota de lo público. «En lo privado se encuentra encerrado lo que sólo le pertenece a uno mismo, lo que no concierne a los demás, lo que no cabe divulgar ni mostrar... La vida privada se muestra, pues, como tapiada» (DuBY: 10). El espacio público está directamente basado en el uso público de la razón, que llega a introducir la discusión y el consenso, amplía la exigencia de la crítica racional a los terrenos que hasta entonces se habían sustraído al debate público y pretende hablar en nombre de la opinión pública constituida, frente a la política del príncipe (CHARTIER: 24). La dimensión pública de la fe 3. El espacio público es el territorio de lo generalizable y universalizable. Está en relación con el interés colectivo y tiene una pretensión de universalidad. En esta concepción, lo público es el Estado, el territorio de la Administración; y, por otra parte, « lo privado correspondía a todo lo que se sustraía al Estado» (ARIES: 17), al territorio particular acotado en razón de lazos de procedencia y sangre, o simplemente de intereses particulares. Lo privado es aquello que resulta excluyente, y viene de «privar», que significa también negar a los demás lo que uno tiene, y por eso es privada especialmente la propiedad. La fe cristiana tiene la fisiología propia de la convicción que la hace anidar en el mundo vital de cada persona. Allí crece o se achica, allí se gana o se pierde. Hasta tal punto se identifica con él que resulta imposible saber si la fe habita en el mundo vital o más bien, lo constituye. Es su auténtico escenario no sólo como espacio donde se ubica, sino como elemento constitutivo de su representación. El mundo vital es la esfera de lo íntimo y familiar, de la producción de sentido, de la normatividad autónoma, de la subjetividad. Constituye el ámbito de las relaciones intersubjetivas que preceden y acompañan a la reproducción de la vida humana; las comunicaciones reales y simbólicas entre un número reducido de personas forman la red de intimidad, familiaridad, amistad e interacción cotidiana. Como ha señalado HABER-MAS, los mundos vitales son a la vez el laboratorio de las experiencias fundamentales, el arbitro del sentido y el experimento de las legitimaciones. De este modo, el mundo vital se constituye en el lugar de las experiencias fundamentales, que configuran la identidad personal. Desde la vivencia de la temporalidad hasta la creación del «nosotros» se fraguan y moldean en aquel escenario, que forma «el reino de las evidencias originarias». En contraposición al mundo vital unas veces, colonizándolo otras, y yuxtapuesto las más, aparece el territorio del sistema social como el mundo de lo anónimo, de la organización estructural, de la normatividad heterónoma y de la coacción institucional. Constituye el conjunto de relaciones sociales tipificadas, de tramas normativas y estructuras de control que generan finalmente una sociedad administrada. Circulan por sus nervios la eficacia, el dinero y el poder. Si atendemos a esta primera delimitación entre lo público y lo privado que significa el mundo de la vida (privado) y el sistema social (públi-Joaquín García Roca co), la fe pertenece inequívocamente a la esfera de la privaticidad, de la intimidad y de la familiaridad, de las relaciones intersubjetivas y de la producción de sentido. De ellas recibe sus providencias. Aunque sean muchas las patologías que la privatización de la fe haya causado en los últimos años, no podemos ignorar su fisiología: la fe pertenece, en todo su rigor, al mundo de la vida. En consecuencia, la forma pública de la fe tiene en su propio origen la marca y el relieve propios de las convicciones profundas, que se fraguan en la conciencia y en la intimidad. La presencia pública de la fe no puede ignorar este hecho si quiere distanciarse de la mera propaganda o de la simple publicidad. Será necesario hoy reivindicar: • La vida cotidiana como espacio primordial de la realización de la fe. • La conciencia como vehículo originario de la fe. • El misterio como cualidad de su presencia. El auténtico timbre de la fe, que deriva de la unión con Dios como presencia viva y escondida en el corazón del hombre, repercute con toda la gama de sonidos en el escenario de la vida cotidiana, que está hecha de encuentros y de ocasiones, de conversaciones y de desencuentros, de ceremonias y de acontecimientos. Todo ello es la nervatura por donde circula la savia de la fe, su primera y decisiva ubicación. Hay que recuperar este escenario de lo cotidiano como la trama por antonomasia de la fe, y desdramatizar la teología de la fe hecha primariamente de situaciones extremas, que han impuesto a la representación de la fe un timbre trágico y grandilocuente, como si la excepción pudiera definir la realidad misma. El marco habitual de la fe era sustituido por la situación excepcional; en lugar de rastrearla por los residuos cotidianos, se buscaba en los lugares insólitos y extraordinarios. La dimensión pública de la fe era pensada desde los rasgos de la conversión, cuando en realidad los episodios de la vida diaria son los lugares mismos de la fe y la vida cotidiana es el tejido conjuntivo de la gracia (GARCÍA ROCA, 1988: 414). Si la vida diaria es el marco de la fe, la presencia pública es inseparable de los rasgos esenciales de lo cotidiano. Subrayaré aquellos que son decisivos en la hora actual. La cualidad primaria de lo cotidiano es su precariedad y su latencia. Todo en ello parece tan obvio, que invita a confundirse con lo natural. Es el lugar de lo imperceptible, de las interacciones tan triviales y habituadas, que GOFFMAN identificó como el «polvo» de la actividad social. Sus La dimensión pública de la fe 723 manifestaciones se construyen con material frágil e inestable, y todo en ello es latente y lábil, y a través suyo circula lo obvio y lo informal metamorfoseado de convicción y de rituales. La vida cotidiana es una especie de tejido, que sostiene las interacciones y los modos de significar habituales en nosotros, así como regula constantemente las relaciones sociales. Por esta razón se ha considerado como unidad fundamental de la vida social (WOLF: 23). El Sínodo de Obispos sobre los Laicos ha visto en ella el territorio natural de la fe, en cuanto expresa «la unidad de vida» y «la concretez en condiciones cotidianas y seculares» (Proposición 5). Es el laboratorio donde se experimenta la identidad, la dignidad, el desconcierto, las reservas, los valores, los olvidos y los comportamientos apropiados. Es allí donde, si fuera necesario, reconstruye una nueva definición de su propio ser y aprende a producir nuestro sentido de la realidad y de la lealtad. Por esta razón, nada hay irrelevante en la vida cotidiana, y es «en los acontecimientos cotidianos donde se muestra la fidelidad al Espíritu Santo y se realiza la nueva ley de la caridad» (Proposición 5). Como quería ORTEGA Y GASSET, «la vida es andar a golpes y caricias con las cosas». Si fuera sólo caricias, sería demasiado frágil; si sólo conociera los golpes, sería el lugar de lo inerte. Es a la vez lo que hacemos y lo que nos pasa, actividad y pasividad, institución y espontaneidad. Si la presencia de la fe tomara radicalmente en serio su ubicación en la vida cotidiana, debería incorporar con rigor lo que la tradición llamó «actus signatus» y «actus exercitus», es decir, el acto directo y el acto reflexivo. La reciente historia de Occidente sobredimensionó la importancia de la reflexión y de la autoconciencia hasta disminuir la importancia de lo inmediato y de lo vivido. Frente a este dominio de la reflexión, la fenomenología empezó a mostrar que hay un modo de ser en el mundo que no está ha sometido a nuestro arbitrio y que posee una autoridad originaria y una pretensión inmediata de verdad. En este supuesto, la reflexión acompaña simultáneamente al decir, es «el acto directo» de los escolásticos. GADAMER recuerda, en distintos lugares de su obra, el gran descubrimiento que se produjo en filosofía cuando HEIDEGGER utilizó esta distinción escolástica: «Nos pareció un camino hacia la libertad, ya que prometía la liberación del cerco inevitablemente limitativo de la reflexión». Hay un acto directo e inmediato en el cual se experimenta la realidad de manera completamente noreflexiva, y sólo se transforma en un «actus signatus» a costa de un nuevo ocult amiento. Desarrollar la pretensión del acto directo e inmediato frente al predominio de la reflexión ha sido una de las tareas primordiales de la Nue-724 Joaquín García Roca va Hermenéutica que GADAMER se ha propuesto mostrar en el ámbito de la experiencia artística y en la experiencia histórica. Fue precisamente Dietrich BONHOEFFER, el teólogo que en el siglo XX ha llevado la reflexión a mayores alturas, quien vio la importancia de la distinción. Vio en la fe un acto directo e inmediato cuya centralidad determina todas sus dimensiones. La presencia pública de la fe tiene la forma propia del acto directo e inmediato y, como tal, transita «por un universo sin textos ni escrituras» (LE GOFF: 144). Es un mérito indiscutible de la Teología de la Liberación haber reivindicado la dimensión experiencial de la fe como acto primero; lo cual permite declarar el resto como acto segundo y derivado. Sólo la espiritualidad -acto primero y directo-legitima la teología. Reivindicación de la conciencia Todo lo que afecta radicalmente al hombre le atañe a través de la conciencia. Como ha recordado RoviRA, «el lugar de la fe es la conciencia del hombre. Conciencia inteligente y libre, que señala ese punto donde el hombre se sabe persona, es decir, individuo en relación con los otros. Ese punto central desde §1 cual el hombre juzga, decide, se adhiere y se compromete. Allí donde se experimenta a sí mismo abierto y capaz de trascender todo conocimiento y toda acción puntuales. Allí donde se sabe también trascendido por la Palabra y por el Amor» (1988: 23). Si éste es su lugar, la conciencia impone a la fe su modo de ser y sus características peculiares. Quisiera subrayar aquellas que determinan importantes consecuencias para la presencia pública. Con frecuencia, en el campo de la moral se ha afirmado que la ley de Dios tiene una realidad en sí misma, y se representa como algo extrínseco a la conciencia. Este extrínseco fue rechazado por el Concilio Vaticano II al afirmar que corresponde a la conciencia «inscribir la ley divina en la sociedad terrestre» (GAUDIUM ET SPES 36, 2). No existe ninguna otra vinculación entre la ley de Dios y la realidad humana. La ley de Dios no está inscrita en las cosas ni en la naturaleza, como quería el tradicionalismo católico, sino que corresponde al hombre descifrarla a través del discernimiento y de la formación de la conciencia. La solución concreta e inmediata no puede dictarse desde fuera. Se puede, evidentemente, recordar o establecer un cuerpo de doctrina; pero en ningún caso puede sustituir al acto moral que nace cuando la ley de Dios se encuentra con la realidad a través de la conciencia. Los llamados «primeros principios, con toda su validez autónoma, quedan a gran distancia de la acción ética»; la conciencia cubre aque-La dimensión pública de la fe lia distancia en referencia a la concreción existencial, hasta producir «una mutua influencia entre los valores fundamentales y la experiencia ética existencial» (SANCHIS: 78). La generación del Concilio entendió este hecho como la gran novedad y se dedicó a promocionar la conciencia, a responsabilizarla, ya que sólo ella puede ordenar la realidad según Dios. Se comprende bien que la teología anticonciliar arremeta contra esta verdad, ya que en ella está el auténtico giro que supuso el Vaticano IL En la clausura del Encuentro que celebraba el veinte aniversario de la Humanae Vitae, el teólogo papal C. CAFARRA identificaba a los teólogos «adversarios» como aquellos que enseñan que «la libertad del hombre, la conciencia, la comprensión de sí mismo, es el hecho originario, último, fundamental y fundante de toda la historia humana, para los cuales es ilícito apelar a una realidad (Dios) que precede a la conciencia del hombre» (HARING: 224, nota 89). Si la fe anida en la conciencia, hereda de ella aquellos rasgos que le son consustanciales. La conciencia como centro de la decisión y del juicio está hermanada con la intimidad. Con frecuencia le acompaña el drama íntimo, y no pocas veces conoce la soledad y el desgarro. Todo aquello que afecta al hombre en su ultimidad va acompañado de discreción. La conciencia en la profesión de fe tiene más derechos que los que estamos dispuestos a concederle. No es legítimo confundir lo que es una expresión de la intimidad con la tendencia a la privatización de la fe; más bien será necesario redescubrir el papel esencial de la fe en la constitución del fuero interno. Se ha observado con razón que las nuevas formas de religión fueron un factor decisivo en el origen de la esfera privada: la piedad interior, el examen de conciencia, la confesión individual, la dirección espiritual, la meditación (ARIES: 10). Las dos Reformas del siglo XVI -la protestante y la católica-estimaron una piedad que cada vez fue interiorizándose más, y de este modo modificaron la idea de uno mismo y de su papel en la vida diaria de la sociedad (LEBRUN: III). La fe no puede renunciar a su vinculación con la intimidad ni abandonar su protección ante la mirada de los demás. El acto de fe nace allí donde el individuo deja de insertarse en solidaridades orgánicas y de vincularse en linajes, ya que la fe no viene de la sangre. El creyente no puede ser absorbido por nada, ni siquiera por la comunidad. La fe es lo más íntimo, porque es lo más libre. La comunidad que nazca de este hecho original es una comunidad de hombres libres. La presencia pública de la fe no puede significar el dominio de los vínculos comunitarios sobre la realidad de la conciencia, sino que la expresión comunitaria de la fe posibilita el cultivo de la conciencia, la alimen- Ninguna legislación eclesiástica puede ser insensible a este hecho. Durante toda la historia del cristianismo se da una dialéctica entre religión personal y religión colectiva. Desde su fundación, el cristianismo aparece dividido entre dos tendencias aparentemente irreconciliables. Es, a la vez, una religión eminentemente personal que llama a cada cual, con individualidad, a la conversión, a la fe y a la salvación, y una religión colectiva que se despliega en Iglesia y expresión comunitaria. Estos dos factores se han roto con frecuencia y hemos asistido a continuos bamboleos. Es necesario modificar los indicadores de la fe y del testimonio. Cuando se valora el hecho radical de la conciencia no es posible medir el interés por el hecho religioso -y, en consecuencia, la desafección religiosaa través de las formas típicas de vinculación existentes en la sociedad tradicional ni por la adhesión explícita a la organización ni por las expresiones del sentimiento religioso. La presencia de la fe y la dinámica religiosa deben perseguirse por otros medios. La disciplina del Misterio La fe como participación en la Pasión de Dios en esta tierra posee un aspecto cultual y mistérico que excluye a los no iniciados. La primitiva praxis cristiana diferenciaba en la celebración de la fe aquella parte a la que podían acceder todos y aquella otra que estaba reservada a los iniciados («disciplina del arcano»). Ha sido precisamente el teólogo de la mundanidad, que negó cualquier repliegue del cristiano ante el mundo, quien ha afirmado con mayor radicalidad la necesidad de «proteger de la profanación los misterios de la fe cristiana» (BoNHOEFFER: 185). Para BoNHOEFFER, «la disciplina del arcano era el contrapunto necesario del tema de la interpretación no religiosa» (BETHGE: 1189). Cuanto más entrevio la necesidad de un compromiso secular, tanto más comprendió el papel de la comunidad reunida en el servicio religioso, la oración, la alabanza, la meditación y el «culto auténtico». Este aspecto de la fe es «arcanum» en la medida misma en que los fenómenos básicos de la vida no se adaptan a las demostraciones propias de una misión ni pueden instrumentalizarse en función de otra cosa. El Evangelio se aviene mal con la propaganda y con los procedimientos artificiales. Los misterios de la fe pierden su sentido cuando se ofrecen inmotivadamente y se distribuyen a cualquier precio. De este modo, la disciplina del arcano de-La dimensión pública de la fe fiende al mundo de la coacción religiosa, y es precisamente esa disciplina la que libra a la fe de la trivialidad. La presencia pública de la fe debe mantenerse unida a la disciplina del arcano. «Sin mundanidad, la disciplina del arcano es ghetto, y la mundanidad sin disciplina del arcano es únicamente boulevard» (BETHGE: 1192). Cuando hay hombres que leen la Escritura, parten el pan, cantan e invocan e interrogan los símbolos de la tradición, realizan la primera estación en el camino de la presencia pública de la fe. El sentido profundo de la disciplina del arcano le hizo comprender a BoNHOEFFER que «la Iglesia sólo puede cantar gregoriano si al mismo tiempo clama en favor de judíos y comunistas». Como testifica el médico del campo de concentración, «por la puerta entreabierta de una habitación de las barracas, antes de quitarse los trajes de prisionero, vi al pastor BONHOEFFER de rodillas, en ferviente oración con su Dios. En el lugar mismo de la ejecución elevó también una corta plegaria, y después subió valerosa y serenamente la escalera del patíbulo. No creo haber visto nunca morir a un hombre con tanta confianza en Dios» (ZAHRNT: 191). Articular la oración como hecho personal y la confianza en Dios como hecho público es lo único que puede salvar la dimensión pública de la fe de cuantas profanaciones padece hoy. Cuando nos empeñamos a través de la TV en arrancar testimonios como si de cronología se tratara, siento como si mi condición de testigo se tambaleara. Cuando veo una Eucaristía en un estadio de fútbol, siento cómo se transgrede la conmemoración de Aquél a quien se celebra en la liturgia, ya que allí se cruzan los afectos con los silencios, la mirada con el canto, la soledad con la compañía. Hoy seguimos sin descubrir lo que BONHOEFFER llamaba «arcani disciplina», que era para él la condición indispensable de la inmersión del cristiano en el compromiso terrestre, esa autonomía de la fe que segrega al profano, al diletante y al amateur (ALVAREZ BOLADO: 200). El carácter de la fe se ilumina igualmente en el interior del dilema entre abierto y cerrado, oculto y manifiesto. El espacio público es el lugar abierto al público, que se realiza frente a espectadores. Su carácter manifiesto marca la delimitación ante aquello que es privado y oculto. Lo abierto e ilimitado frente a lo cerrado y limitado. Lo público implica visibilidad, transparencia y comunicabilidad. Es privado aquello que se esconde del público y no está controlado por él. Mientras lo primero está presidido por la publicidad, lo segundo lo Joaquín García Roca está por el secreto. Lo privado es un ámbito de oscuridad y de reserva. El secreto es una condición de la vida privada. El espacio público es de libre acceso; el espacio privado, por el contrario, supedita el acceso a determinadas condiciones discrecionales. En la esfera pública, la información está disponible y también el acceso a ella; en la esfera privada, la información y su acceso están reservados. La fe pertenece, de este modo, al espacio público que nace de la comunicación, del debate y de la participación con sus respectivas providencias. Rehabilitación de la comunicación La fe pertenece al género comunicacional en razón de su origen y de su misión. Nace de la Palabra, y todo en ella está orientado a su transmisión. La Palabra y la Misión le confieren una estructura lingüística cuyo sentido se realiza en la comunicación: todo en ella es comunicable y existe para ser entregado. La comunicación es significativa en nuestro tiempo cuando puede acreditarse a través de IB. palabra libre, la información y el entendimiento. El origen del espacio público está unido al ejercicio de la palabra libre. El habitante de aquel espacio es el ciudadano cuyo nacimiento estuvo (y cuyo destino está) unido al uso público de la palabra. Donde no hay palabra libre no cabe esfera pública; por eso las dictaduras son la negación de la publicidad, en la medida en que retiran la palabra y la ponen bajo cautela. Cuando la palabra no es ley, sino capricho, el espacio social se privatiza. El secreto es el lugar natural de la ai' cracia, así como la palabra pública, la prensa libre y las discusiones lamentarlas son el universo propio de la democracia moderna (URB. La palabra libre es el órgano exploratorio de la verdad polifóni Cuando desaparece su ejercicio crecen las consignas, las orientaciones unilaterales y las sospechas infundadas. Se convierten en moneda corriente la admiración incondicional al jefe y la servidumbre de la uniformidad, ya que el grupo humano que no celebra la diferencia y el pluralismo acaba concentrando el poder, alimentando las calumnias y renunciando a la conversión. Vivimos la tentación de buscar más la lengua común al modo de Babel que la diversidad al modo de Pentecostés, y todos sabemos cuál es el destino de Babel: recitar la misma canción, vestir el mismo uniforme, imponer la misma música. Babel no tuvo futuro. Será necesario reivindicar La dimension pública de la fe la utopía de Pentecostés, que traerá de nuevo a la Iglesia la voz necesaria de Leonardo BOFF y el recuerdo santificado de Monseñor ROMERO. Hay una posición, que hace suya la libertad como instrumento de análisis, principio de independencia y medio de transformación, que recuerda el principio de toda tragedia. Se asemeja al destino trágico de una madre que no se reconoce como madre porque su verdadera aspiración era trascendente y mística, o no reconoce a sus hijos porque no nacieron con sus marcas o no siguen sus planes. La práctica comunicativa que exige la condición pública de la fe se acredita en el ejercicio de la información, tanto en su interior como hacia fuera. El espacio público no tiene secretos ni sustrae información. El secreto no puede confundirse con el Misterio, ni éste se identifica con lo esotérico. La auditora laica Albina ASPELL afirmaba en el Sínodo sobre los Laicos, que «una libre circulación de información tiene el poder de evitar los problemas, acabar con los chismes y cancelar las sospechas». Cuando desde diferentes instancias se solicita transparencia informativa en la Iglesia, no se hace más que realizar su presencia pública. Si los cristianos se interesan por la elección de sus pastores y quieren librarla del secretismo de sus finanzas, están realizándola como presencia pública. A nadie puede sorprender que grupos cristianos escriban al Papa interesándose por el pastor que regirá los destinos de la diócesis. Lo que ajruda a realizar una nota sustancial de la Iglesia no puede ser temido por nadie. No parece que los acontecimientos marquen esta dirección. En tercer lugar, la práctica comunicativa está orientada al entendimiento, que obliga a «inculturar» y a dar razón. La Iglesia tiene una pretensión de catolicidad que realiza mediante la inculturación. Para alcanzarlo no basta con compartir el lenguaje, sino que es necesario asumir la fuente misma de la racionalidad cultural, que ciertamente no puede confundirse con una determinada racionalidad científica o filosófica, pero tampoco puede identificarse con la mera retórica o el simple fundamentalismo. Construir instancias razonables, que sean comunicables e inteligibles hoy, es una exigencia de la presencia pública, que, sin dejar de respetar los ámbitos autónomos del saber, ha de atender a los criterios de la argumentación. Si esto no se lograra, nos encontraríamos con un ejercicio autorreferencial que, además de inmunizar a la fe contra toda interpretación que quiera competir con ella, abocaría a graves y serios peligros para la convivencia. La vigencia del fundamentalismo ha puesto tristemente de actualidad este principio. Sólo aquella Iglesia capaz de ofrecer referencias válidas a quienes ni reconozcan su autoridad ni cierren la cuestión con la simple invocación al Libro podrá acreditarse como presencia pública. El desprecio intelectual que se observa en muchos grupos religiosos y la inflación de los climas irracionales no ayudarán en esta tarea, sino que más bien reforzarán la privatización de la fe. La condición pública de la Iglesia necesita rehabilitar el concepto de razón, que, como advierte HA-BERMAS, «ha de cuidarse muy bien por ambos lados: ha de guardarse de volver a caer en las trampas del pensamiento centrado en el sujeto, que culmina en la razón instrumental y convierte en objeto todo cuanto le rodea, incluso a sí mismo, y también de los rasgos totalizantes de una razón inclusiva que todo se lo incorpora y, al final, acaba triunfando como unidad sobre toda diferencia». Rehabilitar la razón es un imperativo de la condición pública de la fe y de la Iglesia. Esta rehabilitación llevará a recorrer caminos inusitados. Se abrirá el diálogo con la ciencia desde el supuesto de que «uno de los indicadores de la vitalidad de la Iglesia a lo largo de su historia ha sido su aptitud para instaurar un diálogo y una confrontación crítica con las cosmovisiones dominantes» (Ruiz DE LA PEÑA: 217); o se apostará, según la sugerente y entusiasta propuesta de GÓMEZ CAFFARENA, por «la asimilación de la crítica en forma fecunda autocrítica, desde la que quepa después honestamente criticar todas las otras instancias culturales», y se fomentará «la búsqueda honrada de la verdad donde quiera que pueda estar, sabiendo que la verdad cristiana no sólo no habrá perdido, sino que saldrá depurada y enriquecida» (61 y 67). Una presencia pública es significativa cuando se somete al debate abierto y al diálogo permanente. No existe en la sociedad moderna ningún espacio que pueda ser sustraído a la crítica ni ninguna cuestión que esté reservada a determinados clientes. La fe y la Iglesia son públicas cuando aceptan la crítica y la ejercen tanto hacia dentro como hacia fuera. El debate y la participación no es sólo un instrumento disponible para conseguir la publicidad, sino aquel acontecimiento que dispone la más alta posibilidad de su realización. No son soluciones válidas ni la marginalidad, que nos reduce al exclusivo espacio religioso, ni la privatización, que nos reduce al exclusivo espacio íntimo, ni la prepotencia, que se practica desde la imposición. La presencia pública de la fe implica una sociedad en búsqueda y en deliberación. En el interior del territorio de la historia y en una sociedad compleja adquieren consistencia y relevancia la autorreflexión y el debate ante la diversidad de culturas, ante la pluralidad de perspectivas. Y, en consecuencia, se hace imposible la unanimidad de prácticas y la homogeneidad de comportamientos. La búsqueda de finalidades y de significaciones está sometida a un proceso inacabado, al diálogo y a la discusión. A la idea de «publicidad» le resulta consustancial la crítica, aun cuando la ejerza contra ella misma. El debate público sólo es posible cuando los interlocutores son conscientes de que llevan algo valioso que merece ser propuesto. El debate se opone al silencio, a la complicidad o a la indiferencia. Cuando se identifica la crítica con la disolución de la identidad o con el debilitamiento de la institución, se comete un grave error. La presencia del debate es síntoma de salud. La carta que los teólogos dirigen al Papa advirtiendo de «graves y peligrosas violaciones de la libertad de investigación, excesos improcedentes en sus competencias, abuso de poder...» es un ejercicio de la dimensión pública de la fe. El debate abierto por los teólogos europeos ha hecho más por la credibilidad de la Iglesia que aquellos silencios que, con frecuencia, sólo indican indiferencia, miedo o adulación. Frente al silencio de los acobardados, frente a las complicidades de los aduladores, frente a la indiferencia de los tibios, el debate da por supuesta la existencia de unas convicciones capaces de dar sentido y esperanza para la vida. Sólo una identidad abierta a la riqueza de la realidad y a la interculturalidad puede albergar una convicción firme. El espacio público reclama que cada cual diga su palabra. No debemos faltar a la cita, con una palabra propia en aquellas cuestiones en que la tengamos, con el silencio allí donde sea necesario y con la búsqueda compartida allí donde sólo se pueda compartir la duda. Cuando se renuncia a decir la palabra única, se descubre lo importante que es no dejar de decir la palabra necesaria. Cuando no sucede así, la convicción es sustituida por la intransigencia, el testimonio vital por la provocación y la adhesión a la autoridad se reduce a aquello que confirma los prejuicios propios y los privilegios del propio grupo. Lo que no está abierto al debate muestra su propia debilidad interna. El ejercicio del debate público se sustenta sobre unas condiciones, que lo posibilitan y lo alimentan. Carece de sentido el ejercicio del diálogo si no se reconoce en el otro a un auténtico interlocutor con el que es posible alcanzar acuerdos a través del ejercicio supremo del debate. Con frecuencia se olvida que el objetivo último del diálogo no es ejercer la virtud heroica de la comprensión y de la tolerancia, sino realizar la posibilidad misma de la verdad a través de los acuerdos. La verdad está abierta al acuerdo intercultural; y, si no lo estuviera, sería signo de su debilidad. Carece de sentido el acuerdo cuando las partes concurrentes no están dispuestas a la transacción. Pero no a la transacción que viene de la sim- pie negociación estratégica, sino a la transacción que viene de la profundización en la realidad, ya que el pluralismo es la forma humana de alcanzar la verdad. Como espacio público, la Iglesia está llamada al ejercicio del consenso y del acuerdo. Carece de sentido querer hacer propuestas significativas en el orden moral que se sitúen más allá del diálogo y de la transacción. La pretensión de validez es inseparable de la incorporación del contexto y de la implicación en un mundo inter subjetivo compartido. El concepto hermenéutico de «fusión de horizontes» (Gadamer) es apropiado para interpretar lo que acontece en todo diálogo. La calidad del diálogo en la Iglesia es el indicador de su salud pública. Por esta razón, la Conferencia de obispos suizos pedía para la Iglesia proseguir el espíritu de la Ecclesiam Suam de Pablo VI: «El diálogo es el mejor medio para expresar la comunión, la participación y la cohesión de todos... La noción de consultivo y de deliberativo no respeta plenamente la naturaleza propia de la Iglesia». La dimensión pública de la fe sabe articular la convicción cristiana con el diálogo y se opone a cualquier desencuentro entre diálogo y verdad. Con la misma firmeza con que defiende el pluralismo y la tolerancia, se opone al dogmatismo y hace cuerpo con la democracia. Vivir en la laicidad significa apostar por una sociedad abierta, en la que la verdad, la justicia y el derecho no están nunca de una sola parte. De ahí que el creyente salga de sus propios territorios y transite en compañía otros paisajes con humildad. Abierto a la verdad que viene también de fuera, no renuncia a investigar y a dialogar con otras tradiciones. Abierto a la justicia que viene también de otra parte, construye la ciudad con materiales comunes. Abierto al derecho, se bate con otros para que esta historia nuestra sea más rica. El cristiano ha de descubrir las finalidades sociales a través de la reflexión y el diálogo, en búsqueda constante de sus fundamentos, al tiempo que amplía progresivamente el contenido y el alcance de lo valioso. Reivindicación de la participación La comunicación y el debate han originado un sentido de lo público que equivale al ejercicio de la participación. Los pueblos organizan su convivencia a través de la formación de la voluntad colectiva. La instancia única e inapelable para la organización de la convivencia ha perdido vigencia social y pertinencia teórica. El interés público se determina a través de la búsqueda común de finalidades. Al cristiano no se le exime La dimensión pública de la fe de esta responsabilidad; más bien añade nuevas motivaciones para la participación. El Concilio Vaticano II reconoció como positiva esta «reivindicación de los hombres de nuestro tiempo» (Gaudium et Spes, 36, 2) y reivindicó la búsqueda incesante de la voluntad de Dios y la necesidad de descifrarla a través de instrumentos humanos. Tan importante es el papel de la propia búsqueda que resulta inútil e improcedente que los pastores «den soluciones concretas e inmediatas a los problemas». El Concilio estableció igualmente el parentesco entre el cristianismo y la democracia, y afirmó, como vio lúcidamente K. EAHNER, que la voluntad democrática inauguraba una dinámica positiva para la propia Iglesia. Los Padres conciliares eran conscientes de que, al renunciar al fundamento único de la sociedad, se abría una espoleta hacia el vacío moral, hacia la inestabilidad social y hacia la fragilidad personal. No obstante, se resistieron a pensar que el destino de la fe estuviera en lograr una hegemonía social ni una sociedad cerrada. La condición pública de la fe es otra manera de afirmar la ciudadanía del creyente. El primer itinerario hacia «la publicidad de la fe» es la colaboración responsable en la construcción de la convivencia y en el destino colectivo. Sin protagonismos, colaboramos en la vida de los barrios, alentamos la comunicación, compartimos el dolor de los sufrientes, acompañamos los procesos educativos, impulsamos la cooperación internacional y alertamos de la necesidad de un nuevo orden junto a tantos que lo reclaman... La participación marca la altura de la «publicidad de la fe». Sólo con la participación podremos dinamizar la utopía mayor de estos últimos años, que nos ha convertido en ciudadanos; y cuando alguien se convierte en ciudadano, ya no es posible sustraerle ningún espacio de realidad. Un ciudadano-trabajador no tiene por qué dejar sus derechos constitucionales a la puerta de la empresa, sino que necesitará vitalmente la democratización del trabajo y de sus beneficios. ¿Hay alguna razón para que esto deje de ser válido en el espacio de la Iglesia? Más bien creo que hay razones adicionales para lo contrario, ya que la dinámica del poder tiende a su concentración y la dinámica de la fe pretende disolverlo. Únicamente se entra en los caminos liberadores del Concilio Vaticano II cuando se descubre que nadie puede reivindicar de manera exclusiva la autoridad en la Iglesia. Nadie puede identificarse absolutamente con la autoridad de Jesús ni reducirla a una sola expresión. La causa de Jesús sólo va adelante si se la empuja desde distintas instancias. Existe la autoridad de la comunidad, tan importante como la del Magisterio; existe la autoridad del teólogo, tan necesaria como la del obispo. podrá despreciar la autoridad del profeta, o qué jerarca está legitimado para hacerle a Pedro Casaldáliga «serias advertencias»? En la Iglesia no hay poder, sino autoridades. Absolutizar cualquiera de ellas equivale a impedir el movimiento de conversión. La exaltación de los líderes por encima de sus bases, o del Papa por encima de la propia Iglesia, son signos de privatización de la fe. Con la participación no se exacerban los problemas, sino que éstos encuentran solución; y, si no la hay, el propio acto participative es la solución. La participación no puede hacerse primariamente instrumento ni objetivo ni arma ni argumento. Como el pez en el agua, así es la participación: su propio medio, su última razón, su esencial condición. Goza del privilegio singular de no necesitar utilidad ni consecuencia ni provecho ni rendimiento. El entonces presidente de la Conferencia española, DÍAZ MERCHÁN, solicitaba en el Sínodo de Obispos que «se abrieran cauces a la participación real de todos los miembros de la Iglesia, ya que es cosa de todos»; de lo contrario, advertía la Conferencia del Canadá, «nuestras mentalidades, nuestras prácticas y nuestros discursos no concuerdan con las afirmaciones sobre la igualdad que se encuentran en nuestras declaraciones». El obispo de Macao, RODRÍGUEZ DA COSTA vaticinaba que, «mientras los laicos no tengan espacio en las decisiones que afectan a la fe y a la moral, pertenecerán a la Iglesia, pero no llegarán a ser Iglesia. Este Sínodo debe poner fin a un laicado viejo, pasivo y ciegamente obediente». La participación hacia fuera la resumía el P. ViGANÓ en el imperativo de «formar un cristiano que, precisamente por serlo, es un cualificado y responsable ciudadano». Se solicitaba que el Sínodo profundizara las nociones de sensus fidei o sensus fidelium, ya que el Espíritu Santo actúa en todo el Pueblo de Dios». Es falso, en consecuencia, que «los pastores dirigen y los fieles obedecen», ya que ambos «deben ser obedientes al Espíritu Santo». El Cardenal DANNELS solicitaba que «el concepto de participación consultiva debe ser interpretado en el sentido más amplio posible». La Iglesia de Canadá (Rayes) proponía que el propio Sínodo «deje de ser una reunión de obispos y se transforme en un proceso sinodal que dé lugar a una amplia consulta a las Iglesias locales y permita a todos los bautizados e interesados participar activamente en la vida de la Iglesia universal». El concepto y la práctica de la sinodalidad se impuso como referente. La participación es ya inexcusable, como significaba el Cardenal DANNELS, «sobre todo en las materias que se sitúan en la frontera entre Iglesia y mundo bioética, doctrina social». El uso público de la razón debe llevar a la Iglesia a estimar más de lo que actualmente lo hace las intervenciones colegiadas. Al modo y mane-La dimensión pública de la fe ra como se produjeron un día en torno a la Humanae Vitae. Algunos episcopados hicieron un uso público de su derecho, y de este modo la recepción se fue haciendo en la perspectiva que abrían aquellas intervenciones, en lugar de hacerlo en la perspectiva abierta exclusivamente por la Casti Connubii. Esta cooperación colegial no sólo es esencial para el ejercicio público de la fe, sino «una verificación indispensable, incluso para el Papa, a la luz de la teología de la infalibilidad» (HAEING: 221-222). Cuando se niega la importancia de este ejercicio colegial, se achican los espacios de la publicidad de la fe. El carácter público de la fe se ilumina igualmente en el interior del dilema entre universal y particular. El interés público es el ámbito de lo generalizable y universalizable. El interés privado, por el contrario, evoca lo particular y excluyente. De este modo, al hablar del sector público de la economía queremos significar que está en función de un hipotético bien común. Mientras el sector privado busca elevar al máximo los beneficios propios, el sector público intenta generalizarlos. Al hablar del carácter público de la Administración, se quiere significar que debe evi-^ tar la discriminación en la prestación de servicios. De este modo, hablamos del erario público, de las empresas públicas o de la escuela pública en razón de un ámbito, que antepone los intereses generales a los particulares y se sustrae a los tratos discriminatorios. Desde esta perspectiva, el espacio público, que ha sido caracterizado por el ejercicio de la comunicación, el debate y la participación, remite necesariamente a la voluntad de afrontar los problemas reales desde una perspectiva racional y a la búsqueda de soluciones conjuntas en términos universalizables y no excluyentes. La vinculación a la razón La tradición cristiana ha colaborado decisivamente en la elaboración del concepto de humanidad, que permite afirmar una igualdad de principio entre los seres humanos y reconocer una misma dignidad a través de una naturaleza humana universal independiente de la fe. Su grandeza consistió precisamente en establecer esta categoría en términos de universalidad, sobrepasando de este modo el espacio de una tradición particular. A través del concepto de «naturaleza humana» se intentó fundamentar lo universalizable y limitar los abusos del poder civil, una vez que históricamente no podía hacerse en clave eclesiástica. Se pudo garantizar así el derecho de los nuevos bárbaros contra los cristianos, sin que sirviera de pretexto la condición pagana, ya que su derecho se funda en la naturaleza, que es previa al orden de la gracia. Se pudo de este modo legitimar un nuevo sujeto histórico extracristiano y reconstruir sobre bases no cristianas la convivencia. La referencia a la «naturaleza humana» tuvo no sólo una significación ética, sino también política, ya que ninguna teorización cristiana sobre la gracia o sobre la fe podía anular su común condición (RuGGlERi: 163, nota 59). La idea de humanidad sirvió para superar las dudas que llegaban del Nuevo Continente sobre la condición humana de los indios; para unir en una misma dignidad a los negros y a los blancos; para saldar en el mismo destino a Jesucristo y a los creyentes; para determinar la continuidad entre los pueblos primitivos y los supercivilizados; para deslegitimar la división entre esclavos y libres; para afirmar lo que tienen de común los esclavos y los libres, los creyentes y los ateos, los matemáticos y los poetas..., y todo ello sin renunciar a la diversidad y singularidad de cada persona, ya que la idea de humanidad es la categoría-marco que permite pensar la diferencia en el interior de una misma dignidad, que hace posible plantear la comunicación intercultural. Permite garantizar la vocación universalizadora de la cultura, sin mengua de los factores diferenciales, tanto frente al totalitarismo de las unidades de destino superiores como frente al totalitarismo discriminador y excluyente de la tradición romántica del «Volksgeist». La tradición cristiana atribuyó siempre a esta categoría un carácter común y reconocible, que en su mínimo contenido es coextensiva a toda la humanidad, posee un valor universal y afecta a todos los hombres de todos los tiempos y de todos los lugares. Se le atribuía igualmente la cognoscibilidad a través de la sola razón, de modo que «no podía ser ignorada por nadie verdaderamente hombre» (PIZZORNI: 101). La adscripción de los hombres a la razón y a una condición comunes ha sido mantenida permanentemente por la tradición cristiana. Sólo en los últimos años ha pasado a cuestionarse en nombre de un fundamentalismo ingenuo y de un tradicionalismo engañoso. Con frecuencia se busca hoy un fundamento social en Dios que nos permita defendernos de la Modernidad, inmunizarnos frente a la Ilustración y obstaculizar el proceso de secularización. La vida y la sociedad, los sistemas morales y las costumbres sociales son viables -dicen-sólo si se vinculan ¡^ ^^ ^^ ^^ T>,:,^r. i ^..^^x,-•--^o oi r>i---onto del problema. La dimension pública de la fe Según esta opinión, la posible emancipación de la razón respecto del factor religioso orienta el camino hacia la propia destrucción e invalida cualquier recurso a la razón como instancia de sentido y de legitimación. Ahora bien, cuando el ejercicio de la razón se sustituye por la invocación a la fe, ésta se limita necesariamente a ser un hecho particular de los creyentes y las Iglesias se convierten inevitablemente en una institución entre otras. Si la paz no es posible sin apelar a la fe, si la moral sólo se justifica en la apelación a Dios, si la vida sólo es viable cuando se sostiene en la convicción cristiana, tanto la paz como la vida se empequeñecen al emitir en un sólo código. Para quien crea que la convivencia humana sólo se sostiene a través de su Iglesia, el ejercicio de la convivencialidad se metaboliza en un sólo registro. La argumentación de estos fundamentalistas y tradicionalistas se apoya en la posibilidad de mostrar una realidad inconsistente y una sociedad amenazada. Tratan de mostrar que, si lo humano se deja así mismo, sólo conoce la decadencia. Cuando se afirma que sin un grupo cristiano el hombre «queda indefenso ante la industria cultural» (GuiSSANl: 117), o que la Iglesia «está llamada a convertirse en la salvación de lo humano como en la época de las invasiones bárbaras» (GluSSANl: 156), se banaliza el significado de la Iglesia y el de la industria cultural. Pero hay que advertir que esta posición olvida que nuestro tiempo ha alumbrado las mayores conquistas sociales y los sistemas de protección más exigentes frente a las necesidades. ¿Quién puede afirmar con rigor que el corporativismo de los gremios medievales es superior al Estado de derecho consagrado únicamente en una supuesta época secularizada? ¿Acaso fue mayor la solidaridad en los tiempos llamados «religiosos», que conocieron guerras y cruzadas? Cuando se nos propone volver a la Edad Media para encontrar la más exigente civilización cristiana, ¿se es consciente de que fue entonces cuando Occidente conoció los mayores índices de mortalidad infantil? Al declarar «ruinosa y decadente la ética civil de Occidente» (GIUSSA-Nl: 150), se olvida que ha sido precisamente en sus entrañas donde han nacido y se han consolidado los derechos humanos, individuales y sociales, y donde se ha luchado con mayor convicción contra la indignidad política del hambre, el militarismo o la tortura. Si se afirma que «el pueblo está hoy sometido política y culturalmente» (GluSSANl: 150), habrá que indicar dónde podemos encontrar el lugar de la emancipación, y si éste consiente alguna nostalgia por fórmulas pasadas. ¿Podremos denigrar en términos absolutos la actual época no-re-Joaquín García Roca ligiosa después de no haber sido capaces en el pasado de acabar con las guerras realizadas en nombre de la religión? No fueron precisamente los que fundamentaron la sociedad en Dios quienes lucharon con más convicción en contra de los fanatismos. Estos vientos han preparado las tempestades que hoy nos preocupan. «La búsqueda de un fundamento social en Dios carece de pertinencia y, en consecuencia, de verdad en una sociedad moderna, a la vez que véhicula una concepción discutible de Dios», que se representa como un absoluto inmutable y se sostiene sobre una visión antropomórfica utilitaria (VALADIER: 131-132). Una vez que se hace a Dios necesario, se abren las vías al ateísmo, ya que sirve para estabilizar el cosmos y la historia, en lugar de insinuarse en términos de gratuidad; se abren las vías al nihilismo, ya que se vacían de sustantividad los valores, en lugar de proclamarle en términos de sobreabundancia libre; se abren las vías a la irreligiosidad, ya que, en lugar de la plenitud, se le utiliza «para resolver aparentemente unos problemas insolubles, o para erguir una fuerza ante la impotencia humana» (BONHOEFFER: 162). Las zonas de frontera Las sociedades modernas se caracterizan por la complejidad que da al conocimiento la autoconciencia de los propios límites. Ni la contradicción ni la paradoja pueden comprenderse tan sólo como defectos del conocimiento, sino que adquieren a menudo el papel esencial de explorar la realidad. Cuando queremos buscar lo simple, nos encontramos con la simplificación. El pensamiento complejo no apunta a lo elemental, que, como reconoce Mo-RIN, se funda en la unidad simple y en el pensamiento claro, sino a lo radical, en donde aparecen incertidumbres y antinomias. La simplicidad de los análisis pasa por alto el relativismo cultural y la complejidad de los sistemas morales. «El reconocimiento de la complejidad requiere el recurso a un pensamiento complejo que pueda tratar la interdependencia, la multidimensionalidad y la paradoja» (MORIN: 232, 412, 441). Existe hoy una convicción profunda de «la necesidad de sumirse en el agua de la duda» (WITTGENSTEIN), de «ir a aquella parte en que la razón entra en peligro» (BACHELARD). Como decía HOLDERLIN, «allí donde está el peligro, crece también lo que salva». El universo actual de la fe no parece transitar en esta dirección. En su lugar, está obsesionado en procurarse certezas y seguridades. La consecuencia más grave consiste en distanciarse de aquellos territorios La dimensión pública de la fe abiertos, que exigen reflexiones nuevas e intuiciones distintas de orden antropológico sociológico y ético. Carecemos de investigaciones suficientes en el campo de la genética, de la ecología, de las formas de reproducción de la vida, para que se pueda, sin simplificar, pronunciar una palabra definitivamente válida. Con las certezas y los saberes simplificados, abandonamos el camino de la búsqueda humilde. Asumir la complejidad significa reconocer la densidad de las relaciones y entramados históricos, leer los acontecimientos sin esquemas preconstituidos, dejarse inquietar en los prejuicios y en las certezas. La realidad compleja obliga a valorar las propuestas provisionales frente a las soluciones totales y definitivas. La provisionalidad conjuga por igual la humildad y la búsqueda y exige muchas veces transitar por un camino intermedio entre el todo y la nada, que va concretando nuevas formas de presencia y valorando los largos plazos, sin caer en el escepticismo ni en la irresponsabilidad, ya que las propuestas provisionales son también creíbles. Cuando se pierde la búsqueda humilde y la dignidad de la provisionalidad, se pierde aquella verdad que nace justo en la ladera misma de la frontera. Si la verdad limita con el error, la obsesión por evitar el error nos hace perder con frecuencia la posibilidad misma de explorar la verdad. Ambos tienen una frontera común. «Entre la verdad y el error no hay una tierra neutra o una zona desmilitarizada. Si alguien, en la investigación de la verdad, llega hasta su frontera, ciertamente estará más cerca del error, pero ha recuperado una buena parte de la verdad: precisamente aquella parte que está más en contacto con los problemas, con los interrogantes, con la vida. Renunciar a esa parte de verdad equivaldría a reducir la verdad a una pura teoría, que ya no nos serviría para vivir y una verdad así no le puede interesar al hombre» (ESPASA). Quizá sea éste el efecto perverso que golpea al pensamiento teológico hoy. Cuando buscamos por todos los medios salvar la ortodoxia de la fe, sólo podemos hacerlo al precio de la fe misma. No cabe duda de que esa zona estará minada de peligros, pero, ¿acaso hay un peligro superior a aquel que supondría quedarse sin la verdad que está en la frontera? El territorio del Estado El origen de la esfera pública ha sido históricamente inseparable del Estado moderno. «La construcción de las formas modernas del Estado no sólo permitió delimitar, por diferencia, lo que en adelante no pertenecía Joaquín García Roca al ámbito público, sino que, en mayor medida, supuso la garantía y la salvaguarda de lo privado» (CHARTIER: 411). El nuevo cometido del Estado, que interviene cada vez más en materias que durante mucho tiempo quedaron fuera de su alcance, es el factor decisivo para replantear el espacio público de la fe. Los límites de la esfera privada dependen, ante todo, del modo en que se halle constituida la autoridad pública que el Estado reivindica y ejerce. Lo privado es lo no estatal. Las mutaciones del Estado son las metaraorfosis de lo privado (GASTAN: 24-25). Asistimos en este momento a unas transformaciones del Estado que hacen sumamente compleja la realización de la dimensión pública del proyecto de vida evangélica y, consecuentemente, de la misión de la Iglesia. Se encuentra aquí el «experimentum crucis» de la cuestión. Ya no basta con distanciarse del nacional-catolicismo y sus derivados ni de la privatización de la fe y sus sucedáneos, sino que nos urge construir una presencia capaz de asumir con radicalidad las potencialidades del sistema democrático y, a la vez, distanciarse de sus ambigüedades. Del Estado democrático no está todo dicho cuando se le representa como el nuevo Gulag o el viejo Moloch, o cuando se ve en la conquista de sus espacios la garantía última de la fecundidad de la fe (conquista de la legislación, de la televisión...). Ni es el mal por excelencia ni puede verse en él el becerro de oro sobre el que se asienta la posibilidad de la eficacia. El perfil de esa presencia incorporará la triple experiencia que sostiene al Estado moderno. El espacio de la fe cobra toda su fuerza cuando se afirma y se vive como libertad frente si Estado. «El cristianismo proclamó la distinción entre la condición de miembro de la sociedad política y la condición de creyente. Ante la pretensión de los gobernantes de Roma de que todos sus subditos practicaran el culto al Emperador, para reforzar la unidad política del imperio, la Iglesia naciente opuso una rotunda negativa. No era lícito exigir, como prueba de fidelidad política, unas prácticas religiosas contrarias a las convicciones de algunos ciudadanos» (BELDA: 54). Cuando se hace de la fe católica un ingrediente esencial de la unidad política de una nación, se vulnera un principio fundaraental de la tradición cristiana; cuando se achican los espacios de libertad, se tambalean los fundamentos del universo cristiano. Ciertamente que en la patología del Estado moderno hay una concentración del poder que alimenta su discurso y su práctica, sus tiranías y sus despotismos. La concentración del poder produce una especie de divinización y una hipertrofia de otras realidades La dimensión pública de la fe 741 humanas. En este sentido, es necesario que el Estado encuentre su límite en la moral y el derecho; y que se rehabiliten espacios fuera del Estado (sociedad civil, asociacionismo...). El cristiano ha de hacer la experiencia de la insobornable libertad frente al Estado. La dualidad sociedad-Estado posee una función humanizadora. La segunda experiencia básica gira en torno a la libertad en el interior del Estado. El cristiano sabe que es portador de una dignidad que se expresa en el reconocimiento del valor absoluto de toda persona. Este es el límite de toda organización social, de todo poder -sea cual sea la índole de su procedencia-y, en consecuencia, del Estado. En nombre de esta dignidad, el cristiano experimentará con frecuencia la resistencia en el interior del Estado, que, como todo poder, posee una dinámica inmoderada y expansiva. El Estado y sus aparatos han de saber que en el interior de cada uno de nosotros hay una palabra que se hace afirmación absoluta, ajena a la transacción y al pacto, y que nadie tiene derecho a poner en duda ni a limitar su expresión. Sin esta libertad, las pretensiones de la subjetividad serían ilusorias. El espacio de la fe se sustrae al territorio administrado. El valor de esta contraposición cobra toda su fuerza allí donde el Estado pretende dirigir la totalidad de la existencia humana, pues la fe es necesariamente una fuerza que se opone a las imposiciones colectivas. Como Iglesia, siempre será el no-Estado y considerará intolerable cualquier intrusión en un terreno que es ajeno a la jurisdicción estatal. «La libertad de la Iglesia es el principio fundamental en las relaciones de la Iglesia con los poderes públicos» (Dignitatis Humanae, 13). La comunidad de fe se afianza en el distanciamiento del Estado, hasta constituirse en una «libertad sagrada».El cristiano tiene razones suficientes para ser un hombre de conciencia, ejercer la ciudadanía y dejar de ser simple ejecutor o mandatario. La tercera experiencia constitutiva de la presencia pública es la libertad a través del Estado, que no es sólo ni primariamente un poder despótico, burocrático y policial, sino que es también «la organización de una comunidad histórica que le hace capaz de tomar decisiones» (WEIL). Una comunidad organizada en Estado articula las instituciones, funciones y papeles sociales en un espacio orgánico, y es esta articulación y organización lo que hace de la comunidad histórica un todo orgánico que «posibilita una práctica racional» (RlCOEUR: 399). En este sentido, el Estado obstaculiza el abuso de poder, garantiza mayores cotas de igualdad y de libertad, monopoliza la violencia legítima, evitando su diseminación por el cuerpo social, y regula el uso de la fuerza. Lejos de ser represión y opresión, es una esfera de derecho que limita su arbitrariedad y posibilita la redistribución de los beneficios. La dimensión pública de la fe
Se busca una aproximación a la religiosidad juvenil en el marco de situaciones socio-culturales más estables. La secularización implica una pérdida del monopolio religioso por parte de la Iglesia y serias dificultades para la socialización religiosa de las generaciones jóvenes. Los estudios muestran un núcleo (que disminuye en cantidad) de catolicismo practicante y una tendencia hacia la des-institucionalización en amplios grupos: formas privadas de de-construcción y reconstrucción de lo religioso (a-eclesialidad) o la simple indiferencia ante todo planteamiento religioso (a-religiosidad). Asimismo es posible detectar una cierta «búsqueda de iniciación» extramuros de la institución, y también en formas sociales de marginalidad. En un horizonte de futuro habría que contar con cambios de largo alcance en la sociedad europea (des-clericalización de la Iglesia) y mundial (globalización y defensa de los derechos humanos por parte de las religiones). «El barómetro juvenil marca siempre variable» -señaló en uno de sus escritos Joaquín García Roca-^. Por tanto, cualquier aproximación a la juventud como realidad estática está condenada a verse refutada por la móvil realidad de los jóvenes. Pero además, en la sociedad contemporánea, heterogénea y pluralista, su «producto generacional» -el mundo de los jóvenes-es, lógicamente, también heterogéneo y plural. No se puede hablar de «juventud» porque no hay una condición juvenil única, ni una realidad común para todos los jóvenes. Todo lo que nos (c) Consejo Superior de Investigaciones Científicas Licencia Creative Commons 3.0 España (by-nc) 746 puede parecer representativo de «la juventud» puede ser siempre negado por un grupo juvenil u otro. Por tanto, la aproximación al mundo juvenil ha de ser necesariamente cautelosa. Especialmente en materia tan escurridiza como es la religiosidad. Sin embargo, también creemos que bajo la móvil apariencia de la superficie, en ámbitos juveniles hay corrientes que fluyen en una determinada dirección, orientadas por los cambios de la sociedad global. Estas tendencias son las que nos permitirían romper las limitaciones de la mera sociografía religiosa y emitir algún tipo de hipótesis sociológicas plausibles. ¿Cuáles serían estos rasgos de la estructura social contemporánea, relevantes para la consideración del mundo religioso de los jóvenes? Ante todo, el que primero salta a los ojos, es el hecho de la secularización en las modernas sociedades occidentales. El afíanzamiento de una cultura secular como «definidora de la realidad» en la sociedad española Es conocida la ambigüedad del término «secularización» y la multiplicidad de sentidos que puede abarcar y que de hecho ha abarcado en la investigación empírica. Hasta tal punto que se ha propuesto su eliminación y su sustitución por otro de contenido más preciso. Pero es precisamente esta capacidad multi-uso la que ha implantado el término (pese a su inicial carga ideológica). Lo que habría que pedir a cambio de su uso es especificar, en cada caso, qué se quiere decir con él. Permítasenos, por tanto, utilizarlo una vez más. Con él queremos aquí aludir al afianzamiento, de una «cultura secular» (es decir, una cultura orientada hacia «este mundo»), que va vertebrando la estructura de la España contemporánea, que disminuye el peso público de las instancias religiosas y que se impone en la vida cotidiana como componente cultural de evidencia inmediata, capaz de «definir la realidad» social (es decir, de establecer pautas de conducta socialmente legitimadas). Esta cultura secular puede manifestar un respeto y un interés -variable-por las manifestaciones de lo religioso, que tratan de aludir a «otra» realidad. Pero se constituye como tal cultura con independencia del beneplácito de la religión. Aunque sea indudable en todo Occidente el influjo de los antecedentes religioso-cristianos la sociedad, como tal, se declara laica. ¿Jóvenes sin religión? 747 Esta cultura laica alcanza grados crecientes de complejidad y extensión, a partir de 1975, en los procesos modernizadores de la sociedad española. La modernización significa el pluralismo religioso: una pérdida del monopolio ostentado históricamente por la Iglesia Católica. Sin embargo, el peso social hegemónico del catolicismo continúa presente. La Constitución española de 1978 lo reconoce con una mención explícita de la Iglesia. Así se compromete a «tener en cuenta las creencias religiosas de la sociedad española y mantener las consiguientes relaciones de cooperación con la Iglesia Católica y las demás confesiones» -art. Pero en la práctica la religión, en adelante, será un tema de elección personal. Esta mutación del trasfondo jurídico-religioso de la sociedad española ha tenido silenciosas pero profimdas repercusiones en los procesos de transmisión del catolicismo. El hilo de la tradición religiosa que unía a las distintas generaciones se mostró quebradizo ante los rápidos cambios. Aún admitiendo una ñierte dosis de cautela ante los métodos cuantitativos en temas religiosos, los datos estadísticos apuntan en esta dirección. El manejo de la estadística corre siempre el peligro de ser engañoso -la estadística como la tercera forma de mentir-: pero más en asuntos religiosos. El instrumento utilizado es inevitablemente insuficiente para captar entre sus mallas esos peces sutiles que William James llamó «las variedades de la experiencia religiosa». Con todo, no deja de ser razonable el argüir que la religión es un fenómeno colectivo, y que -especialmente en el caso del catolicismo-se vive entretejido en una serie de actos muy concretos. Lo cual implica que se preste con facilidad a una cierta cuantificación. Los números serán toscos, pero «algo» dicen. Lo importante sería, posteriormente, «agredir» a los números con hipótesis interpretativas de lo que significan en un contexto social determinado. Pues bien, la primera Encuesta de la Juventud española -en 1960reveló que la juventud masculina (de la femenina no se preocuparon los encuestadores) se declaraba católica en una abrumadora proporción global («muy buen católico», «católico practicante» y «no muy practicante»): en total, un 91 %. El resto se resumía simplemente bajo el rótulo de «no practicante», sin mayor especificación. Quince años después la Encuesta de la Juventud de 1975, comprendiendo ya varones y mujeres, reflejaba una pérdida importante en la práctica religiosa de los jóvenes españoles. Los practicantes (en cualquier grado) habían descendido casi 30 puntos -del 91 al 61,9%-. Los «no practicantes» habían alcanzado más del 18% y una nueva categoría, los «in-Javier Martínez Cortés 748 diferentes», representaban el 19,7%. Los «ateos» aún no existían metodológicamente. Otros quince años después (en 1989) los jóvenes españoles se autocalifican como «practicantes» en un 40%, «no practicantes» en un 20% y la suma de «indiferentes» y «ateos» (ya aparecen en las encuestas) alcanza algo más del 38%2. El proceso de erosión de la práctica religiosa continúa. Según el estudio Jóvenes españoles 99, del tramo juvenil comprendido entre los 18 y los 24 años, sólo un 12% asiste a misa semanalmente. Ocho puntos menos de los que arrojaba el anterior estudio de la misma Fundación Santa María en 1994^. ¿Hay razones para sospechar que ha tocado fondo? ¿Y cómo interpretar esta erosión creciente, entre los jóvenes, de la práctica religiosa institucionalizada? Sin duda, una pluralidad de causas está operando en el fenómeno (como en todo hecho social). Pero lo que los números denotan ante todo es una fractura creciente de la relación entre las generaciones más recientes y la institución eclesiástica. 3, La relación jóvenes/institución religiosa En un país como España, en el que la religión ha sido monopolio de la Iglesia Católica, lo que los números indican en primer lugar es una poco satisfactoria relación entre jóvenes e Iglesia. ¿Y cómo es esta relación? Frente al manifiesto interés de la Iglesia por establecer nuevos puentes de contacto y de mantener los ya existentes, la Iglesia como institución apenas suscita interés para una mayoría apreciable de los jóvenes. No habría que dejarse deslumhrar por las magnitudes cuantitativas -de la juventud mundial-que la figura carismática de Juan Pablo II es capaz de convocar en un lugar determinado y en muy determinadas ocasiones. Aunque el fenómeno es notable y estos números reconforten a los líderes institucionales, estos jóvenes no constituyen sino una minoría de sus respectivos países. Concretamente, en España, (de una muestra de más de 3.800) un 21% confiesa: «Apenas he tenido relación con la Iglesia». Y para un 31%, este contacto les ha dejado indiferente. Preguntados acerca de la valoración que hacen de su contacto con instituciones católicas, un 40 % de los encuestados declaran tener una impresión positiva, o muy positiva. (Negativa, o muy negativa, sólo un 7%). Pero en conjunto, más de la mitad de los jóvenes parece no sentir interés ¿Jóvenes sin religión? por la institución a la que teóricamente -los bautizados hasta ahora son abrumadoramente mayoritarios-pertenecen. «No tengo necesidad de la Iglesia para creer en Dios» afirma un 71% (lo cual sería una confesión de a-eclesialidad, de la que también participan jóvenes que se afirman creyentes). Comparados con la respuesta a este item en 1994 (un 76%) incluso supone un cierto progreso en la conciencia de la necesidad de la Iglesia. Tampoco parece que la institución religiosa les merezca gran confianza a la mayoría. Interrogados sobre el grado de confianza que tienen en diferentes instituciones, tan sólo un 29% afirma confiar mucho o bastante en la Iglesia. El primer puesto se lo lleva el sistema de enseñanza, con 63%; el segundo, la Policía, con casi un 56%; y el tercero es para la Prensa, con un 44%. Consecuentemente, la capacidad socializadora de la institución religiosa se ve muy disminuida. Incluso más de lo que los datos anteriores indicarían: no llega al 3% el porcentaje de los jóvenes que señalan a la Iglesia a la hora de expresar dónde se dicen cosas importantes para orientarse en la vida. Resumiendo: según el estudio Jóvenes españoles 99: a) Existe un número que, por una variedad de motivos diferentes, rechaza a la Iglesia b) Un número que va creciendo (actualmente supera la mitad de los encuestados) manifiesta una actitud de displicente ignorancia {«apenas he tenido relación con la Iglesia»), o bien de absoluto desinterés («la dimensión religiosa no va con mi forma de ser»), o bien -y aquí habría también que incluir a jóvenes creyentes-piensan que «no tengo necesidad de la Iglesia para creer en Dios». c) Y un 40% la aceptan, aunque no todos practican su fe. El «núcleo duro» de jóvenes católicos practicantes ha descendido en los últimos 5 años del 20% al 12%^. De los restantes cabe sospechar que un buen número de ellos ven a la Iglesia más como un espacio acogedor (son posmodernos) que como una instancia portadora de sentido último. «Me gustaba el ambiente que había» responde el 56% de los que hacen una valoración positiva de su relación con la Iglesia. Parece legítima la inferencia de que los procesos de socialización religiosa (durante el último medio siglo), incluso partiendo de unas generaciones que se declaraban masivamente católicas, han tropezado con serias dificultades. ¿Tal vez el cambio del contexto cultural con la modernización no ha sido adecuadamente considerado por la institución religiosa en los procesos catecumenales? Hoy, la consideración actual de estas dificultades viene a perfilar un panorama de incertidumbre en el ñituro respecto a una parte considerable de la población española. Enumeremos someramente algunas de las dificultades más evidentes: • Ante todo, la crisis religiosa de la familia, que a su vez es resultado de una variedad de factores. La ausencia de incipiente socialización religiosa de los hijos en la familia es el primer hueco (difícil de llenar más tarde, aunque sea posible). El papel de la familia es muy determinante en la transmisión de la fe religiosa: más aún que en la transmisión de la irreligión, pues ésta se da con más espontaneidad a través del ambiente reinante. Se ha podido formular la hipótesis de que allí donde se den unos padres con convicciones débiles (sean religiosas o irreligiosas), la actitud de los hijos se orientará -en ausencia de otros influjos religiosos posteriores-hacia el polo de la irreligiosidad. • La «sociedad de la imagen» en la que el joven vive ineludiblemente inmerso, no ayuda a la socialización religiosa. Las magnitudes sociales, en una sociedad crecientemente compleja, suelen ser valoradas según una imagen global, lo que constituye el imaginario colectivo. Por una diversidad de causas, el hecho es que la imagen de la Iglesia, para un buen porcentaje de los jóvenes (como se deduce de los datos aportados) es sencillamente irrelevante. La «lectura» que de la Iglesia se hace en los medios de comunicación social no les aynda a mejorar esta imagen. • Los cambios demográficos en la estructura de los agentes de socialización religiosa tradicionales (clero, religiosas/os) abren una distancia cada vez mayor, pese a los esfuerzos y la buena voluntad, con respecto al plural mundo de los jóvenes. Estos tienden a tener una imagen estereotipada de la Iglesia difícil de romper por un clero envejecido. El relevo generacional del mismo resulta claramente insuficiente. • Por otra parte, en una sociedad secularizada lo religioso tiende a ser considerado -y más en ámbitos juveniles-como un asunto puramente privado. Para un buen número de ellos, sus creencias y sus prácticas religiosas serán no tanto resultado de la socialización religiosa recibida, sino más bien de las propias elecciones personales, la llamada «religión a la carta», que responde a una cierta «lógica de mercado cultural». Así se ha formulado la hipótesis (Javier Elzo, 1994) de una cierta aeclesialidad juvenil que no supone una renuncia a lo religioso. Daría ori-gen, más bien, a una reconstrucción individualizada de la dimensión religiosa. Reconstrucción que resulta muy desigual Se trataría de un proceso de apropiación de lo religioso como elemento vital, pero independientemente de lo que se considera «doctrina oficial» de la institución. No se aceptan sin más -como en otro tiempo-las ideas provenientes de la tradición cultural-católica. La plausibilidad de tales creencias es subjetivamente evaluada antes de incorporarla al acervo de las creencias propias (sin preocupación dominante de ortodoxia). Esta reconstrucción supone, por tanto, una cierta deconstrucción previa de lo heredado (que puede ser muy escaso en ocasiones, por la crisis de la socialización religiosa inicial en el seno de la familia y la escasez de referentes religiosos en la sociedad secularizada). En la nueva elaboración adquiriría un peso preponderante, no tanto el elemento intelectual, sino el experiencial/emocional. Este rasgo experiencial podría manifestarse en una doble vertiente: una más individualista y más comunitaria la otra, y por tanto más susceptible de control institucional. a) La individualista ha sido denominada «religiosidad de ajuste existencial»^. Tendría como base alguna modalidad de oración individual (por regla general de petición) ante las dificultades de la vida. La experiencia religiosa aquí es de carácter muy individual, y no parece precisar de mediaciones comunitarias. Quien la hace no se siente necesariamente vinculado a ritos institucionales. La reconstrucción, a partir de la experiencia de «ajuste», puede tener grados variables de ortodoxia. b) La «religiosidad de interdependencia» sería el nombre que designa la experiencia comunitaria, basada en la pertenencia a algún grupo de orientación religiosa. Si el grupo es cercano a la Iglesia -aunque se trate de grupos eclesialmente contestatarios-existe una vinculación indudable con la ortodoxia. La «tonalidad» del grupo, sin embargo, puede estar determinada por el compromiso ético o bien por la emocionalidad religiosa interiorizada y compartida. También hay una vinculación con la práctica católica que el grupo intenta vivir no rutinariamente -por ello tal vez se rechaza el comprenderla primariamente como «obligaciones impuestas»-. Es decir que, con un aire innovador, se produce una socialización católica a través del grupo comunitario. Pero también, dentro de esta «religiosidad de interdependencia», habría que incluir los casos en los que el resultado no es una re-elaboración, sino una ruptura con el modelo de religiosidad recibida: así la incorporación a sectas contemporáneas o el paso -muy minoritario-a otras Javier Martínez Cortés 752 religiones -Islam, Budismo-. O la sintonía con alguno de los «nuevos movimientos religiosos» más difundidos -por ejemplo «New Age»-que carecen de estructuras organizadas. Este pluralismo religioso real acompaña históricamente al establecimiento de las sociedades modernas, laicas y democráticas. La modernización española (históricamente tardía si se la compara con la de otras sociedades centroeuropeas) estaría diluyendo hoy las actitudes de la religiosidad tradicional y su vinculación con la institución eclesiástica. En conjunto, nos estaría aproximando a índices de religiosidad similares a la media europea. Es evidente en toda Europa un cierto apagamiento generalizado de la fe cristiana y un descenso en la práctica cristiana (tanto en el aspecto cúltico-ritual como en el cumplimiento de normas morales). La religiosidad eclesiocéntrica ha perdido gran parte de su anterior fuerza gravitatoria. Paradójicamente en apariencia, Europa occidental se caracteriza por un cierto nivel de creencia en Dios, compaginado con otro nivel inferior de fe en lo trascendente. También la divinidad en la que creen puede perder progresivamente los rasgos del Dios cristiano, «Padre de Jesucristo», y adquirir los perfiles de una «fuerza cósmica». {Fundación EVSSG. Encuesta sobre el sistema europeo de valores, Amsterdam, 1992). De todo lo cual se pueden encontrar muestras entre los jóvenes españoles, muestras que incluso superan la media europea. Consultemos los datos del Eurobarometer 32 (1992) y comparemos la media en Europa con los porcentajes que indica para la sociedad española: «Personas religiosas», un 65% la media europea (España, un 68%). «Agnósticos», un 4% (España, un 6%). «Ateos», un 6% (España, un 7%). «Personas no religiosas», un 20% (España, un 14%). Es de notar que los resultados del Eurobarometer, para la totalidad de la población española, en el rubro «Personas no religiosas», son muy inferiores al porcentaje indicado por Jóvenes españoles 99, ¿Es una mera radicalización juvenil y pasajera, o significa un movimiento duradero de las jóvenes generaciones hacia la indiferencia religiosa? Sería interesante poder dar una respuesta verificable a esta pregunta. Pero de momento no la tenemos, por falta de estudios transversales que sigan la evolución religiosa de una determinada generación. En resumen, podemos agrupar en tres grandes vertientes las posiciones religiosas de los jóvenes españoles: a) Las que marcan un suficiente acuerdo con las ideas e imágenes de Dios explicitadas en la tradición cristiana. b) Las que adhieren a la idea de un «dios cósmico» impersonal (trasvase hacia otra religiosidad, de corte oriental). ¿Jóvenes sin religión? c) Las que se declaran exentas de cualquier forma de religiosidad. Bien porque niegan explícitamente a Dios (ateos), señalan carecer de motivos para creer en El (agnósticos), o bien afirman «pasar del tema y no interesarse por él» (indiferentes). En cualquier caso, se percibe un progresivo distanciamiento entre la institución religiosa y las generaciones jóvenes. La relación predominante, más que el enfrentamiento, sería la indiferencia. Un deslizamiento de jóvenes, cristianos nominales, hacia formas de vida en las que tanto las ideas como los sentimientos, los símbolos, los rituales celebrativos y las pertenencias tienden a no enraizarse eclesialmente. Hasta ahí no habríamos constatado sino la a-eclesialidad mayoritaria juvenil (con la excepción de núcleos que tienden a disminuir). Esta a-eclesialidad unas veces desembocaría en la indiferencia religiosa y otras conduciría a una re-elaboración de la religión recibida. Pero, incluso en caso de permanencia de actitudes religiosas, es innegable la tendencia hacia procesos de des-institucionalización de la experiencia religiosa. Y consiste en que el consenso básico, de carácter religioso, expresado mediante símbolos rituales, se disuelve: las normas morales y políticas pierden su cobertura sacral, que las hacía indiscutidas. Pero el lenguaje intenta recuperar el carácter fundante de lo sacro, mediante la razón argumentativa. Trata de producir y mantener la cohesión social como «comunidad de comunicación»: es decir mediante un consenso razonado y logrado comunicativamente en la opinón pública. Este proceso, voluntariamente aceptado por una mayoría, habría conducido a la constitución de las modernas sociedades democráticas y laicas. Y ha supuesto una socialización eficaz en esta acción comunicativa entre poder y ciudadanos. En este tipo de sociedades, en el que la comunicación fundamenta la cohesión social, el ámbito de lo religioso se ve inevitablemente afectado. La institución representativa de lo sagrado no logrará ya el consenso básico religioso mediante la simple apelación a su carácter simbolizador de lo sagrado. En la situación anterior, lo sacro-simbólico, con su simple presencia, lograba constituir el consenso básico. La identidad individual era una pura reproducción de la colectiva. El disidente que la cuestionara significaba una amenaza para el símbolo de lo sagrado, que estaba en la base de la cohesión social. En consecuencia, este sacro-simbólico (que según Durkheim representaba a la comunidad) era defendido mediante el recurso a la violencia (persecución de herejes, etc.). No jugaba ningún papel la acción comunicativa, productora de la intersubjetividad mediante el diálogo de dos sujetos. En consecuencia, no surgía la pregunta individual por el sentido de la propia existencia, tal como se produce hoy en las sociedades modernas (y si surgía era reprimida). Pero al crearse una zona de libertad de conciencia, se fluidifican los símbolos de lo sagrado y requieren una explicitación mediante el lenguaje. La nueva situación hace emerger, a la vez, una nueva carencia y una nueva capacidad en el individuo. La carencia consiste en la necesidad de interrogarse por el sentido de la vida, que en la situación anterior no se producía, puesto que el sentido venía «dado» por la adhesión colectiva a lo sacro-simbólico. La nueva capacidad estriba en que la respuesta a la interrogante implica siempre la presencia activa de sujetos, capaces de dialogar. Esta apelación al diálogo altera el estatus que la institución religiosa poseía por su imagen sacra en la sociedad. La base de validez de esta imagen ha cambiado, en el sentido de que remite a la capacidad argumentativa del lenguaje (como sucede en todo consenso mediado comunicativamente). ¿Jóvenes sin religión? 755 La institución religiosa se verá requerida a ejercer una acción comunicativa suficiente para consolidar el consenso religioso. Su anterior condición de símbolo sagrado, capaz de constituir por sí mismo la adhesión colectiva, comienza a ser sustituida socialmente por su imagen empírica. En adelante se verá sometida a crítica, o simplemente a distanciamiento. El fiel tenderá a concebirse a sí mismo como sujeto de diálogo. La pertenencia religiosa presenta un nuevo requisito: la aceptación libre del individuo. Cuando este nuevo requisito, que implica una acción comunicativa por parte de la institución, no se cumple satisfactoriamente (por las circunstancias que fueren) la religiosidad insatisfecha pone en marcha procesos de «religiosidad a-eclesial». Es decir, se produce la des-institucionalización de lo religioso. Consecuencias de esta des-institucionalización serían las formas de «adhesión parcial» (unos contenidos religiosos se aceptan, pero otros no). Aparecen las formas de la llamada «religión a la carta»: es decir, formas de sincretismo según criterios subjetivos de lo que al individuo le resulta más plausible en el terreno de las creencias. El estudio Jóvenes españoles 99 ofrece muestras significativas de esta adhesión parcial. Un 50% de los encuestados afirma: «Soy miembro de la Iglesia Católica y pienso continuar siéndolo. Pero sólo un 28% (poco más de la mitad) declaran: «En general, estoy de acuerdo con las directrices de la jerarquía de la Iglesia». La adhesión puede hacerse tan tenue que llega a manifestarse en la negación de la necesidad de la mediación institucional: «No tengo necesidad de la Iglesia para creer en Dios», ¡un 71% de los encuestados! El dato no sólo traduce una insuficiente socialización católica, sino una perspectiva sociológica de futuro poco halagüeño. Se rechaza a la instancia mediadora de la iniciación religiosa como si la creencia en el Dios cristiano fuera un mero dato «natural». Esta idea de la prescindibilidad de la institución, tan masivamente declarada, es un factor multiplicador de largo alcance, si la propia institución no logra alterar su relación con una gran parte de las generaciones jóvenes. ¿Qué ocurre con lo sagrado-simbólico? ¿Y los contenidos previos de lo sacro-simbólico que eran controlados y administrados por la institución religiosa? ¿Significa esto su disolución práctica en la cultura secular, como pretendieron ciertos ilustrados? En algún lugar, Habermas (un contemporáneo partidario de la Ilustración) insinúa, haciendo referencia a Mead, un trasvase de lo sagrado al lenguaje. La forma lingüística nueva no es de por sí incompatible con los contenidos simbólicos anteriores. El contenido semántico puede fluctuar de una forma -el símbolo-a otra -el lenguaje-. Ambos son caminos que pretenden un entendimiento del naundo en cuanto totalidad. Se puede producir una fusión de las significaciones en la forma de un saber cultural. La acción comunicativa viene a declararse heredera de la producción de sentido, que antes era función de lo sacro-simbólico, pero no vacía a éste de significado. En adelante, sin embargo, el saber sacral ha de saber combinarse con el profano: solamente de esta manera la religión se convierte en una imagen del mundo con pretensión de totalidad^. Hay que notar que esta postura teórica no implica una actitud creyente por parte de Habermas. En esta dirección, dentro del panorama filosófico español, Eugenio Trías supone un esfuerzo ilustrado por «pensar la religión». Su Lógica del límite (1990) le empuja a reconocer un límite de la razón, más allá del cual se tropieza con el «cerco hermético», del que tenemos noticias a través de las religiones. En La edad del espíritu (1994) se pregunta si es posible ir más allá del límite y hablar sobre ello de forma significativa. «Todo el mundo contemporáneo... bascula entre un racionalismo incapaz de abrirse a las raíces simbólicas del espíritu y una apertura simbólica que no permite, tampoco, trabar vínculos fecundos y efectivos con el universo de la razón». Estas posiciones representan una inflexión de la mentalidad ilustrada. Para Trías, la religión es una «asignatura pendiente» de la razón ilustrada, una «sombra» creada por la razón imperante en Occidente desde la Ilustración. La cultura, aunque se ha designado como depósito, no es algo «que se tiene», sino que se produce y se reproduce, tanto la religiosa como la ilustrada adversa. La tradición cultural tiene vigencia en la medida en que se actualiza críticamente. El uso de la tradición es a la vez su renovación. Para la época cultural que designamos como Modernidad, la religión venía a ser un residuo del pasado. La institución religiosa, a lo sumo, perduraría en las zonas periféricas y poco ilustradas de la sociedad moderna. Así lo interpretaban ciertas versiones sociológicas extremas de la tesis de la secularización. Pero, para su sorpresa, la historia concreta vino a falsar empíricamente la tesis secularizadora radical. La atmósfera cultural de la Posmodernidad altera las perspectivas del futuro previsto. El «nuevo individuo» (el posmoderno, es decir el qne constituye las nuevas generaciones) es alguien que ha perdido muchas de las esperanzas míticas que se depositaron sobre la razón moderna. El posmoderno ¿Jóvenes sin religión? desconfía de las visiones unitarias de la historia y de las «grandes palabras» (Libertad, Igualdad, Felicidad). No serían sino «metarrelatos» que cubren con su manto las contradicciones reales. Intelectualmente se conformará (reconoce que el pensamiento es «débil») con un mundo fragmentario, donde encontrar fragmentos de libertad, de igualdad, etc. ¿Y qué se hizo de la felicidad? Las mayúsculas son producto de metarrelatos. En este estado de ánimo, si algunos aspectos religiosos -que aluden a otras maneras de ver el mundo-le ayudan, o le serenan, ¿por qué no admitirlos? Por las venas de la Posmodernidad, surgida en una «sociedad del riesgo», circulan vagas representaciones (la nebulosa místico-esotérica) de un «destino individual», pero tranquilizadoras, escritas en alguna parte. ¿Acaso es competente para rechazarlas la razón moderna, que tan estrepitosos fracasos ha cosechado? Se produce un nuevo «escenario» de lo social: un re-encantamiento del mundo. Contenidos de lo sacro anterior, desvinculados de su coherencia institucional, representaciones sagradas provenientes de otras culturas religiosas y supersticiones circulan flotantes por los intersticios sociales, disponibles para la apropiación individual. La sociedad posindustrial y de mercado («sociedad del riesgo») es apta para fomentar esta apropiación: el individuo experimenta la necesidad de ser salvado. «Se siente la vida como un terrible azar en el que el hombre depende de voluntades misteriosas, latentes, que operan según los más pueriles caprichos. (El hombre solo)... no es capaz de ofrecer resistencia al destino y busca en las prácticas supersticiosas los medios para sobornar esas voluntades ocultas... El alma supersticiosa es, en efecto, el can que busca un amo»"^. Así, contra las predicciones de la Modernidad ilustrada, lo sagrado no desaparece, sino que «estalla», con una eclosión inesperada, en el corazón mismo de las sociedades posmodemas, desarrolladas, tecnológicas y comunicativas. Pero esta religiosidad no retornará sin más a las instituciones encargadas de controlarla. La religión se privatiza: es un elemento más de la interioridad del individuo, inmune a las pretensiones de control de las instituciones religiosas (el posmoderno desconfía de las instituciones). Lo sagrado reaparece exuberante, pero en estado «salvaje», al margen de controles racionales. Su aparición tiene algo de freudiano: el retorno de lo reprimido. No se tratará de «religión pensada». La Ilustración, una vez más desde Hegel, quedará «insatisfecha». Surge la pregunta: la institución religiosa, que velaba hasta ahora por el esfuerzo racional de lo religioso {fides quaerens intellectum), ¿no está dotada para desarrollar una acción comunicativa más eficaz que fuera capaz de «ilustrar» este retorno caótico de lo sagrado? El carácter iniciático de la acción comunicativa religiosa No es fácil, en concreto, responder a esta pregunta. Aunque sí lo sea, desde una perspectiva sociológica, el señalar carencias actuales. Porque la acción comunicativa religiosa, en el contexto contemporáneo de una cultura de lo sensible -sociedad del consumo y de la imagen-se hace más compleja. No basta con querer utilizar la capacidad argumentativa de un lenguaje basado en la tradición religiosa. Hay una multiplicidad de códigos de lenguaje (técnico, científico, publicitario, sentimental, religioso...) que circulan por la sociedad. Son códigos que, para su aceptación, exigen algún tipo de evidencia empírica. El lenguaje religioso de una acción verdaderamente comunicativa implica hoy la remisión a una experiencia interior. Tiene un componente iniciático (que es propio de toda religión: introducir prácticamente en un camino transformador del sujeto) que ejercería como «verificación sensible» de lo sacro religioso. Una socialización religiosa duradera no puede prescindir de este componente. Pero aparentemente la sociedad tecnológica ha perdido, en general, este carácter iniciático: la única iniciación posible sería la de las modernas tecnologías. Las instituciones que se ocupaban de los ritos de transición de la juventud (familia, escuela, iglesia) han visto disminuido, en la aceleración del cambio social, gran parte de su crédito. Encuentran cada vez más dificultades para asegurar las etapas de maduración y de inserción social de sus miembros. Los elementos iniciáticos de épocas pasadas se han depositado en las capas profundas de la cultura y pueden emerger de esa profundidad en formas nuevas e inesperadas. La aparición de nuevos tipos de religiosidades, cósmicas o sectarias, importadas de otros ambientes, constituyen un signo de una cierta «nos-t£ilgia de iniciación» a un mundo diferente. Culturalmente pueden aparecer como elementos extraños; pero precisamente por ello, el nuevo adepto encuentra en parte satisfecha la nostalgia de iniciación aludida. Pero en la sociedad contemporánea existen también otros aspectos iniciáticos, marginales al clima general. Porque si carecen de una simbólica social en la que expresarse, los procesos iniciáticos, o sus sucedáneos, se abren camino subrepticiamente hasta explotar, incluso de forma virulenta. Si se analizan ciertos testimonios de jóvenes, se comprueba que es posible aplicar el ciclo de las pruebas iniciáticas (preparación-ruptura con el mundo anterior-ingreso en el «mundo nuevo») a experiencias tan diversas como las bandas de barrio, los toxicomanes, los grupúsculos /,Jóvenes sin religión? 759 de «cabezas rapadas»... Incluso las sesiones de terapia de grupo participan de este esquema. Pero tal vez el ejemplo hoy más llamativo sea el de las «noches de alcohol, calle y ruido» en las que los adolescentes, cada vez en edades más tempranas, son «iniciados» en un mundo al que los adultos no tienen acceso. En la mayor parte de estos casos, la «prueba iniciática» se concibe como un «atajo» para desembocar en el resultado apetecido. El objetivo de la presunta iniciación (la transformación de la propia persona y de sus relaciones, con los demás y con el mundo) se expresa más bien en términos de «transmutación»; cosa que evoca, antes que un proceso iniciático -en el que se respeta la maduración lenta y progresiva de la personalidad-un procedimiento de alquimia. En el plano de lo religioso, ¿subrayan suficientemente las confesiones cristianas este carácter iniciático, del que algunos grupos juveniles dan muestras de estar sedientos? Aunque por supuesto, no toda la «masa de bautizados» será receptiva al proceso. Es cierto que las posibles deficiencias iniciáticas no eliminan sin más el carácter sacro de la institución. Pero su fuerza simbólica para dar expresión a capas profundas del ser humano queda relativizada: la institución adquiere un aire de «exterioridad» al sujeto religioso y sus posiciones doctrinales un matiz de «imposición» A este impacto relativizador se le añade otro (repetidamente señalado por P. Berger): la manifestación del pluralismo religioso en el seno de una misma sociedad (o producido por la difusión mundial de las redes comunicativas) relativiza también, en algún modo, a todas las religiones, al hacerles perder el control de un espacio cultural homogéneo, que les daba él aspecto de ser un fenómeno «natural». Esta relativización del carácter sacro de lo religioso tiende a difundirse en una cultura laica. Lo que permanezca de la institución religiosa concreta será su imagen empírica. En el caso de la Iglesia Católica: una organización clerical que administra lo religioso con escasa participación de sus fieles. ¿Un proceso de disolución parcial de la religiosidad en las generaciones venideras? Las sociedades occidentales contemporáneas están atravesadas por corrientes culturales contradictorias. No todo -ni mucho menos-es «nostalgia de iniciación» en las generaciones jóvenes. Hay una negación de lo sacro y una fuerte tendencia relativizadora de la institución religiosa. Su imagen estereotipada en el imaginario juvenil puede conducir -y de hecho conduce-a una sensación de recelo/rechazo de la Iglesia entre las nuevas generaciones. No es difícil apuntar hacia aspectos sociales concretos que producen este recelo: La lejanía de la parroquia como espacio vital para la juventud, la ausencia de referentes vitales atractivos, la disociación entre religión del libro y sociedad del espectáculo, la escasez de información religiosa en los espacios juveniles, la difícil situación del papel de la mujer en la estructura eclesial, la irrelevancia (para los jóvenes) de algunas disputas internas a la Iglesia, el envejecimiento del clero, el foso entre la doctrina de la Iglesia en materia sexual y la práctica juvenil generalizada en dicho campo... (Javier Elzo, Jóvenes españoles 99), Pero la forma más radical no sería la de simple recelo, sino la de rechazo, que se expresaría como la indiferencia ante todo planteamiento religioso. Esta «desaparición» de la dimensión religiosa aparece como una tendencia expansiva entre los jóvenes. Hasta qué punto la falta de interés por lo religioso es un fenómeno duradero, es algo que hoy no se puede decir. Pero las respuestas juveniles son bastantes categóricas al respecto: Uno de cada tres jóvenes, aproximadamente, manifiesta que «la dimensión religiosa no va con mi forma de ser». Uno de cada cuatro asiente al item (formulado más ásperamente y con un vocabulario juvenil): «Yo paso de Dios. No me interesa el tema». Uno de cada tres afirma: «No sé si Dios existe o no, pero no tengo motivos para creer en Él». Y uno de cada cinco toma decididamente una posición personal negativa: «Para mí, Dios no existe» {Jóvenes españoles 99). La indiferencia religiosa juvenil aparece como una relativa novedad, acompañando a la acelerada evolución de la sociedad española global ¿Es tal vez el precio a pagar por la modernización social? Ya Max Weber llamó la atención sobre el «desencantamiento del mundo» como una consecuencia de la implacable racionalización de las sociedades modernas. La esfera de lo sagrado parece diluirse, ante el influjo corrosivo de una dominante racionalidad instrumental. España, en un lapso relativamente corto de tiempo, ha pasado por una modernización económica y política, y estaría realizando ahora su «transición religiosa» (Díaz-Salazar). Lo religioso es una magnitud histórica de mayor «longitud de onda» (de evolución más lenta) que la política y la economía. La llegada de esta última transición sería hoy palpable en la evolución religiosa de las actitudes de la población juvenil. Si bien la religiosidad no desaparece socialmente (y la inflexión cultural que llamamos posmodernidad ofrece evidencias empíricas de ello, en ¿Jóvenes sin religión? múltiples formas), también es cierto que se está produciendo una «emigración» espiritual de los jóvenes fuera del área de lo religioso-divino (y no sólo de la tradición católica). Esta «emigración», ¿hacia donde va? Los puntos de llegada pueden ser diversos: a) Formas reflexivas de agnosticismo a ateísmo. b) Un laicismo agnóstico no reflexivo. El mundo de lo empírico -especialmente en las sociedades de consumo-se bastaría a sí mismo. (Indiferencia religiosa, abundante, y con tendencia expansiva). c) Aspectos de religiosidades no-teístas: formas de sacralización de realidades profanas. Podrían considerarse formas semi-ateas de religiosidad^. Y vendrían a tener el formato de «religiones laicas de salvación». No es difícil encontrar ejemplos en la sociedad contemporánea. Gil Calvo las clasifica en «religiones políticas» (que se orientan hacia el grupo: nacionalismo, terrorismo, cualquier forma de mesianismo) y.«religiones narcisistas» (que tienen como objeto la propia individualidad, bajo aspectos diversos de «culto»: al dinero, al trabajo, al deporte...)^. Esta que podríamos llamar « de-sacralización de la vida» no se puede atribuir ya simplemente a las posibles deficiencias de una acción comunicativa adecuada por parte de la institución religiosa. Se tiene que alimentar de fuentes diferentes. Porque la acción comunicativa, para su posibilidad, requiere que ambos sujetos estén dispuestos a mantener un diálogo. Pero aquí ima de las partes -la población juvenil ajena a cualquier planteamiento religioso-hace tiempo que dejó de tener interés en este diálogo. Viven ya en una zona cultural aparentemente blindada contra la idea de trascendencia. Sus actitudes funcionan con otra lógica social, a la que lo religioso le es ajeno. Sin embargo, tal vez la institución religiosa no ha medido adecuadamente las posibilidades de contacto con los jóvenes que ofrecen hoy las redes modernas de comunicación. Tales posibilidades son atronadoramente explotadas por «lógicas» sociales propias de la sociedad de consumo. La publicidad de imagen y sonido ofrece a los jóvenes un interés mucho más cercano y más penetrante. Porque en la sociedad contemporánea se producen ofertas competitivas de «lógicas» sociales diversas, a la búsqueda de clientela, y que traducen concepciones de valores vitales divergentes. Esta divergencia se formula por medio de «articulaciones simbólicas» diferentes. Hoy, una de estas lógicas (la inmanente) absorbe la mayor parte del espacio vital de los jóvenes, en perjuicio de la otra (la religiosa/trascendente). En esta zona de inmanencia y de exacerbación sensorial se sitúa la indiferencia juvenil. Entendemos por «articulaciones simbólicas» aquellas vinculaciones simbólicas entre códigos de conductas, en torno a las cuales se organiza el sistema de valores de un grupo. Socialmente establecen pautas de conducta últimamente coherentes, porque los valores que expresan tienen un marco de referencia simbólica común. Las articulaciones simbólicas constituyen ima prueba de que el lenguaje es capaz de fluidificar los símbolos, pero no disolverlos en su totalidad. El ser humano continúa siendo un «animal simbólico», aunque más complejo. La observación muestra que el marco de referencia de las actitudes vitales suele expresarse en una combinatoria simbólica con los elementos espacio/cuerpo. Ellos permiten construir modelos de «articulación del sentido» de tipo opuesto, que orientan las conductas, puesto que alteran la estructura motivacional del sujeto. De este modo son capaces de integrar socialmente al individuo en alguno de los grupos propios de una sociedad pluralista. a) En uno de estos modelos funcionaría una lógica que podemos llamar «promocional», propia de las modernas sociedades tecnológicas y de consumo. En el otro modelo se trata de una lógica de «ejemplaridad» y de «insularización», que viene de épocas anteriores (de sociedades más tradicionales en las que la religión era la principal fuerza vertebradora). ¿Cómo se articula ésta que llamamos «lógica promocional»? En torno a un eje simbólico horizontal, definido por la oposición «incompleto/completo». Con él tratan de expresarse los valores de la autorrealización personal, que aparece como definición última de la realidad individual. El «ser humano» nace en situación de carencias («incompleto») y a lo largo de su existencia ha de buscar su promoción hacia su «ser completo» (autorrealización). Esta «lógica social», acusadamente individualista, es un producto de la sociedad liberal. Y, por tanto, es obvio que ha de encontrar un eco en sus ciudadanos. Pero al ser formulada simbólicamente, admite más de una posibilidad de concebir lo que se entiende por «autorrealización». Con una mayor amplitud histórica se podría decir que la lógica de autorrealización es simplemente una lógica humanista. ¿Fue liberal, en sentido moderno, el Renacimiento? El eje horizontal (completo/incompleto) no excluye en principio el que una apertura a la trascendencia fuera la coronación de la autorrealización. Sin embargo esta lógica, hoy, cabalga sobre el desarrollo de las posibilidades tecnológicas, de la imagen y del consumo de las modernas so-¿Jóvenes sin religión? ciedades occidentales. El «ser completo» del hombre se exterioriza: implica una serie de prótesis tecnológicas (¿un joven puede considerarse «completo» sin teléfono móvil?), y un acceso a cierto nivel satisfactorio de consumo. Además, debería ser completado por una imagen satisfactoria de su cuerpo (que prima, colectivamente, sobre la imagen satisfactoria de la mente). Esto es así porque el desarrollo tecnológico de imagen y sonido son eficaces promotores de una «cultura de lo sensorial». Es conocida la distinción -más compleja-que hizo Pitirim Sorokin entre «culturas ideacionales» y «culturas sensoriales». Una cultura ideacional es aquella en la que se juzga que para llegar a un «conocimiento verdadero» de la realidad es necesaria la confrontación de las ideas. En contraste con ella, una «cultura sensorial» juzga que el conocimiento de la realidad sólo se logra mediante el conocimiento de lo concreto: al cual se accede a través de los sentidos. Entiéndase que se trata de un planteamiento no estrictamente epistemológico, sino sociológico: según el patrón cognoscitivo fundamental con el que los actores sociales organizan las pautas de su conducta. En el caso de una «cultura de lo sensorial», la consecuencia es que las sensaciones que afectan a los sentidos se convierten en la herramienta primordial que organiza los comportamientos. Las ideas parecen perder «sustancia de realidad». El mundo adolescente y la «primera» juventud son especialmente sensibles a esta cultura sensorial. Las «meras ideas» no serán capaces de prevalecer en una posible confrontación con el mundo de las sensaciones, tan potentes e invasoras como las promovidas por la imagen y el sonido de la publicidad contemporánea. «El movimiento de las imágenes, los colores, la música, son lo suficientemente sugerentes como para que el resto de la realidad quede difuminado para el niño»^^. (Y para el adolescente, e incluso para el joven). Para vivir sólo basta con mirar, con lo que la lógica promocional del «hombre completo» queda mutilada. No importa, puesto que funciona como una coartada en la moderna sociedad de consumo. Se busca además que todo sea fácil, sencillo y divertido. La duda, la complejidad, la reflexión ya no serán necesarias. Todo queda respondido con la contundencia de las imágenes. Se deja de pensar para, básicamente, sentir. Y los sentimientos pueden también no ser muy permanentes, puesto que las imágenes (dramáticas o confortables) se superponen. b) Frente a la potencia de esta cultura de lo sensorial, orientada ante todo hacia lo inmanente, el catolicismo (que en su época barroca cultivó los sentidos orientados hacia lo trascendente) ofrece hoy una cultura bá-Javier Martínez Cortés 764 sicamente «ideacional», con un lento desplazamiento hacia los medios de comunicación. La pugna con la oferta contraria se puede mantener en la sociedad de los adultos. Pero en el mundo de los adolescentes y de los jóvenes, blindado por las sensaciones inmediatas de su «hoy» y su inmanencia, parece sociológicamente problemática. La «lógica social» alternativa que la institución religiosa ofrece la hemos designado como de «ejemplaridad» y está orientada por un eje simbólico vertical «alto/bajo» que implica una escisión en el hombre (lo que antropológicamente parece mejor fundado que la simple lógica promocional: el hombre es un animal escindido por contradicciones interiores). Pero los problemas surgen a la hora de designar en concreto dónde está lo «alto» y dónde lo «bajo»: de la sociedad y del individuo (el hombre es, también, un animal confuso). Esta «lógica social» que la institución religiosa ofrecería como «ejemplar» la hemos también denominado de «insularización»: en el oleaje de imágenes de la cultura sensorial aparece con un (relativo) aislamiento. Ocupada en problemas internos, de identidad propia, no parece haber sido capaz, en una sociedad secular, de elaborar un lenguaje inteligible para las demandas plurales del mundo juvenil. (Es evidente que no todas éstas se sitúan en un plano religiosamente admisible). Pero, ¿qué demandarían hoy los jóvenes (algunos)? En la literatura socio-religiosa no suelen faltar listas de estas demandas. Que, por cierto, no suelen estar formuladas por los mismos jóvenes. ¿Unas demandas imaginadas por adultos? He aquí algunas: una fe más experiencial, que supere el positivismo de «lo dado» (vías de iniciación a la oración) y que permita la exploración del «yo»; una «cultura eclesial» más democrática; mayor creatividad y más participación. Probablemente es injusta la sospecha de que todo esto falta en la institución religiosa. Pero los datos que poseemos indican que así aparece en el imaginario de considerables colectivos juveniles. Y la identidad de éstos -una identidad inestable, compleja y «abierta»-se va construyendo sobre tres pilares fundamentales: la imagen que los jóvenes se van formando de sí mismos, la representación que de su entorno social se hacen (donde la Iglesia aparece con rasgos cada vez más borrosos) y el proyecto vital que ellos se trazan. Si la institución religiosa logra mantener, con el contacto, una imagen positiva, y llegar a formar parte integrante del proyecto del joven, éste desarrollará una identidad católica. Pero los indicios van en la dirección de que tales contactos escasean. Si el contacto no se produce, o es superficial o negativo, las aguas de la «cultura sensorial» e inmanente anegarán en muchos (los porcentajes ¿Jóvenes sin religión? tienden a crecer) el germen de religiosidad que, antropológicamente, se les puede atribuir. La lógica social de «ejemplaridad» que la institución religiosa pretende deja de funcionar para crecientes colectivos juveniles, instalados en la indiferencia. Conclusión: ¿Un futuro religioso de minorías juveniles? ¿Se puede estimar que el futuro de la religión (implícito en estas reflexiones sobre los distintos grupos juveniles) está siendo subjetivamente problematizado por la mirada del espectador? La primera observación sería que el espectador sólo observa el presente (no el futuro). Aunque dentro del presente ensaye el detectar ciertas tendencias. La segunda observación es que tales tendencias dependen de ciertos factores, algunos de los cuales dibujan en el horizonte un «escenario» diferente. Uno de los elementos decisivos sería el cambio en los sujetos de las relaciones sociales. La Sociología analiza procesos. Pero estos procesos tienen a sujetos como protagonistas. No nos parece defendible la concepción de una «sociología sin sujeto». ¿Pueden cambiar en este caso los sujetos de la relación Iglesia/jóvenes? no nos referimos a un cambio «moral», sino a un cambio situacional. Aparecen «escenarios» diferentes, resultado de un cambio social ya en marcha. Uno de ellos, interno a la institución religiosa, que puede alterar su actual relación con la sociedad civil: la Iglesia Católica europea se apoya hoy sustancialmente en un clero envejecido y escaso. La imposibilidad de mantener la presencia social de la institución con estos recursos humanos se hace cada vez más evidente. Ello forzará (ya está ocurriendo, con legitimaciones teológicas incluidas) a la participación real y creciente de los laicos en la toma de decisiones. El «rostro humano» de la Iglesia Católica se va a configurar en un futuro cercano con un perfil diferente, probablemente menos lejano a la sociedad civil, y a los jóvenes. Otro cambio ya en marcha, externo a la institución religiosa, puede afectar a la relevancia social de la Iglesia Católica (y también a las religiones en general). Nos referimos a la serie de confusos procesos que se subsumen bajo el término de «globalización». Si las religiones se erigen, decididamente, en defensoras efectivas de la dignidad y de los derechos de la persona, el proceso las acercará en una especie de «ecumenismo activo» y las abrirá hacia un panorama de relevancia mundial (relevancia que no excluye situaciones de abierta conflictividad).
Una, como donador general de sentido, y las otras, las ciencias humanas y la filosofía, como vigilancia crítica y salvaguarda de las tradiciones religiosas o sabidurías. Debemos a M. Weber^ la exploración del cambio de creencia en la sociedad. Este autor trató de expresar la vinculación de las diferentes clases de religiosidad o creencia mediante la categoría de «afinidades electivas» respecto a una configuración social, un tipo de racionalidad, una forma de actividad económica, etc. Operacionalizaba de esta manera la intuición ya vieja-y, sin duda, ya evidente en nuestros días-de que la creencia es como la vida misma un proceso sujeto a las vicisitudes y cambios del mundo de la vida himaano. Dicho con mayor tono académico: toda creencia hace referencia a un soporte social donde resulta plausible^. De ahí que, en un momento de cambio de época o paso de umbral, como el actual, planteemos la hipótesis de un cambio o reconfiguración en la creencia. ¿Qué cambios ha experimentado o está experimentando nuestra sociedad de la modernidad tardía en su configuración, cultura, racionalidad y acción que incide en la creencia y su modo de manifestarse? Vamos a proceder con cierta rapidez y resumiendo aportaciones de numerosos analistas acerca de nuestra situación actual y su incidencia sobre la creencia. El futuro de la religión, su reconfiguración, pasa por esta recomposición estructural de la creencia en general. Al fondo estarán resonando los procesos de la modernidad en su relación con la religión que de un modo muy sumario denominamos secularización ^ posmodernidad y modernidad reflexiva. En el presente trabajo vamos a defender que estamos asistiendo a una serie de agudizaciones de la creencia que hemos llamado moderna y a la aparición de otros rasgos que nos parecen nuevos, de tal manera que nos permite hablar de una reconfiguración de la creencia. Esto es lo que pretendemos. Insistiremos más en señalar los presuntos nuevos rasgos de la creencia que de justificar mediante el análisis socio-cultural los fundamentos de nuestras afirmaciones. La creencia está ligada estrechamente al sentido de la vida y la realidad. En nuestro tiempo ya está claro que las visiones que tienen por objeto el ordenamiento de la realidad y la vida caen fuera del alcance e interés de la ciencia^. Esta circunscribe sus objetos y sus métodos, y no pretende obtener visiones de la realidad ni de la vida en su conjunto. Sin embargo, el ser humano pregunta e indaga por el sentido de la vida y de la realidad. Han sido tradicionalmente las tradiciones religiosas o las sabidurías las que responden a esta necesidad humana. Religión y filosofía, sabiduría y ciencias del hombre se encuentran en este ámbito de intere- Las dimensiones estructurales de la creencia moderna En el proceso o tránsito de la llamada sociedad tradicional a la sociedad moderna ocurre ya una reconfiguración de la creencia. Aunque todavía hay -dependiendo de las sociedades y de los grupos humanos-restos del estilo de creencia tradicional, creemos sin embargo que los análisis y debates, como el mismo paso del tiempo, van dejando algunas cosas claras. A este tipo de rasgos consensuados por el pensamiento actual nos referiremos en esta primera parte. Constituyen los rasgos típicos del creyente moderno. La privatización de la creencia El paso de la sociedad tradicional a la moderna se caracteriza por la pérdida de centralidad de la religión. Mientras en la sociedad tradicional Creencia y sociedad moderna la religión ocupaba el centro de la producción y legitimación social, en la llamada sociedad moderna la religión pasa a la periferia. La religión queda relegada a ser una institución más entre otras. Deja de ejercer, al menos tan masivamente como en la sociedad tradicional, roles públicos de legitimación de las actividades políticas, económicas o culturales, para pasar a ser crecientemente sólo religión. Esta especialización de la religión en su propio campo de actividad fue vivido históricamente como un constreñimiento de la religión y como una pérdida'* de relevancia social, cultural, etc. En las visiones «eclesiales» de este fenómeno rara vez se ha insistido en la liberación que supone para la religión esta situación que no la supedita ni instrumentaliza a un sistema o modo de estructurar la sociedad, de ejercer el poder, etc. Una visión más socio-cultural del fenómeno insistirá en el descentramiento cosmovisional que supone esta marginación de la sociedad. Comienza a percibirse que la explicación religiosa es una entre otras muchas posible. Ya no detenta el monopolio cosmovisional. Aparecen otras instancias que buscan explicar u ofrecer sentido de forma diferente a la dada por la religión. La creencia religiosa aparece ahora realmente como creencia. Se han soltado las amarras que retenían el sentido en manos de la religión y este camina libremente por diferentes visiones, ordenaciones y explicaciones. La creencia religiosa es una de las posibles y ya no tiene el aspecto de objetividad, ni de necesidad pública que tuvo en otros momentos. Deviene una cuestión privada. Y la sociedad y cultura se descentran de la religión y se vinculan a otros núcleos en una pluralidad de referencias, ideologías y creencias. Estamos ante una privatización de las relaciones religiosas y morales y ante una individualización de la manera de vivir. El resultado de este desplazamiento de la religión a los márgenes de la sociedad moderna está lleno de consecuencias para la creencia. Se instaura un modo diverso de creencia: ya no aparece la creencia religiosa como el centro de la cultura, ni posee dimensión pública y constringente, ni con señales de obligatoriedad ni de visión/sentido objetivo y verdadero. Atendamos aunque sea brevemente a algunas de estas consecuencias. La inmanencia o secularidad del mundo aparece en el primer plano En una sociedad tradicional la transcendencia es vivida con la obviedad de lo evidente. El Absoluto está ahí, cerca, envolviéndonos, siendo la referencia ética última o el sentido final y definitivo. Esta obviedad de la José María Mardones 770 gran transcendencia se ha perdido en la sociedad moderna^. No sólo, como suele insistirse, por motivos de crítica racional y de pérdida de valor de las autoridades y la tradición, sino porque estructuralmente ya no estamos en una sociedad que irradia desde su centro una visión de este cariz. La pérdida de centralidad y de unidad cosmovisional preparó una visión inmanente de la realidad. Las cosas se veían a la luz, no de la transcendencia, sino de las luces más tenues de la razón humana, de la lógica propia de su funcionamiento, de su utilidad o función social, etc. Un giro, que, como vio M. Weber, fue preparando el paso hacia una creciente diferenciación estructural o autonomización de las diversas esferas sociales, de las diversas instituciones y dimensiones de la racionalidad, etc. Podríamos decir que la famosa autonomía humana tan cacareada en la modernidad tiene aquí su base estructural. Desde ahora la racionalidad incluso aparece en su pluralidad y con su diversidad de lógicas y principios de validez. En suma, el mundo aparece como mundo, es decir, secular. Se advierte ya el impacto sobre la creencia. En una sociedad que es consciente de su propia consistencia este descubrimiento hace que los seres humanos fijen la vista sobre todo en estas dimensiones seculares, mundanas, y traten de darles tal relevancia que oscurece la pregunta o mirada al sentido último. M. Weber, que no empleó nunca la palabra secularización ni secularidad, sin embargo, habló de «desencantamiento del mundo» (= Entzauberung der Welt) para expresar plásticamente la pérdida de hechizo, de brillo y calor de este mundo sin duende, y el inicio de una fuerte funcionalización. Incluso podemos decir, con una cierta mirada que resume muchas vicisitudes históricas, que se prepara la sustitución de la creencia religiosa por otras creencias de tipo científico, político, humanista, etc. Se dice que estas instancias compiten con la religión e incluso ejercen funciones sustitutorias. Funcionan como visiones del mundo y como cuasi-religiones: recuérdense los cientismos y toda la gama posible de ismos ideológicos. Un fenómeno que no ha cesado de aparecer y sorprender en la sociedad moderna. La inmanencia en cuanto rasgo estructural se expande en profundidad y extensión por toda la cultura y sociedad y hace cada vez más imposible que las visiones y explicaciones religiosas entren dentro de los diversos campos de las disciplinas, ciencias, etc. Tales prácticas aparecen como una intrusión indebida. Aparece incluso el fenómeno de reducir todo a pura inmanencia (racionalismo, ateísmo...) y hasta la tendencia en nuestros días de hacer de la inmanencia una espiritualidad que absorba lo mejor de la «tradición de la transcendencia», es decir de la religión. La creencia se inmanentiza hasta la espiritualización. La pluralización de la creencia Una consecuencia de la pérdida del monopolio cosmovisional por parte de la religión (cristiana) es la aparición de diversidad de visiones del mundo. La pluralidad de creencias estaba en marcha junto con el descentramiento de la cultura. El colapso de un orden omnicomprensivo de sentido no es un tema novedoso: fue advertido ya por la Ilustración y otros movimientos posteriores que lo saludaron como la ocasión para fundar un nuevo orden basado en la libertad y la razón. Ya hemos indicado cómo en la modernidad le han salido competidores a la religión en su función prototípica de donadora de sentido. Desde la ciencia y las ideologías se han expandido sofisticadas construcciones racionales que han pretendido sustituir a la religión. Este tipo de mitologías, como las denomina G. Steiner^, guardan la «nostalgia de Absoluto» de la religión tradicional y tienen, por tanto, la pretensión de totalidad, de explicarlo todo, que recorrió a la religión. Por otra parte, están atravesadas de ansias de llenar el vacío dejado por la teología cristiana: son theologia sustituía. El pluralismo de creencias es para P. Berger*^ el rasgo más característico de la modernidad. A juicio de este autor el pluralismo constituye un hecho tan importante como la secularidad, incluso el alcance de ésta se explica mejor con aquélla. El impulso pluralista en la modernidad que lleva a la coexistencia de variedad de creencias e ideologías es impensable sin factores como el mercado, la ciudad y la democracia. Mediante estas instituciones centrales de la sociedad moderna nos vemos impulsados desde la posibilidad de elección a la obligación de escoger (como es evidente en el mercado y en la democracia). Se fomenta así la compulsión a la elección y ésta aparece como un derecho humano fundamental^. Las creencias en una situación de pluralismo se ven afectadas por lo que Berger y Luckmann denominaron «la situación de mercado» o supermercado: la diversidad de creencias quedan expuestas como productos a la elección del cliente. La pretensión de verdad de toda creencia queda reducida a mera pretensión. Esta secularización objetiva conduce a una relativismo de las creencia que tiene su efectos en los creyentes en forma de secularización subjetiva, es decir de pérdida de seguridad, certidumbre e identidad. Las crisis de sentido e identidad son una consecuencia normal de esta situación de pluralismo de creencias. Interesa señalar que las creencias en esta situación se ven desafiadas a confrontarse con otras creencia e ideologías y emprenden un viaje de adaptación o resistencia que lleva a cuatro posturas que se pueden observar en numerosas iglesias y creencias: 1) la «negociación cognitiva» en José María Mardones 772 búsqueda de la adaptación a la situación, 2) la «rendición cognitiva» o ajuste a las demandas de la situación, 3) el «atrincheramiento cognitive» en sus dos variedades de pretensión de reconquista del terreno perdido o de llamada a la defensa confesional. Prácticamente casi todas las actitudes religiosas y eclesiales de la conciencia moderna caben en esta tipología con sus consiguientes comportamientos y segregaciones teológicas, etc. La individualización de la creencia Se comprende que en esta situación socio-cultural E. Durkheim captara ya otro rasgo constitutivo de la creencia en la modernidad: la centralidad del individuo creyente. Si la religión tradicional presenta un fuerte énfasis en la objetividad de las creencias y en la instancia institucional emisora de las mismas, ahora el acento se desplaza hacia el individuo. Es el propio individuo el que elige la creencia. Ya la compulsión ejercida por la tradición heredada, aunque no deja de ejercer su influencia, permite libertad suficiente como para no imponerse y que sea el creyente el que determine lo que tiene o quiere creer. Esta faceta individual de la creencia sacraliza hasta cierto punto a la persona. El respeto a su libertad y determinación es lo primero. La libertad de creencia en la modernidad pasa, ante todo, por el individuo: él es el que tiene el derecho a elegir lo que cree y cómo quiere vivir esta creencia. Se sientan ya las bases para una serie de nuevas reconfiguraciones de la creencia que se van a manifestar en nuestro tiempo. Una creencia que tiene su punto fuerte en el individuo es una creencia que se instala bajo la defensa de la personalización y no tanto del peso social de la institución o instancia bajo la que se acoge la creencia. El desplazamiento de la creencia hacia el individuo le quita fuerza a las instituciones y al peso social de la creencia, pero se la da a la persona. Ahora creer exige asumir personalmente lo creído. La creencia tiene un enraizamiento mayor en la voluntad y la libertad inteligente del creyente. Como han señalado P. Berger y T. Luckmann^, el lenguaje mismo es un indicador de este desplazamiento hacia el individuo: en Estados Unidos, donde primero se dio este clima de libertad de elección religiosa, la pertenencia a una religión se expresa mediante la «preferencia», my religious preference. ¿Una pérdida de profundidad de la conciencia creyente o religiosa frente a la tradicional «confesión de la propia fe»? No tiene nada de extraño que la creencia en la modernidad exija por parte de las instituciones o iglesias un mayor esfuerzo de captación de los creyentes, una mejor presentación del mensaje desde la oferta hasta el Creencia y sociedad moderna contenido de lo que se cree y que comencemos a asistir a lo que G. Davie denomina «creer sin pertenecer» (a una iglesia o institución: «believing without belonging»), ñ:-ente al tradicional «pertenecer sin creer» («belonging without believing»). La subjetivización de la creencia M. Weber ya vio que la religión y la creencia en general en la sociedad moderna se reñigiaba en el interior. La pérdida de relevancia pública, privatización, se compensaba así mediante esta mayor interiorización. La personalización que señalábamos anteriormente pasaba, por tanto, por el corazón. Este proceso, que a nivel histórico encontró en la Reforma y el libre examen un poderoso aliado, acentúa los aspectos afectivos de la creencia. Se cree no sólo por tradición y herencia (religión tradicional), sino por razones y por sentimiento. Las denominadas «comunidades afectivas» van a comenzar a jugar un rol importante en este camino de la creencia y la religiosidad en la modernidad. Las consecuencias no dejan esperar. Ahora las luchas y debates de la creencia, de la fe, acontecen en el corazón. El alma humana es el campo de lucha del «politeísmo de valores», de dioses y demonios que cercan en su pluralidad al hombre moderno. Los debates de la creencia en la modernidad no acontecen alrededor del panteón de los dioses -como parecía que sucedía en el mundo tradicional-, sino en el revuelto interior de los corazones y de las mentes. Esta subjetivización de la creencia proporciona un tono relativista a la creencia. Incluso le quita objetividad a las discusiones sobre la «verdad» de las mismas. Cuestiones como la existencia de Dios son resueltas afirmando, como hace un C. G. Jung o en nuestro días J. Cupitt^^, que su existencia es meramente psicológica, arquetipal e interior. Al final la creencia vale en razón de su funcionalidad para resolver problemas existenciales y proporcionar armonía a la vida de la persona. Se prepara así una pragmatización de la creencia: importan sus frutos, no sus raíces (W. James). 774 ¿Estamos donde estábamos o está aconteciendo un nuevo proceso de reconfiguración de la creencia? Aquí vamos a defender que estamos asistiendo a una serie de agudizaciones de la creencia que hemos llamado moderna y a la aparición de otros rasgos que nos parecen nuevos, de tal manera que nos permite hablar de una reconfiguración de la creencia. Esto es lo que preténdenos a continuación. Insistiremos más en señalar los presuntos nuevos rasgos de la creencia que de justificar mediante el análisis sociocultural los fundamentos de nuestras afirmaciones. Modernidad tardía: La sociedad copulativa Nos encontramos: en una sociedad que se caracteriza, según algunos de sus mejores estudiosos actuales, como U. Beck^^, por la copulativa «y». Existe una clara diferencia entre la llamada modernidad simple, la predominante hasta ahora, y la que se perfila y denominamos más que tardía, reflexiva. Mientras que la modernidad simple, de la revolución industrial, era una sociedad más lineal y de las adversativas -o bien o-, la sociedad actual, global y difusa, de la incertidumbre y la contingencia, es la «época del y», que dijera Kandinsky. Supone una radicalización de la modernidad que rompe las premisas y contornos de la sociedad industrial y abre las vías a una modernidad distinta. Una revolución silenciosa que se ha dado sin violencia, al menos externa, y que ha producido grandes emergencias. Señalemos algunos de estos cambio que distinguen a esta sociedad actual: 1) es una sociedad donde los mismos procesos de modernización automatizados ha producido una amenaza generalizada, sociedad del riesgo, que se descubre ínsita en todos los dinamismos de la modernidad; 2) se genera una creciente autoconfrontación social y política con los efectos no pretendidos de la sociedad del riesgo, es decir, surge la reflexividad (que no reflexión); 3) se da la superposición de aspectos positivos y negativos, «bienes» y «males», acciones, reacciones y contra-reacciones, con lo cual entramos en las turbulencias de la sociedad global del riesgo. En suma, la sociedad reflexiva y del riesgo es una sociedad incontrolada, de la incertidumbre y de la autocrítica, sin ningún sujeto social claramente definible. Podemos sospechar con ñmdamento que si nos hallamos en un tránsito hacia una nueva fase de la modernidad, también estamos en un momento de reconfiguración de las creencias y de la religión. Pluralismo hasta la fragmentación Es conocida la insistencia de los autores de la llamada posmodernidad (J. F. Lyotard, G. Vattimo, R. Rorty...) en señalar el ocaso de las grandes visiones del mundo o grandes relatos. Ni las ideologías ni las filosofías de la historia ni las visiones religiosas serían más que «lazos sociales» orientados a la integración social de los individuos y a ganar su colaboración hacia los fines u objetivos propuestos. Entramos en un momento histórico que no sólo ha perdido el halo de verdad objetiva que rodeaba a estas visiones, sino que nos impele a construir o decidir nuestro propio sentido de la vida. Este neo-nietzscheanismo, carente de toda exaltación zaratustriana, convierte al ser humano de nuestros días en un radical constructor de sentido; el sentido se lo proporciona el individuo, que no sólo lo elige, sino lo fabrica. Este estar condenados a darnos nuestro sentido de la vida y la historia, sin nostalgias por los grandes relatos anteriores -como reza la definición postmoderna de J. F. Lyotard-llevaría al ser humano de nuestros días a refugiarse en los pequeños y múltiples relatos, los pequeños relatos, rescindibles, pasajeros, temporales. Esta actitud está presente en nuestro momento. Los posmodernos, más que profetas, levantan acta de tendencias socio-culturales de nuestro tiempo. Traducido en actitudes de creencia, asistimos hoy a una proliferación de «fes» que experimentan con el sentido. O dicho más sociológicamente: nuestra época se caracteriza por ofrecer -junto a las instituciones tradicionales-una pluralidad de instancias generadoras de sentido. Ha inventado o creado instituciones de producción y transmisión de sentido, desde la psicoterapias a los orientadores sexuales, matrimoniales, hasta la ingente explosión de la literatura de autoayuda, autoes-tima^^, etc. Por no hablar de los programas de TV donde se nos ofrecen, si no ya en la misma publicidad, interpretaciones y orientaciones para nuestro comportamiento y nuestra vida. Se crean así «pequeños mundos de sentido» y de creencia que pueblan el clima pluralista de la sociedad civil de nuestros días. Y aparecen, como complemento de las grandes iglesias, una serie de «comunidades de sentido» de cariz espiritual, unas más cerradas (sectas) y otras más abiertas y flexibles (cultos o grupos místicos) donde se ofre-José María Mardones 776 cen estilos de vida definidos. Estas nuevas instancias ofirecen relatos o creencias que se caracterizan por su eclecticismo: aprovechan tanto las reservas de sentido tradicional, como las corrientes actuales científicas, psicoterapéuticas, etc. Un sincretismo que no rehuye la mezcla de nada, ni ninguna alternativa. Se presentan con una pretensión de seriedad que, sin embargo, no resiste el más mínimo rigor crítico. Como ha sido indicado con agudeza^^, estos nuevos centros creadores y transmisores de sentido son «instituciones intermedias» que aparecen sin la fiíerza de la imposición o la prescripción, sino como una oferta de posibilidades. Dosis de creencia homeopáticas que no eliminan las causas de la crisis de sentido, pero que la atenúan y proporcionan resistencia a la enfermedad. La época de la credulidad Nuestro tiempo puede ser denominado «época de la credulidad^^». Tiempo donde el balanceo de creencia e increencia juega con la ambivalencia que recorre toda la sociedad. Por una parte, vivimos en un momento en el cual la racionalidad funcional ha llegado a extenderse a campos cada vez más alejados de su estricto dominio para infiltrarse en zonas que habitualmente están regidas por la relación interpersonal, la comunicación, la moral y la tradición. Esta «colonización del mundo de la vida», como la denomina J. Habermas ^^, tiene también un efecto de profundidad (C. Offe), cada cada vez más en todas las actitudes y configura un modo de ver el mundo, ciego ante el símbolo y la riqueza o misterio de la realidad. Esta queda reducida a sus aspectos de superficie dominables y analizables por la ciencia y expresables en algún algoritmo. La homogeneización funcional de nuestro mundo, impulsada por la enorme expansión de dinamismos que tienen alcance mundial, como la tecno-ciencia y el mercado, tienden en nuestro momento socio-histórico a expander visiones instrumentales de la realidad. Un cuantitativismo y calculabilidad que reduce finalmente la experiencia de la realidad y deseca las tradiciones y donadores de sentido. Estamos a un paso de explicar uno de los puntos ciegos para la creencia. La religión y la tradición no se valoran ni se consideran ante el eficacismo, la rentabilidad, la utilidad y el pragmatismo dominante. La indiferencia religiosa y el cierre ante la transcendencia es una de las consecuencias mas previsibles. Por otra parte, llama la atención que justo esta desecación de los acuíferos del sentido ofrezca una desertización agrietada, por cuyas rajas se Creencia y sociedad moderna cuela el ansia de sentido. Se prepara así la aparición de una sed de Misterio que se manifiesta en formas aberrantes o extravagantes. R. Débray ha señalado, con cierto humor, cómo los superinvestigadores de ingeniería, informática, etc. de Palo Alto, compensan la sequedad de su dedicación funcional investigadora con rituales esotéricos y espiritistas en las tardes-noches. Y G. Kepel, indica la sorprendente proliferación de ingenieros líderes de movimientos fundamentalistas tanto cristianos, como judíos o islámicos. A.Touraine^^ ha lanzado la hipótesis, simpliñcadora y provocativa, de si la ruptura o escisión fundamental de la sociedad actual no yace en la marcha en paralelo de dos procesos que no se encuentran: por una parte, el dinamismo tecno-científico y económico que impulsa una lógica funcionalista e instrumentalista y, por otra, el encuentro interpersonal, el comunitarismo y la producción de sentido que funciona sin encontrarse con aquel. Una sociedad dividida y enfebrecida por procesos de funcionalidad y de comunitariedad que no logran encontrarse ni ajustarse mutuamente. «Época de credulidad», es decir, época donde vivimos la ambivalencia de la indiferencia y de la actitud más acrítica frente a una serie de creencias viejas/nuevas que atraen a los espíritus y los encaminan hacia el mundo. La subversión moderna de las estructuras de plausibilidad de la creencia -de la que hemos dado un ejemplo relevante-afecta a todas las áreas de la creencia, la moral y los valores. Pero esta realidad cotidiana de nuestro mundo muestra su fragilidad desde el punto de vista existencial y del sentido. Es insegura, incierta y, como diremos, es ocasión a menudo para experimentar el descontrol, la incontrolabilidad de esa sociedad y la contingencia. Por esta ranura o ruptura de la «realidad ordinaria» (A. Schütz) se cuela «la otra condición» (R. Musil) que da paso a la apertura a lo transcendente o cualquier creencia por más ridicula que parezca. La diseminación de la creencia. La diseminación y el rizoma son denominaciones que caracterizan al pensamiento en este tiempo de contextualismo y de radicalismo relativista. M. Foucault ya vio disolverse el poder en tecnologías diseminadas para mejor actuar en el sistema social. Michel de Certeau visualizó «la explosión del cristianismo, que saltaba en pedazos y se esparcía por toda la sociedad y cultura francesas, al menos. Pero la explosión y diseminación de las creencias se puede contemplar en un proceso que se inicia en la marginación de lo religioso en la sociedad moderna, que produjo el plu-José María Mardones 778 ralismo cosmovisional y que se continúa en un resquebrajamiento institucional que es visible en nuestros días. Queremos decir lo siguiente: la pérdida del monopolio cosmovisional condujo a la religión a una retirada en la institución que la especializa y la fortalece mediante un proceso que se suele denominar, con X. Kauf-mann^^ de «eclesialización» y hasta de «eclesiastización». Es decir, las iglesias se reordenan mediante un endurecimiento burocrático y jerárquico, clerical, de las comunidades o religiones institucionalizadas. Esta defensa institucional, que tiene visos de reacción defensiva confesional frente al ambiente inhóspito, le deja a las grandes iglesias el monopolio de la religión. Han perdido el monopolio cosmovisioonal pero mantienen el monopolio de los servicios religiosos: quien busca lo religioso lo encuentra en las iglesias. Fuera de ellas domina la profanidad secular. Pero el acervo de símbolos y creencias religiosos, el potencial simbólico de lo sagrado, estaba en manos de la expendeduría eclesial. En nuestros días hemos alcanzado un estadio que cambia drásticamente esta situación. Todavía las grandes religiones institucionales dominan el mundo de la creencia, de las referencias de los individuas y, sin duda, la persistencia de aspectos «cristianos» -puesto que esta es la realidad europea predominante-está todavía muy hondamente enraizada en la cultura y las percepciones de nuestras sociedades y de muchos de los que ya no se reconocen en esta fe. Pero lo nuevo de la situación es que ya no es necesario ir a las iglesias para obtener o hacer uso de los símbolos religiosos. Rituales y creencias deambulan hoy por toda la sociedad. Es como si el depósito de ritos y símbolos religiosos, contenido cuasi-monopolísticamente en las religiones institucionalizadas, se hubiese resquebrajado y dicho potencial se hubiese desparramado por todos los intersticios de la sociedad. Hoy la religión no está circunscrita dentro de los muros de las iglesias, ni la expenden los clérigos, sino que su presencia nos asalta por doquier, en los lugares más sorprendentes y bajo los atavíos de personas en apariencia muy laicas o con los ropajes de una nueva sacralidad. El campo religioso, diríamos a lo Bourdieu, se está «desregulando» en este inicio de siglo. Creer ya ni implica pertenecer a una institución. El individualismo y las posibilidades de organizarse una creencia mediante la ayuda de otras instancias o del flujo de símbolos diseminados en la atmósfera social, permite hoy a los individuos que sea cada vez más verdad lo que la socióloga británica G. Davie denomina «actitud post-religiosa»: aceptar una creencia sin adherirse a una iglesia. La privatización de la creencia, no ya de la religión, alcanza un grado superior. Claro que, como ha señalado D. Hervieu-Léger^^ esta situación Creencia y sociedad moderna no debe llevarnos a pensar en la pura creencia individual y no compartida; más bien se da la multiplicación de pequeñas comunidades fundadas sobre las afinidades culturales, sociales y espirituales de sus miembros. Los individuos aprenden a creer con menos apoyos institucionales y sociales y a tener un sentido y unas identidades más frágiles y plurales. Quizá pudiéramos hablar de creencias y lealtades diferenciadas. La nueva contingencia y la reducción de complejidad espiritual Vivimos un momento socio-cultural de redescubrimiento de la contingencia. Es coherente con el tiempo de incertidumbre que nos toca vivir. A una sociedad de la incertidumbre le corresponde la captación de la finitud y la limitación del ser humano. A un tiempo de descubrimiento de la ambigüedad y el riesgo pululando por todos los dinamismos de la sociedad moderna, le corresponde la vivencia del miedo generalizado, la inseguridad y la búsqueda de protección. A una sociedad desbocada^^, incontrolada, sin rumbo^^, como lo demuestra el comportamiento de la economía financiera o la incapacidad de implantar un orden con futuro en el mundo, así como las amenazas del terrorismo o las vacas locas, le siguen actitudes que buscan de nuevo en el mundo de lo mágico o numinoso el control y la seguridad que le niegan las presuntas aportaciones de la racionalidad y la tecno-ciencia humanas. Ante las aporías de la sociedad del riesgo la sociedad moderna suele tratar los problemas existenciales a base de razón instrumental, pero el miedo y la inseguridad tienden a refugiarse en «lo otro de la razón». La reducción de complejidad (N. Luhmann) de esta sociedad ante la indisponibilidad de lo irremediable y la incondicionalidad de lo indisponible, es el esoterismo y la mitología. Un refugio en el interior y en la creencia en forma de esoterismo y un neognosticismo^^ de bajo tono que combina el ocultismo con el sincretismo espiritual. Tiempos propicios para los «movimientos espirituales» como se suele denominar a estas corrientes de creencia del momento actual. Los datos señalan este auge de lo irracional, como lo llama L Ramo-net^^, cuando la economía y la política pierden la capacidad de orientación. El «vuelo yóguico» y la meditación transcendental se proponen entonces como solución a la crisis. A la impotencia humana le sigue la aparición de las tómbolas mágicas: no sólo la gente común busca más en los juegos de azar la solución a sus cuitas de desempleo, marginación social, etc., sino que la diosa Fortuna y la rueda del Destino aparecen de José María Mardones 780 nuevo en el horizonte de los brokers. Se predice el porvenir y se utilizan hasta las piedras de cuarzo para tener la suerte de obtener un empleo, pero también se reza y hasta se dedica una misa para tener suerte en una inversión en bolsa. La industria de la adivinación, del tarot, los talismanes, la quiromancia... crece, y un ejército de 20.000 brujos, videntes, astrólogos y auríspices no bastan para atender las demandas de más de cuatro millones de franceses; otros tantos son necesarios para semejante clientela italiana y no sabemos cuántos son los españoles, pero nos aseguran que en Madrid superan a los sacerdotes. La complejidad e inseguridad de nuestra sociedad desalienta cada vez a más personas que se refugian en la seducción del oscurantismo. La credulidad de nuestro tiempo pasa, para muchas personas, por esta espiritualidad que proporcione tranquilidad interior, auque sea al precio de seguir creencias que son una burda parodia del gnosticismo. Las condiciones de plausibilidad están dadas para que ante los nuevos riesgos se reaccione mediante el reencantamiento esotérico del mundo y creencias de tipo mágico o soluciones llovidas del cielo. Una regresión cultural que demanda de la religión una hermenéutica adecuada. En el fondo late un problema de gran envergadura: la patencia generalizada de las sombras del progreso moderno. La modernidad tardía, reflexiva, es consciente cada vez más de este hecho. Por otra parte la modernidad ilustrada consideró y trató como superfino todo lo que no se ajustara a la razón argumentadora y empírico corroboradora. El resultado, digámoslo con el juicio sumario de la Escuela de Frankfurt y de Heidegger, fue la mito-logia tecno-industrial. Y ahora sobre la estepa dejada por la racionalidad funcional proliferan, desde hace años, el mito y la magia con más fuerza que nunca. ¿No existe una cierta correlación entre la nueva sensibilidad de «la nebulosa místico-esotérica^^» y la modernidad antirreligiosa? ¿No está la modernidad escindida y la razón moderna ha olvidado algo que pertenece a sus propias raíces? La simbolización de las creencias Ya hemos indicado cómo los creyentes de la modernidad tienden a inventar la religión. La individualización creciente de la creencia facilita la interpretación subjetiva y la adaptación de las doctrinas al sentir e intereses de las personas. Este proceso destradicionaliza la religión y proporciona una suerte de amnesia cultural y religiosa que facilita el cambio, la interpretación sui generis y hasta el eclecticismo que proliféra en nuestros días. Creencia y sociedad moderna D. Hervieu-Léger^^ ve indicios en la situación presente que refuerzan esta tendencia ya avistada desde la modernidad por Schleiermacher. Asistimos, como indican los estudios de campo, a una variedad o pluralismo de creencias dentro de las mismas tradiciones. Hoy un cristiano tiene una idea de Dios que difiere muchísimo de la de otro creyente cristiano y le acerca, por ejemplo, a una concepción más «oriental» o impersonal de Dios. Este tipo de diversificación de la creencia ya no es cosa de intelectuales, sino que se ha extendido a muchos creyentes. Estos disponen con bastante libertad de un depósito cultural e institucional que interpretan y adaptan a sus gustos y necesidades. Una suerte de «bricolage» creyente que depende de edad, sexo, experiencias generacionales, medio social, etc. ¿Cuál es la reacción de la institución? Si en otros tiempos ha respondido con una intelectualización de las creencias para adecuarlas al nuevo momento, hoy esta estrategia no parece dar resultado: muchos teólogos se quejan de la falta de consistencia de sus posibles interlocutores. No hay posibilidad de discutir y plantear los problemas con «rigor». El interlocutor no dialoga, sólo pide, o mejor se toma, una adaptación que sustituye a la tradicional. De ahí que, en la mayoría de los casos, pongamos el ejemplo católico, se trate de ordenar y mantener una cierta unidad doctrinal y creyente mediante medidas de «orden»: la edición del nuevo Catecismo Romano, orientaciones, insistencias y hasta condenas de aquellas interpretaciones teológicas y de aquellos teólogos que las detentan. Se constata un no afrontamiento de la raíz del problema de la hermeneutización de la creencia que se quiere controlar o paliar en sus consecuencias, pero no -por imposible-en su causas o factores determinantes, de carácter más socio-cultural y de sensibilidad de época. Mientras tanto, crece una interpretación simbólica de las creencias religiosas. Tanto los teólogos como los legos creyentes «metaforizan» las afirmaciones bíblicas sobre la creación, los malos espíritus, los milagros, etc. La creencia actual pierde realismo y entra dentro de una sensibilidad desmagificadora y simbolizadora, aunque, por otra parte, el eclecticismo propicie a su vez, la vuelta a posturas donde la magia y la superstición acrítica campen libremente. Una muestra más de la ambivalencia y mezcla de elementos que vivimos en esta modernidad reflexiva o del riesgo. Una metaforización o simbolización que se da acompañada de procesos de magificación grosera. La vulnerabilidad psicológica, el desfallecimiento ideológico, la exclusión social del momento neoliberal, con la precarización de la economía, del trabajo, de las relaciones familiares..., genera suficientes sentimientos de impotencia como para no tratar de do-José María Mardones 782 minar las «fuerzas negativas» con una serie de creencias mágico-esotéricas flotantes que mediante «ondas positivas», «buenas vibraciones», etc. traten de compensar y proporcionar un poco de seguridad a los espíritus. Creyentes «peregrinos», «convertidos» y «resistentes» Si quisiéramos proponer algunas de las figuras de creyente típicas de este momento «desregulado» de la creencia, tendríamos que dar la razón a D. Hervieu-Léger^^ de que parece un tiempo de «peregrinos» y «convertidos». La pérdida de fuerza normativa de las tradiciones, la amnesia cultural consiguiente, el relativismo y la crisis de la transmisión de la tradición, la afirmación de la autonomía personal y hasta el desvalimiento estructural en que se halla la persona, constituyen las condiciones sociales y culturales de plausibilidad para que surjan estas dos figuras a las que habría que añadir, por la relevancia social que ha adquirido, la tonalidad de creyente resistente o neotradicional, si no queremos emplear la palabra dura y peyorativa de sensibilidad fundamentalista. El peregrinaje de creencias es un fenómeno muy esperable entre los creyentes interpretadores y escasamente adheridos a una iglesia e incluso tradición. Peregrinos no tanto de lugares sacros, cuanto de creencias, grupos, comunidades, prácticas y hasta concepciones. Antes de llegar, si llega, el momento de la estabilidad y del hallazgo definitivo de la creencia en la cual descansar y de la adherencia comunitaria o institucional que fije al peregrino en un lugar, esta girovancia espiritual está condenada a la búsqueda y el visiteo espiritual. Estos nuevos giróvagos de la modernidad tardía expresan el estado flotante, diseminado e individualista de las creencias, así como el modo voluntario, autónomo, modulable y cambiante de vivir la creencia. La identidad es uno de los problemas de fondo no resueltos del creyente peregrino. Un problema que se juega en varias vertientes: la cognoscitiva, la comunitaria, la afectiva o emocional, la cultural y la ética o comportamental. De la solución o hallazgo de soluciones para estos aspectos depende el grado y la duración de la peregrinación creyente. Pero ya se puede afirmar, sin miedo a equivocarse, que toda la creencia de la modernidad tardía está afectada, aunque sea en su rechazo, por esta situación de búsqueda de identidad^^. El convertido es otra de las figuras del creyente de nuestros días: tras rechazar o deambular lejos de determinadas creencias, finalmente arriba a la que le arraiga y le convence. Las modalidades de la conversión son varias: desde el que no ha sido ya inculturado en una tradición religiosa Creencia y sociedad moderna y, tras búsquedas y crisis espirituales, llega a la convicción de su creencia, hasta la del que abandonó y retorna al hogar cristiano o católico que dejó en su juventud, o el semi-afiliado que descubre con la entrada en un grupo o alguna vicisitud de las experiencias límite de la vida (K. Jaspers) la vivencia de lo entrevisto pero jamás vivido con decisión ni intensidad, sin olvidar la conversión a una tradición religiosa o al menos grupo diverso (Testigos de Jehová, mormones, neo-budismo, etc) de aquel en que fue socializado en su niñez en la tradición de una gran iglesia. La tercera figura de creyente es la del resistente o neotradicional que, ante el relativismo o desregulación de la creencia, se reafirma en su tradición, doctrina, institución y modo de creencia. Una vuelta a una versión tradicional de la tradición en un momento en el cual ya no es posible sostener naturalmente esta versión. Una figura típica de la reacción y la autodefensa frente al peregrinaje y el indiferentismo de muchos. Un modo de creencia apoyado por las actitudes predominantes en las instituciones eclesiales y que obtienen no sólo el refrendo oficial, sino la compensación psicológica de defender una tradición valiosa que corre el riesgo de perderse por el mal uso y la minusvaloración de muchos creyentes. También admite gradaciones que en sus versiones extremas rozan las posturas intransigentes, intolerantes y fanáticas. Cuando se mezclan, como es posible en estos momentos culturales y políticos, con demandas de identidad nacional o de agravios a una tradición o cultura (islamismo), entonces nos hallamos ante fenómenos de etnoreligiones o fundamentalismo, que usan la justificación religiosa para defender causas nacionalistas o proyectos políticos de cariz alternativo al de la modernidad dominante^^. El materialismo y el espiritualismo de nuestro tiem^po. A la vista de los procesos de cambio en las creencias, no tiene nada de extraño que nos planteemos si las palabras siguen significando lo mismo, especialmente cuando nos referimos a términos tales como los de materialismo y espiritualismo. Constatamos en la actual situación socio-cultural que adscripciones ideológicas denominadas materialistas, por ejemplo de antiguos comunistas, etc, tienen que ser revisadas radicalmente. El materialismo hoy día parece mejor adscrito a aquellas posturas y estilos de vida que niegan la transcendencia. Este cierre ante la transcendencia sucede hoy más por el camino de la explotación de la llamada sociedad de las sensaciones (G. Schulze), o mercado de sensaciones, producido por el mundo mercantil y massmediático, que por la negación teórica de determinados José María Mardones 784 principios. Nuestra sociedad cibernética y del neoliberalismo global produce imágenes de la realidad cuyo significado es el de ser mera mercancía (J. Baudrillard) para ser consumidas o exhibida. ídolos, como dirá J. Luc Marion, que sólo reflejan la mera realidad de las cosas sin permitir un transcendimiento que pase de su uso consumista. Una sociedad de este género expande un paganismo de raíz materialista, mercantilista y consumista que es in-transcendente por definición. Este es el nuevo materialismo trivial que crea multitud de ídolos que impiden la visión de lo Otro. ^ Sin embargo, estamos asistiendo, como nota M. Gauchet^^, a una espiritualización propia del descubrimiento de aquellos materialistas antiguos que caen en la cuenta de la dimensión subversiva que anida en la religión, el cristianismo concretamente, en estos momentos de materialismo consumista. Hay una vuelta a encontrar o descubrir en las raíces religiosas dimensiones de utopía y de resistencia al materialismo del ambiente. Desde este punto de vista, vemos cómo los materialistas antiguos, si no se convierten, se espiritualizan y cómo el simulacro de la imagen y de religiosidad consumista de sensaciones deviene un materialismo craso y negador de la transcendencia. Un doble movimiento que nos fiaerza a cambiar el sentido de las palabras y de las adscripciones. Y es de esperar que más allá de acercamientos ideológicos, que ya se dieron en las décadas anteriores, crezca la afinidad entre los antiguos materialistas y los creyentes críticos fi:'ente al sistema neoliberal y su producción de trivialidad; una esperanza utópica de cambio social que sólo puede ser de orden espiritual. Cada vez se va haciendo más evidente la estrecha imbricación entre razón y creencia. No nos determinamos nunca sólo por razones. Una parte de las realidades a las que les prestamos nuestra adhesión pertenecen al ámbito de lo invisible y sólo son accesibles por medio de la creencia. Los problemas que se debaten en la sociedad del s. XXI que avistamos, desde la bioética hasta la democracia, se juegan en el ámbito humano de las creencias (religiosas o no) y en las llamadas por Ch. Taylor, motivaciones de sentido moral, de fines superiores, por encima del estilo de vida trivial que nos rodea. Hay datos suficientes para sospechar con fimdamento que asistimos a un cambio o transformación de la sociedad y la cultura y, por tanto, de la creencia. Más difícil -y nos queda como tarea-es ofirecer una teoría de Creencia y sociedad moderna esta nueva configuración de la creencia y de la religión. La religión resulta así un indicador del cambio socio-cultural al que asistimos. Queda relativamente claro, con acentos que se pueden enfatizar más o menos, que asistimos a un desplazamiento de la creencia y de la religiosidad hacia el individuo, con una especial tendencia hacia la hermeneutización o desdogmatización que puede adoptar tonalidades subjetivas, en un contexto de pluralismo y de tradición y memoria reflexivas. En esta situación predomina la tendencia hacia un experimentalismo religioso de tipo emocional y un pragmatismo de la salvación aquí y ahora. La construcción de la transcendencia se vuelve hacia la inmanencia o sacralización de la secularidad. Esta metamorfosis de la creencia no está exenta de contrarreacciones que incluso -como parece acontecer en este momento histórico-presentan un neo-tradicionalismo o sensibilidad «fundamentalista» dominante, además de una credulidad apta para la recepción fácil de cualquier propuesta o para recluirse en la indiferencia.
La reciente celebración en Madrid del XXV International Congress of Mathematicians el pasado mes de agosto de 2006 ha sido sin duda el hito más importante en la historia de las matemáticas españolas. En gran medida es un premio al extraordinario progreso experimentado por esta disciplina en los últimos años, y a la vez, ha supuesto un punto y aparte en esta evolución. El término de Horizonte 2006 que en su momento acuñamos, simbolizaba el reto que suponía dar un impulso definitivo a las matemáticas españolas. En las próximas líneas trataré de hacer una breve descripción del pasado reciente así como poner en un contexto internacional el presente, con la intención de señalar las enormes posibilidades que se abren en el futuro inmediato, pero también los peligros de no acertar en las encrucijadas que encaramos. España no ha sido un país con una fuerte tradición científica, y tampoco matemática, a pesar de los intentos de Fe-lipe II de instaurar la singular Real Academia Mathematica, que correspondía a una idea tan de actualidad como es el desarrollar las aplicaciones de las matemáticas basándose en un conocimiento profundo de sus fundamentos. Si miramos a la producción de artículos de investigación -que, en definitiva, es una excelente manera de observar la evolución científica-vemos que en 1980 sólo tres de cada 1.000 artículos publicados en la lista de revistas indexadas en Web of Knowledge tenían un autor español; hoy esa cifra es de cinco de cada 100, y la evolución, medida por quinquenios, puede observarse en la Tabla I. Es evidente el progreso experimentado en estos últimos años, lo que también queda manifestado en la Tabla II extraída de Web of Knowledge. Las Matemáticas se consolidan como la tercera ciencia en España en producción relativa, lo que pareciera impensable hace 25 años. Se puede añadir a esto que de los 19 españoles más citados internacionalmente, cinco son matemáticos. Sin embargo, cuando observamos el impacto internacional, vemos que, a pesar de una continua mejora, las Matemáticas no acaban de dar el salto cualitativo que sí ha conseguido por ejemplo la Física; mejoramos, pero no al mismo ritmo que nuestros competidores científicos internacionales. Identificar las causas de este retraso es sin duda una tarea indispensable para poder poner en marcha las actuaciones correspondientes. Dos son las razones que pudieran incidir en esta falta de impacto: 1) La tan debatida endogamia de nuestro sistema universitario, a la que hasta hace muy poco no era ajeno el CSIC, ha llevado a que nuestro sistema se alimentara casi residualmente de investigadores externos, además de producir una investigación en gran medida continuista. Cuando visitamos cualquier departamento de Matemáticas de una universidad norteamericana (o de nuestro entorno europeo) vemos la cantidad de matemáticos extranjeros que se han ido incorporando, en una política de captar a los mejores independientemente de nacionalidades. Programas como el Ramón y Cajal no han conseguido resolver este problema a día de hoy. 2) La falta de infraestructuras científicas para matemáticas. La ausencia de centros con focalización específica en tareas de investigación ha imposibilitado la existencia de referentes, que marquen tendencias y consigan una interfaz adecuada con el ámbito internacional. También ha impedido el liderazgo de proyectos científicos de mayor envergadura que los que habitualmente desarrollan los matemáticos españoles dentro de los Planes Nacionales y Regionales de I+D+i, y especialmente los incluidos en los Programas Marco europeos. Nos encontramos pues ante la primera de las encrucijadas de nuestras matemáticas. En los últimos tres años se han producido importantes novedades que pueden no sólo paliar estos problemas sino darles una solución definitiva. En gran medida, estas novedades surgen de la reconstrucción de la Real Sociedad Matemática Española en el bienio 1996-1997, de la reflexión colectiva que supuso la celebración del Año Mundial de las Matemáticas en 2000 y del nacimiento del primer Programa Nacional MATEMÁTICAS EN LA UNIVERSIDAD Las matemáticas en la universidad poseen una doble vertiente: como formación de profesionales y nuevos investigadores, y como objeto de investigación. Es quizás esta segunda vertiente la que no ha sido adecuadamente abordada desde las autoridades académicas. La falta de planes estratégicos en investigación que la contemplaran por sí misma y no necesariamente conectada a la docencia, han llevado a una situación en la que las universidades intentan hacer todo tipo de investigación, pero con recursos limitados, y sin ser por tanto capaces de estar en la frontera internacional. Los varios indicadores internacionales que se han hecho públicos en años recientes avalan esta afirmación. En el caso de las matemáticas, son las universidades las que han realizado la tarea investigadora en mayor medida, al haber sufrido la disciplina en los ochenta y noventa del siglo pasado una grave marginación en el CSIC. Esta investigación, como se señalaba anteriormente, es merecedora de todos los elogios, pero también es necesario reconocer que ha llegado a un punto de estancamiento. Desde hace unos años, varias universidades españolas han puesto en marcha institutos universitarios (o instituciones similares) en esta disciplina, con el objetivo de crear sinergias entre sus profesores investigadores. A día de hoy, la lista es ya larga: Santiago de Compostela (IMAT), Universidad de Barcelona (IMUB), Universidad Politécnica de Valencia (dos centros), La Laguna, Salamanca, Zaragoza, Universidad de Castilla-La Mancha, Universidad Complutense de Madrid, y están previstos dos más en Sevilla y Granada. La cuestión es si estas estructuras, por sí mismas, serán capaces de dinamizar la investigación en su entorno. Si no se crean partiendo de un principio de competitividad, eligiendo a los mejores, con unos presupuestos adecuados, con programas realmente ambiciosos y con carácter genuinamente internacional, estaríamos asistiendo a un desperdicio de energía. De nuevo, la evaluación internacional continuada, siguiendo las pautas bien establecidas en el ámbito científico, es la que debería dar la dimensión de estas estructuras. Por otra parte, si en el futuro estas estructuras consiguieran una buena coordinación con las iniciativas del CSIC, cumpliendo en gran medida las recomendaciones que el panel internacional hizo a este organismo ante su plan estratégico en Matemáticas, se conseguiría a medio plazo dinamizar la investigación matemática universitaria. Por otra parte, las licenciaturas y el postgrado tienen que adaptarse al programa diseñado en Bolonia del Espacio Europeo de Enseñanza Superior. Es una situación novedosa, que permite poner en marcha iniciativas ambiciosas, pero que es incompatible con intentar mantener estructuras pasadas que ya no funcionan. Es una oportunidad para: • eliminar el concepto de áreas de conocimiento, que se ha quedado obsoleto y que son incomprensibles en un contexto internacional; • actualizar los contenidos de los grados a unas matemáticas más acordes con la realidad de la ciencia y tecnología de nuestro tiempo; • racionalizar los programas de doctorado buscando sinergias y centrándose en los temas frontera de las matemáticas. Esta es la segunda encrucijada que enfrentamos los matemáticos españoles. Dependerá de nuestra capacidad de poner encima de la mesa las novedades, observar lo que han hecho bien nuestros vecinos europeos, adaptarlo convenientemente a nuestra situación y evitar el continuismo a ultranza. Hemos tenido demasiadas leyes en la universidad española, es hora pues de centrarnos con decisión en nuestro encaje europeo. Las universidades necesitan autonomía, toda la que haga falta, pero también deben responsabilizarse de la ejecución de esa autonomía. LA EDUCACIÓN MATEMÁTICA EN LA SECUNDARIA Mucho se ha hablado y se habla de la problemática de las matemáticas en la secundaria, que aquí usaremos como genérico para referirse a todo el espectro educativo previo al universitario. Las matemáticas son sin duda, por sus características de conocimiento acumulativo y su necesidad de esfuerzo continuado, la prueba del algodón del sistema educativo. No deben olvidarse sin embargo las dificultades generales, de manera que debería hablarse del problema educativo en general. En efecto, la universalización de la educación hasta los 16 años cambió el panorama educativo sin quizás poner en marcha las medidas adecuadas para afrontar con garantías de éxito el nuevo escenario. El continuo incremento de alumnos inmigrantes es otro parámetro a tener en cuenta. Por otra parte, la sociedad que hemos creado no es la más adecuada para fomentar los valores de la educación. Es por tanto necesario hacer un esfuerzo importante con la colaboración de todas las administraciones. El futuro de España dependerá en gran medida de contar con ciudadanos educados, capaces de decidir por sí mismos, preparados profesionalmente para ser competitivos en cualquier lugar de la Unión Europea. Debe aumentarse el gasto educativo; debe ser, con la inversión en investigación, una prioridad nacional: ambas van ineludiblemente unidas. Buscar el asesoramiento de las sociedades matemáticas en el caso particular de esta disciplina puede ser de gran utilidad para las administraciones públicas; a ese fin, la Comisión de Educación del Comité Español de Matemáticas, que en gran medida puede coordinar las actividades educativas de estas sociedades, lo hace a su vez con el MEC que nombra un representante en la misma. Especiales esfuerzos deben hacerse en la divulgación de las matemáticas para conseguir una mayor apreciación pública que, al final, revertirá en un abordaje más interesado por el alumnado. El ejemplo de difusión y divulgación realizado con ocasión del pasado ICM2006 en Madrid demuestra que la tarea es posible. Además, los investigadores deben implicarse mucho más en los temas educativos y divulgativos, siguiendo las recomendaciones de la International Mathematical Union en la última Asamblea General en Santiago de Compostela. No es solo tarea de arriba-abajo, el colectivo debe poner sus recursos a disposición de la matemática española con generosidad. La educación es la tercera encrucijada a la que nos enfrentamos. Las matemáticas españolas se enfrentan pues a una triple encrucijada: investigación, reformas universitarias, secundaria. No son independientes unas de otras, al contrario, forman un círculo que no puede ser roto. En definitiva, conforman los pilares del futuro de nuestro país: formación de buenos profesionales, formación de buenos investigadores capaces de generar y transmitir los conocimientos matemáticos. Es una ocasión única en la disciplina, en la que se dan todas las condiciones para conseguir un salto cualitativo significativo en muy pocos años. En nuestras manos está el conseguirlo. TABLA I: EVOLUCIÓN DE LA MATEMÁTICA ESPAÑOLA POR QUINQUENIOS
La configuración del orden internacional y el factor religioso A lo largo de la historia ha habido unas religiones que han estado muy vinculadas con la tensión política internacionaL Actualmente también ocurre así. Cuando la religión está presente en un conflicto político el problema se intensifica, se extiende geográficamente y perdura temporalmente. Los intentos del siglo XX de contar con un gobierno mundial (Sociedad de las Naciones, ONU, G 8, OTAN), han sido, tras el 11 de septiembre, sustituidos por el poder de los Estados Unidos que lo ejerce en el marco de una tensión Norte -Sur. El Islam en el Sur y el judaismo en el Norte son importantes factores de operatividad en la sociedad internacional a cuya crisis se asoman también las demás religiones. Una mirada a la historia A lo largo de la historia, el factor religioso ha tenido una enorme importancia en la configuración política del orden internacional. Y aunque tiempo atrás pareció que dicha influencia iba camino de su desaparición, los datos con que contamos en nuestros días nos hacen ver que su influjo sigue siendo muy considerable. En el mundo han existido y siguen existiendo una serie de religiones que muy poco tienen que ver con la política a escala mundial. Son las llamadas religiones «mágicas» o religiones «de dioses fimcionales». Cuando se expresan conflictivamente entre sí, lo hacen para potenciar las actitudes surgidas de las diferencias étnicas. Como dice Max Weber este tipo de religiones no tiene tensión frente al orden político del mundo^. Las re-788 Santiago Petschen Verdaguer ligiones del mundo primitivo tuvieron estas características. Todavía existen ahora religiones que las conservan a las que podríamos asimilar ciertas nuevas sectas. Desde la perspectiva que nos ocupa, el rasgo más relevante de ellas es su debilidad. Por ello las situamos con los rasgos político sociológicos de su dimensión menor. Fueron las religiones universalistas las que debido a su pretensión de implantar su dios para todo el mundo originaron una fuerte tensión política con la excepción del budismo, por sus características íntimamente tolerantes. Al ser el cristianismo, como dice Brissaud, una religión misio-nera^, su difusión a escala mundial se hizo teóricamente para implantar una fraternidad y con métodos persuasivos. A pesar de ello, la actitud exclusivista hizo su mella dado que, en su avanzar, tenía que suprimir dioses y eliminar creencias y actitudes. La realidad de la expansión excluyente se reafirmó con más coherencia en el Islam. Sus principios y prácticas no son tanto los de una religión misionera cuanto los de una religión política. Aquella implantación fascinante del Islam que a los cien años de la muerte de Mahoma (año 632) consiguió una presencia imperial desde más allá de Samarkanda hasta el centro de Francia (batalla de Poitiers: 732), es una prueba bien clara de ello. Después vino lo que se llamó la segunda expansión del Islam: la formación del Imperio Otomano. Todo un ejemplo de cómo un principio religioso afecta decididamente al orden internacional. La herencia de aquellas conquistas configura la geografía islámica de nuestros días. Y así como son distintos desde el punto de vista político e internacional los influjos de las religiones de dioses funcionales y de los dioses universalistas, son también diferentes los conflictos entre una religión universalista y otra particular -sea tribal o nacional-, y los conflictos entre dos religiones universalistas ente sí. Cuando el cristianismo se expandía hacia el norte de Europa hallaba pocas resistencias entre aquellas tribus de religiones mágicas que se veían envueltas por una religión más intelectualizada con unas actitudes humanas más sólidas y unas técnicas de persuasión más elaboradas. Algo parecido aconteció en América. Muy distinto fue el intento cristiano de reconquistar el Islam, acción que se estrelló siempre contra una convicción muy firme y una actitud muy batalladora. La pretensión de una religión universal de disolver las religiones particulares se asemeja a lo que ocurre entre el monoteísmo y el politeísmo. El monoteísmo alberga por su propia naturaleza una intransigencia fundamental desconocida en el politeísmo. Los templos budistas de China tienen incorporados en sus recintos una diversidad de altares dedicados a los dioses del taoísmo dando la impresión de que allí cabe o puede caber casi toda creencia. Una de las situaciones en que el paralelismo entre el cielo y la tierra (la religión y la política), despertó más fervor fue en el Imperio Romano. Numerosos autores quisieron configurar el Imperio a la manera del cielo: un ámbito político regido por un Emperador concebido a imagen de Dios. Resulta curioso ver cuánta ñierza han tenido las ideas religiosas en la construcción de las ideas políticas si tenemos en cuenta la cantidad y la calidad de personas eminentes a las que ganó el relacionar la unidad del Imperio romano con la unidad divina: Tertuliano, Orígenes, Ensebio, San Juan Crisóstomo, San Ambrosio, San Jerónimo, Orosio...etc.^. Tanto pudo la idea de la presencia de un Emperador en el marco eclesiástico que cuando el Islam cerró el Mediterráneo por el sur y por el oriente y la influencia de la «impertinente» Constantinopla quedó marginada, la Iglesia católica romana quiso suscitar otro Emperador que cumpliera en ella el mismo papel que los emperadores del Imperio romano habían desempeñado. Situación internacional que Pirenne sintetizó con su famosa tesis de que fue Mahoma quien hizo posible a Garlo-magno^. Dentro del marco de la tensión política aparece un serio problema al encontrarnos con dos religiones que ofirecen unas diferencias opuestas en la misma intimidad de sus concepciones. Me refiero a la oposición entre el judaismo y el cristianismo. Al hallar los judíos que Jesús -a pesar de que era fiel y cumplidor-, tenía unas ideas que se oponían a sus principios y actitudes, tomaron la decisión de eliminarle presionando al poder político de Roma para que le llevase al cadalso. La respuesta de los cristianos no se hizo esperar. Llamaron a los judíos pueblo deicida y consideraron que Dios les había castigado a andar errantes sin territorio propio hasta el fin de los siglos. Su vida, frecuentemente en guetos, en el interior del marco europeo, se vio entorpecida con numerosas persecuciones y castigos. España, Gran Bretaña, Francia, Alemania, Polonia, Rusia, fueron teatro de numerosas acciones que el pueblo judío tuvo que sufrir angustiosamente. Incluso el injusto y terrible holocausto fue originado en el marco de un país cristiano: Alemania. La idea religiosa a la que se unían otros aspectos de carácter étnico, económico, social, ha estado siempre en la base de tal persecución. No cabe duda que el hostigamiento histórico de los cristianos a los judíos ha sido un aspecto del orden internacional de muchos siglos. Una persecución que tuvo su contrapartida. Una buena parte de los judíos expulsados de la Europea cristiana se marcharon al mundo musulmán: norte de Africa, Turquía, los Balcanes ocupados por el Imperio Otomano, en donde se originaron entre los adeptos de ambas confesiones, unas relaciones tradicionalmente pacíficas. Problema político y problema religioso El cambio desfavorable que se ha producido en el siglo pasado entre judíos y musiilmanes contrasta con el cambio favorable entre judíos y cristianos. Son unos cambios que nos ofrecen una oportunidad muy aleccionadora de tratar, sobre bases concretas, de lo que sucede cuando el problema político se confunde y mezcla con el problema religioso. En el caso al que nos referimos, territorio, ciudad y lugar de culto disputados, potencian por su condición religiosa, el problema político. Los tres símbolos esenciales de identidad -Eretz Israel, Jerusalén y el Templo-, son para todos los judíos aunque de manera especial para los que tienen fe, como nos muestran las numerosas manifestaciones hechas por los ortodoxos, elementos fundamentales de sus objetivos políticos. Es en el Templo de Jerusalén donde, según la liturgia referida al profeta Isaías, se da a conocer la gloria de Yahvé. El Templo, por la promesa que Dios hizo a David, es el lugar definitivamente establecido de la relación con Dios. «El Templo recibe de la Tierra y de Jerusalén -dice Pierre Lenhardt-, no sólo una situación geográfica sino también un status económico, cultural y religioso del que Israel y el mundo no pueden prescindir»^. La ciudad de Jerusalén tiene una dimensión religiosa parecida. Ya el profeta Ezequiel la situó en el «centro de las naciones» y la llamó «ombligo de la tierra». Mientras los cristianos y los musulmanes utilizan la expresión «Santos Lugares», la religión de los judíos no está ligada a «lugares» sino a la tierra; no a lo que ocurrió en Jerusalén sino a Jerusalén mismo^. De ahí la irrenunciabilidad de los judíos a ceder Jerusalén y su insistencia en repetir constantemente: «Jerusalén, la capital de Israel, es una ciudad única, íntegra e indivisible y permanecerá siempre bajo soberanía de Israel»'^. Aunque el párrafo está tomado del programa de Netanyahu, es una persuasión en la que coinciden los judíos, especialmente los religiosos. Tampoco hay que olvidar que los que participan de la fe ortodoxa confían en la venida del Mesías, la reconstrucción del Templo y la irradiación de Jerusalén como centro del mundo. En la actu^idad, al estar destruido el Templo, la acción de Dios se halla escondida pero se manifestará vigorosamente cuando el edificio se reconstruya y Dios vuelva a estar en él. En tercer lugar está la tierra de Israel {Eretz Israel), la tierra que Dios les asignó y a la que no ven solamente como lugar de engrandecimiento y seguridad (relativa), sino que es profundamente amada axausa de Dios. Por ello, cuando al movimiento sionista se le planteó la posibilidad de construir el Estado de Israel en otro lugar de la geografía -aunque hubo en algunos, algún momento de vacilación-, el objetivo perseguido de volver a la misma tierra de los antepasados fue considerado un elemento esencial. Cuando con los problemas políticos, se mezclan problemas religiosos, la complicación aumenta muy considerablemente. La cuestión empeora y la dificultad se intensifica, se agranda, perdura. a) La intensificación del problema En el caso que nos referimos, al problema territorial se le añade otro de carácter simbólico e identitario. Para los judíos se trata de un territorio (Eretz Israel) y de una ciudad, Jerusalén, entregados por Dios al pueblo israelita que resultan, por consiguiente, irrenunciables. Los judíos ortodoxos viven esta cuestión con una particularmente intensidad frente a los palestinos y frente a la comunidad internacional. Lo expresan muy bien Martin E. Marty y R. Scott Appleby cuando, en el estudio sobre el fundamentalismo, realizado por numerosos autores, concluyen que la composición étnica de una sociedad compleja está formada por diversas entidades básicas «y esas están más agudamente divididas si en ellas se mezcla la religión»^. b) La extensión geográfica del problema Lo que podría ser un problema reducido a los judíos de Israel y a los palestinos, viene a convertirse, debido a la dimensión religiosa del mismo, una disputa entre judíos y musulmanes de todo el mundo. La cumbre de Rabat en 1969, que creó la Organización de la Conferencia Islámica, tuvo lugar a raíz del incendio provocado en la mezquita de Al-Aqsa. Y en la Carta de la Conferencia Islámica se establece que se fija como sede provisional de la Organización, la ciudad de Jeddah, hasta que sea posible trasladarla a Jerusalén tras su recuperación. Ello hace que sean no sólo los palestinos sino todos los estados musulmanes los que polaricen su interés en la consecución de la ciudad como algo propio. c) La perduración temporal del problema Si el problema fuera meramente territorial, el llegar a un acuerdo se contemplaría como una posibilidad en el tiempo. En cambio, la dimensión religiosa del mismo hace de él una cuestión intemporal. En consecuencia, lo que dijimos de Jerusalén, capital eterna. Los musulmanes lo consideran también lugar irrenunciable para ellos por motivos del mis-Santiago Petschen Verdaguer mo tipo. La mención del templo (aunque no se nombre a Jerusalén), aparece en varias partes del Corán y particularmente en la sura 17 en donde se habla del viaje nocturno (místico) de Mahoma. Orden internacional actual y religión El siglo XX ha intentado organizar el mundo desde un núcleo de gobierno que tuviera autoridad sobre todo el planeta. Los intentos más claros han sido el de la Sociedad de las Naciones y el de la Organización de las Naciones Unidas. Pero ninguno de los dos ha llegado a conseguir un resultado eficaz sostenible. De ahí que hayan aparecido otros intentos como el del G8 y el de la OTAN. El profesor Paolo Fois ha sabido destacar con mucha agudeza cuáles son los principios que las dos instituciones has sabido encontrar como ñmdamento legitimador de su pretensión de ámbito mundial. Son respectivamente el principio de globalización y el principio de injerencia humanitaria^. Los dos intentos están íntimamente relacionados sobretodo porque los seis miembros de mayor influjo se hallan en ambas organizaciones. A saber: los Estados Unidos, Canadá, Gran Bretaña, Francia, Alemania e Italia. Estos cuatro, además, unidos entre sí en el marco de la Unión Europea. Pero son los Estados Unidos los que llevan la batuta en las dos orquestas. A ambas se ha acercado la Federación Rusa si bien con limitaciones pero con la esperanza de poderse implicar más. Pero lo sucedido el once de septiembre ha dado a los Estados Unidos una gran oportunidad de ejercer en exclusiva su propio liderazgo. Para lanzarse a una guerra llamada contra el terror ha organizado a los países del hemisferio norte, con mano bastante maestra, a juzgar por los resultados obtenidos. Vinculó íntimamente a Gran Bretaña en la operación militar, comprometió a los restantes países europeos, se avino con la Federación rusa, ajustó a China de una forma impensable poco tiempo antes como se vio en la cumbre de la APEC en Shangai, se hizo ofrecer de parte de Pakistán unos favores esencialísimos, colocó las piezas de los países árabes e islámicos en una posición bastante favorable para los intereses norteamericanos en la guerra. Todo ello lo han hecho los Estados Unidos por medio de pactos secretos. Dados los intereses en juego y el alto nivel de los compromisos, nadie puede dudar de la existencia de tales pactos^^. Hay quien ha dicho que se ha venido a crear algo así como una nueva ONU, mientras a la ONU existente -en la decisión fundamental-se la ha arrinconado. Cuando ha ido acabando la guerra la ONU ha sido llamada a operar. Así ha interesado a los Estados Unidos que no La configuración del orden internacional y el factor... sólo se ha impuesto sobre los Estados sino también sobre las Organizaciones Internacionales. Por lo que respecta a los Estados vale decir que para saber cómo está hoy un estado en la sociedad internacional, lo primero que hay que conocer es cómo es su relación con los Estados Unidos. Y por lo que se refiere a las Organizaciones Internacionales, después de lo que dijimos acerca de la ONU, cabe añadir que la experiencia de Kosovo aconsejó excluir a la OTAN de Afganistán y que a la Unión Europea se le asignó la reconstrucción del país después del castigo bélico. Incluso la Liga Arabe y la Organización de la Conferencia Islámica fueron situadas en la posición que más convenía al coloso de nuestro tiempo. William Pfaff lo ha dicho muy bien cuando ha escrito que la voluntad política que necesitaban los Estados Unidos para ejercer su enorme poderío, se la proporcionó el once de septiembre. Ese gobierno del mundo que bien podemos llamar nuevo, porque se conforma con la pretensión de un Estado, ha sido asumido por los Estados Unidos y aceptado por todos los demás. Como tal tiene unas características propias de las que conviene destacar algunas. La más relevante es la del unilateralismo. Aunque en Afganistán haya tenido que considerar los intereses del gran juego del petróleo dando cierta cancha a británicos y a rusos (éstos entraron libremente en Kabul), han sido los Estados Unidos los que han proyectado, dirigido y llevado a cabo la guerra. En segundo lugar, su secretismo y la manipulación de la opinión pública. Secretismo en los pactos a los que antes nos referimos para conseguir la adhesión de todos en la ocupación del lugar que a cada uno se le ha asignado. Una operación tan gigantesca y plural no hubiera sido posible sin la utilización de esos pactos secretos. Manipulación de la opinión pública que, en el ámbito de una guerra totalmente sui generis, más necesita ser engañada. Por último, utilización de sistemas de recompensas (las primeras de todas ellas para Paquistán con la supresión de las limitaciones que anteriormente tenía), de amenazas (como -aunque en otro marco-, con Nicaragua antes de las pasadas elecciones) y presiones (por medio del embargo).Y ello para conseguir dirigir a un conglomerado tan nutrido de Estados y de Organizaciones Internacionales que, en ausencia de tan variados métodos, sería imposible lograr. Toda una organización del hemisferio norte poderoso, con un estilo y unos medios para controlar al mundo. Un mundo en el que aparece un sur miserable y desesperado pero no por ello menos controlado, en donde se hallan una serie de países como Somalia, Yemen del Sur, Sudán, que todavía están en el punto de mira del castigo. En ese orden internacional la religión tiene su particular forma de presencia. En el Sur y frente al problema que para él le representa el Norte, Santiago Petschen Verdaguer destaca el Islam. En el Norte, y frente al problema que le representa el Sur tiene una presencia pequeña pero muy influyente el judaismo. Las otras religiones, más distantes de la confrontación están en situación de hacer su aportación de una manera más imparcial y equilibrada. Es evidente que el Sur no se identifica con el Islam. Ni por la geografía, ni por la creencia religiosa, ni por la economía, ni por la política. Sin embargo, en la oposición que existe entre el Norte y el Sur, el Islam ha ocupado el lugar de vanguardia en la manifestación de hostilidad que el abismo diferencial genera. Las mismas características de ciertas tendencias (agresividad, rigorismo), le hacen muy adecuado para representar el papel que la división del mundo parece haber depositado en sus manos. Si una de las formas más profundas, amplias y eficaces con que la religión opera en el orden internacional es por medio de las civilizaciones, el Islam lo cumple de forma destacada. La civilización islámica afronta la realidad del sur en donde se halla inserta como un importante factor de unidad, de concienciación y de protesta. El mundo islámico tiende a considerarse solidariamente uno y quiere ser, de una u otra forma, unitario. Es el mandato que los musulmanes recibieron de Mahoma. Una unidad que no sólo debe ser espiritual como la exigida en el cristianismo sino también política. Ello no impide que haya grandes divisiones tanto religiosas -sunismo (encabezado exitosamente por Arabia Saudí) y chiismo (dirigido, con escasa capacidad de difusión, por Irán)^^-, como políticas (los Estados, cada uno con sus particularidades nacionales) y económicas (de los Países del Golfo hasta Bangladesh y Mali). De esa forma, una parte de los musulmanes parece conectar mejor a título particular con el Norte que con el Sur. Ello, no obstaculiza, sin embargo, la operatividad del principio de unidad como nos demuestra la existencia de la Organización de la Conferencia Islámica y la capacidad de formar organizaciones como la de los Hermanos Musulmanes que pasan por encima de las fronteras del mundo islámico y todavía más la de Al Qaeda que utiliza el recurso de la emigración para infiltrarse en los países de Occidente. Si no fuera por el Islam, la disgregación del Sur en Asia y Africa, sería parecida a la que existe en el Africa subsahariana no musulmana. Es también el Islam en el Sur afroasiático un importante factor de concienciación. El Islam conciencia las grandes diferencias que separan a sus comunidades de los países que forman el mundo desarrollado. Una La configuración del orden internacional y el factor... conciencia del gran abismo existente entre la riqueza de unos y la pobreza de otros que llega a ser vivida con gran frustración. Concienciación de la gran división que se ha producido en los países islámicos cuyas clases potentadas y dirigentes están muy vinculadas a Occidente y son consideradas traidoras por las amplias clases populares. El Islam es un instrumento que les hace ver a sus seguidores la situación en que se hallan y las posibilidades que tienen para luchar en favor del cambio entendido como liberación e incluso también muchas veces como venganza. Una tercera característica es la de la protesta, con características justicialistas, y en ocasiones de rebelión. La experiencia enseña que cuanto' más miserable y desesperada es la diferencia, más radical se hace la frustración. Se alimenta de esa forma entonces lo que se conoce con el nombre de fundamentalismo. La potenciación revolucionaria que origina el subdesarroUo económico y el sometimiento político y cultural halla una coincidencia de carácter muy radical y profundo en la yihad islámica. Así lo vio Qotb, que en Egipto supo atraerse a los desheredados, y algún tiempo después Jomeini, en Irán. Desde ese punto de vista, Qotb, al igual que Mawdudi en Paquistán, consideraron que los nacionalismos son impíos y que no se puede concebir a los Estados islámicos con perspectiva occidental sino bajo la unidad política generada por el Islam. El factor religioso influye también en otras facetas como es por ejemplo, la capacidad de liderazgo. Gran parte de dicha capacidad, como nos muestra el caso de Bin Laden, se debe a la religión. Bin Laden, que abandonó la actitud de la clase alta de Arabia Saudí para identiñcarse con el mundo doliente de los desheredados, ha desarrollado una elevadísima intensidad en su acción. Una de las pruebas más claras es la consecución de que numerosos de sus subditos se hallen dispuestos a inmolarse como kamicazes y ser exaltados con orgullo después de muertos, por sus propias familias. Ha cambiado de país diversas veces formando una organización extendida por encima de diversas fronteras y con subditos de muchas naciones: Arabia Saudí, Afganistán, Sudán...etc. Ha buscado la perduración temporal considerando que la victoria sobre los soviéticos en Afganistán no fuese nada más que la primera de una serie de ellas que tendrían que producirse después. Sadam Hussein, por el contrario, al no apoyarse en la religión, nunca ha desplegado ni hubiera podido desplegar una acción tan amplia. En la Guerra del Golfo únicamente se acercó a la religión con la finalidad de conquistar a la opinión pública. El fundamentalismo ha hecho que en diversos estados islámicos se sacralizase la política y la vida civil. Un ejemplo de dicha sacralización la tenemos en la negativa a adoptar una Constitución porque la Constitución es la sharía como ocurre en Arabia Saudí. En esa línea está la im-Santiago Petschen Verdaguer posición de castigos de la sharía tales como la lapidación y la amputación de miembros. A veces las interpretaciones crean unas situaciones extremosas. Los taliban a los hombres acusados de sodomía les imponían como castigo islámico, aunque desconocido hasta entonces, la pena de perecer bajo un muro que derribaban sobre ellos"^^. B) El Norte y la presión del judaismo En el Norte aparece también un aspecto religioso digno de ser tenido en cuenta. Se muestra claramente en una de las cumbres del iceberg de la lucha Norte-Sur: el conflicto palestino-israelí. Me refiero al judaismo como religión que en este caso actúa con la operatividad de los círculos concéntricos. El círculo más interior son los partidos religiosos judíos -Shas, Judaismo de la Torah (ambos con 22 escaños de los 120 con los que cuenta la Kjiesset), Partido Nacional Religioso (que representa a los colonos de Cisjordania y Gaza)-, que consiguen salirse con la suya para conservar el Eretz Israel por medio de las implantaciones de asentamientos. Dicho círculo está rodeado por otro más amplio del todo Israel que resulta así escorado desde dentro. De forma parecida actúan los judíos como grupo de presión en Estados Unidos que ejercen en la sociedad internacional una ñmción de apoyo muy importante para Israel. Impiden que la cuestión sea llevada al Consejo de Seguridad de la ONU. También en la Asamblea de las Naciones Unidas la representación norteamericana ha votado en solitario junto a Israel. Existe, pues, una notable dejación de los Estados Unidos a la hora de que se consiga la paz en el cercano oriente. En lugar de optar por apoyar lo que establece el derecho internacional con respecto a los territorios ocupados se inclina por hallar una solución dialogada en la que las presiones pueden conseguir mejores resultados sobre la parte más débil que se vio obligada a aceptar la situación de un Estado bantustán. Si, a pesar de haber concretado un pacto, luego ocurre lo que pasó tras los Acuerdos de Oslo, de que los compromisos no se cumplieron, la dejación de la gran potencia resulta todavía más alarmante. De esa forma, el desarrollo de los asentamientos no se ha detenido. El término geográfico de Jerusalén sigue creciendo. Un acto de Sharon en la explanada de las mezquitas provocó la segunda Intifada con todas las manifestaciones de terror que siguieron después impulsadas por una parte por Hamás y la Yihad islámica y por otra por el propio gobierno de Israel. El once de septiembre parece haber provocado un cambio en los Estados Unidos que no está exento de ambigüedad. A veces ha dado la im-La configuración del orden internacional y el factor.. presión de que se tomaban la cuestión más en serio pero sin estar motivados por el fondo de la misma sino por una necesidad estratégica (que algunos países musulmanes no se separaran de la coalición contra el terror). El discurso de Bush en la Asamblea General de las Naciones Unidas pareció dar al problema una importancia secundaria. Una conferencia posterior de Colin Powell en una Universidad de Connecticut con la utilización de la palara «ocupación» y la mención del envío de un representante personal a Israel, pareció aumentar la importancia de la atención que se daba al problema aunque sin resultados posteriores concretos. Entre la relación Norte -Sur y la relación Israel-Palestina aparece un cierto paralelismo. El mismo Bush se encargó de decirlo al comparar a Hamás con Al Qaeda y al actuar contra la Fundación Tierra Santa para el Auxilio y el Desarrollo. La proclamación del derecho a la defensa es similar en uno y otro caso y también las actuaciones (bombardeos, persecuciones). Ni Israel ni los Estados Unidos están dispuestos a acatar los mandatos de la ONU y de un consenso casi universal que -de acuerdo con el derecho internacional con respecto a territorios ocupados-, pide la evacuación de lo conquistado en una guerra, aunque de legítima defensa, en 1967. La guerra contra el terrorismo no ha hecho más que potenciar esta actitud. Cuanto más segura han encontrado los Estados Unidos la victoria en Afganistán, más han seguido favoreciendo a Israel. El acercamiento al mundo de occidente, especialmente a los Estados Unidos, ha sido la causa de que se llegue a hablar incluso de civilización judeo cristiana cuando, como explica Braudel^^, los judíos tuvieron su propio germen independiente de civilización. Dicho germen no cuajó por no haberse podido desarrollar en una historia de dispersión y con frecuencia de guetos sometidos a la persecución. La civilización judía hubiese sido algo muy distinto a lo que es hoy la civilización occidental. Fueron los judíos los que -abandonando muchos rasgos que les eran propios y que sólo los ortodoxos conservaron-, prefirieron seguir la línea de la Ilustración (ashkalá), que la de la ortodoxia. Una vez dado ese paso de aceptación de las características de una civilización formada ya desde hacía varios siglos, los judíos mostraron la potencialidad de su genio aportando unos valores muy notorios de enriquecimiento filosófico y científico. No tenemos más que examinar un caso concreto, el de Alemania, tal como Habermas se encarga de expresarlo y valorarlo^'*. No se trata aquí, con todo, de un problema de civilizaciones tal como Huntington expuso. El Shintoísmo vive alineado con la civilización occidental. A ella se acerca también en nuestros días la civilización eslavo ortodoxa. Lo mismo sucede con amplias capas y sectores del Islam. Y la úl-Santiago Petschen Verdaguer tima aproximación de China a los Estados Unidos parece por el momento alejar la realización de aquella profecía huntingtoniana de la coalición islámico confuciana. Se trata más bien de un distanciamiento enfrentado, Norte-Sur, muy hostil en sus extremos, en el que el factor religioso civilizacional cuenta con una importante presencia. C) Otras dimensiones religiosas Las actitudes de las otras religiones que no se han enfrentado a unas situaciones tan acuciantes con respecto al problema que nos ocupa, son más propensas a la justicia y a la apertura hacia los valores de las demás confesiones. La Iglesia católica ha mostrado una amplitud de miras desconocida hasta los tiempos que corremos. Muy considerable fue el cambio con respecto a los judíos. De la consideración de los judíos como pueblo deicida que inspiraba el rechazo de Benedicto XV y de otros papas al proyectado Estado de Israel, hasta el reconocimiento por parte de Juan Pablo II, en la sinagoga de Maguncia, de que Dios selló una alianza con los judíos que nunca ha sido revocada, media un abismo. En otros documentos de la Iglesia Católica se ha hablado después de la integridad esencial del judaismo en el proyecto divino de la Humanidad. También es digna de mención, como novedosamente revolucionaria, la petición del papa a los católicos para que celebraran un día de ayxmo el pasado día 14 de diciembre uniéndose a los musulmanes que concluían en dicha fecha la celebración del Ramadán. Ha sido un paso más, por encima de la costumbre de Juan Pablo II de invitar a los dirigentes de diversas confesiones religiosas a reunirse en Asís para orar. En una tónica parecida, hay que situar a numerosos centros de estudio y de foros para promover el acercamiento de las religiones en un marco internacional como los de San Egidio o el de la Fundación Agnelli para formar operarios que se hagan promotores del diálogo interreligioso. En Washington se creó no hace mucho el Center for Religion and Diplomacy con el objetivo de potenciar la diplomacia con un conocimiento más profundo de la dimensión religiosa en orden a realizar una acción más efectiva en la solución de conflictos. Después del once de septiembre, otras religiones han tomado postura parecida. El Consejo Mundial de las Iglesias, en el mensaje de Navidad enviado por el Secretario General de la Organización, hizo referencia a que la gracia de Dios quiebra la dinámica despiadada de las represalias. Los presbiterianos de los Estados Unidos, en carta dirigida al presidente Bush le recordaron que ellos, como grupo religioso, promueven la solu-La configuración del orden internacional y el factor. ción pacífica de los conflictos. El texto destacaba que el 25% de las armas de alta tecnología usadas en Afganistán, había causado la muerte de civiles inocentes y dañado el medio ambiente ya previamente devastado por la sequía y las tormentas. En la Iglesia menonita se expresó que la violencia militar sólo podía traer más odios, más deseos de venganza más enemistades entre los pueblos y actos terroristas más violentos. Todavía más radical que todas estas manifestaciones se mostró el Dalai Lama que visitó el Parlamento Europeo el pasado 24 de octubre. El líder budista urgió a los Estados Unidos a detener los bombardeos de Afganistán y a abrir un diálogo con los acusados de ser responsables de los ataques terroristas del pasado once de septiembre. Una exigencia de un arrojo y de un desprendimiento muy propio de un budista, no desprovisto por otra parte, de sentido común, si es que se quiere acudir más a las causas que a los efectos concretos de las mismas. Si nos preguntamos si esta actitud de las religiones se da también en la vida política internacional tendremos que responder afirmativamente si es que nos fijamos en ciertos sectores. Eso sí, con un estilo y, sobre todo, diferente. La motivación política es, por su propia naturaleza, muy distinta de la expresión religiosa. La actitud de Europa guarda un paralelismo en la adopción de posturas que no pierden de vista el equilibrio entre unas pretensiones y sus opuestas. Por lo que respecta a la punta del iceberg de la confrontación político-religiosa Norte-Sur, la situación de Israel-Palestina, los documentos de la Unión Europea se muestran equilibrados. En la guerra de persecución a la cúpula del terrorismo internacional y a sus protectores en Afganistán, a Europa le ha tocado la mejor parte: gastar poco en el conflicto bélico de la destrucción y mucho en la reconstrucción de lo destruido. Lo contrario que a los Estados Unidos: que se ha asignado un gasto enorme para la guerra y sólo aporta, hasta ahora, una pequeña cantidad para la paz. No cabe duda de que esa diferencia es tenida en cuenta por los terroristas. Al Qaeda no ha apuntado a Europa, a pesar de ser, como dice Javier Valenzuela, una zona geográfica bastante más vulnerable que los Estados Unidos. En la conflagración que enfrenta al mundo, una de cuyas manifestaciones más sintomáticas es el terrorismo, las ideas son lo que pueden tener a la larga, más eficacia. Y ahí es donde las religiones pueden aportar mucho. Cierto que el cristianismo y en concreto el catolicismo han sido objeto de amenazas. En algunos medios se habló -extrapolando lo sucedido en algunos lugares del sur de Asia-, de que una acción contra la Basflica de San Pedro en el Vaticano podría ser la respuesta a los ataques de los Estados Unidos en Afganistán durante el mes del Ramadán. Claro que, dado el alto nivel que se ha constatado en esta ocasión de contaminación Santiago Petschen Verdaguer mediática, la propalacion de dicha sospecha podría haber sido la consecuencia de una especulación de difiísión interesada. La manipulación de la opinión, a través de los medios de comunicación, en este tiempo de la llamada guerra contra el terror, ha contrastado con lo sucedido otras veces. Hay quien ha notado un cambio de actitud en la información dada por la CNN con respecto a la información que dio durante la Guerra del Golfo. Otra dimensión a tener en cuenta desde el punto de vista de la religión es cómo las partes enfrentadas sitúan a sus enemigos en su perspectiva religiosa. Los islamistas son los más propensos a utilizar anteojeras religiosas. Afirman que se ha levantado una cruzada en contra del Islam, que se persigue a su religión y utilizan una terminología apocalíptica denominando a Occidente «el gran Satán». No han caído en ese vicio los occidentales que frente al fanatismo de sus oponentes se muestran más fríos acostumbrados como están a las concepciones y a las actitudes secularizadas. Responden con tranquilidad a las acusaciones que reciben que su lucha no está dirigida contra el Islam cuyos valores positivos se esfuerzan en destacar sino contra el terrorismo que no concuerda con las enseñanzas coránicas. Si en las manifestaciones religiosas aparece la política, también en las de los políticos hay un substratum religioso. En boca de los que se sienten islamistas radicales es claro. Pero en el mundo occidental, se utilizan también expresiones de significado religioso como «cruzada contra el terror» o «justicia infinita». No parecen tener mucho sentido. Lo de cruzada tiene unas evocaciones históricas muy negativas. Y la justicia infinita no existe. De lo contrario, no podría ser representada por medio de una balanza. Al decir «justicia infinta» más bien parece que se utiliza un eufemismo que cubra lo que en realidad puede haber debajo: el deseo de «venganza infinta». Ese es el aspecto negativo de la religión también presente en la configuración del orden internacional de nuestros días. Todavía queda algo por decir a propósito del orden internacional en cuyo centro lo único que puede tener sentido es que sea ocupado por la persona humana. Una persona que según es entendida por la filosofía de los derechos humanos sea el criterio para la construcción de una globalización beneficiosa para todos que sea capaz de superar las abismales diferencias entre el Norte y el Sur. Las religiones aportan al conocimiento de la persona la visión que de ella tienen desde la perspectiva de la muerte. Después del once de septiembre hemos tenido ocasión de conocer -como es obvio-, diversas manifestaciones de referencia «post mortem». Y muchas de ellas han sido realizadas desde una concepción desigual de la persona. Como si la vida de la gente inocente muerta en Afganistán no La configuración del orden internacional y el factor. valiera lo mismo que las de los inocentes muertos en las Torres gemelas. Los Estados Unidos han demostrado poseer una técnica y una capacidad organizativa muy por encima de lo común llevando en Afganistán una campaña bélica de varios meses de duración que sólo ha ocasionado en el personal de sus tropas un número de bajas que en poco sobrepasa la decena. Como consecución técnica es enormemente loable. Se trata de un éxito extraordinario. Pero ello no quiere decir que la vida de los que no perecieron por obra de un alarde técnico tan colosal valga más que la de aquellos que murieron tan sin culpa como tan sin remedio. Después de muertos, aunque sea en general, deben ser también recordados. Ello indicaría que se desea profundamente para todos los seres humanos las mismas oportunidades en la educación, la salud, el trabajo, etc. He aquí un aspecto en el que la religión, desde su perspectiva posterior a la muerte, puede aportar -probablemente en exclusiva-, un elemento muy valioso para una configuración más justa del orden internacional.
Pretendo exponer de la manera más breve unas pocas razones que muestren que la teología concierne también al agnóstico. Por teología entiendo la reflexión sistemática en torno a la fe cristiana y por agnóstico, también en sentido muy amplio, aquel que no participa de esta fe. La tesis que defiendo es que no es necesaria la fe para interesarse por la teología; tiene sentido ocuparse de Dios sin creer en su existencia, ¿Por qué el agnóstico habría de ocuparse de la teología cuando el creyente parece que no la necesita? Cree antes de examinar reflexivamente su fe, que no depende de argumentos ni de demostraciones. Lo cierto es que la teología no conduce a la fe y hasta puede dudarse de si la fortalece. Conozco personas profundamente creyentes que huyen de las disquisiciones teológicas como de la peste. Viven la fe en una experiencia de amor al prójimo que no precisa de argumentos. Les basta acompañarse con las Sagradas Escrituras y de algunos libros piadosos o de espiritualidad. Cabría ampliar el horizonte de este artículo y preguntarse por el alcance y sentido que tenga la «reflexión sistemática» sobre Dios para aquellos que creen. En todo caso, no deja de ser paradójico intentar una defensa de la teología, cuando parece que les sobra, tanto a agnósticos como a creyentes; incluso la Iglesia ha encerrado a los teólogos en un gueto en el que, si bien gozan de mucha mayor libertad que en el pasado, la disfrutan en buena parte porque se han quedado sin audiencia. Escriben exclusivamente para los colegas que son los únicos que los leen. Claro que, dada la fragmentación actual de los saberes, lo mismo les ocurre a los demás especialistas. Si una buena parte de los creyentes se desentienden de la teología, ¿por qué habría de ocupar al agnóstico? Barrunto que una vindicación de la teología valga tanto para los unos como para los otros, pero en esta ocasión considero tan sólo las razones del interés que por la teología pueda tener el agnóstico, aunque quizá no sean muy distintas de las que podría tener el creyente. Pensar a Dios sin creer en su existencia Claro que las cosas no fueron siempre así. Hubo un tiempo, justamente, en aquel en que se desarrolló la teología, en que la fe aspiraba a justificarse con argumentos, incluso a fundamentarse racionalmente. De ser considerada la reina de todas las ciencias -«la teología, por lo mismo que es la ciencia de Dios, es el océano que contiene y abarca todas las ciencias, así como Dios es el océano que contiene y abarca todas las cosas» al decir de nuestro Juan Donoso Cortés-se ha visto desplazada al desván de la historia. Veamos las razones por las que hemos de sacarla de la marginalidad en que se encuentra arrinconada. Si nos interesamos por la teología, en primer lugar, es porque necesitamos conocer nuestro pasado, saber de dónde venimos. La cultura europea occidental a la que pertenecemos tuvo en la cristiandad latina su antecesora inmediata, y fue en esta época cuando, sobre todo a partir del siglo XII, la teología se desarrolló con especial ímpetu. Mirada retrospectiva que habría que ampliarla hasta dar cuenta de las formas en que la religiosidad cristiano-judaica se fusiona con la filosofía helenística en los primeros siglos de nuestra era, un capítulo fundamental de nuestra historia intelectual que no puede desconocer el creyente ni el escéptico que quiera hacerse cargo de su pasado común. Parto, pues, del postulado de que, sin creer en su existencia, cabe muy bien intentar pensar la idea de Dios. Se trata, en cierto modo, de la inversión del famoso «argumento ontológico» de San Anselmo (1033-1109), según el cual la idea de Dios implicaría de por sí su existencia: si por definición Dios reúne todas las perfecciones, no le podría faltar la más esencial, la de existir; luego pensar a Dios incluye su existencia. San Anselmo en el Proslogium parte precisamente de rechazar lo que constituye mi postulado de partida: que «es distinto estar en la inteligencia que existir», proposición que considera propia del insensato que se atreve a negar a Dios. «Y, en verdad, el Ser que es tal que nada más grande puede pensarse, no puede estar en la sola inteligencia, pues si, efectivamente, estuviese en la sola inteligencia, se podría imaginar un ser como El que existiese también en la realidad y que sería, por tanto, mayor que El. Así que si estuviese sólo en la inteligencia el ser que es tal que nada mayor pueda ser pensado, sería tal que algo mayor que El podría pensarse». El argumento supone la visión platónica de las ideas como si existieran realmente. Hace mucho tiempo que ha perdido vigencia, a lo más tardar desde Kant; pero, ello no debe ser motivo para echarlo en el olvido. Conviene hacerse cargo tanto de la fuerza enorme que tuvo en el pasado -convierte la existencia de Dios en evidencia-como del papel central que ¿Teología para agnósticos? este argumento ha desempeñado a la hora de fundamentar racionalmente la fe. San Anselmo recalca que «si no creéis, no comprenderéis», pero también que la fe busca y facilita la comprensión (fides quarens intellectum). Instalado sólidamente en la fe, es decir, en una situación como la vivida en la Edad Media, en que cualquier interpretación del mundo y de la sociedad remite siempre a Dios, resulta imposible dudar de la existencia de un Dios en el que todos creen y desde el que se explica y fundamenta todo lo existente. Si se percibe la realidad desde la fe, la realidad corrobora la fe. Si se cree en Dios, en todas partes se atisba su presencia. El conjunto de evidencias al que nos remite el argumento de San Anselmo es tan brillante como convincente dentro de sus premisas; conserva incluso cierta actualidad al poner de manifiesto los errores de una metafísica racional que vincula pensamiento y existencia como las dos caras de una misma moneda. Visión teológica versus visión científica En un largo proceso de racionalización que se inicia con la primera ilustración en la Grecia clásica, el politeísmo incuba el monoteísmo, y éste a su vez al ateísmo. En el helenismo, sin embargo, la ciencia natural no logra consolidarse, ni el ateísmo llega a sobrepasar pequeños círculos cercanos a determinadas escuelas filosóficas, quedando al final aplastado por las religiones orientales que terminan por aliarse con las filosofías teístas. Proceso que de alguna forma se repite en la modernidad, una ilustración que desarrolla un monoteísmo racional que también desemboca en el ateísmo, pero esta vez la ciencia sí logra afianzarse, gracias en buena parte a su aplicación técnica, con lo que se crea la base material para que se expanda el ateísmo que lleva en su seno. La ciencia moderna es atea en el sentido de que no precisa, antes al contrario, rechaza la idea de Dios para explicar lo existente (la naturaleza y el hombre). Laplace da a Napoleón una respuesta contundente sobre el papel de Dios: «Señor, no preciso esta hipótesis». Lo propio del hacer científico es que por principio rehusa acudir a Dios, como explicación cercana o lejana. Actitud propia de una ciencia que va arrebatando, paso a paso, zonas que se habían considerado más allá de su alcance, como el origen de la vida a partir de lo inerte, o las redes neuronales para dar cuenta del espíritu humano. Una vez que ha quedado arrumbado un argumento de tanta finura intelectual como el ontológico, todos los demás que tratan de demostrar la existencia de Dios partiendo de la creación -el mundo y el hombre-en la que estaría grabada la huella del Creador, se diluyen como azucarillos en el café. El afán de fundamentar racionalmente la fe, lleva ya en su entraña, tanto la posibilidad de un desarrollo científico, como el ateísmo futuro. En el empeño de fundamentar de manera racional la fe subyace ya en embrión la ciencia moderna que, justamente, es la que da el tiro de gracia, si no a la creencia en Dios, sí por lo menos a la forma medieval de vincular razón y fe. Cosmos, hombre y Dios, forman el trípode sobre el que se asienta la visión cristiana de la realidad. Conviene partir de esta tríada para seguir los vericuetos por los que se ha ido evaporando «la hipótesis de Dios», de modo que en la modernidad nos quedamos sólo con dos sustancias, hombre y mundo. A mitad del XIX, al resultar patente que el hombre proviene de la naturaleza, sin que nos distingamos de los demás seres vivientes, de cuya evolución formamos parte, se disuelven incluso las diferencias entre hombre y naturaleza. De tres pasamos a una sola sustancia, o si se quiere, de una concepción teológica a una científica de la realidad. Necesitamos la teología como punto de partida para entender el proceso que nos lleva a la situación actual. Pero no basta con describir el punto de partida y el de llegada; no basta con contraponer una visión teocéntrica con una científica de la realidad, tirando la primera por la borda y asumiendo la segunda con todas sus consecuencias. La insatisfacción ante semejante comportamiento proviene de que se ha desplomado la idea lineal de progreso, basada en una predilección continua de lo nuevo, como si fuese siempre mejor que lo anterior. Frente al dogma progresista de que lo nuevo supera siempre a lo viejo, hoy nos inclinamos a dar la razón al proverbio ruso que dice que nada es tan bueno que no comporte algo negativo, ni nada tan malo que no tenga algo positivo. Ello complica mucho el proceso histórico que se revela bastante más complejo de lo que supone una idea lineal de progreso. En vez de dar por sentado que lo nuevo es siempre mejor que lo que le precede, se impone una visión que registre en lo nuevo, además de los elementos positivos, los negativos, de modo que quede de manifiesto los altos costos que a veces pagamos por los pretendidos avances. Desde esta nueva visión del proceso histórico, no linealmente ascendente, ahora sabemos que en el camino hemos ido perdiendo cantidad de dimensiones de las que alguna tal vez hubiere importado conservar. Desde luego que no podemos detener el curso de la historia, como quiere el reaccionario impotente; pero tampoco nos está permitido echar a la basura todo lo que parece que se ha quedado viejo, como quiere el progresista incontinente. Nada más destructor que una idea del progreso que. ¿Teología para agnósticos? sin preguntarse por los costos de las innovaciones, va abandonando cadáveres en la cuneta. Así como algunos, conscientes de lo perdido en el cambio, hemos tratado de recuperar la visión del mundo politeísta, propia de la cultura grecolatina, que desplazó el cristianismo, tampoco estamos dispuestos a deshacernos de la visión cristiana sin examinar con algún detenimiento los costos que conlleva el abandonarla. Operación que obliga a mantenerse en contacto con la teología que, justamente, ha elaborado una buena cantidad de los materiales perdidos. La idea del hombre y del cosmos que tenía el cristiano provenía ciertamente de lo revelado por Dios, pero también de los conocimientos «científicos» de cada época, hasta el punto de que la teología se constituye como reflexión sobre la manera como se relacionan creer y saber, cuestión que, pese a que está bastante marginada en la teología de nuestros días, me parece tan fíindamental, como lo fue en épocas anteriores. El acuerdo del que se partía, y del que creo se sigue partiendo, es que la idea del hombre y del mundo que nos proporciona la Revelación tendría de algún modo que coincidir con las que vamos ganando con la razón, la observación, o la experimentación del mundo. Coincidencia que ya explicita claramente San Agustín cuando dice que «la verdadera filosofía es religión verdadera y, recíprocamente, la religión verdadera es verdadera filosofía». En definitiva, lo que nos enseña el conocimiento humano no puede estar en contradicción con las verdades reveladas. Si surgiese algún desajuste, sería debido, desde la perspectiva del teólogo, a que la ciencia se extralimita en sacar conclusiones que no le corresponde. En la relación de creer y saber caben, en principio, tres posiciones, que son las que, de hecho, nos encontramos. La primera, a la que llamaré tesis, sostiene la diferencia absoluta entre fe y razón. El saber humano, siempre falible y provisional, nada tendría que aportar a lo que conocemos con la certeza plena de lo revelado por Dios. La antítesis, al contrario, afirma que la razón es una vía adecuada para conocer y fundamentar lo que creemos por la fe. Y una tercera posición intermedia mantiene que la razón puede conocer y fundamentar verdades conocidas por la Revelación, como por ejemplo la existencia de Dios, a la vez que tiene su tope en algunas verdades sobrenaturales que escapan a la razón y que sólo conocemos por la Revelación, como la Trinidad. La primera posición separa pulcramente creer y saber, fe y razón. Está presente desde la patrística hasta nuestros días. Un buen repre-sentante podría ser el tan extremoso Tertuliano que llega a decir que la muerte del Hijo de Dios es digna de fe, justamente, porque para el sentido común no es creíble: ¿cómo podría morir Dios? Asimismo la Resurrección es cierta, porque resulta inconcebible. Aunque la formula credo quia absurdum parece que no se encuentra en sus escritos, expresa muy bien la síntesis última de su pensamiento. Opinión que, más matizada, comparte el obispo de Lyon, San Ireneo, para el que el único conocimiento del que podemos estar plenamente seguros es el que proviene de la Revelación. Oponiéndose a la ola racionalista del siglo XIII, renace un fideísmo -llamo así a postular la primacía exclusiva de la fe-que denuncia a la filosofía, no sólo, como superfina a la hora de conocer las verdades reveladas, sino incluso muy peligrosa, ya que la mayor parte de las herejías provendrían, justamente, de la intromisión de la razón en el campo de las verdades reveladas. En este contexto parece decisiva la posición de Guillermo de Occam, que no considera concluyentes, aunque sí verosímiles, las demostraciones racionales de la existencia de Dios. No habría modo de fundamentar racionalmente la fe, por lo que habría que abandonar los argumentos equívocos de la razón y basarla exclusivamente en las Sagradas Escrituras. Lutero se confesó «de la escuela de Occam». Desde un fideísmo extremo, el reformador alemán llama a la razón, no ya sólo «enemiga de la fe», sino incluso «prostituta del diablo», con lo que Aristóteles resultaba «el impío defensor de los papistas». La fe surge de una experiencia interna que lleva al asentimiento de las Sagradas Escrituras como palabra de Dios. En suma, al separar limpiamente creer y saber, la fe se refugia en un «castillo inexpugnable» ante los ataques de la ciencia, sea cual fuere su contenido en cada época. La creencia se movería en un plano sobrenatural, inalcanzable al conocimiento humano, en el que los argumentos racionales carecen de sentido, de modo que entre creer y saber no podría surgir contradicción alguna. Si el saber no influye en absoluto sobre lo que se cree, poco importa entonces los dictámenes de la ciencia. De ahí que el fideísmo sea la respuesta que se adapta mejor a la revolución científica de la modernidad. La segunda posición da por descontado que la razón sirve para esclarecer tanto las verdades naturales, como las sobrenaturales. También lo revelado por Dios estaría sometido a la razón. Toma fuerza con la revolución racionalista del siglo XIII, antecedente inmediato del racionalismo que acabará por imponerse en la modernidad. Es una línea que puede seguirse desde Pedro Abelardo hasta el mallorquín Ramón Llull y el barcelonés Raimundo de Sabunde. Nuestro Ramón Llull estaba plenamente convencido de que la realidad es racional y, por tanto, el saber uno. Al hacer interdependientes lógica y ontología, se revela el más moderno de los ¿Teología, para agnósticos? modernos, precursor directo de Leibniz y de Hegel. Si se identifica creer con saber, entonces cabria convencer a los infieles, musulmanes y judíos, de la verdad científica del cristianismo. ¡Qué mejor fimdamento del cristianismo que demostrar científicamente la verdad de la Trinidad y de la Encarnación! «El entendimiento es semejante a un hombre que sube con dos pies por una escalera. En el primer escalón pone el pie de la fe y luego el del entendimiento, cuando el pie de la fe está en el segundo, y así va subiendo. El fin del entendimiento no es creer, sino entender {credere non est finis intellectus, sed intelligere), pero se sirve de la fe como instrumento». Valdría la pena comentar con algún detalle eso de que «el fin del intelecto no es creer, sino entender» que encontramos en Ars Magna de LluU. En este punto Raimundo de Sabunde se muestra fiel discípulo del mallorquín. Según nos cuenta Montaigne «su fin es audaz y valeroso, ya que procura con razones humanas y naturales, establecer y demostrar contra los ateos todos los artículos de la religión cristiana». Valdría la pena tratar de dilucidar por qué, al ocaso de la Edad Media, fueron dos españoles del reino de Aragón los representantes más conspicuos del racionalismo -¿acaso la influencia islámica?-, preeminencia que perdimos en los siglos siguientes: ¿debido a la Inquisición con todo lo que representa? Aunque Tomás de Aquino considerase absurda tamaña pretensión, estaba también convencido de que las verdades de la fe contaban con una cierta plausibilidad, hasta el punto de que si no eran racionalmente demostrables, por lo menos parecían razonables. Esta tercera posición intermedia supone que la razón tiene acceso a las verdades reveladas, pero no a todas. Es decir, no existe una ruptura clara entre creer y saber, pero tampoco la creencia se agota en el saber, siempre provisional y limitado. Tomás de Aquino distingue saber de creer, según el grado con que el sujeto asiente. Si ante una proposición cabe la duda, es que se trata de una mera opinión; si se muestra evidente, entonces es ciencia; si conlleva una certeza absoluta sin mostrar evidencia, es que pertenece a la fe, que se sostiene en un fuerte asentimiento de la voluntad. La razón nos lleva hasta el umbral de la fe, praeambula fidei, pero para entrar en ella es menester que nuestra voluntad asienta, dispuestos a aceptar lo que Dios nos revele, acto para el que contamos siempre con la gracia divina. Que la razón se haya introducido en la visión religiosa del mundo es uno de los caracteres privativos de la Europa cristiana. En el Islam, donde el racionalismo surgió antes, también impulsado por la filosofía griega, no terminó por fraguar; demasiado pronto desembocó en el ateísmo. Todavía en el siglo XII la teología cristiana estaba muy distante de una sistematización que aspirase a ser ciencia. Para exponer el dogma se contentaba con reunir textos sacados de las Escrituras y de los Santos Pa-dres. Una colección muy conocida que se empleó en la enseñanza fueron las Sentencias de Pedro Lombardo. Santo Tomás se puso a escribir la Suma Teológica, convencido de que estas colecciones no servían para «la enseñanza de los principiantes». Había que sistematizar la doctrina, fundamentándola racionalmente en lo que fuere posible. Aqxií yace el carácter revolucionario de esta obra: ofrecer una visión razonable de todo lo existente, desde el comienzo hasta el final de los tiempos. En este sentido la Suma quiere ser un tratado científico, y lo es plenamente, si por ciencia entendemos la sistematización de conocimientos extraídos de principios que «son evidentes por sí mismos o se reducen a lo conocido en otra ciencia superior». Santo Tomás se pregunta si desde estos criterios la «doctrina sagrada» puede ser considerada ciencia y su respuesta es afirmativa, distinguiendo las ciencias que proceden de principios conocidos con la luz natural del entendimiento, siempre falibles, de aquellas que proceden de principios revelados por Dios y, por tanto, absolutamente ciertos. Una vez que ha demostrado racionalmente la existencia de Dios -las famosas cinco vías-no hay modo de negar el valor científico, es decir, de conocimiento verdadero, a todo aquello que Dios ha querido revelarnos. En ultimo término, la ciencia así entendida se descubre un saber racional que vincula y unifica todo lo existente en y por Dios. Tomás de Aquino constituye sin duda uno de los eslabones principales que enlazan el racionalismo griego con el moderno. Difícilmente cabe encontrar mayor claridad y poder de convicción que en la Suma, Partiendo de la demostración de la existencia de Dios, de las cualidades de Dios a las que se puede llegar por la razón, los límites que tiene el entendimiento creado para alcanzar la esencia de Dios, sigue el Dios trinitario que se nos ha revelado más allá de la razón. La creación divina da cuenta de todo lo existente: las criaturas simplemente espirituales, los ángeles; aquéllas sólo corporales -minerales, plantas y animales-cuyo conjunto supone una descripción detallada de los seis días de la creación. En fin, el hombre, compuesto de cuerpo y espíritu, lo que le otorga un puesto muy especial en la creación. La naturaleza, formada tan sólo de cuerpos, aunque con distintas propiedades, se completa con el hombre, cuerpo y espíritu, y con él comienza la historia. Paraíso terrenal, caída y expulsión; elección de un pueblo para que de él naciera el Redentor. Encarnación y nacimiento, vida y enseñanza, pasión y muerte en la cruz. La resurrección y ascensión a los cielos del Hijo de Dios constituyen el eje universal de la historia, que acaba con su vuelta triunfante en el Juicio Final. Desde la creación hasta el final de los tiempos, la historia, al igual que el destino de cada persona, es un proceso que viene de Dios y se dirige a Dios. El antecedente inmediato a nuestra visión moderna del hombre y del mundo es la concepción teocéntrica que de manera tan admirable sistematizó Santo Tomás. Es menester partir de ella para dar cuenta de las ideas que hoy tenemos del hombre y del mundo. Han ido desgajándose, rama a rama, de esta visión. Me importa recalcar algo que debería ser obvio, pero que está bastante olvidado: el racionalismo escolástico, incluido el tomista, está en el origen de la visión científica del hombre y del universo que cuaja en la modernidad. El racionalismo, implícito en la Suma, unifica saber y creer. En un primer momento una fe que se cree fundada en la razón, o por lo menos razonable, adquiere una fuerza inmensa; pero, cuando se desploma la demostración racional de la existencia de Dios, queda de manifiesto toda su fragilidad. El intento de fundamentar la fe en la razón acaba con el desmoronamiento de la fe. La permanencia desfasada del tomismo Pese a que la obra de Santo Tomás asombre, tanto por la extensión de sus conocimientos, y sobre todo por el sentido común que pone de manifiesto, como por el ingenio de que da prueba al acoplar la filosofía aristotélica a las necesidades de la doctrina cristiana, a nadie puede chocar que, habiendo sido tantas y de tal calado las innovaciones, una buena parte de la teología de su tiempo las recibiese con enorme recelo, cuando no duras criticas. Haber introducido una filosofía extraña en la explicación de la doctrina sagrada tenía que parecer a muchos una profanación, o algo peor, una aventura peligrosísima que no se sabía en qué podía acabar. En efecto, en cuanto se independiza la razón, ya no se la puede controlar. Al hundirse la ilusión de que la fe podría fundamentarse racionalmente, deja como poso tan sólo el deseo pío de que al menos parezca razonable. Y esto ya es cuestión opinable. Puede ocurrir que lo que al creyente le parece razonable, al incrédulo, en absoluto. Renuncio a discutir, aunque no a formular, dos cuestiones que, si pudiéramos ocuparnos de ellas con algún detenimiento, nos ayudarían bastante en el tema que tratamos. La primera reza: ¿por qué, pese al rechazo inicial, se aceptó enseguida la teología «científica» de Santo Tomás?; ¿por qué el racionalismo tomista contó desde muy pronto con el apoyo de la Iglesia jerárquica? La segunda traslada esta misma cuestión a una situación por completo distinta, aquella que se presenta después de que la ciencia moderna hubiese sustituido al aristotelismo, incluso tras la secularización ilustrada y la conmoción revolucionaria del siglo XVIIL ¿Cómo se explica que renaciese el tomismo en la primera mitad del XIX, apro-vechando la Iglesia, o al menos favoreciendo, el intento imposible de restaurar la unidad del trono y del altar que había caracterizado a la sociedad estamental del «antiguo régimen»? En rigor, el triunfo indiscutido del tomismo, pese a haber estado en alza desde la contrarreforma, es de fecha bastante reciente, si se quiere, desde 1879 con la encíclica Aeterni Patris de León XIII, valoración que sigue subiendo con los tres Píos, Pío X, Pío XI y Pío XII. Si pudiéramos profundizar en estas dos cuestiones, triunfo inmediato del tomismo y sorprendente renacimiento en el siglo XIX, tal vez estaríamos en condiciones de explicar por qué el cristianismo habría encajado tan perfectamente en la sociedad estamental que establece abismales diferencias a partir del nacimiento. ¿Cómo pudo acoplarse el cristianismo a la esclavitud en el mundo antiguo y al feudalismo en la cristiandad, cuando la esencia del mensaje de Jesús es la igualdad de todos los humanos, en cuanto hijos de Dios? Una buena noticia que, claro está, alegra a los pobres y desposeídos, pero mucho menos a los ricos y poderosos. ¿Cómo un mensaje de fraternidad pudo arraigar en sociedades que marcaban tan enormes diferencias sociales? Como se ve, cuestiones esenciales del desarrollo social y político de Europa no pueden plantearse sin la correspondiente conexión con la teología. La ruptura moderna con la teología Hemos comprobado que no cabe hacerse cargo del pasado sin plantear cuestiones que exigen un conocimiento amplio de la teología y que la ciencia moderna proviene del racionalismo que se incrusta en la teología. Para entender su origen en la modernidad, es indispensable un conocimiento detallado de la conversión de la teología en filosofía, si se quiere, el trecho que va de Tomás de Aquino a Descartes. Ahora bien, el filósofo francés que inaugura la modernidad, sin dudar de su fe, rompe radicalmente con la teología, al recalcar que lo importante es «ganar el cielo», y para ello no se precisa de teologías. Sabe que «el camino no está menos abierto a los más ignorantes que a los más sabios y que las verdades reveladas que allí conducen están por encima de nuestra inteligencia, y no hubiese osado someterlas a la debilidad de mis razonamientos, ya que pensaba que para tratar de examinarlas con éxito, era preciso tener una ayuda extraordinaria del cielo y ser más que un hombre». La crítica de la teología no puede ser más contundente: no sirve para lo que de verdad importa, salvarnos y gozar a Dios en la otra vida, y además es una pretensión imposible, que supera la condición humana. De ahí que la fe que ¿Teología para agnósticos? garantiza una vida virtuosa vaya por un lado y, por otro, la razón que exige un conocimiento evidente, tal como se descubre en el saber matemático. La modernidad cartesiana convierte a la teología en un saber superfino -de nada sirve en el negocio de la salvación-, a la vez que uno imposible: la criatura finita no puede pensar a Dios. El ciclo de la teología habría llegado a su final. Sin contar con la fe cristiana y la actuación de la Iglesia, nuestra historia resulta incomprensible. Nadie pone en duda la importancia de la teología para comprender nuestro pasado; se precisa tanto como la raitología para entender el mundo antiguo. La cuestión es saber de qué sirve la teología tras haber recorrido el trecho que va desde la separación cartesiana al ateísmo ilustrado. ¿Por qué convendría conectar de nuevo con la teología, una vez desaparecida de nuestro horizonte cognoscitivo que lo enmarca la ciencia? Ante el ateísmo implícito en la ciencia, al creyente no le queda otro remedio que retrotraerse a otras esferas de conocimiento y dar por supuesto que el conocimiento científico no es el único; que cabe, en principio, imaginar realidades más allá del mundo sensible. La creencia se ha hecho compatible con la ciencia, pero al precio de una nítida separación del mundo que investiga la ciencia y el que proclama la fe. La grandeza de la fe medieval radicaba en que ponía en relación fe y razón, creencia y saber, pero el intento de fundamentar racionalmente la fe ha desembocado en el ateísmo. El ateo debería estar interesado en conocer sus antecedentes teístas, para así poder explicarse mejor su ateísmo, que hoy parece dominante, aunque no se sepa cuanto va a durar esta preeminencia. Dios más allá de la razón Ortega, subido al palo mayor en su función de vigía de la nación, en noviembre de 1926 -durante la dictadura de Primo de Rivera, importa la circunstancia-llegó a gritar un «Dios a la vista». No en el sentido de una vuelta a la religión, -precisamente de lo que se queja es de ese afán de identificar a Dios con las religiones-sino para recordar algo que se olvida demasiado a menudo, que «Dios es también un asunto profano». El Dios conceptual de la filosofía que vislumbra Ortega nos impone una refiexión que, en último término, cuestiona lo tangible como la ultima dimensión de la realidad. El «Dios a la vista» orteguiano es un aviso de que no podemos permanecer satisfechos en un positivismo cientificista. La ciencia es atea, sin duda; y así debe ser; pero el cientificismo, es decir, la reducción de todos los conocimientos al científico, no parece asumible sin más. Ortega no hace un alegato a favor de la existencia de Dios; únicamente se muestra en desacuerdo a que tiremos por la borda la noción de Dios, porque sirve de acicate para seguir buscando formas de conocimiento que sobrepasen el marco impuesto por la ciencia. Mantener la idea de Dios deja abierto un gran interrogante que no hay por qué cerrar precipitadamente. El que de la ciencia hayamos eliminado el concepto de Dios no debería implicar que de antemano lo eliminemos también de otras formas cognoscitivas posibles de construir la realidad. El concepto de Dios sirve al menos para librarnos de un cientificismo demasiado ramplón. Todas las contradicciones de lo humano, su miseria y su grandeza, se reflejan en las muy distintas ideas que a lo largo de los milenios hemos ido construyendo de Dios. Se comprende que no podamos arrojarlas al olvido sin perder la memoria del largo camino recorrido para llegar a ser lo que somos. Necesitamos indagar la idea de Dios, de entrada, para averiguar el largo proceso de nuestro devenir, pero también para imaginar lo que todavía podríamos llegar a ser. La invención de Dios ha ayudado al hombre a elevarse más allá del reino animal. Nos hemos creído emparentados con los dioses. Dios nos habría hecho reyes de todo lo creado, creación que el sexto día habría culminado justamente con la del hombre. De ser criaturas de Dios provienen la dignidad, la libertad y la igualdad de los humanos. Claro que hoy podemos desligarlas de su origen divino y defenderlas por sí mismas, pero ello no quita que hayan ido granando, impulsadas por la idea de Dios. Por eso, decía, hay que tener mucho cuidado cuando desechamos esta idea; se podría llevar consigo cosas muy valiosas. Ocuparnos de la idea de Dios sirve, no sólo para recuperar la memoria de nuestro pasado, sin la que no podemos comprendernos, sino también para poder romper moldes en el momento presente, escapando de los tópicos dominantes. El saber en cuanto se enroca termina por convertirse en escolástica. La de hoy, tengámoslo muy presente, es el ateísmo cientificista. De ahí que suponga un ejercicio saludable tratar de escapar del ateísmo, aunque no lo consigamos, así como en el siglo XVIII, cuando la razón y la ciencia empezaban abrirse camino, defender el ateísmo fue tan útil como benemérito. Cuando, como sucede ahora, ambas dominan con un poder absoluto, la reacción saludable podría ser adentrarse un poco en la selva de las ideas de Dios. Tiene la ventaja de que aviva la fantasía y con ella surte lo que más escasea en nuestro mundo, razones para la esperanza, que nunca pueden desprenderse de lo real -lo fáctico no puede albergar esperanza alguna-sino que hay que inventarlas. La teología es ciertamente un capítulo de la literatura fantástica, pero creo que Borges lo dijo en su honor, no para desacreditarla. Filosofía y teología, una diferenciación imposible Un tema bastante peliagudo del que no se puede librar el filósofo es el deslinde claro de la teología, complejo mundo del que, al fin y al cabo, proviene la filosofía. El neopositivismo de la escuela de Viena en los años sesenta se abría paso en Colonia, representado por el entonces privatdozent Hans Albert. Hijo, si no recuerdo mal, de un pastor protestante, llevaba la voz cantante en el afán de limpiar el saber de cualquier conexión con la teología o la creencia. Los que no estábamos dispuestos a aceptar todas las reducciones que imponían los neopositivistas -que, además, por asumir sin la menor critica el orden económico-social establecido, resultaban harto sospechosas-y leíamos a Hegel y a Husserl, como era mi caso, preparando una tesis sobre Sartre -su ateísmo me parecía obvio, dicho sea de paso-éramos acusados de teólogos encubiertos, lo que a la postre, me obligaba a tratar de trazar las fronteras entre teología y filosofía de otra manera que el neopositivismo. Ello me llevó a leer a algunos teólogos, entre ellos a Karl Barth. Para introducirme en una temática, para mí tan extraña como alejada, empecé por leer la teología protestante en el siglo XIX. Dos enseñanzas me han quedado en el recuerdo. La primera, que para adentrarse en la teología no era preciso pertenecer al gremio, sino tan sólo sentirse atraído por estas cuestiones, interés que no excluye, antes al contrarío, «una postura crítica, de negación o de escepticismo dentro de la teología o incluso contra la teología». El único que no tiene cabida «no es el teólogo que se equivoca, ni siquiera el adversario de la teología -no se puede ser adversario de la teología sin llegar a ser de alguna manera teólogosino el espectador ocioso que cree poder ver o hablar de algo que no le concierne». Para Barth, el único que queda fuera es el indiferente. Cabría muy bien una «teología para agnósticos», pero no, una para indiferentes. La segunda enseñanza consiste en algo bastante obvio, pero que a mí se me reveló como nuevo, y es la estrecha vinculación de la filosofía con la teología, hasta el punto de que resulta imposible hacer una historía de la filosofía sin sus implicaciones teológicas, así como una de la teología sin sus concomitancias filosóficas. Se puede muy bien dar la espalda a la teología desde las ciencias naturales, pero no cabe hacerlo desde la filosofía. Barth dedica más de la mitad del libro a los prolegómenos de la teología decimonónica, y se ocupa de Rousseau, Lessing, Kant, Herder, Novalis y Hegel. Cuando se centra en la teología, parte de Schleiermacher, el teólogo más importante del siglo XIX que, al decir de Barth, pretendió serlo cabalmente, sin dejar por ello de ser hombre moderno, abierto a la filosofía y a la ciencia de su tiempo. Schleiermacher no cabía entender el idealismo alemán; pero una vez metido en estos andurriales, era difícil mantener mi anterior desprecio por la teología. Me llamó aún más la atención que entre los teólogos del XIX, Barth se ocupase de Ludwig Feuerbach, que había reducido la teología a antropología, y de David Friedrich Strauss, de menos fuste, pero muy digno de mención por su Vida de Jesús. La filosofía no puede renunciar a trazar una línea divisoria clara con la teología, pero al moverse en un terreno tan movedizo como es la frontera entre ambas, a poco que intente cumplir con su misión de enfrentarse a las cuestiones capitales que nos conciernen, no puede evitar invadir su territorio. Si se quiere romper de plano con la teología, previamente hay que haber roto con la filosofía. El rechazo de la teología sólo resulta congruente si, como hizo el positivismo, incluye el de la filosofía. En fin, la lectura de las obras teológicas nos ofrece la oportunidad de ocuparnos de temas que estimo importantes, pero que, al faltar las plataformas o los canales de comunicación apropiados para ocuparse de estas cuestiones, difícilmente cabe debatir en publico. En nuestras sociedades por completo secularizadas no está bien hablar en público de religión, como tampoco lo está el referirse a la vida sexual de cada uno. Es obsceno mostrar la intimidad, sea ésta religiosa o sexual. En la universidad se estudia todo lo que concierne al cosmos y al hombre, eludiendo, eso sí, las concomitancias religiosas. De religión no se habla más que en las cátedras de teología y en las de filosofía o historia de las religiones. En una España en la que el nacionalcatolicismo ha dejado huellas tan profundas, importa que nuestros ateos se acerquen un poco a las distintas tradiciones religiosas, sin las que no cabe comprender el pasado -y sin él, nada se entiende del presente-pero también que los creyentes, chapados a la antigua, descubran que los incrédulos tienen sus razones para mantenerse en la increencia, sin por eso ser especialmente desgraciados o malas personas.
Agnosia, un término griego para ignorancia, fue usado por un cristiano del siglo V que tuvo gran influjo para caracterizar el modestísimo conocimiento (gnosis) de Dios a que pueden aspirar los humanos. El creyente reflexivo actual recoge con sumo interés esa modestia y encuentra en ella la clave de una real cercanía con aquellos agnósticos actuales que siguen valorando la teología. Coinciden ambos en lo que saben (sobre el mundo y el hombre) y en el interés por las cuestiones-límite; ante las que tienen convicciones (y actitudes) diferentes. Cuando mi buen amigo Xavier Quinzá, coordinador del presente monográfico sobre «el enigma de la religión», me pidió amablemente una breve aportación, encontré oportuno, tomando del modo más literal el título, pensar lo que para el creyente tiene de enigma la religión. El tema se me concretó al leer la colaboración de ese otro buen amigo, Ignacio Sotelo, en la que reivindica para el agnóstico una auténtica preocupación por la teología. Habiendo compartido año tras año con Sotelo esa aventura de diálogo en profundidad que hemos llamado «Foro sobre el Hecho Religioso», he sido testigo de que lo que dice en su escrito sobre el acercam.iento del agnóstico a lo religioso y lo teológico no es una idea adventicia; y que, en él, desde luego, no ha sido ninguna veleidad. Sus ideas son así para mí una invitación a intentar expresar lo que entiendo ha sido motivo de fondo a la vez que resultado de ese esfuerzo de diálogo intelectual sobre lo religioso al que he dedicado una buena parte de mi vida. Buscando ante todo expresarlo concentradamente en un título, no he encontrado, ni creo podría encontrar, otro mejor que el que he puesto: la «agnosia» del creyente. ¿Qué es, aquí, «agnosia»? La simetría, desde luego, es buscada: «teología del agnóstico» I «agnosia del creyente». Cabría decir, para hacerla aún más literal: «agnosia del teólogo». Pero importaba subrayar que, tal como la entiendo, lo que llamo «agnosia» no viene sólo de la toma de consciencia de problemas culturales, sino de la misma raíz de la religiosidad vivida, de la misma fe en Dios. El vocablo no es invención mía. Para preferirlo a otros me inclina, como he reconocido, su simetría con «agnosticismo», parecido y diferente a la vez. Como es sabido, «agnóstico» y «agnosticismo» no son más antiguos del siglo XIX: los encontró sir Thomas Huxley para expresar una postura de «no creyente en Dios» que no sugiriera todo lo que de asertivo y hasta polémico sugiere «ateísmo». «Agnosia» (un término griego para decir «ignorancia») había sido aplicado, en cambio, mucho antes a lo de Dios. Lo hizo ya aquel escritor neoplatónico cristiano del siglo quinto cuyos escritos circularon con el seudónimo de Dionisio el Areopagita, que acudió al vocablo precisamente buscando expresar algo que sentía que era lo más importante que debía hacer en su esfuerzo teológico: evitar el desacato y la profanación que significaría una «teo-logía» (discurso sobre Dios) que no observara esa cautela. Intentaba sugerir con agnosia nada menos que el único modo de conocimiento que, a su parecer, puede tener sensatamente lugar en teología: «... la agnosia es un conocimiento (gnosis) del que está sobre todo conocimiento» (Carta 1, MG. No es -ya se está viendo-una ignorancia simple, que sería irrelevante. En un clima cultural en que se buscaba como salvador el conocimiento religioso (gnosis) se hace una provocativa proclama de la agnosia como gnosis. Como puede apreciarse, eso es recurrir deliberadamente a la paradoja: la agnosia es gnosis, Pero no se trata de un recurso alegre ni generalizador: lo que se busca mediante la antítesis no es establecer ninguna regla lógica general. Quiere, por el contrario, destacarse la singularidad del intento «teo-lógico» en cuanto tal. Porque ese intento busca conocer y expresar en lenguaje humano al «que está sobre todo conocimiento». En este caso único -si es que hay motivos para no desistir simplemente del empeño-, lo único razonable es acudir a la paradoja -si es que se piensa que la paradoja puede al menos ser suficientemente indicativa-. El motivo para no desistir habrá, sin duda, que buscarlo en la vivencia de fe; de modo, posiblemente, complejo. Quizá es como querer asomarse al límite del mundo, en fuerza de la añoranza de un más allá que sea clave de su ser y su sentido. Que la paradoja resulte suficientemente indicativa es algo que el Pseudo-Dionisio buscó elaborar un poco más en su escrito más valioso y cuidado, la Teología mística. Las precisiones que aporta ese tratadito no son desdeñables. No hay unanimidad entre los estudiosos sobre el alcance a dar a algunas de sus expresiones. Pero pienso que la intuición básica queda clara en una formulación compendiosa que leemos muy al comienzo, donde describe un proceso que hoy, con término original platónico, llamaremos «dialéctica»: «... siendo así que, más bien, es necesario afirmar de El todas las posiciones (theseis) y afirmaciones, como Causa que es de todas; y, más necesario aún, negarlas, por cuanto está por encima de todas; sin pensar que las negaciones se oponen a las afirmaciones, sino, más bien, que la Causa está... sobre toda afirmación y negación» (De mystica Theologia,%2, MG 3, 1000 A-B). der que «Dios» en la fe monoteísta no es el singular de «dios, dioses...» de la simbólica politeísta; está más cerca de, aunque tampoco coincide con, el Brahman del Vedanta. En todo caso, es muy relevante la postulación de agnosia que estoy comentando. Sobre todo, porque no es una ocurrencia feliz pero casual. Se le pueden encontrar paralelos en las tradiciones místicas de las tres religiones monoteístas. Y, por otra parte, el influjo del Pseudo-Areopagita ha sido grande en toda la tradición teológica cristiana. Le favoreció, sin duda, el seudónimo elegido. Pero eso no fue todo. Y entre los que se han mostrado influidos por él no están solamente teólogos tenidos por audaces como Nicolás de Cusa. Es marcadísima su impronta en Tomás de Aquino; determinando su decidida renuncia a tener por unívoca ninguna afirmación humana de Dios. (No se suele destacar el dato, pero el reciente Index thomisticus señala unas 1.300 referencias al corpus dionysianum, número sólo igualado por las de Aristóteles y Avicena). Lo cual no ha impedido, hay que reconocer, que la teología cristiana habitual (incluida la tomista), haya sido en su práctica muy poco fiel al mensaje de la agnosia, multiplicando las afirmaciones teo-lógicas sin suficiente correctivo de negación. Con lo cual, sin duda, tienen que ver su unilateral obsesión por el rigor en la ortodoxia doctrinal y la desmedida relevancia relativa que le ha concedido. El resultado ha sido con mucha frecuencia un talante dogmatista, sobre el que hay que preguntarse si es coherente con la fe en Dios, Misterio Absoluto «sobre todo conocimiento». Al creyente reflexivo actual todo le lleva, por el contrario, a tomar en serio el «principio agnosia»; a evitar hacer con ligereza afirmaciones teológicas de pretensión científica y a resituar los énfasis en su comprensión de la fe. El creyente cristiano reflexivo sigue hoy hablando de Dios, pero lo hace con más respeto, con «temor y temblor». Redescubre con gozo lo que su tradición mantenía sobre la indispensable agnosia; y, al hacerlo, es consciente de no ejercer con ello estrategia ninguna, sino, más bien, ser simplemente coherente con lo que quiere decir al decir «Dios». Sigue en pie su diferencia con el «agnóstico»; y una diferencia no simplemente gradual. Pero, bien concebida, tal diferencia no afecta propiamente a lo que «saben». Ambos saben en principio lo mismo sobre el mun-La «agnosia» del creyente do y el hombre; y ambos pueden asumir entre sus rasgos una cierta profesión de «no saber» en cuanto al posible Misterio, al que no llega el saber científico. Lo que los diferencia es una convicción, que es parte de la compleja actitud vital y en la que, sin duda, pesa toda la biografía. El creyente refiere todo, en su actitud de fe, a un Misterio Absoluto al que, precisamente porque lo es, profesa no poder alcanzar con su saber y sí sólo atisbar como un punto límite. El agnóstico tiene otra convicción más sobria: estando así las cosas, tiene por más razonable atenerse a lo que se puede saber. Pero, desde este ángulo de visión, se hace ya sin duda muy comprensible que un agnóstico se entienda bien con los creyentes reñexivos que han llegado a descubrir el esencial anidamiento de la agnosia en cualquier intento suyo de expresar en palabras humanas lo que viven en su fe en Dios. Así como que esos creyentes puedan a veces sentirse más cercanos a ciertos agnósticos que a los «gnósticos» muy seguros en sus dogmas (religiosos o dentistas). De muchos agnósticos habrán sin duda aprendido los creyentes dialogantes una especial honradez intelectual que prohibe capitular ante el autoengaño cómodo. Conscientes, por otra parte, de que no tendrían que abdicar de la convicción creyente por el hecho de que ésta encuentre una profunda complicidad con el fondo del deseo humano de bien. A los agnósticos agradecerán también esos creyentes no poco en el importante descubrimiento de la agnosia. Algo que estiman como una maduración, no sólo humana sino también de su fe. Porque una fe sin «principio agnosia», una fe que se sintiera feliz pensando cautivar al Misterio Absoluto que invoca como «Dios» en la pobre red de sus dogmas es no sólo humanamente inmadura sino profundamente incoherente con su propio fondo vivido. Y aquí puede incluso producirse una situación no poco paradójica. Puede ocurrir que, en el diálogo mutuo, el agnóstico que se interesa por la teología ponga en apuro al creyente al pedirle aclaraciones conceptuales referidas a las formulaciones tradicionales de la fe; con el resultado de que haya de ser el creyente quien recuerde al agnóstico el «principio agnosia». El enigma de la religión Veo oportuno terminar retornando desde lo dicho el título general del monográfico. Cuando hablamos hoy de la religión como enigma, la miramos ante todo «desde fuera», con los ojos del historiador y del estudioso José Gómez Caffarena de ciencias humanas. Hemos descubierto que esa consideración es importante para nuestra reflexión total sobre el ser humano y su cultura. Visto así, resulta muy adecuado el título elegido. La religión es enigma porque, en la descripción objetiva del ser humano, hace presente un excedente de significado. ¿Por qué tienen los seres humanos, además de tantas actuaciones y actitudes más explicables, nacidas de sus búsquedas de sobrevivencia y comunicación, esas otras que llamamos religiosas, tan extrañas, tan diversas también entre sí? La enigmática religión hace enigmático al ser humano. O, quizá, siendo los humanos enigmáticos por más de un título, la dimensión religiosa es la que más los revela como tales. Ahora bien, es lógico preguntarse también: ¿es también enigma la religión para aquellos de los humanos que la viven «desde dentro»? Cabría pensar que no. En las culturas tradicionales, los símbolos, ritos y creencias religiosas -el cosmos sagrado en la denominación de Thomas Luckmann-, forman parte de lo más obvio del universo de significados y prácticas. Para que puedan cumplir bien la función que les reconoce la sociología de «dar sentido a la vida personal y social», parece necesaria esa índole de supuesto indiscutido. Pero ello no quita que la experiencia religiosa tenga para quien la vive, incluso en esa situación y sin dependencia de ninguna especial reflexión, una peculiar índole de enigma, que esta vez cabría llamar enigmaticidad constitutiva. El continuo moverse en el universo de los símbolos marca al ser humano, le deja entrever la radical ambigüedad del vivir humano; le hace consciente de lo ilimitado de su deseo y del contraste con lo que puede ofrecerle la realidad, del valor de mantener esperanza incluso entonces y de la precariedad del mantenerla. Quizá es esa enigmaticidad la cara más cercana de lo que llamamos «lo sagrado»; y es a sus experiencias multiformes a lo que podemos llamar «hierofanías». Para los humanos de nuestras culturas modernas (¿y posmodernas?) la religión ha dejado de constituir un supuesto indiscutido; y se nos ha hecho con ello más obvio mirarla objetivamente como enigma y hablar en ese sentido de «el enigma de la religión». Pero ello no agota la enigmaticidad: la misma religión se refiere al enigma de la existencia y revela al ser humano su implicación en él. El que hoy hayamos aprendido el valor de mirar a la religión «desde fuera», ¿es simplemente desfavorable para las experiencias religiosas y para la percepción de esa otra, constitutiva, enigmaticidad? Algo hay que inclina sin dudas a la respuesta afirmativa. Pero quizá no tendría que ser esa la última palabra. Más que hacerse imposibles, las La «agnosia» del creyente «hierofanías» pueden haber cambiado de medio expresivo y de lugar; quizá hacia lo hondo de la relación interhumana. Allí hará de nuevo acto de presencia lo enigmático. Y quizá entre las notas de enigmaticidad de experiencias de fe monoteísta viables hoy haya de reconocerse cada vez más lugar muy relevante a la agnosia.
En este trabajo no se trata del dolor mismo, sino de cómo se ha planteado el problema del dolor en relación con la experiencia de lo sagrado, entre personas y grupos que sufrían. Se recuerdan primero algunos hechos que tienen que ver con esta relación y luego se desarrolla lo que estos hechos sugieren: el dolor es un destino que nos sitúa en la perspectiva de nuestra mortalidad y finitud, y solamente en la elaboración libre de este límite se da la verdadera aceptación del mundo de Dios. En relación con lo sagrado el dolor marca sagradamente y crea un destino. Esto es lo importante. En el prólogo a su libro Problems of Suffering in Religions of the World, J. Bowker comenta que el sufrimiento sería antes un hecho de la vida que un problema de la mente^. Como hecho de vida vendría a ser el mismo en todos los tiempos y en todos los sitios, pero como problema no. Porque la forma como el sufrir se hace problema para la mente dependería de los valores religiosos con los que en una u otra forma choca el sufrir, y esos valores religiosos son diferentes, al menos por lo que respecta a judíos, cristianos, musulmanes, hindúes y budistas. En el sufrimiento no habrá por tanto un mismo problema para estas cinco religiones, aunque el sufrimiento como hecho de vida sea el mismo para todos los creyentes e increyentes. Esto en nuestro ambiente cultural suena a juego de palabras, porque estamos acostumbrados a decirnos que el problema es el sufrimiento mismo, no la manera de vivirlo y elaborarlo mentalmente. Pero esto no sería exacto. Quien no piensa no tiene problemas, aunque sufra, porque el plantear problemas y luchar con ellos es una actividad de la mente. Con esto doy un primer paso para aclarar que en este trabajo no voy a tratar del dolor mismo, sino de cómo se ha planteado el problema del dolor, en relación con la experiencia de lo sagrado, entre personas y grupos que sufin^an. Pero me parece necesario dar un paso más. Y es observar que hoy en la cultura de occidente, desde la cual y en el interior de la cual pensamos, damos por supuesto que el problema del dolor está sencillamente en que el dolor existe. Por ello entendemos que la manera humanamente correcta de resolver el problema del dolor sería esforzarse lisa y llanamente por suprimirlo. De otros puntos de vista, por ejemplo de los religiosos, aceptamos que puedan darnos explicaciones suplementarias útiles para aliviarnos, para encontrar sentido, para motivarnos en orden a luchar más eficazmente contra el dolor, etc. Pero encontraríamos desacertado e incluso inhumano que alguien pretendiera en nombre de alguna fe, ante una situación de dolor, que el problema puede no estar en que hay dolor y en que la gente sufra, sino quizás en alguna otra cuestión. Quiero insistir en que no podríamos discurrir tal como discurrimos, o sea, entendiendo que el problema del dolor está en el hecho mismo de que el dolor existe, si no tuviéramos un particular concepto de la existencia humana que se ve cuestionado y desafiado por la presencia del dolor. Si entendiéramos de otra forma la existencia, el dolor de todos modos nos haría sufrir, por supuesto. Pero el problema del dolor, el conjunto de interrogantes que brotarían de la experiencia del sufrimiento o del contacto con él, no irían desde luego en la misma dirección ni apelarían a las mismas soluciones. Eso es lo que nos llevan a pensar las reñexiones de Bowker arriba recogidas. Serviría para ejemplificar estas ideas el conocido pasaje de «Los Hermanos Karamazov» de Dostoievsky, en el cual Ivan y su hermano Aliosha discuten sobre el problema del mal y la existencia de Dios. Impresiona la fuerza con que Iván, en ese pasaje, hace presentes a su hermano los males y sufrimientos del mundo; también quizá la sincera ingenuidad con que éste, a pesar de tomar muy en serio los horrores de que le habla su hermano, responde confiadamente sobre su fe y su vivir. Diré entre paréntesis que ha sido para mí la repetida consideración de este texto lo que me ha llevado siempre de nuevo a repensar el tema de las relaciones entre el dolor y lo sagrado, de las cuales quiero tratar aquí. Pues bien: lo especial que siempre he encontrado de nuevo en las palabras de Aliosha es que ellas expresan una manera enormemente lógica de vivir el mal y el dolor desde una existencia llena de lo sagrado. Ésta, penetrada de agradecimiento a Dios por un don de la vida vivido como santo, reacciona de una manera totalmente distinta que el modo de ser representado El dolor y lo sagrado por Iván, forzado siempre a justificar su vivir y el todo de la vida. Y es notorio que los dos, en el punto de partida, se refieren a los mismos dolores; pero desde luego los problemas a que responden son completamente diferentes. Ivan padece el problema teórico del dolor: cómo es que puede existir el sufrimiento si existe Dios; cómo ha de entenderse la vida una vez que se reconoce en ella la presencia constante del sufrimiento. Para Aliosha el problema es práctico: cómo vivir los sufrimientos que uno padece y cómo ayudar a quienes sufren, si uno acata y adora a Dios y experimenta una infinita gratitud por el don de la vida. Hecha esta larga introducción recordaré primero algunos hechos que tienen que ver con la relación entre el dolor y la experiencia de lo sagrado, por lo demás sobradamente conocidos, comentándolos en cada caso muy brevemente. En segundo lugar desarrollaré algo más detenidamente lo que me sugieren esos hechos.!• Hechos 1. La experiencia de lo sagrado se presenta muchas veces como dolorosa y sin embargo fascinante. Este carácter doloroso de las experiencias de lo sagrado es algo un tanto enigmático, que se nos hace presente en narraciones de diversos pueblos. Virgilio en el libro VI de la Eneida (w. 42ss.) nos describió de modo impresionante a una joven pitonisa que se retuerce con el cabello erizado al aproximarse el Dios; sin duda se hace eco, al escribir así, de muchas formas de percibirse en el mundo mediterráneo la experiencia de lo sagrado. Mucho más cercanos a nosotros son los textos de Santa Teresa al referir su experiencia de transverberación o de San Juan de la Cruz en el Cántico Espiritual, cuando llama llaga y herida a lo que han dejado en él los encuentros con lo divino (estrofas 1, 7, 9, etc.). La experiencia de lo sagrado suscita muchas veces y en muchas culturas la necesidad de entrar por caminos de dolor. Mucho más documentadas todavía están en muchos pueblos las prácticas de asumir dolor o incluso provocárselo para renovar o profundizar la experiencia de lo sagrado. Hallamos estas prácticas con un grado refinadísimo de codificación entre los bámbara de Africa, pero en el mismo continente es universal la apelación a sacrificios y sufrimientos cuando se trata de sacralizar, mediante alguna clase de iniciación, una época de la vida o una función importante en la convivencia social. Esto último estuvo también generalizado entre los pieles rojas de América del Norte, hasta poderse decir que sin apelación al sufrimiento no se concibe modo alguno de dar forma sólida a la vida de las personas. Pero también en Asia los budistas e hinduistas apelan a muchos modos de ascesis para avanzar liacia la realidad última del propio ser, y en la tradición cristiana distintas escuelas de espiritualidad profesan el mismo convencimiento. No me resisto a transcribir un trozo del comentario que añade San Juan de la Cruz al verso de su estrofa 35 del Cántico Espiritual que dice «Entremos más adentro en la espesura»: «¡O sí se acabase ya de entender cómo no se puede llegar a la espesura de sabiduría y riquezas de Dios si no es entrando en la espesura del padescer de munchas maneras puniendo en eso el alma su consolación y desseo y cómo el alma que de ueras desea sabiduría, dessea primero de veras entrar más adentro en la espesura de la cruz, que es el camino de la vida por el que pocos entran! Porque dessear entrar en espessura de sabiduría, y riquezas y regalos de Dios es de todos: más dessear entrar en la espesura de trauajos, y dolores por el hijo de Dios, es de pocos». También ha existido entre nosotros el sentir popular que ha compartido esas tendencias, inclinánose a menospreciar como blandos y «afenñnados», según la clásica expresión que hoy resulta tan incorrecta, a quienes no sabían sobrellevar con tranquila entereza los dolores e infortunios que a cualquiera pueden sobrevenirle. Cuando en el dolor se hace presente la experiencia de lo sagrado, el modo de proceder inducido por el dolor se transforma. Quiero con esto decir algo que, dada la escasez de mi información, no sé documentar bien con datos de la antropología y de la historia de las religiones. Sí he hallado, por ejemplo, que Goldammer, en su obra Formenwelt des Religiosen'^, enumera entre las conductas específicamente propias de los místicos, documentables en muy distintas culturas, el silencio frente al dolor: un silencio de adoración en que culminaría la actitud ante el misterio. Los ejemplos que él pone los toma del libro de Job (2,13), de Isaías (53,7) y de sabios chinos e indios. Yo encuentro pobres sus expresiones si las comparo, por ejemplo, con lo que conocemos de las cartas de san Francisco Javier o con referencias que yo mismo he podido recoger de personas que vivían como un inestimable don de Dios lo que habían experimentado con ocasión de tremendos sufrimientos personales y familiares. He comprobado sin lugar a dudas que el dolor, cuando se padece en estrecha conexión con experiencias de lo sagrado, no sólo da lugar a actitudes de profunda adoración, sino que también induce reacciones de agradecimiento, exaltación del sentimiento del propio valer y reorientación radical y positiva de la vida. El dolor llama a juicio a las evocaciones de lo sagrado y hace que se profundicen o se desmientan. Esto no hace falta documentarlo más, pues cada uno de nosotros conoce muchos casos concretos de ello. El dolor es una tentación de escándalo contra la posibilidad y la verdad de toda relación con lo sagrado, y lo que hallamos sobre ello en los salmos o en Job ha ocurrido en todos los tiempos y en todas las partes del mundo. Cuando uno empieza a reflexionar sobre estos hechos, por todos conocidos, algo salta a la vista de entrada: lo lejos que está de ellos la so- Andrés Tornos Cubillo 658 ciedad de hoy. Sin duda que esas formas de ver la relación entre el dolor y lo sagrado, o sea, el dar por supuesto que la experiencia de lo sagrado será dolorosa y sin embargo desearla, el atribuir en muchas ocasiones un valor positivo al sufrimiento, el verlo como clave de diversas formas de dignidad y de status sociales estimados..., todo eso ahora mayoritariamente se tendría por antihumano o absurdo, y desde luego por inadecuado para construir una sociedad sana. Esta postura actual suele considerarse además tan evidente que prácticamente nunca se ve la necesidad de justificarla. Ello aparecería con claridad en el hecho de que, repitiéndose muchas veces aquí y allá que es obligación social primaria el procurar aliviar los sufrimientos de otros y expresándose frecuentísimamente muy duras críticas contra aquellos que desatenderían a esa obligación (vg. los países más desarrollados, los individuos de clases sociales dominantes), a pesar de todo nunca se intenta fundamentar ni lo primero, la obligación moral de aliviar el sufrimiento de otros, ni lo segundo, la legitimidad de criticar a quienes no lo hacen. Y es que se vería como totalmente superfino aclarar algo que se encuentra clarísimo. Pero otro contraste se aprecia entre los hábitos culturales de hoy y los representados por los hechos que antes enumeré, el cual podría resultarle a uno más curioso todavía. Y es que aquellos hechos antes enumerados siempre implican de alguna forma un modo internamente activo de sufrir uno sus propios dolores. Y en cambio la cultura actual del dolor mira a éstos como desde fuera y como a algo a lo cual hay que combatir mirando hacia afuera de quienes padecen; en concreto hacia las causas de los sufrimientos, de modo que, vencidas éstas, el remedio recaiga sobre quien sufre como viniendo desde fuera. Al menos eso es lo que aparece en las muchas reflexiones que se intercambian y escriben acerca del sufrimiento: se ocupan mucho de las causas físicas, sociales y políticas del dolor, pero no de lo que las personas harían activamente con sus propios dolores. Como si esto segundo no tuviera interés, o no mereciera la pena que se gastaran palabras en ello, o fuera tabú. Cuando organizaba las presentes reflexiones confieso que me entró curiosidad acerca de esto último, y que busqué con algún empeño materiales en que aparecieran los razonamientos compartidos y los lugares comunes a que en nuestra cultura se recurriría para decir algo a quien sufre sobre cómo asumir bien el dolor, principalmente cuando no puede escapar a él. Mi empeño resultó casi inútil. Incluso en los escritos redactados desde perspectiva creyente los razonamientos y lugares comunes que nos salen al paso se refieren prácticamente siempre a tres temas: insistir en que un cristiano debe tomar conciencia sinceramente de lo terriblemente que se sufre en nuestro mundo; ponderar la obligatoriedad y grandeza que tiene el comprometerse en la lucha contra ese sufrimiento; y analizar la responsabilidad personal y social que algunos pueden tener en los muchos sufrimientos de otros^. Sobre la posibilidad de hallar sentido en el sufrir y de enriquecerse con él apenas he encontrado un estudio dedicado al bello libro de V. Frankl «Un Psicólogo en el Campo de Concentración»^ y dos trabajos: uno conmovedor de E. Kübler-Ross, la iniciadora del interés por los enfermos terminales, sobre el sufrimiento vivido y el sufrimiento co-mercializado^, y otro de Karl Rahner, muy olvidado por cierto, que lleva el título de «Pasión y Ascesis. Sobre la Fundamentación Filosófico-Teológica de la Ascética Cristiana»^. Luego volveré sobre este último, pero ni él ni los otros textos nombrados tienen la representatividad cultural de las reflexiones que se construyen con razonamientos compartidos y lugares comunes. Esquemáticamente podría decirse por tanto que, para habérselas con el dolor, nuestro mundo occidental no conoce ni acepta otros recursos que guerrear indirectamente contra él combatiendo a sus causas objetivas. Con las personas concretas que están sufriendo no sabemos del todo qué hacer, sino eso, irnos de ellas hacia los diagnósticos, los tratamientos y las campañas. Y en esta concepción la experiencia de lo sagrado sólo puede figurar de dos modos: o bien como una de las causas externas del dolor, en tanto que cultivadora de dolorismos o conducente a formas de vida desviadas de los correctos planteamientos de una vida bien organizada para su mejor calidad; o también como remedio y causa exterior de alivio, entendida de manera más o menos supersticiosa. En la primera perspectiva lo indicado sería, por supuesto, extirpar esa forma dañina de experiencia religiosa; pero incluso en la segunda el hombre sufriente se vería sólo llevado a conducirse de modo pasivo con respecto a una posible ayuda de la divinidad, después de haber intentado propiciársela. Este silencio de los pensadores, de los teólogos y de las conversaciones cotidianas sobre cómo uno podría encontrar sentido en el dolor resulta más incongruente cuando la narrativa literaria y el periodismo sensacionalista tanto se complacen en abordar casos de masoquismo. Se sabe de sobra que con el dolor pueden hacerse muchas cosas, además de pasarlo mal, y para ello no hacen falta grandes conocimientos de psicopatología. Pero es ya ilustrativo el detalle de que estas cuestiones se localicen justamente, casi siempre, en el campo de lo patológico. Como si tuviera que ser a la fuerza cosa perversa el querer hacer algo con el dolor que uno sufre. Si de nuevo intentáramos explorar las razones por las cuales nuestra cultura moderna tiende a encontrar perversos los intentos de utilizar el dolor para un mayor desarrollo o cualificación de uno mismo, de nuevo nos hallaríamos con que no se siente la más mínima necesidad de explanarlas o buscarlas. Lo mismo que se encuentra evidente la obligación moral de luchar contra el sufrimiento de otros, se encuentra evidente que el intentar ver valores en algún sufrimiento es dolorismo, o sea perversión. El que puedan entrar en juego otras perspectivas para valorar el dolor, como la perspectiva de lo sagrado a que se refieren estas reflexiones, no se considera que aporta nada nuevo. En el artículo de K. Rahner «Pasión y Ascesis», al que más arriba me he referido, aparece un punto de vista muy distinto. Diferencia él en primer lugar, antes de tratar sobre la ascesis cristiana, tres formas de buscar o querer el dolor que en la humanidad habrían existido asociados a empeños relativos a lo sagrado. Las llama ascética moral, ascética mística y ascética cultual. Entiende por ascética moral aquellas prácticas penitenciales o dolorosas que se han solido cultivar como entrenamiento y vigorización de la personalidad psicológica de los creyentes de diversas religiones, en orden a conseguir el autodominio que a uno le aportara más plena libertad para el acceso a lo santo. Con razón observa Rahner que en realidad algo parecido se practica en función de muy distintos empeños individuales y sociales, por ejemplo en la formación de deportistas o de cuerpos policiales de élite. Podemos añadir aquí que nadie llama dolorismo a la autodisciplina de los deportistas. Por ascética mística entiende Rahner las prácticas de vaciamiento, sobre todo cultivadas en religiones orientales, que de muchas maneras implican o comprenden privaciones y dolor. Es curioso que lo que en ellas encuentra Rahner de rechazable no es nada relacionado con la cuestión misma del dolor, sino la creencia a su juicio implicada en esa ascética mística, según la cual alguna acción humana puede forzar el acercamiento a la divinidad. Esta parte del texto, por lo tanto, no nos ilustra sobre cómo concibe Rahner el enfrentamiento personal con el dolor. Por ascética cultual entiende Rahner las privaciones y ritos dolorosos a que en antiguas religiones debían someterse muchas veces los que iban a participar en determinados cultos, sobre todo los oficiantes. Pero en la valoración de esas prácticas por Rahner no hallamos tampoco nada que nos instruya sobre la confrontación con el dolor. El ve de nuevo en ellas un empeño por desbordar la vida profana y acceder al ámbito de* lo sagrado, y vuelve a valorar ese empeño a la luz de la teología de la gracia: las consideraría rechazables si con ellas quisiera forzarse el acceso a lo sagrado, pero no las rechazaría si, como supuestamente ocurriría en la ascesis cristiana, se dejara completamente en las manos de Dios el resultado del empeño. ¿Y que tendría la ascesis cristiana, fuera de no pretender manipular a Dios, que hiciera valer la búsqueda o aceptación libre de los sufrimientos no funcionales, es decir, de aquellos que no son adecuados para utilizarse con propósitos de adiestramiento utilitario, como los de la ascesis que Rahner llama moral? Para explicarlo se vale Rahner de su reinterpretación teológico-existencial de las nociones de naturaleza, de persona y de muerte. Todos sabemos cómo miraba a la muerte el clásico existencialismo de Heidegger: ella sería la cuestión clave que escondidamente se nos haría presente en toda experiencia del tiempo y de la finitud; la tendencia del hombre-masa sería siempre el rehuir esa confrontación constante con la muerte, y al rehusar esa confrontación, caería en la inautenticidad y la pérdida de libertad: sería incapaz de tomarse a sí mismo como es, mortal, y de asumir en la vida y entre las cosas el lugar que le corresponde. Y aquí es donde entra en juego la comprensión rahneriana de los conceptos de naturaleza y persona: naturaleza sería en nosotros lo que nos viene «naturalmente» dado, lo que no configuramos nosotros optando libremente; en cambio la persona en nosotros sería lo que llegamos a ser asumiendo y configurando libremente nuestra naturaleza. Teniendo esto en cuenta se entiende que para Rahner el dolor sea algo que afecta directa y primariamente a nuestra naturaleza y nos anuncia la muerte: con ello también nos pone decisivamente ante lo definitivo de nosotros mismos, y por tanto ante Dios. No tomar entonces libremente postura ante el dolor es rehuir la confrontación con las pasividades de nuestra naturaleza por las que se anuncia la muerte, es pretender conducirnos como si nos fuera dado vivir nuestro ser natural sin hacerlo personal, abdicando de nuestra llamada a la libertad. Pero si la postura que tomamos es de rebelión, y no de aceptación y acogida, entonces estamos queriendo afirmar soberbiamente nuestra libertad frente a las pasividades entre las cuales nos ha situado Dios y frente a la convocación de la muerte que nos pone ante El. Por eso el único proceder cristianamente válido ante el dolor sería reconocer en él un mensaje de nuestra finitud, el cual, poniéndonos ante la muerte, nos pone ante los límites sagrados de nuestro ser personal. No solamente en los dolores inevitables, como serían los causados por enfermedades o por situaciones sociales forzosas, sino también en aquellos a que nos exponen las situaciones vocacionales libremente asumidas. En ambos casos el dolor sería destino que nos sitúa en la perspectiva de nuestra mortalidad y finitud. Y solamente en la aceptación y libre elaboración de ese límite del destino, se daría la verdadera aceptación del mundo y de Dios a la que como humanos estamos llamados. Estas bellas consideraciones de Rahner mantienen plenamente su validez más allá de los planteamientos existencialistas con que se explican. Porque en el fondo lo que hacen valer es un hecho: que los seres humanos estamos infiltrados de pasividad y no somos únicamente lo que queremos y decidimos. Tomar únicamente ante el dolor la postura de combatir activamente contra él, sin dejar lugar para asumirlo y aceptarlo, incluso despreciando o condenando ese empeño, es pretender conducirnos ante lo doloroso como quien puede afirontar la vida solamente con lo que hay en nosotros de iniciativa y poder, desconociendo lo demás. Como si nos fiíera dado mirar hacia un fiaturo en que no nos afectaican nuestras pasividades e incluso organizamos ya en ñmción de ese ñituro. Desde el punto de vista ético eso no puede valorarse sino como locura soberbia, y desde el punto de vista psicológico es autoengaño últimamente enfermizo. El papel que juega en Rahner la anticipación de la muerte que nos llama a tomar en cuenta nuestra finitud, es en realidad el papel que en la historia de la humanidad ha jugado, a la hora de la confrontación con el dolor, el reconocimiento y evocación de lo sagrado. Pero estas reflexiones de Rahner, tan profundas desde el punto de vista religioso y humano, creo que no nos dan todas las dimensiones de las experiencias de dolor marcadas por la apertura hacia la potencia de lo sagrado. En efecto Rahner se fija por una parte sólo en los aspectos de lo sagrado que se nos manifiestan al confrontarnos con nuestra finitud y pasividad, por otra parte lo que él explana son los valores éticos iluminados a la luz de lo sagrado en el esfuerzo por asumir activa y rendidamente el dolor. Pero sabemos que lo sagrado se manifiesta de muchas otras maneras: por ejemplo dando ser y formas de ser, descubriendo horizontes nunca vistos, uniendo destinos y haciendo que se generen símbolos e imágenes nuevas del mundo. Muchos psicoanalistas han abordado de modo insistente este tema de las nuevas simbólicas y formas de ser generadas por las grandes heridas, aunque para la mayoría de la gente es un extraño lenguaje el que ellos usan, como si les fuera mucho en no salirse de él. Para esos psicoanalistas pues, casi cualquier herida, incluso las imaginarias, pueden ser el acontecimiento fundante que da origen a la verdad del vivir. Pero con una condición: han de ser heridas que realmente castren, que mutilen de la idea de poderlo todo, o de tener que poderlo todo, a aquellos que las sufren. Y de esa idea maniáticamente fija de querer poderlo todo, incrustada en nosotros desde los orígenes de nuestra infancia, sólo las heridas nos librarían; la clase de heridas que se tienen en el abalanzarse hacia el objeto sacralizado del deseo. Sin la herida que hace entrar en crisis a lo sacralizado nunca encontraríamos en la vida nuestro sitio ni nuestro ser verdadero. El dolor y lo sagrado No sé si puede decirse que en la experiencia dolorosa de lo sagrado, y en la experiencia del dolor donde lo sagrado se hace presencia, siempre se producirán heridas de esta clase; de las que hacen descubrir el sitio y la verdad de uno. Pero estoy seguro de que esto se ha procurado de muchas oscuras formas en la historia de la humanidad, de que de hecho ello ha ocurrido no excepcionalmente en diversas culturas, y que todavía además entre nosotros ocurre a veces, aunque no quiera decirse ni oírse. Y esto es algo distinto de lo que describe Rahner. En algunos pueblos antiguos todos estos aspectos aparecían y tenían reconocimiento público. Para nosotros el caso más conocido es el de los judíos, entre los cuales el sueño de la herida de Jacob no era un un cuento sin importancia. Pues bien: según esa vieja narración Jacob, cuando se despierta del sueño en que había combatido con el ángel de Yahwé, lleva un nombre nuevo que es un ser nuevo; es entonces cuando funda un pueblo y marcha hacia su destino con una firmeza antes desconocida. Pero para todo esto le ha marcado la herida del ángel, por la que su caminar ha quedado inscrito en una historia diferente. Por la herida de la circuncisión se inscribirán luego los varones de Israel durante siglos en un destino que les dará sentido. Y en conjunto no es absurdo que las heridas marquen, al contrario. Pero lo que más llama la atención es que en relación con lo sagrado el dolor marca sagradamente y crea un destino. Esto es lo que me parece más importante. 248s. ^ Como representativo de lo que actualmente se escribe por los teólogos acerca del dolor, he tomado los números monográficos que dedican a ese tema las revistas Concilium (1976: 119), Communio (1988:6), Teología y Catequesis (Enero-Marzo 1989) y Revista de Espiritualidad (Abril-Junio 1990). ^ En el número citado de la Revista de Espiritualidad. ^ Número citado de Concilitmi. ^ K. RAHNER, Escritos de Teología, III, p.
En vez de hablar despectivamente del mundo de las sectas desde un desconocimiento generador de miedos y conducente a la estigmatización, se propone una aproximación más serena al análisis de las organizaciones religiosas basada en una voluntad de comprensión. Se trataría de no absolutizar el valor de la abundante literatura sociológica sobre los fenómenos sectarios, sin dejar de reconocer su enorme interés histórico, en el doble sentido de que nos permite comprender la evolución de muchas organizaciones religiosas en el transcurso de los últimos siglos y de que puede aportarnos elementos útiles para la comprensión de muchos movimientos religiosos actuales. En lugar de pretender definir cuáles de esos movimientos son sectas y cuáles no, habría que tomar como punto de partida las distintas características atribuidas a los grupos sectarios, para examinar en qué medida se dan en todas y cada una de las organizaciones religiosas. Los títulos son muy a menudo ambiguos, y a veces hasta provocadores. Este de «el mundo de las sectas» sin duda lo es. Porque fácilmente podría tratarse del prototípico enunciado de uno de aquellos programas televisivos en los que, so pretexto de organizar un debate, dedícanse a ejercer su legítima profesión de payasos unos individuos disfrazados de sacerdotes o de periodistas de investigación. Convendrá aclarar cuanto antes, por consiguiente, que renuncio de antemano a cualquier intento de competir con ninguno de esos representantes de la noble actividad de bufón. Al hablar de sectas, en efecto, no pretendo denostar ni insultar a nadie. El propósito de estas páginas es más bien el de referirse al mundo de Joan Estruch 804 las sectas sin atacar a nadie, sin estigmatizar a nadie^, sin ceder a la tentación de colgarle a nadie el sambenito o de ir colocando etiquetas clasificatorias por doquier. Pues quisiera aplicar -y aplicarme ante todo a mí mismo-aquel viejo y sabio axioma sociológico que afirma que el juego de poner etiquetas dice siempre mucho más del etiquetador que del etiquetado. Y así, si empezara diciendo por ejemplo que «el Opus Dei es una secta», o que «los Testigos de Jehová son una secta», es evidente que no estaría diciendo gran cosa acerca del Opus Dei o de los Testigos de Jehová, y que no estaría contribuyendo en absoluto a una mejor comprensión de tales grupos, mientras que en cambio sí habría dicho bastante acerca de mí mismo y de mi toma de posición urente a ellos. Trataremos, pues, de hablar de las sectas sin atacar a nadie. Y no sólo esto; en estas páginas no se trata ni siquiera de defenderse de las sectas, de protegerse de ellas. Lo único que aquí habría de interesarnos es el intento de analizar mínimamente el fenómeno, con el fin de alcanzar a comprenderlo algo mejor. Explicitado así el propósito -ni ataque ni defensa, antes bien voluntad de análisis y esfuerzo de comprensión-preciso es añadir inmediatamente que en la actualidad la empresa aparece llena de dificultades. Porque, pese a la existencia de una bibliografía abundante y a menudo muy valiosa sobre el tema, la clase de literatura que hoy se ha puesto de moda bien poco va a ayudarnos, tanto para el análisis como para la comprensión del fenómeno. Las dificultades arrancan, de hecho, de la propia definición de lo que es una secta. Como en seguida veremos, los distintos autores discrepan hasta a la hora de establecer la etimología del término. Por otra parte, esas dificultades se ven incrementadas por el hecho de que jamás grupo sectario alguno se autodefine como tal. El dato es significativo, ya que raras veces tropezamos con un caso tan extremo como éste. La secta es siempre designada como tal desde el exterior, por aquel que no pertenece o que ha dejado de pertenecer a ella, pero jamás desde dentro^. Teniendo en cuenta dichas dificultades, ¿por qué no intentar una aproximación inicial al problema por una vía más indirecta, partiendo de una mirada ingenua (un pedante podría llamarla una mirada fenomenológica, pero según Berger viene a ser lo mismo)^ al modo como son habitualmente percibidas las sectas en la vida cotidiana? En otras palabras, aun a riesgo de ser acusados de irresponsables compañeros de viaje de les sectarios^, dirijamos inicialmente la mirada hacia nosotros mismos, y formulémonos aquella clase de preguntas que solía plsuitear El pequeño príncipe de Saint-Exupéry. Unas preguntas que cabría encabezar con la siguiente, probablemente la primera de todas las que formularía El mundo de las sectas el célebre personaje: «Ustedes perdonen: ¿podrían decirme de qué tienen miedo?». El pánico parece ser, en efecto, la razón básica subyacente a todas las estrategias de organización de defensa contra las sectas, a todos los discursos que en la actualidad suelen calificarlas con el epíteto de «destructivas», y a todos los ataques e insultos que con el acompañamiento de unas dosis de morbosidad garantizan el éxito de cualquier simulacro de debate mediático sobre el tema^. ¿De qué tenemos miedo, pues? ¿Qué es lo que provoca el pánico? ¿La gran cantidad de gente que gregariamente y sin espíritu crítico alguno se deja seducir y arrastrar por las sectas? Dice el pequeño príncipe que casualmente él se hallaba una noche junto al estadio Bernabeu a la salida de un partido, y pregunta si será eso una secta. Pregunta asimismo si los datos que publica la prensa, relativos a los millones de personas que todas las semanas se encadenan televisivamente, constituyen un censo fiable de la población sectaria. Y añade finalmente que no entiende cómo nunca se nos ha ocurrido hablar, invirtiendo los términos, de canales destructivos y de reli-porquería. ¿Qué otra cosa podría ocultarse tras el miedo a las sectas? ¿La tozudez con la que nos llenan de propaganda los buzones, o con la que llaman a la puerta de casa instándonos a perder el tiempo? El pequeño príncipe replica que no acaba de comprender por qué razón la publicidad nos parece, en cambio, inofensiva; y que en su breve experiencia en la tierra le ha resultado más difícil sacudirse de encima a los perpetradores de encuestas sociológicas que a las parejas de mormones o de testigos de Jehová, que a diferencia de algunos encuestadores suelen ser en general personas francamente amables. ¿Acaso tenemos miedo del peligro que las sectas representan para los adolescentes y los jóvenes? El pequeño príncipe alega que prefiere no seguir hablando de televisión y de publicidad, y que renuncia a hacer mención de las discotecas, pero que le han comentado que hasta hace bien poco se obligaba cada año a millares de jóvenes a permanecer una temporada en unos edificios llamados cuarteles, donde se les adiestraba en el manejo de herramientas literalmente destructivas; y con su peculiar lógica se pregunta si no será el ejército el prototipo de las llamadas sectas destructivas, si bien no le consta que en ninguno de los estudios patrocinados por los organismos de defensa contra las sectas se aluda a esa singular institución. Fue esa última observación la que me indujo a releer, desde una nueva perspectiva, algunos de estos estudios. Concretamente elegí dos, bastante recientes, serios y documentados. El primero es un informe parlamentario elaborado en Francia el año 1996, y conocido como «Rapport Joan Estruch 806 Guyard». Dicho informe establece diez criterios que permiten identificar como sectarios a determinados movimientos religiosos. Los diez criterios son los siguientes: «Desestabilización mental; carácter exorbitante de las exigencias financieras; ruptura con el entorno original; atentados contra la integridad física; adoctrinamiento de menores; discurso más o menos antisocial; perturbación del orden público; conflictos judiciales; situación al margen de los circuitos económicos tradicionales; e intentos de infiltración en los poderes públicos»^. El informe precisa, además, que basta la presencia de uno solo de estos criterios para poder aseverar que se trata de un grupo sectario. Independientemente del hecho de que la mayor parte de esos criterios se prestan a toda suerte de interpretaciones controvertidas (¿qué es un «discurso más o menos antisocial»?, ¿a partir de qué umbral unas exigencias financieras se convierten en «exorbitantes»?, etc.), me parece en primer lugar que si un solo criterio ha de bastar no existe agrupación religiosa alguna en el mundo que no sea sectaria, y en segundo lugar creo que se trata de criterios que tanto pueden aplicarse a organizaciones religiosas como a todo tipo de grupos y asociaciones no religiosas. Los partidos políticos serían sectas, los clubs de fútbol también, y el ejército sería efectivamente una de las instituciones com mayores méritos para figurar en el libro Guiness por su acopio de criterios típicos de las sectas. Un segundo estudio, de índole distinta pero que plantea problemas semejantes, es el realizado por el Laboratorio de Sociología del Instituto Católico de Estudios Sociales de Barcelona, por encargo de la Asociación de Asesoramiento e Información sobre Sectas y por el Centro de Recuperación y Orientación y Asistencia a los Afectados por las Sectas, publicado en 1994*^. Si en el caso francés la lista de grupos sectarios se había fijado a partir de fuentes policiales, en el estudio catalán la relación se confeccionó a partir de los archivos de la asociación promotora de la investigación, con unos resultados dignos a menudo de una pieza de teatro del absurdo. Así por ejemplo, al lado de grupos como los adventistas, los mormones o les testigos de Jehová, aparecen organizaciones católicas como el Opus Dei, Verbum Dei o el Seminario del Pueblo de Dios (¿y por qué éstas, y otras no?), grupos políticos como Cedade o el partido Unificación Comunista de España (del que se precisa que cuenta con quince miembros en Cataluña), un repertorio muy diverso de grupos inspirados en tradiciones orientales (Hare Krisna, junto al Soka Gakkai japonés, y junto a una Fundación Guasch), la Fundación Anthropos, un Instituto Filosófico Hermético (con un total de cinco miembros), dos asociaciones dedicadas a la rehabilitación de toxicómanos, e incluso una supuesta secta denominada Jordi Boronat, que al parecer era un locutor radiofónico El mundo de las sectas que se presentaba a sí mismo como «extraterrestre»^. Por muy prudentes que quieran mostrarse los autores a la hora de sacar conclusiones, los «indicadores de riesgo» que pese a todo se atreven a proponer en las páginas finales son tan genéricos y tan discutibles como los criterios del informe francés a que antes hacíamos referencia. No perdamos más el tiempo, pues. Visto el panorama, es muy de agradecer el cambio de enfoque que sugiere Joan Prat, catedrático de Antropología de la Universidad de Tarragona, y uno de los especialistas que con mayor profundidad ha abordado la problemática de las sectas en Cataluña, en una obra titulada El estigma del extraño. Un ensayo antropológico sobre sectas religiosas^. De forma deliberadamente polémica y provocativa, Prat contrapone a los «criterios» de los unos y los «indicadores de riesgo» de los otros quince interrogantes «que nos ayuden a reflexionar». En síntesis, los interrogantes son éstos: ¿por qué tenemos tendencia a indignarnos al comprobar los lujos de los que se rodean determinados líderes sectarios, y nos dejan en cambio indiferentes las fortunas personales o institucionales de los jefes supremos de muchas confesiones religiosas? Las sectas se enriquecen: ¿acaso las grandes Iglesias carecen de patrimonio? Los grupos sectarios tratan de eludir el pago de impuestos: ¿acaso tributan los bienes del patrimonio eclesiástico? Algunas sectas piden limosnas, o se dedican a recaudar fondos: ¿no se dedican a lo mismo muchas congregaciones religiosas? ¿Hemos oído hablar alguna vez de las «órdenes mendicantes»? ¿Por qué nos irrita la vida ascética de ciertos sectarios en régimen de reclusión y aislamiento, mientras nos parecen admirables los conventos de clausura? ¿Por qué nos irrita el carácter comunal de la vida de determinados grupos sectarios, y no en cambio el ideal de la vida cenobítica? ¿Por qué nos indignamos cuando un determinado líder sectario se autoproclama representante de Dios en la tierra? ¿Acaso hay quien tiene la exclusiva cuando se trata de hablar en el nombre de Dios? ¿Por qué, cuando se producen abusos e inmoralidades, damos por supuesto que constituyen la excepción en el caso de las Iglesias, y la norma en el caso de los grupos sectarios? ¿Por qué criticamos el carácter autoritario y no democrático del régimen de funcionamiento de las sectas? Aborrecemos las sectas porque son dogmáticas, exclusivistas, intolerantes y elitistas: ¿las sectas tan sólo? ¿No nos suena la expresión «extra Ecclesiam nulla salus»? Juzgamos intolerables los «lavados de cerebro» que las sectas practican a veces; quien haya residido en un internado, haya hecho el servicio militar, o haya pasado por un seminario cuente cómo le fue. Nos indigna el recurso de algunas sectas a los castigos físicos y psicológicos, creadores de personalidades culpabilizadas y Joan Estruch 808 dependientes; quien no se haya visto sometido a procesos de culpabilización, de amenazas de condena eterna, etc., que tire la primera piedra. Nos parecen horripilantes los testimonios de antiguos sectarios aquejados de transtornos psicológicos graves; pero no son ellos los únicos clientes de las consultas psiquiátricas. Nos molesta el lenguaje hermético utilizado por algunas sectas, y consideramos que la recitación de mantras es una técnica de control psicológico, ¿el rezo del rosario es, en cambio, una encomiable devoción? ¿Por qué nos fastidia el carácter misionero de ciertos grupos sectarios? ¿Acaso no es proselitismo lo que las Iglesias han venido haciendo durante siglos en el mundo entero de forma sistemática? Finalmente, y teniendo en cuenta el hecho del poder temporal de las Iglesias, ¿por qué indignarnos ante el deseo de poder político de determinados dirigentes sectarios?^^. La tesis subyacente a todos estos interrogantes de Joan Prat está muy clara: aquello que diferencia a unos grupos religiosos de otros es una pura cuestión de legitimidad social. Ya en las páginas introductorias de su libro la tesis queda explicitada a través del ejemplo siguiente: «Pienso -escribe el autor-que la vida de un monje benedictino y la vida de un monje de Hare Krisna son objetiva y estructuralmente similares, por no decir idénticas; aquello que cambia de forma radical es la mirada cultural con la que juzgamos a uno y a otro»^^. Se entiende que desde semejante planteamiento un grupo de investigadores del Departamento de Antropología Social de la Universidad Rovira i Virgili, de Tarragona, dirigido por el mismo Joan Prat, publicara entre 1990 y 1993 dos volúmenes monográficos de la revista Arxiu d'Etnografia de Catalunya, con un dossier titulado: «Antropología de la religión: ortodoxos, herejes y sectarios», y con artículos dedicados respectivamente a la orden monástica benedictina, a la orden cisterciense, a la Fe Baha'i, a los Testigos de Jehová, a la Universidad Espiritual Brahma Kumaris, al movimiento Hare Krisna, al Opus Dei y al Movimiento Gnóstico^^. No cabe duda de que la cuestión de la legitimación, o de la legitimidad social, es primordial para proceder a una aproximación rigurosa y comprensiva del fenómeno de las sectas, lejos de los planteamientos de ataque y defensa a los que más arriba nos referíamos. Es muy cierto que la hostilidad que suscitan los grupos sectarios es en buena parte generada por otros grupos religiosos, hegemónicos o por lo menos socialmente legitimados, que tienen la capacidad de imponer unas ciertas definiciones de la realidad. Al mismo tiempo, sin embargo, conviene no olvidar aquel otro viejo y sabio axioma sociológico que afirma que aquello que es definido como real acaba teniendo consecuencias reales. Y en este senti-El mundo de las sectas do creo que la cuestión de la legitimación es más fundamental incluso de lo que afirma el propio Prat, ya que acarrea como consecuencia el hecho de que la vida de un monje benedictino y la de un monje de Hare Krisna no sean objetivamente idénticas, sino que la legitimidad del uno y la carencia de legitimidad social del otro las convierten en diferentes, y no ya sólo en la percepción que de ellos se tiene desde el exterior, sino real y objetivamente distintas hasta tanto perdure la situación de desigualdad en lo que a su respectiva legitimación se refiere. Aquello que es definido como real... Nos hallamos, en efecto, sumidos en un problema de definiciones; sumidos incluso al parecer -no soy en absoluto experto en la materia-en una disputa entre filólogos por una cuestión de etimologías. No pretendo ser capaz de resolver el embrollo, ni de dar con la clave que permita despejar la situación. Pero aun así pienso que el hecho de adentrarnos un poquitín en este terreno va a a3rudarnos a entender como mínimo las razones de la actual confusión que padecemos al hablar del fenómeno de las sectas. La Encyclopoedia of Religion}^ afirma que el término secta «deriva del latín sequi (seguir), y no de secare (cortar), por lo que no implica necesariamente un cisma, aunque con frecuencia se haya utilizado con esta connotación negativa. Especialmente en aquellas sociedades en las que existe una Iglesia oficial o muy mayorítaria, han sido calificadas como "sectas" todas las organizaciones religiosas separadas de dicha Iglesia». De modo parecido Joan Coromines afirma en su Diccionari etimológica'^ que secta «deriva de sequi, y no de secare», y añade que en nuestros autores medievales el término nunca hace referencia «a disidencias dogmáticas entre cristianos, sino a los partidarios de tal o cual religión.» Para Ramon Llull, por ejemplo, las disidencias entre cristianos son cisma, y no secta. En ambos casos nos encontramos con la defensa de una misma etimología. Pero en ambos casos se trata efectivamente de una defensa: en contra de una etimología considerada falsa (secare), pero lo bastante habitual como para que se le dedique prácticamente toda la argumentación. Y ciertamente muchos otros diccionarios se refieren a secta como un derivado de secare. Repito que no soy experto en la materia, y haría falta serlo para atreverse a polemizar con un maestro de la talla de Coromines. Pero si admitiéramos que secta deriva de sequi, y que designara por consiguiente a un grupo de seguidores (de una persona o de unas ideas), nos hallaríamos ante un concepto sin connotaciones peyorativas, muy lejos del que tradicionalmente ha sido, y es todavía hoy en día, el sentido otorgado al término. Subsiste el hecho, por otra parte, de que otros términos muy próximos -como sección o sector por Joan Estruch 810 ejemplo-derivan indudablemente de secare, es decir de cortar, secccionar. Y por último es de notar que el participio de sequi es secutus, secuta, mientras que el participio de secare es sectus, secta. En el Nuevo Testamento aparece en unas cuantas ocasiones la palabra secta. Por ejemplo, cuando Pablo es acusado por las autoridades religiosas judías de ser un «cabecilla de la secta de los nazarenos» (Hechos 24.5). Pablo se defiende arguyendo que él «sirve al Dios de sus padres, según el camino que ellos llaman secta» (Hechos 24.14). Algo más adelante afirma en presencia del rey Agripa que él «vivía como fariseo, según la secta más estrecha de nuestra religión» (Hechos 26.5). Y en los últimos versículos del libro, hallándose Pablo en Roma, los judíos de la ciudad le dicen que «querríamos oír de ti lo que sientes, porque de esta secta sabemos que en todas partes se la contradice» (Hechos 28.22). En todas las ocasiones el texto griego usa un término que también nos es conocido (y también con connotaciones negativas), pero que no es lógicamente el de secta: es el término que transcrito literalmente da lugar a la palabra «herejía». Otro tanto sucede en la segunda epístola de Pedro, donde escribe que «como hubo en el pueblo de Israel profetas falsos, así habrá entre vosotros falsos maestros, que introducirán sectas perniciosas» (2 Pedro 2.1; algunas versiones hablan aquí de «doctrinas» o de «divisiones» perniciosas; pero el término griego sigue siendo el de siempre: «herejías»). Un último ejemplo para terminar: al final de la carta a Tito, Pablo le aconseja que «amoneste al sectario» (Tito 3.10; en griego, «hairetikdn ánthropon», «hombre herético»). Si partimos pues de estos textos, el sectario no es únicamente aquel que «sigue» unas ideas determinadas. Es aquel que sigue unas ideas que se apartan de la ortodoxia. En otras palabras: el discurso que habla de las sectas es siempre un discurso emitido desde la ortodoxia, desde el poder; y es por ello mismo un discurso acusador y condenatorio. Desde el interior del grupo, el discurso no puede ser otro que el de Pablo: «Sigo un camino que ellos llaman secta». Siempre ha sido así a lo largo de la historia. Y aunque algunos critican aquel «eterno y simplista recordatorio de que el critianismo primitivo fue una secta antes de convertirse en Iglesia»^^, personalmente pienso que el recordatorio es útil y saludable. A partir de estas últimas observaciones se nos abren tres posibilidades distintas. Podríamos considerar que cualquier tipo de grupo, con la única condición de disponer de unas ideas y de unos seguidores, es susceptible de ser una secta. A fin de cuentas no dejaría de resultar atractivo ampliar el territorio de las sectas al ámbito de la política: la expresión «partido político» no denota sólo la existencia de unos seguidores, sino también la noción de bando, de algo -«partido»-que se contrapone a la El mundo de las sectas totalidad. En segundo lugar podríamos reservar, como tradicionalmente se había hecho, la palabra secta para designar a unos determinados grupos religiosos. Subsistirían, no obstante, dos problemas distintos: por una parte el problema de saber qué grupos religiosos son sectas y cuáles no, y por qué; y por otra parte el problema de delimitar la frontera entre los grupos que son propiamente religiosos y los que no. Podría darse el caso, por ejemplo, de unos grupos con intereses fundamentalmente económicos que buscaran determinadas ventajas en su reconocimiento legal como grupos de carácter religioso (es lo que con frecuencia se ha dicho de la Iglesia de la Cienciología); pero tampoco puede perderse de vista el hecho de que no hay ningún grupo religioso mínimamente importante que no tenga a la vez unos ciertos intereses económicos. Finalmente, y en tercer lugar, cabría la posibilidad de considerar exclusivamente como sectas a aquellos grupos religiosos que se han escindido de una tradición y se han independizado. Prescindiendo ahora de su posible adecuación a la etimología, esa ha sido en realidad la opción sistemáticamente elegida por toda la sociología clásica. Una vez superado el escollo de una posible dicotomía excesivamente rígida entre secta e iglesia, y convertida en una teoría dinámica de modelos de organización religiosa, de esa literatura sociológica han surgido las aportaciones más ricas y fecundas para una comprensión de los distintos tipos de agrupaciones religiosas. Y ello no obstante, estoy convencido de que dichos estudios, que siguen siendo de extraordinaria utilidad desde una perspectiva histórica, plantean hoy una serie de dificultades muy notables si la pretensión es la de proceder a un análisis del fenómeno sectario en nuestros días. En el mundo occidental, en efecto, las sectas han sido durante siglos grupos indefectiblemente nacidos en el ámbito de la tradición cristiana. Hoy, en cambio, coexisten en nuestra sociedad algunos grupúsculos cristianos que la literatura sociológica clásica tendería a considerar como sectas, otros grupos emparentados con el cristianismo pero situados en sus márgenes, otros que sin tener prácticamente nada que ver con el cristianismo han adoptado el nombre típicamente cristiano de Iglesias, y otros procedentes de otros contextos culturales, especialmente orientales. En lugar de clasificarlos genéricamente bajo la categoría de sectas (o bajo la no menos genérica denominación de «nuevos movimientos religiosos», tal como se ha puesto de moda en los países anglosajones), ¿no sería mucho más útil tener en cuenta sus características específicas? Hemos podido constatar que la noción de secta iba directa o indirectamente asociada a las nociones de cisma y de herejía. Pero lo cierto es que estos dos términos prácticamente han desaparecido de nuestro len-Joan Estruch 812 guaje religioso actual. De acuerdo con la terminología clásica, el grupo de seguidores del obispo Lefebvre, o el esperpéntico invento andaluz del Palmar de Troya, serían lo que mayormente se aproximaría a una secta de nuestros días. Y sin embargo ni unos ni otros suelen aparecer en los repertorios de la clase de estudios a los que al comienzo hacíamos referencia. Podríamos decir que hoy no existen ya, como mínimo en nuestras latitudes, herejías ni herejes. Alternativamente cabría afirmar, y tal vez con mayor acierto, que lo que ocurre es que hoy todos somos herejes^^. Porque lo que en definitiva ha entrado irremisiblemente en crisis es la noción tradicional de ortodoxia^'^. Y si desaparecen las nociones clásicas de ortodoxia y heterodoxia, ¿dónde están los referentes que nos permitan asignar a determinados grupos la etiqueta de sectas? Ello nos conduce a una tercera y última cuestión. Tradicionalmente, la noción misma de secta quedaba ineludiblemente contrapuesta a la de iglesia, de modo explícito o implícito. No pueden concebirse las sectas más que en relación con la iglesia contra la cual protestan, o de la cual han surgido. Y ahí radica a mi entender la clave de todo el problema, y la fuente de todas las actuales confusiones cuando se habla de sectas: la iglesia de la que hablan los sociólogos clásicos en su elaboración de teorías de los modelos de organización religiosa es una iglesia que ha dejado de existir. Para Max Weber, la iglesia es una institución obligatoria, mientras que la pertenencia a la secta se caracteriza por su carácter voluntario^^. Se ingresa en una secta, y se nace en una iglesia. Partiendo de esta premisa, Weber analizó muy finamente la inevitable evolución de todo grupo desde el tipo-secta hacia el tipo-iglesia, como consecuencia de la «rutinización del carisma», de su progresiva institucionalización, y de la aparición de sectarios de segundas generaciones, que nunca ingresan ya en la organización como resultado de una decisión estrictamente adulta y voluntaria. Pero aquello que en su tiempo Weber no podía vislumbrar aun era la desaparición del carácter obligatorio de la pertenencia a la iglesia. Tampoco en el caso español, y aun con todo el peso de una fuerte herencia cultural, se es ya católico «de nacimiento»: toda forma de afiliación religiosa es en buena medida voluntaria. Podríamos hacer el mismo ejercicio con todos y cada uno de los grandes autores de la literatura sociológica sobre las sectas: Troeltsch, Wach, Niebuhr, Yinger, etc. Siempre desembocaríamos en lo mismo: la iglesiatipo de la que hablan, y a la que contraponen el modelo organizativo de la secta, es una iglesia que en Europa ha desaparecido casi del todo (pese a que subsistan obviamente vestigios residuales, tanto en el caso de la Iglesia católica en España como en el de la luterana en los países escan-El mundo de las sectas dinavos o en el de la anglicana en Inglaterra), y que en los Estados Unidos nunca llegó a existir plenamente. Por sintetizarlo en una sola frase: tan sólo cuando las Iglesias eran iglesias (en el sentido de las tipologías sociológicas) podían las sectas ser sectas. En la actualidad y en las sociedades occidentales, no es éste el caso. De ahí podría deducirse una conclusión deplorable desde el punto de vista de estas páginas: mejor será que dejemos de hablar de sectas de una vez por todas. Sin embargo, quisiera finalizar proponiendo una conclusión algo menos derrotista. No hace falta renegar de la noción de secta. Pero no la absoluticemos. Reconozcámosle su valor histórico, en el doble sentido de que nos permite comprender la evolución de muchas organizaciones religiosas en el transcurso de los últimos siglos, y también de que puede aportarnos elementos valiosos para la comprensión de determinadas características de muchos movimientos religiosos actuales. Pero renunciemos a utilizarla cada vez que nos demos cuenta de que no nos sirve más que para insultar o para estigmatizar a quienes no piensan como nosotros. Y, por lo demás, no pretendamos hacer una amalgama de un conjunto de grupos extraordinariamente diversos, demasiado diversos en realidad para poder ser englobados dentro de una categoría única. Tomando nuestra sociedad concreta como marco de referencia, empecemos pues por construir un inventario y un mapa de todos los grupos religiosos presentes en ella. La tarea no es sencilla, antes al contrario, muy compleja; y de forma exhaustiva probablemente no se ha llevado nunca a cabo^^. Constituiría sin duda una buena aportación a la cultura religiosa del país, y nos ahorraría el drama de seguir hablando de los unos y de los otros sin saber quiénes son, dónde están y de dónde proceden, cuáles son sus creencias, etc^°. Una vez elaborado este mapa religioso, y en lugar de caer en la trampa del «juego de colocar etiquetas», es decir, de pretender definir cuáles de esos grupos son sectas y cuáles no, se trataría de proceder por el camino inverso. Tomando como punto de partida cada una de las características tradicionalmente atribuidas a los grupos sectarios, habría que examinar en qué medida esas diversas características se dan en las distintas agrupaciones y organizaciones religiosas existentes. Sin ninguna pretensión de exhaustividad, antes sólo a título de ejemplo, veamos algunos de estos rasgos característicos. Algunos de ellos probablemente de poco iban a sevirnos, como por ejemplo el carácter voluntario y no obligatorio de la adhesión, que según vimos era considerado por Max Weber como el rasgo más definitorio de las sectas. De todos los Joan Estruch 814 grupos religiosos hoy implantados en España, ¿existe alguno en el que la pertenencia no sea voluntaria? Más bien habríamos de invertir el planteamiento, para preguntarnos cuáles son los grupos que oponen especiales dificultades a los individuos que desean abandonarlos. Si durante veinte años he sido miembro de una Iglesia bautista, pongamos por caso, y no quiero pertenecer a ella por más tiempo, ¿qué clase de mecanismos de control se ponen en marcha para tratar de disuadirme o de impedírmelo? ¿Y qué ocurre si soy capuchino, o dominico, o monja cisterciense? ¿Y en el caso de un sacerdote secular de la Iglesia católica? Es bastante evidente que en el caso del catolicismo existen diferencias notables según se trate de un laico, de un sacerdote o de un religioso. Sin embargo, a veces se ha dicho que eran notorias las dificultades con las que se enfirentaba aquel que quería abandonar el Opus Dei, pese a que éste se presenta como eminentemente laical. ¿Cabe hablar asimismo de dificultades en el caso de los Testigos de Jehová? ¿Y en el caso de alguien que hubiera formado parte de una comunidad de Hare Krisna? La consideración de otro tipo de características nos obligaría sin duda a afinar un tanto los conceptos que utilizamos, lo cual tampoco nos vendría nada mal. Así por ejemplo, suele decirse que determinadas sectas son enormemente proselitistas. ¿Cuáles son los grupos religiosos que destacan por esta voluntad de reclutamiento? ¿A qué medios recurren? ¿Somos capaces de establecer unos límites mínimamente rigurosos entre lo que es apostolado y el proselitismo, o entre el carácter misionero de determinadas congregaciones religiosas y el proselitismo? Mucho antes de que Juan Pablo II hablara de la nueva evangelización, los grupos protestantes de talante más fundamentalista solían organizar ya campañas de evangelización, que desde muchos medios católicos eran calificadas de proselitismo. El mero hecho de llamar a la puerta de las casas o de repartir propaganda, ¿es ya proselitismo? ¿Se aproximarían al proselitismo ciertas campañas en pro de las vocaciones sacerdotales? En definitiva, ¿a partir de cuándo y por qué razón llamamos proselitismo a las actividades de determinados grupos religiosos, sean católicos, protestantes o budistas? El dogmatismo es otra de las características que suelen atribuirse a las sectas. También en este caso sería imprescindible precisar qué se entiende por dogmatismo. Habría que analizar el concepto desde una perspectiva dinámica: se trata de un término que no siempre ha tenido el mismo significado ni, sobre todo, las mismas connotaciones. Otro tanto debiéramos hacer con otros términos frecuentemente asociados a los fenómenos sectarios: exclusivismo, elitismo, secretismo, etc. Son muchos los grupos religiosos que se han presentado como poseedores únicos de la El mundo de las sectas 815 verdad. El fundador del movimiento mormon afirma que tan sólo sus fieles podrán alcanzar la salvación; los testigos de Jehová proclaman que ellos son los únicos seguidores de la única religión establecida por Dios; pero durante siglos el catolicismo ha afirmado que «extra Ecclesiam nulla salus», mientras algunos grupos surgidos de la Reforma cristalizaban en Iglesias de «true believers». En una obra que es ya un clásico del estudio sociológico de las sectas, Bryan Wilson^^ distingue siete tipos distintos de sectas de acuerdo con su orientación predominante: sectas conversionistas, revolucionarias, introversionistas, manipulacionistas (o gnósticas), taumatúrgicas, reformistas y utópicas. Los pentecostales, por ejemplo, clasificados por Wilson entre los conversionistas, han evolucionado con los años, y algunos de los movimientos neopentecostales de la actualidad han adquirido muchos de los rasgos que Wilson atribuye a las sectas manipulacionistas y a las taumatúrgicas. Se ha producido por otra parte la emergencia de grupos muy próximos a la espiritualidad tradicional de los pentecostales en el seno del catolicismo (neocatecumenales). Otros movimientos, como por ejemplo el de los Focolares, aun siendo de origen católico, reúnen a creyentes de Iglesias distintas. Los rasgos definitorios de la vida monástica, tanto en el catolicismo como en la ortodoxia, aproximarían a los monjes a lo que Wilson considera característico de las sectas introversionistas; pero el monacato actual no siempre practica el principio de la «fuga mundi» como en otros tiempos, o en cualquier caso lo interpreta de forma muy distinta a la de otras épocas. Así podríamos seguir indefinidamente, o casi. Basten no obstante estos pocos elementos, introducidos a título de ejemplo, para concluir estas páginas con una doble constatación y con la expresión de una honda convicción. La doble constatación en primer lugar: por un lado, nos hallamos ahora muy lejos del terreno en el cual nos habíamos situado al comienzo; hemos evitado -o así lo espero-insultos y descualificaciones, hemos rehuido el discurso culpabilizador que, a base de subrayar la hostilidad y la destructividad de las sectas, justifica y fomenta el pánico ante aquellos que no piensan como nosotros, hemos postulado que el ex abrupto «les sectes, c 'est les autres» no conduce a nada, y que tal vez ciertos rasgos de un posible talante sectario nos son más próximos y familiares de lo que desearíamos creer; en definitiva, hemos procurado substituir el escándalo de un aparente debate televisivo por una reflexión serena. Por otro lado, de todos modos, no es menos cierto que el panorama que se dibuja tras este intento es infinitamente más complejo que al principio, que la voluntad de deshacer determinados entuertos conceptuales no ha despe-Joan Estruch 816 jado del todo las confusiones, y que las propuestas finales de clarificación no son más que eso, propuestas, lo que significa que la tarea de clarificación sigue pendiente. Aun así, y a sabiendas de que habrá quien juzgue decepcionante el resultado, tengo el pleno convencimiento de que éste es el camino por el que hay que avanzar si queremos llegar a una mínima comprensión de lo que, demasiado despectivamente en muchas ocasiones, solemos denominar el mundo de las sectas. Una primera versión de este artículo apareció publicada en catalán en el libro Les noves formes de religiositat (Joan Estruch, éd.), Barcelona, Cruïlla, 2001, volumen que reúne el conjunto de las ponencias presentadas en el IX Simposio organizado por la Fundación Joan Maragall. ^ Sobre el fenómeno de la estigmatizaron, véase ERVING GOFFMAN, Stigma. 2 Ya MAX WEBER, al referirse a los anabaptistas que «en nuestra terminología [sociológica] constituyen, efectivamente, una secta», advierte que «huelga decir que a ellos no les hacía ninguna gracia que les llamaran "sectarios". Ellos consideraban justamente que constituían la única Iglesia, "santa e inmaculada"». Véase Uetica protestant i l'esperit del capitalisme [1904], Barcelona, Edicions 62, 1984, p.206, nota 179. ^ PETER BERGER, en las «Observaciones preliminares» a su La rialla que salva, Barcelona, La Campana, 1997. ^ Y conste que no exagero; véase la diatriba contra los sociólogos de la religión, presentados como cómplices de las diabólicas maquinaciones de las sectas, en una reciente publicación francesa: BERNARD FILLAIRE, Un bonheur mortel, París, Stock, 1996. ^ Véase ROLAND CAMPICHE, Quand les sectes affolent, Ginebra, Labor et Fides, 1995, y su denuncia del tratamiento de la cuestión de las sectas en los medios de comunicación. Una aproximado interdisciplinària al «fenomen sectari» a Catalunya, Barcelona, A.LS., 1994. ^ Ibid., capítulo 6: «Caracterización de los grupos que constituyen la unidad de análisis», pp. 103-143, ^ Barcelona, Ariel, 1997. Añadamos que Prat aparece como uno de los autores del estudio Totalisme i voracitat, aludido en las dos notas anteriores. Pero en las páginas introductorias de El estigma del extraño afirma que «el volumen que acabó publicándose era una versión empobrecida y censurada del texto que se nos había dicho sería el definitivo. Así pues, a pesar de que figuro como uno de los redactores del libro, renuncio formalmente a mi autoría...» (p.l5).
«Lamarquismo, herencia de caracteres adquiridos. He aquí unas preguntas y respuestas del catecismo neodarwinista, en plan fe del carbonero, que repiten cantidad de biólogos que no se han molestado en leer a Darwin ni, por supuesto, a Lamarck. En realidad la cuestión es mucho más compleja». Con estas palabras comienza Adriá Casinos el apartado «Lamarck como evolucionista» en su magnífico y documentado prólogo a la edición en facsímil de Alta Fulla (1986) de la primera edición en castellano de «Filosofía zoológica». Efectivamente, este extendido tópico tiene muy poco de científico y mucho de fe. Y los creyentes no necesitan conocer los fundamentos de las otras creencias para denigrarlas y, muy frecuentemente, ni siquiera los de la suya. Se suelen conformar con saber «lo que dicen que dijo». Este fenómeno también se detecta en la valoración de los respectivos «líderes espirituales»: El propio es un cúmulo de perfecciones sin la menor mezcla de mal; el que trajo La Verdad. El otro, un iluminado absurdo, cuyo sólo nombre provoca la sátira o el desprecio. Por eso, no ha resultado fácil reunir un número suficiente de biólogos para completar este monográfico. La sola mención de Lamarck en la invitación ha provocado más de un respingo escandalizado, seguido de una negativa irrevocable que, en un caso que no puedo dejar de mencionar, por provenir de una persona altamente cualificada en el campo de la evolución, fue acompañada del siguiente argumento: «Lamarck era un filósofo; Darwin era un científico». Esta confusión es, sin duda, derivada del desconocimiento de que en los siglos XVIII y XIX el término «filosofía» se aplicaba en la ciencia en el sentido de «teoría», y este sentido le daba Lamarck en su obra. (En todo caso, tampoco está claro que los filósofos estén menos capacitados para pensar que los científicos). Pero es perfectamente comprensible. Los libros de texto que los biólogos utilizamos para nuestra formación no suelen conceder mucho espacio a la historia de la Biología y, en los contados casos en que se hace mención a los precursores de las teorías evolutivas suelen liquidar el apartado de «antecedentes» con unas breves referencias (que pueden ser comprensivas o satíricas, según el caso) a Buffon y el «transformismo» o a Cuvier y las «catástrofes y creaciones», y casi siempre simplificadas y crueles en el caso de Lamarck. Quizás no sea éste el lugar adecuado, pero para justificar el título de este monográfico, puede ser conveniente un ligero esbozo, a modo de «reparación», de la figura y las aportaciones de Lamarck a nuestra querida Biología. Lamarck tuvo una sólida formación científica. Realizó estudios de Botánica, a menudo en compañía de Rousseau, que le llevaron a ingresar en la Academia de las Ciencias, (donde fué profesor durante muchos años), gracias al apoyo de Buffon, que siempre le consideró un científico interesante, a pesar de que sus ideas innovadoras eran muy impopulares entre la élite científica de la época. Fué el creador de las claves dicotómicas, que todavía se utilizan en Botánica, del concepto «invertebrado», de la clara división del mundo orgánico del inorgánico, del concepto de «organización» de los seres vivos y realizó una clasificación revolucionaria de los animales de acuerdo a su complejidad. También planteó el origen del hombre a partir de los primates. Con la publicación, en 1802, de su Hidrogeología (bicentenario que pretendemos conmemorar con este monográfico), funda una nueva ciencia: la Biología, la ciencia dedicada a estudiar el mundo vivo, organizando un conjunto de saberes, ya dados, sobre la Naturaleza, en torno a una definición general para convertirlos en disciplina. En 1809, le da una base teórica («filosófica») con la publicación de Filosofía zoológica, el primer tratado completo, estructurado científicamente, sobre la evolución. En cuanto a la formación científica de Darwin, no es infrecuente leer en los tratados darwinistas que éste «es un típico producto de Cambridge», y es muy cierto. Lo que no se suele mencionar es de qué Facultad. Porque, tras su frustrado intento en Edimburgo de seguir los pasos de su padre, un acaudalado médico de las clases acomodadas, éste lo envió a realizar estudios eclesiásticos a Cambridge, que terminó con la titulación de «Subgraduado en Teología». Estas circunstancias no tendrían por qué desmerecer su labor científica (actividad, por otra parte, muy frecuente entre los clérigos Victorianos de posición acomodada), pero, lo cierto, es que se reflejan nítidamente en la estructuración y en las bases conceptuales de sus obras cumbres, tanto en «Sobre el origen de las especies por medio de la selección natural, o el mantenimiento de las razas favorecidas en la lucha por la existencia», como, muy especialmente, en «El origen del hombre y su variación en relación al sexo». El porqué uno ha sido ensalzado como uno de los más grandes pensadores de la Humanidad, y el otro denigrado, incluso, como un freno al evolucionismo, es materia de estudios en términos históricos, sociales y, probablemente, de hegemonías culturales, y será, sin duda, un arduo Presentación XI trabajo, porque va mas allá del ámbito académico, situar al darwinismo en su justa dimensión científica. Porque, aunque los más recientes descubrimientos sobre la complejidad de los fenómenos biológicos están llevando a un número creciente de científicos a la conclusión de que no pueden ser explicados con los limitados argumentos del darwinismo, el darwinismo está en la calle. Ha pasado a formar parte de lo que el recientemente desaparecido (entre la indiferencia oficial, naturalmente) Alfred Hoy le, denominaba «teorías populares», de las que desconfiaba, porque suelen dar explicaciones muy sencillas a fenómenos muy complejos, pero que son fáciles de «visualizar» y, sobre todo, que se ajustan a las concepciones culturales y sociales dominantes de la realidad, lo que da una sensación de que «todo está claro», que es más tranquilizadora que reconocer nuestro, todavía, limitado conocimiento de los procesos biológicos fundamentales. Por todo esto, aunque este homenaje a Lamarck pueda resultar «anacrónico», no lo es tanto si tenemos en cuenta que los nuevos descubrimientos están reivindicando muchas de las aportaciones, no sólo de Lamarck, sino de la escuela evolucionista francesa que, en los siglos XVHI y XIX, había asentado los principios teóricos de una visión realmente científica de la evolución. Así, Buffon, con las primeras ideas evolucionistas plasmadas sistemáticamente en tratados científicos, según las cuales «Entre los cuadrúpedos, las aves, los peces, la Naturaleza ha establecido nexos, líneas de prolongación por las cuales todo se acerca, todo se une, todo tiene relación», O los planes de organización de Geoffroy Saint-Hilaire, arquetipos compartidos por grupos animales alejados filogenéticamente, hoy confirmados por la genética del desarrollo, y con sus teratologías, cambios morfológicos bruscos que (forzosamente) se han de producir durante el desarrollo embrionario, ya comprobados en los más recientes estudios sobre morfogénesis. La clara distinción entre micro y macroevolución, nítidamente expuesta por Frédéric Gerard, y basada en profundos estudios paleontológicos, que hoy así lo confirman. La tendencia a la complejidad de los sistemas biológicos de Lamarck, o la interacción organismo-ambiente derivada de su mecanismo de adaptación (véase la pág, 167 de «Filosofía Zoológica», y no el manido ejemplo del cuello de la jirafa), hoy conocido como Epigénesis. Incluso la teoría de los cataclismos y nuevas creaciones de Cuvier, que, por cierto, nunca atribuyó a intervención divina como se nos suele narrar sino a causas naturales (aunque no propuso ninguna) como las que producen los cambios geológicos, «como los grandes descensos en el nivel de los océanos». La intención de este monográfico es ofrecer una visión, por fuerza limitada (y en este caso, no sólo por las limitaciones de espacio o de la capacidad física los autores, sino por la imposibilidad de conseguir aportaciones de otras disciplinas), del estado de aparente desconcierto en que se encuentra la Biología como consecuencia de los nuevos descubrimientos y sus evidentes contradicciones con las interpretaciones tradicionales de la teoría sintética «moderna». Los autores participantes no comparten, necesariamente, con quien esto escribe, la admiración por la figura y la trayectoria humana y científica de Lamarck ni la valoración de sus aportaciones, pero todos tienen en común un verdadero interés científico por la Biología, y la convicción de que ha llegado el momento de replantear (en mayor o menor medida, según se podrá comprobar) los fundamentos teóricos de esta disciplina. En este sentido, Andrés Galera, investigador del Centro de Estudios Históricos del Consejo Superior de Investigaciones Científicas, viene a llenar, dentro de lo posible, el enorme vacío sobre el que los biólogos cimentamos nuestra formación: la total ausencia de información (cuando no deformación) sobre las ideas y aportaciones de los precursores de nuestra disciplina, fenómeno insólito e inimaginable para cualquier otro campo científico, pero que, sin duda, debe de tener alguna explicación, Eduardo Fernández Valiente, de la Universidad Autónoma de Madrid, con una amplia experiencia en el estudio de las sorprendentes bacterias, se acoge a la pujante Teoría de Sistemas como base de un modelo teórico capaz de abarcar la enorme complejidad de los procesos que conforman la vida, y plantea la coevolución como un fenómeno necesariamente derivado de las interacciones de los organismos con su entorno, tanto físico como biológico. Finalmente, en base a los fenómenos de simbiosis involucrados en el origen de la célula eucariota y ampliamente documentados, tanto en el Reino animal como en el vegetal, propone la asociación y la cooperación como fuerzas evolutivas tan importantes o más que la competencia y la selección natural. En la misma dirección, pero en otro contexto, apunta Antonio Rosas, del Departamento de Paleobiología del Museo Nacional de Ciencias Naturales, que nos habla de la incapacidad del paradigma neodarwinista para explicar la macroevolución. Los descubrimientos de la Genética del Desarrollo y la evidencia de su implicación en los cambios morfológicos, están abriendo para la Paleontología un nuevo y, seguramente fecundo campo de investigación, mediante la integración de la neontología, que, eventualmente, podrá ofrecer una explicación de los fenómenos evolutivos más acorde con lo que nos relata el registro fósil. Las plantas han sido, en los últimos años, las grandes olvidadas en los tratados sobre evolución, y así lo denuncia Margarita Moreno, experta en filogenia vegetal de la Universidad Complutense de Madrid, Paradójicamente, este abandono ha sido, en cierto modo, beneficioso, porque ha permitido incorporar rápidamente los nuevos descubrimientos. Los genes Hox, responsables de la morfogénesis, capaces de explicar las apariciones súbitas de nuevas morfologías, los elementos móviles y su capacidad de activación en situaciones de estrés ambiental, que conducen a los botánicos (en cita recogida en su trabajo) a «un poco confortable lamarckismo», la simbiosis, como generadora de diseños novedosos.,. Todo ello permite, según ella, aportar explicaciones más coherentes con los datos observados en el registro fósil, ampliamente documentados en su trabajo. Para Marga Moreno, la voluntad de poner en común los saberes de distintas disciplinas están produciendo muy rápidamente nuevos y mejores frutos. Por su parte, Juan Cedano, del centro de Proteómica y Bioinformática Aplicada de la Universidad Autónoma de Barcelona, mediante la extrapolación de las propiedades de los sistemas informáticos expone que existen multitud de indicios que nos permiten sospechar que el verdadero funcionamiento de los sistemas biológicos no se asemeja demasiado a los mecanismos propuestos por Darwin, Para un programador, la idea de que por azar, una aplicación pueda mejorar en cualquier aspecto es, a todas luces absurda, porque la información de los sistemas complejos ha de cumplir una serie de requisitos que contribuyan a dar estabilidad y coherencia interna a los mismos. Esta estabilidad y coherencia se mantienen en los sistemas informáticos mediante lo que en su terminología se conoce como debugger (término inexistente en los diccionarios, salvo el supuesto sufijo bugger, que no parece ser el caso), una herramienta que permite detectar los errores y modificar automáticamente las variables para recuperar la aplicación para la que el programa estaba diseñado. Dentro de este modelo, ciertos virus podrían ser incorporados a modo de «parche del sistema» asumible por el debugger celular. En este contexto, pero en otro orden de cosas, Antonio Pou, del departamento de Ecología de la Universidad Autónoma de Madrid, utiliza como punto de partida la hipótesis Gaia del químico James Lovelock, para plantear el problema de la incapacidad de procesamiento de la mente humana ante el aluvión de información en que estamos inmersos. También nos habla del condicionante cultural e histórico de los modelos de interpretación de la realidad, de la ficción de la objetividad, y de la necesidad de estar dispuestos a examinar con mente abierta todas las teorías, buscando aquellos aspectos que puedan ser de utilidad al para-XIV Presentación digma de hoy. En su opinión, lo que necesitamos ahora no es sustituir unos modelos absolutistas por otros, sino incorporar otras herramientas que están siendo empleadas en otros campos científicos, como la teoría de la complejidad. En un plano más específico, Carlos Sentís, genetista humano de la Universidad Autónoma de Madrid, nos aporta una exhaustiva revisión de las características y actividades de los retrovirus endógenos humanos. Hasta muy recientemente (y todavía hoy entre muchos genetistas) los retrovirus endógenos eran considerados exclusivamente como agentes patógenos, parásitos «infiltrados» en nuestro genoma que utilizaban la maquinaria celular en su propio beneficio. Desde la perspectiva del ADN egoísta, serían «el resultado final de la evolución». Sin embargo, tal como argumenta Carlos Sentís, su participación en actividades celulares normales como la regulación de otros genes y en procesos de tan gran importancia evolutiva como la transferencia horizontal de genes o la placentación, le hacen pensar que, aunque el significado biológico y evolutivo de las secuencias retrovirales humanas siguen siendo bastante polémicos, su potencial en ambos sentidos es enorme. Según Carlos Sentís, la concepción de que los HERVs son secuencias constitutivas de nuestro genoma que realizan diferentes funciones celulares y fisiológicas puede cambiar alguno de los planteamientos que se están utilizando en el manejo de los retrovirus y las enfermedades retrovirales en biomedicina. El tratamiento del SIDA, los xenotransplantes y la terapia génica, y los graves problemas que plantean, ponen de manifiesto la obligatoriedad de comprender mejor las funciones normales de los HERVs antes de que una experimentación precipitada pueda tener efectos desastrosos irreversibles. Para finalizar este monográfico, he aprovechado la oportunidad que la dirección de ARBOR (a la que estoy profundamente agradecido) me ha concedido para insistir, una vez más en la posibilidad, si bien, por el momento lejana, de la articulación de una nueva base teórica para la Biología que permita integrar y dar sentido científico a la abundante información acumulada en los últimos años. Los participantes en este volumen somos conscientes de que la dinámica en que está inmersa la Biología actual no es, precisamente, el mejor sustrato para la germinación de muchas de las ideas (propias o ajenas) aquí expuestas. Pero ya hace tiempo que estábamos prevenidos por nuestro ilustre colega y mi admirado maestro Jean Baptiste de Monet, Caballero de Lamarck: «Sin embargo, muchas de las consideraciones nuevas que son expuestas en esta obra, desde su inicio prevendrán desfavorablemente al lector, por el único motivo de que las ideas ya admitidas van a Presentación rechazar a las nuevas. Como este poder de las ideas viejas sobre las que aparecen por primera vez favorece esta prevención, sobre todo cuando interviene un interés menor, resulta que a las dificultades que ya existen para descubrir verdades nuevas, estudiando la Naturaleza, se le añaden las aún mayores de hacerlas aceptar».
El objetivo del trabajo es demostrar que el concepto de variación cronológica específica filética es un supuesto biológico ampliamente debatido por los naturalistas durante la primera mitad del siglo XIX, precedentemente a la formulación de la teoría darwinista. Como argumento de esta hipótesis analizaremos el ideario de científicos como Georges Cuvier, Etienne Geoffroy Saint-Hilaire, Heinrich-Georg Bronn, y Frédéric Gérard, comparando sus modelos evolutivos con el esquema presentado por Darwin posteriormente, 1859. La frase pertenece al acervo intelectual de Ronald Fisher, abre las páginas de su libro The Genetical Theory of Natural selection^ publicado en 1930. La rotunda afirmación tiene un doble sentido: L La evolución es un fenómeno biológico complejo y la selección natural es uno de sus componentes. Conceptualización que, una década después, en su modern synthesis, Julian Huxley etiqueta con el epígrafe de heterogeneidad de la evolución: La selección natural «por sí sola es incapaz de extender el límite máximo de la variación, y, por tanto, incapaz por sí misma, de causar cambios evolutivos»^, en consecuencia la evolución será el producto de la mutación, la recombinación y la selección. El mismo Darwin reconoció este límite operativo, al margen del significado genético moderno, en la primera edición de On the Origin of Species: «What natural selection cannot do, is to modify the structure of one species, without giving it any advantage, for the good of another species»^. IL El uso indiscriminado del término selección natural como sinónimo de evolución ignorando su valor intrínseco como fenómeno biológico independiente. El simbolismo ha percutido históricamente y, habitualmente, los historiadores de la ciencia redactan el capítulo correspondiente a la evolución al dictado de esta sinonimia, identificando radicalmente el nombre de Darwin con la teoría de la evolución. Sin embargo, la ecuación Darwin = evolución es errónea por excluir otros modelos biológicos que sustentan idéntico principio teórico: el origen de los organismos actuales por la extinción de formas pretéritas y su sustitución por especies diferentes durante la cronología terrestre. Esta pluralidad ideológica significa que, lejos de manifestarse como un elemento aislado, el concepto de variación específica cronológica es un argumento debatido por los naturalistas desde principios del siglo XK para explicar el origen de los seres vivos^; aunque de este hecho no se pude inferir la existencia de una doctrina transformista generalizada, pues aprobar que las especies han cambiado durante la cronología terrestre no obliga, como veremos a continuación, a aceptar que la sustitución se produzca por transformación o modificación de las especies existentes y halla un continuo filético entre los seres vivos desde su origen hasta hoy, aunque éste es el supuesto mayoritario. Como afirmaba su coetáneo Alphonse De CandoUe, el sistema de Darwin sólo era «el más moderno, y al mismo tiempo el más ingenioso y el más completo de los sistemas fundados sobre la evolución de los seres organizados en la serie de los tiempos»^. Las Revoluciones del Globo Junta cadáveres hubiera sido un apodo adecuado para el naturalista francés Georges Cuvier, aludiendo a su habilidad para recomponer esqueletos fósiles. Tarea que realizó con precisión llegando a comprender tan profundamente las relaciones anatómicas de los vertebrados que pequeñas porciones de huesos bastaban a este mago del osario, nominación que recibía en la época, para reconstruir el armazón óseo de la víctima. El descubrimiento de especies extintas inculca en Cuvier una razonable duda biogenésica bidireccional: ¿porqué han desaparecido estos organismos?, ¿qué vínculos mantiene la fauna actual con la especies desaparecidas? Como respuesta elaboró una teoría paleontológica sobre el desarrollo conjunto de la vida y la orografía terrestre, que expuso el año 1812 en el Discours préliminaire de su obra Recherches sur les ossements fossiles de quadrupèdes^. El texto tuvo éxito y su difusión internacional fue amplia, traduciéndose al inglés inmediatamente'^. Incluyendo en nuestro análisis el ideario de Cuvier no pretendemos catalogar su teoría como un modelo evolutivo, la intención es otra y doble. Primero, liberarla del exagerado cliché catastrofista-creacionista que, generalmente, se le atribuye; segundo, demostrar que los modelos fijistas decimonónicos admiten la idea de cambio específico cronológico y rechazan el esquema transformista, que la evolución representa, defendiendo criterios científicos acordes con una coherente línea argumentai y no como consecuencia de una actitud intolerante. Cuvier construye su teoría utilizando el registro estratigráfico como base empírica de su argumentación, combinando inducción y deducción para realizar su lectura. El descubrimiento de restos fósiles pertenecientes a especies desaparecidas prueba, irrefutablemente, que la fauna actual ha cambiado respecto a los antiguos moradores del mismo territorio. La causa de su desaparición se infiere también de las pruebas paleontológicas. Los fósiles conchíferos hallados en las regiones montañosas certifican la inundación sufrida por la zona continental e indican el nivel alcanzado por el agua, que es el agente físico responsable de la revolución del glo-bo^. La deducción alcanza cotas mayores. La presencia en los distintos estratos geológicos de restos conchíferos propios de especies muy diferentes, probaría que la involución acuática del medio no fue un fenómeno único en la historia de la Tierra sino reiterado, habría ocurrido, alternativamente, en distintas épocas: «Los cambios ocurridos en las producciones de los lechos conchíferos no han, pues, dependido solamente de una retirada gradual y general de las aguas; sino de diversas irrupciones y retiradas sucesivas, cuyo resultado definitivo ha sido, sin embargo, una disminución universal del nivel»^. Las diversas revoluciones acaecidas fueron súbitas, provocaron el aumento y posterior descenso del nivel hídrico, y la consiguiente mortandad de los organismos afectados, siendo el Diluvio Universal la última manifestación anterior a la expansión humana terrestre, pues «la vida no ha existido siempre sobre el globo, y es fácil para el observador reconocer el punto donde ella ha comenzado a depositar sus productos»^^. La estructura cristalográfica y estratigráfica, y la composición material que caracterizan las elevadas cumbres de las primitivas cadenas montañosas, carentes de fósiles y fruto de la solidificación del medio fluido propio del planeta originalmente, demuestran que la aparición de los seres vivos es un proceso posterior a la génesis orográfica y la temprana inmersión de la li-tosfera^-*^. Dividida la historia de la Tierra en dos fases, inorgánica y biótica, y caracterizada su cronología biológica por los cambios faunísticos y florísticos acaecidos a consecuencia de las periódicas catástrofes ambientales, Cuvier debe, ineludiblemente, explicar ¿cuál es el mecanismo de sustitución de las especies? La respuesta es concluyente: «las especies perdidas no son variedades de las especies vivientes»^^. «Esta objeción debe sobre todo parecer fuerte a quienes creen en la posibilidad indefinida de la alteración de las formas en los cuerpos organizados, y que piensan que con los siglos y las costumbres, todas las especies podrían cambiarse las unas en las otras, o resultar de una sola de entre ellas»^^. Porqué las especies actuales no tienen su origen en precedentes formas modificadas. Su negativa a reconocer el hilo conductor que uniría pasado y presente no es metafísica ni respalda creencia religiosa alguna, es un argumento científico cuyo eco persiste todavía en el debate evolucionista: faltan pruebas paleontológicas de la gradación orgánica necesaria para justificar la hipótesis transformista, «si las especies han cambiado por grados, se debería encontrar trazas de estas modificaciones graduales; que entre el paleotherium y las especies de hoy se debería descubrir algunas formas intermedias, y hasta el presente eso no ha sucedido»^^. Entonces ¿cómo acontece la sustitución de especies que los fósiles testimonian? La sutil respuesta compagina fijismo y variación cronológica sin abandonar el cauce científico: «no pretendo que haya sido necesaria una creación nueva para producir las especies existentes, digo sólo que ellas no existían en el mismo lugar, y que han debido venir de otra parte»^^. Los territorios despoblados tras la catástrofe son colonizados por especies procedentes de otras áreas geográficas que no han sido afectadas por la involución. El supuesto migratorio es sencillo, sólo requiere limitar los efectos fenomenológicos en el espacio y en el tiempo. Temporalmente para justificar la sucesión de los cambios, la variabilidad cronológica fósil, y espacialmente para justificar empíricamente la procedencia de las nuevas especies. Utilicemos el ejemplo expuesto por Cuvier y supongamos que una gran inundación cubre la isla de Nueva Holanda. La consecuencia inmediata sería la desaparición de los organismos terrestres, entre ellos especies autóctonas, como el canguro y el ornitorrinco, que se extinguirían por su localismo permaneciendo sólo su evidencia fósil. Si el posterior descenso hídrico provocase tanto la emersión insular como la aparición de un canal terrestre entre la isla y el colindante continente asiático, este sería el camino por donde especies como el elefante, el camello, el rinoceronte, repoblarían el territorio reemplazando la precedente fauna local por animales desconocidos en dicha zona geográfica, organismos muy diferentes al contenido del registro paleontológico^^. La idea admite múltiples combinaciones, necesarias para conjugar la fijeza y pluralidad de las especies que habitan el mismo territorio en distintas etapas de la cronología terrestre. Al margen de los errores que al viento de nuestro actual nivel cognoscitivo podamos señalar, la fórmula propuesta por Cuvier para explicar la historia de los seres vivos tiene el acierto de situar el problema transformista dentro de un plano puramente científico, aceptando la variabilidad específica cronológica como un hecho probado por el registro paleontológico y característico de las diferentes épocas geológicas terrestres. En adelante, la cuestión a litigar entre fijistas y transformistas no es qué ha sucedido sino cómo se producen los cambios. Las leyes paleontológicas sobre la evolución del mundo orgánico En 1850 la Academia de Ciencias de París convocó un concurso temático sobre el significado biológico del registro fósil^'^. Transcurrido el plazo oficial de tres años, la convocatoria fue declarada desierta abriéndose una nueva fase para el siguiente trienio. En la segunda ocasión, 1856, el paleontólogo alemán Heinrich-Georg Bronn^^ recibe el premio por su memoria Hecherches sur les lois d'évolution du monde organique pendant la formation de la croûte terrestre, Dos años después, 1858, el texto, ampliado y actualizado, se publica en alemán^^, y el siguiente año aparecen sendos extractos en inglés y francés^^ que difunden su ideario globalmente. Bronn había examinado más de 27.000 fósiles, una cifra récord entonces, recogidos en un voluminoso Index paleontologicus que supera las 2400 páginas^^. Con esta información elaboró una teoría sobre el origen de los organismos cuya hipótesis es el cambio progresivo de la flora y la fauna por la extinción de especies existentes y la aparición de nuevas formas. El registro fósil demostraba que la historia de la vida se correspondía con un proceso biológico continuo de destrucción y génesis de nuevas especies «sin que haya habido jamás paso gradual de una especies a otra»^^, la relación morfológica entre las especies características de cada época era saltacionista. Bronn, igual que Cuvier, rechazaba el gradualismo fósil. Animales y plantas coinciden en su origen, manifestándose simultáneamente, y desde entonces la tipología y el número de especies cambian en el tiempo y el espacio según las características medioambientales y las posibilidades de supervivencia deri-vadas^^. Tres factores determinan la secuencia cronológica biogenésica: adaptación al medio, cambios geológicos, y desarrollo tipológico progre-gjyQ24 L^g propiedades del medio condicionan la proliferación de organismos produciendo una fauna y flora características de cada época^^; paralelamente, la drástica transformación sufrida por la superficie te-rrestre sustituyendo el medio acuoso por una orografía continental, diversifica la vida multiplicando los tipos y el número de especies. El primitivo océano universal se concentra en mares, emergen los continentes y se elevan las montañosas, la pluralidad de medios hace posible la diversidad animal y vegetal, los originarios pobladores pelágicos primero se combinan con formas litorales, posteriormente se incorporan las poblaciones terrestres costeras, y finalmente las continentales. Esta serie fenomenológica «es lo que designamos bajo el nombre de evolution terripétale»^^, y constituye una serie homogénea de acontecimientos: «Las primeras plantas terrestres (si no tenemos en cuenta las hullas de Portugal cuya origen siluriano es dudoso) datan de la formación devónica; los primeros animales anfibios aparecen en número considerable en la misma época. Los primeros verdaderos habitantes terrestres, que respiran el aire puro (insectos), y que caminan, aparecen en la formación carbonífera. Desde entonces, el número de los organismos terrestres ha ido siempre en aumento, y termina por superar a los organismos marinos»^^. Paralelamente, el concepto de desarrollo progresivo representa la complejidad tipológica creciente del registro fósil en el decurso geológico, y define una secuencia de perfección que acontece en una doble vertiente: conduce a las nuevas especies a poseer un grado organizativo más elevado que sus antecesores y, simultáneamente, conlleva el declive de las especies pretérita una vez alcanzado el cénit hasta la desaparición totaP^. Pluralidad de cambios biológicos que resultan del «desarrollo del plan de creación durante la sucesión de las edades geológicas habiendo tenido lugar con una perfecta consecuencia y de una manera totalmente independiente»^^. Creación significa ignorancia, desconocimiento del mecanismo por el cual aparecen las nuevas especies que sustituyen a las antecesoras, y representa la secuencia de animales y plantas «que se suceden los unos a los otros sin interrupción, confundiéndose más o menos»^^. La paleontología es una disciplina básicamente ideográfica y, en consecuencia, tiene una finalidad descriptiva que Bronn no transgrede especulando sobre mecanismos evolutivos. Su obra confirma que el debate paleontológico precedente a la aparición del darwinismo se encontraba ya inmerso en la polémica transformista. Los datos demostraban el cambio orgánico pero éste no se producía siguiendo la serie gradual que la selección natural darwinista predice, por el contrario, atendiendo al registro fósil la evolución era un proceso saltacionista. A pesar de la divergencia interpretativa, Bronn contribuyó a la difusión del ideario darwinista en Alemania traduciendo On the Origin of Species en 1867, libro que había reseñado con anterioridad^^. Contemplada a través del prisma embriológico, la teoría de la evolución adquiere un tinte diferente al color que le confiere la paleontología. Bajo esta nueva perspectiva sí cabe preguntarse ¿cómo se transforman las especies? La dimensión temporal de la evolución es distinta, la investigación olvida el pasado para descubrir cuál es el mecanismo biológico atemporal responsable del proceso. El cambio de perspectiva exige también un cambio metodológico pues describir ya no es suficiente, descubrir las leyes de la vida requiere del experimento. Este fue el contexto elegido por el anatomista francés Etienne Geoffroy Saint-Hilaire para elaborar una teoría sobre la evolución de los organismos sustentada en la teratología como causa general de los cambios tipológicos que manifiestan los fósiles. Planteamiento que se inserta en el marco de su teoría general sobre la unidad estructural del reino animal, «unité du plan de composition», cuya hipótesis justifica las relaciones anatómicas que determinan la existencia de un vínculo filogenético entre las distintas tipologías a través del concepto de analogía orgánica^^. La existencia de una correlación entre desarrollo embrionario y evolutivo fue una suposición temprana en la biología del siglo XIX. La idea de recapitulación aparece en diferentes versiones durante las primeras décadas del siglo, la suscriben autores como Treviranus, Serres, Oken, Tiedemamm, Merck. Los embriones de las clases superiores repiten en su desarrollo las formas permanentes de las clases inferiores, afirma, por ejemplo. Serres en su Anatomía comparada del cerebro^^. En este sentido, la teoría evolutiva de Saint-Hilaire significa novedad pues, además, considera el desarrollo embrionario como la fase operativa donde acontecen los cambios organográficos responsables de la aparición de nuevos fenotipos. El paleontólogo Etienne deduce fácilmente que «los animales que viven hoy en día proceden, por una secuencia de generación ininterrumpida, de animales perdidos del mundo antediluviano»^^; argumento que el anatomista Geoffroy refrenda siguiendo el principio de unidad anatómica de los seres vivos; y la finalidad del embriólogo Saint-Hilaire es determinar las causas del cambio morfológico. Como afirma su contemporáneo Quatrefages, su objetivo era resolver una de las objeciones más importantes que la teoría evolutiva puede recibir: «la dificultad de comprender como dos especies, hasta entonces reunidas fisiológicamente, se aíslan»^^. La teratología era la solución. Animales regulares y monstruos representan sólo diferentes grados de organización de la materia viva, ocurrida durante la organogénesis^^, y su coexistencia es una prueba empírica tanto del potencial transformista de los seres vivos como Aceptado el esquema teratológico como motor de la evolución es necesario indagar ¿cuál es la causa de las alteraciones embrionarias? Entendida la historia de la vida como lo hace Saint-Hilaire: los objetos naturales una vez formados por la deidad «son definitivamente abandonados a su propia aptitud»^^, se deduce que el origen de la vida fue un acto creacionista y que los primigenios seres vivos se desarrollan posteriormente mediante un proceso evolutivo cuya causa es inherente a su entidad biológica y a su relación con el medio. Dado su carácter presentista la hipótesis requiere la comprobación experimental. Su investigación se centró en estudiar la embriogénesis de las aves, y consistía en observar el desarrollo del huevo sometido a distintas modificaciones durante las diferentes etapas de la incubación: agitando, perforando, manteniendo en posición vertical, impermeabilizando la cascara, etc. Los poUuelos presentaban numerosas alteraciones organográficas, monstruosidades, y como las anomalías no estaban predeterminadas en el huevo, que en circunstancias normales no se modifica, los cambios eran «resultado de una perturbación, ocurrida en el curso del desarrollo de los embriones en principio perfectamente regulares»^^. La lectura de los resultados en clave evolutiva permite afirmar que, por influencia del medio y a causa de los cambios morfológicos derivados de esta relación, las especies animales y vegetales son reemplazadas por otras que continúan «a su vez todo este lecho de organización animal y vegetal de que está compuesta la corteza del globo terrestre»^^. La naturaleza embriológica del problema sitúa la evolución en un plano puramente genésico delimitado por dos factores: los caracteres morfológicos contenidos en el huevo y el mundo exterior^^. El germen se diferencia en un individuo adulto adaptado a un determinado ambiente, nisus formativus, cuando el nicho formativo se modifica los cambios afectan al desarrollo de los futuros embriones modificando la organogénesis y originando nuevas morfologías; por ejemplo, «la cantidad decreciente de oxígeno en relación con los demás componentes atmosféricos, pudo forzar las superficies cutáneas del embrión, primer y principal sede de los actos respiratorios, a abrirse más, a ganar en razón inversa al volumen existente de oxígeno, más profundidad, mediante más largas sinuosidades en el tejido celular, y adquirir, por un crecimiento en la intensidad de los efectos, de más en más, el carácter de burbujas y decididamente de traqueas, hasta que por fin aparecen en el tórax una concentración de senos respiratorios, y de los arreglos de la estructura para el aislamiento de los sacos o escenarios de la respiración, llamados, según sus características, pulmones o branquias»^^. Las nue-Modelos evolutivos predarwinistas vas características morfológicas son adaptativas y responden a las condiciones de existencia determinadas por los cambios del medio, se habrá constituido un nuevo nisus formativo. El resultado del proceso es la extinción de las especies parentales, ahora inadaptadas, que son sustituidas por la descendencia modificada. La teratología evolutiva de Saint-Hilaire analiza la evolución desde el punto de vista de la reproducción de los seres vivos, definiéndola como un fenómeno de adaptación de nuevas formas a nuevos medios mediante un limitado mecanismo selectivo, entre las formas parentales y su descendencia, controlado y dirigido por el medio (selección no competitiva), y en su horizonte se vislumbra el hopeful monster^'^ propuesto por Richard Goldschmidt en el siglo XX, ahora bajo los auspicios de la genética en armoniosa conjunción embriológica. La teoría de la evolución de las formas orgánicas Es sabido que el empleo del término evolución con su actual perfil biológico no es una aportación darwinista, su uso se remonta a la escuela naturalista francesa de principios del siglo XX^^. Tampoco fue original la formulación de una teoría sobre el origen de las especies mediante la sustitución y extinción de las formas parentales por nuevas especies vinculadas genealógicamente; al margen de Lamarck, cuyo ideario implica la transformación morfológica directa del individuo en otro con cualidades anatómicas diferentes, por adaptación al miedlo, y la consiguiente transmisión a su descendencia de los caracteres adquiridos. Esquema admitido también por Darwin. Durante la década de los años cuarenta el Diccionario Universal de Historia Natural, dirigido por Charles d'Orbigny, fue la tribuna pública donde otro naturalista francés, Frédéric Gérard, expone la théorie de l'évolution des formes organiques^^, Su objetivo era explicar cómo surgió la vida sobre la Tierra y determinar cuál fue el desarrollo posterior de los seres vivos hasta alcanzar la actual diversidad de especies^^. Consecuente con su interpretación fisicalista de la naturaleza -las leyes físicas rigen los fenómenos naturales, incluida la evolu-ción^^-, la vida es un estado de la materia'*'^ y su primigenia manifestación ocurre por generación espontanea durante la fase anorgánica terrestre^^. La vida surge mediante la acción de agentes físicos, «calor, luz, electricidad y nada más»^^, sobre «un líquido proveniente sea del agua pluvial, sea de una infusión»^^. Desde entonces, los seres vivos se habrían desarrollado en múltiples direcciones morfológicas sucediéndose las distintas especies en el espacio y el tiempo por un proceso de trans- 10 formación que implica la extinción de las formas existentes y su sustitución por otras diferentes adaptadas a las nuevas condiciones de existencia impuestas por los cambios del medio: «las condiciones de existencia propias a la aparición de seres de tal o cual orden no han existido simultáneamente, y que las evoluciones sucesivas no son otras que las formas orgánicas correspondientes a las circunstancias ambientales»^^. La imagen de este sistema evolutivo corresponde a una secuencia continua de organismos de complejidad ascendente^^, que van desde las formas simples de los primeros tiempos hasta la diversidad actual, fruto del incesante juego de variabilidad fenotípica que caracteriza a la naturaleza y hace de la evolución una ley biológica generaP^. El soporte empírico de la teoría es la consabida deducción paleontológica: la relación estratigráfica de fósiles pertenecientes a organismos desaparecidos prueba la sucesión de especies animales y vegetales ocurrida durante la historia terrestre, ¿cómo explicar sino la «presencia de restos orgánicos sepultados en el seno de los lechos de las diferentes épocas, y que nos han obligado a crear tantos nombres nuevos, ante la imposibilidad de relacionarlos con los tipos que existen actualmente?»^'*. Junto al testimonio del pasado, la morfogénesis, la embriología, retrata hoy la historia de la vida -teoría de la recapitulación-, confirmando la «idea de la evolución sucesiva de los seres desde los más simples hasta los más complejos, de la que cada grupo, cada especie, representa uno de los puntos de la evolución»^^. Establecida la relación filogenética subyacente al registro paleontológico, definida como un proceso continuo de transformaciones orgánicas, aceptar la teoría de la evolución implica aceptar un principio de unidad anatómica, extensivo a todos los seres vivos, que dé verosimilitud al cambio morfológico y haga posible la idea de continuidad orgánica. Gérard sustenta su hipótesis transformista en el modelo de unidad de composición anatómica defendido por su correligionario Etienne Saint-Hilaire: los seres vivos representan un plan estructural único que ha sufrido modificaciones sucesivas relacionadas con las diferentes condiciones de existencia que cronológicamente han caracterizado el plane-ta^^. Pero aún quedan interrogantes por responder: ¿cuál es el mecanismo biológico responsable de los cambios orgánicos?, ¿dónde están los fósiles intermedios que den concordancia al continuo filogenético, como preguntaba Cuvier? La respuesta es común, no hay relación causa-efecto entre los diferentes componentes del problema. La prueba paleontológica de la evolución no es la frecuencia de sustitución sino el acto del cambio específico que testimonian los fósiles. La paleontología demuestra la evolución de las especies independientemente de nuestra ignorancia sobre los mecanismos biológicos y las lagunas presentes en el registro fósil: «El Modelos evolutivos predarwinistas proceso de transformación, la manera cómo estos cambios se han podido operar, no es conocida, y no se sabe el tiempo que será necesario para ello», lo cierto es «que ha habido un movimiento evolutivo»^'^. En síntesis, la théorie de revolution des formes organiques se desglosa en tres vertientes conceptuales: el origen de la vida, la transformación orgánica, y el orden de sucesión de las especies^^. A partir de una imaginaria primigenia forma viva, utópica célula primitiva^^, la vida se desdobla en dos niveles organizativos, animales y vegetales, sustrato donde, resultado de la evolución, se diferenciaran los distintos tipos morfológicos conocidos: radiolarios, moluscos, articulados, peces, reptiles, pájaros, mamíferos, acotiledóneas, monocotiledóneas y dicotiledóneas^^, representados por un conglomerado de especies que conforman la historia biológica de la Tierra dividida en siete períodos evolutivos (anorgánico y orgánico primordial, carbonífero, jurásico, cretácico, terciario, aluvial y moderno)^^, caracterizados por una fauna y flora peculiares acordes a las condiciones del medio y las posibilidades de existencia derivadas. Los diferentes tipos se mantienen constantes desde su aparición hasta la actualidad a través de representantes diferentes que reemplazan a sus antecesores, actuando la ley de la evolución en dos direcciones^^: sustitución de unas especies por otras dentro de un tipo establecido (fenotípicamente correspondería a simples modificaciones orgánicas); aparición de nuevos tipos (alteraciones morfológicas drásticas dentro de la unidad estructural original). Planteamiento dual que, implícitamente, sitúa la teoría de la evolución de Gerard en el marco de uno de los problemas capitales del futuro debate evolucionista: la macro y la microevolución. En ambos casos los cambios incrementan la complejidad anatómica, su finalidad es adaptativa y tienen un significado binario implícito: supervivencia y expansión territorial. La relación del ser vivo con el medio está determinada por las condiciones de existencia que los cambios geológicos establecen, las modificaciones orgánicas son la respuesta adaptativa a la nueva situación ambiental, son necesarias para sobrevivir. Paralelamente, la historia geológica terrestre discurre en la dirección que marca la emergencia continental del medio acuático originando nuevos habitats (aire, tierra) factibles de colonizar^^. La respuesta morfológica supone ahora un cambio fenotípico radical también regulado por el binomio adaptaciónsupervivencia pero dirigido a colonizar nuevos territorios. En este juego de variaciones ¿cuál es el significado del concepto de especie? se pregunta Gérard siguiendo el hilo conductor de la teoría. Bajo el prisma de la evolución, aceptado su valor temporal, las especies representarían unidades tipológicas arbitrarias, relativas, son estados transitorios de la vida «correspondientes a los diferentes peldaños de la evolución de los La especie es un concepto que identifica agrupaciones de individuos con identidad formal, organizativa, costumbrista, reproductora, temporalmente coincidentes e inestables por la movilidad morfológica que razas, variedades, e híbridos representan^^ como manifestación primera del continuo juego de cambios biológicos resultado de la ley de la evolución. Frédéric Gérard interpreta la historia de la vida haciendo una lectura continuada del registro fósil que auna pasado y presente mediante una secuencia filogenética. La extinción de especies y su sustitución por nuevas formas surgidas de las precedentes es un fenómeno general que caracteriza una naturaleza gobernada por agentes físicos exclusivamente. De haber leído las páginas escritas por estos y otros científicos, Darwin habría podido seguir menospreciando el nombre de Lamarck, a pesar de confesar que «the conclusions I am led to are not widely different from his; though the means of change are wholly so»^^, pero su lectura hubiera ayudado a contrarrestar su egolatría y despejar las dudas que sobre la mutabilidad de las especies todavía albergaba en la década de los años cuarenta, cuando redactaba los primeros borradores de su teoría. Y si los biólogos aprendiésemos a conocer, valorar, y emplear el acervo cognoscitivo de nuestros predecesores, serían inviables falsedades como, por ejemplo, las enunciadas por Richard Dawkins invocando a Darwin en vano, como único artífice de la teoría evolutiva^*^. Nuestro objetivo ha sido muy diferente, demostrar que la historia de la evolución no ocurrió tal y como la cuentan los profetas darwinistas del siglo XX.
El vertiginoso avance del conocimiento científico en los últimos cincuenta años ha dejado desfasado el concepto neodarwinista de la evolución. Las evidencias de las grandes catástrofes planetarias y del registro fósil son poco compatibles con la idea de un cambio gradual. La nueva visión del genoma como una compleja red de interacciones de genes que se regulan unos a otros, los procesos de regulación epigenética, la modularidad de los grandes complejos proteicos, la abundante presencia de transposones y retrotransposones, las diferentes pautas de lectura de un gen a través del procesamiento del ARN mensajero y la transferencia lateral de genes, son algunos de los aspectos que emergen del conocimiento del genoma y que son difícilmente compatibles con la idea de una lenta acumulación de mutaciones como motor de la variabilidad genética. Hace ahora dos siglos que Jean Baptiste de Monet, caballero de Lamarck publicó su libro Système des animaux sans vertebre en el que por primera vez se planteaba de una forma lógica y coherente la idea de la Evolución y los posibles mecanismos que originan el proceso evolutivo. La teoría no tuvo excesiva diñisión y cayó rápidamente en descrédito debido a los ataques de, Cuvier, eminente figura científica de la época, quien rechazaba la idea de la Evolución. Treinta años después de la muerte de Lamarck, Darwin publica su famoso libro El origen de las especies, donde retoma la idea de la Evolución, y propone unos mecanismos evolutivos Eduardo Fernández Valiente 18 diferentes a los planteados por Lamarck. El triunfo de las ideas evolucionistas de Darwin no supuso una rehabilitación de la figura de Lamarck, mas bien al contrario, su figura fue aún más desprestigiada por los seguidores de Darwin, quienes al atacar los mecanismos evolutivos propuestos por Lamarck, convertían a Darwin en el padre de la Evolución, de tal forma, que hoy en día darwinismo es un término sinónimo de evolucionismo y no se entiende que alguien pueda ser evolucionista y discuta al mismo tiempo algunos de los planteamientos de Darwin y sus seguidores neodarwinistas. Tanto en la teoría de Lamarck como en la de Darwin cabe distinguir dos aspectos, que no suelen separarse. En primer lugar ambas teorías establecen el hecho evolutivo, es decir, que las especies no permanecen inmutables, sino que han ido cambiando a lo largo de la historia del planeta. En lo fundamental, ambas teorías coinciden en este aspecto y, mal que les pese a algunos, hay que reconocer que Lamarck lo enunció primero, aunque también hay que reconocer que Darwin lo docuraentó mejor. Hoy en día, el hecho evolutivo, como proceso histórico de la Vida, ha dejado de ser una teoría y es un principio científico firmemente establecido e incontrovertible, salvo para algunas confesiones religiosas ancladas en el creacionismo a ultranza. El debate entre evolucionistas (=darwinistas) y creacionistas, ha tenido poca incidencia en Europa, pero ha sido bastante intenso en Estados Unidos, donde esas confesiones religiosas tienen mayor arraigo. Es más que posible que la intensidad de ese debate haya contribuido a la equiparación entre evolucionismo y darwinismo. Pero las dos teorías no se limitan a enunciar y justificar el proceso evolutivo, sino que ambas plantean posibles mecanismos para explicar la evolución de las especies. Es en este aspecto donde las dos teorías difieren radicalmente en la filosofía de sus planteamientos. Ambas teorías dan al medio ambiente un papel relevante, pero de forma distinta. Para Lamarck, el ambiente juega un papel a priori, creando unas necesidades a los organismos, a los que éstos tienen que dar respuesta. Ello origina la aparición de nuevas estructuras y la consiguiente variabilidad de caracteres. Lamarck avanza una idea de cómo puede generarse la variación de caracteres. Para él, las pequeñas transformaciones estructurales que sufre un organismo a lo largo de su vida, como consecuencia de su respuesta a las necesidades que le crea el ambiente, van a transmitirse y acumularse en la descendencia. Es la llamada «herencia de caracteres adquiridos». Lamarck considera que la evolución está marcada por una tendencia innata de la materia viva al aumento de la complejidad, tendencia que se ve modulada por el ambiente y las necesidades que éste genera en los organismos. Darwin, por el contrario no admite ninguna ten-Hacia un nuevo concepto de evolución dencia en la evolución, ya que considera que ésta está gobernada por el azar, que es el que genera la variabilidad de caracteres dentro de una población. Para Darwin, el ambiente actúa a posteriori, una vez generada la variabilidad de caracteres, seleccionando aquellos que son competitivamente más idóneos para la supervivencia del organismo. Es la llamada «selección natural». Darwin no tiene una idea clara de cómo se genera la variabilidad de caracteres y aunque sin hacer mucho hincapié en ello, no niega la posibilidad de una herencia de caracteres adquiridos. Son los seguidores posteriores de Darwin los que negarán esa herencia de caracteres adquiridos, explicando la variabilidad de caracteres en base a la lenta acumulación de mutaciones al azar en el ADN. La teoría de Lamarck ha sido tachada de finalista debido a que, según ella, las nuevas estructuras aparecen con la finalidad de dar respuesta a las exigencias del ambiente. Y como dice Monod en su libro El azar y la necesidad (1), toda explicación en términos de causas finales se sale del ámbito de la ciencia. Además, las ideas finalistas no han sido nunca bien recibidas por los científicos porque son proclives a hacer pensar en la idea de un «Gran Diseñador». Todo ello, unido a esa poco definida «tendencia innata a la complejidad», que también tiene un cierto tinte finalista, ha sido causa del rechazo mayoritario de los científicos a las teorías de Lamarck. Por el contrario, el éxito de la Teoría de Darwin es fruto no sólo de sus indiscutibles méritos científicos, sino también de que sus ideas encajaban y encajan perfectamente en el contexto social, político y económico de la época y la sociedad en la que vivió, que en definitiva, y a pesar de los innumerables cambios producidos, sigue siendo en la que vivimos, una sociedad basada en la competencia y el libre mercado. Esas ideas sociales basadas en la teoría de Darwin, el llamado «darwinismo social», han acompañado el desarrollo de la sociedad capitalista, de forma que cualquier crítica a las ideas darwinistas ha sido siempre vista como un ataque al capitalismo. Y razones históricas no faltan, ya que la defensa de las ideas lamarckistas por la escuela de genetistas rusos encabezados por Lysenko, en las primeras décadas del siglo XX, tenían más unas razones políticas que científicas. En ese sentido, hay que reconocer que las experiencias fallidas de Lysenko le hicieron un flaco favor al lamarckismo que decía defender. Así pues, la controversia científica sobre los mecanismos que determinan el proceso evolutivo de la vida, ha sido siempre desdibujada por aspectos religiosos o políticos, que nada tienen que ver con la ciencia y que no han hecho más que generar acritud y acaloramiento, dificultando la serena discusión científica del tema. Selección natural, cambio gradual y catástrofes planetarias Cabe preguntarse, si la revisión de la teoría de Darwin, llevada a cabo por los neodarwinistas en la primera mitad del siglo XX, y aceptada mayoritariamente por la comunidad científica, sigue siendo válida a la luz de los nuevos descubrimientos de la Biología de los últimos cincuenta años, o si por el contrario es necesario iniciar una nueva revisión de las ideas evolutivas. La síntesis neodarwinista establece a la selección natural como el mecanismo básico de la evolución. A través de ella, el medio ambiente selecciona entre la variabilidad genética de las poblaciones, generada a través de la lenta acumulación de mutaciones al azar, aquellas combinaciones que favorezcan la supervivencia de los organismos y, por tanto, su capacidad de reproducción. Hasta el momento, se han presentado evidencias, del papel de la selección natural a la hora de generar variaciones en las ñrecuencias génicas dentro de una especie. Sin embargo, las evidencias presentadas sobre el papel de la selección natural en la formación de nuevas especies en poblaciones naturales han sido escasas y poco convincentes, sobre todo a la hora de explicar la macroevolución, es decir la evolución de grandes grupos taxonómicos (2). Igualmente, el registro fósil tampoco parece apoyar el cambio gradual, que sería de esperar si la variabilidad genética fuera el resultado de una lenta y progresiva acumulación de mutaciones. Más bien el registro fósil indica una evolución a saltos. Es decir, grandes periodos sin cambios aparentes en las poblaciones seguidos de rápidas radiaciones en las que aparecen gran número de nuevas especies (3). Estas radiaciones suelen ser posteriores a grandes episodios catastróficos en los que se produjo una masiva extinción de especies (4). Darwin prestó escasa atención al tema de la desaparición de las especies, para él, la desaparición sería un proceso gradual, en la que las especies peor adaptadas irían lentamente desapareciendo, es decir, sería un proceso gobernado también por la selección natural, la llamada extinción de fondo. Sin embargo, en los últimos años se han ido acumulando datos que indican claramente que el planeta ha sufrido sucesivas catástrofes planetarias acompañadas de grandes extinciones en masa (5). Todo parece indicar que en esos periodos catastróficos las reglas del juego evolutivo se verían alteradas con respecto a las que determinan la extinción de fondo (6). Poco es lo que se sabe del origen de la mayoría de estas catástrofes, y menos aún de los mecanismos implicados en las rápidas diversificaciones posteriores a las mismas, pero lo que no cabe duda es que tienen Hacia un nuevo concepto de evolución poco que ver con los mecanismos de cambio lento y gradual. El panorama que parece dibujarse es el de largos periodos de tiempo de estabilidad y estasis a nivel evolutivo, en los que los mecanismos de selección natural y cambios graduales pudieran jugar un papel a nivel de aparición y desaparición de algunas especies (microevolución y extinción de fondo), puntuados por grandes reorganizaciones globales de la biosfera (macroevolución), como consecuencia de catástrofes planetarias y extinciones masivas. Así pues, parece que la vieja polémica entre el uniformismo de Lyell, en el que se fundamentó Darwin, y el catastrofismo de Cuvier ha vuelto a renacer, aunque desde unas perspectivas diferentes. Reduccionismo y complejidad: de las partes al todo El modelo neodarwinista de la evolución se puede enmarcar dentro del paradigma reduccionista en el que se ha movido la ciencia desde la revolución científica de los siglos XVI y XVII. La visión reduccionista del mundo y de la vida es una visión analítica, centrada en el estudio de los componentes estructurales de un sistema, de forma que el conocimiento de esos componentes por separado nos llevará a la comprensión del sistema en su totalidad. El reduccionismo se basa en relaciones lineales causa-efecto y presta escasa atención a las múltiples interrelaciones que se establecen entre los componentes de cualquier sistema. En la visión reduccionista, potenciada por el enorme desarrollo de la Biología Molecular, los elementos estructurales del sistema se van descomponiendo progresivamente en partes cada vez más pequeñas, hasta llegar a las unidades elementales básicas, que en el caso de los seres vivos serían sus genes. De esta forma, el conocimiento del genoma de un organismo nos llevaría a la comprensión de ese organismo. La visión neodarwinista del genoma ha sido la clásica visión mendeliana de una disposición lineal de genes independientes, cada uno correspondiente a un rasgo biológico, de forma que una mutación en uno de esos genes se traduciría en una alteración del rasgo biológico codificado por el mismo. Así, las mutaciones al azar irían modificando los rasgos biológicos, generando la variabilidad necesaria para que actuara la selección natural. En palabras de Jacques Monod, «únicamente el azar es la fuente de toda innovación, de toda creación en la biosfera» (1). Frente a esta clásico modelo reduccionista de la ciencia, ha ido emergiendo a lo largo del siglo XX, y desde distintos campos de la ciencia: física, matemáticas, química, psicología, biología etc., una nueva visión del mundo y de la vida, una visión holística y ecológica que se puede englobar en la llamada «Teoría de Sistemas» (7). La teoría de sistemas implica un cambio radical de pensamiento desde las partes al todo. Los sistemas vivos son totalidades integradas cuyas propiedades no pueden ser reducidas a las de sus componentes. El cambio de las partes al todo implica también un cambio de objetos a relaciones. Así, mientras el reduccionismo hace hincapié en los objetos, el pensamiento sistémico da un carácter prioritario a las relaciones que se establecen entre esos objetos aislados. La teoría de sistemas percibe al mundo viviente como una compleja red de interrelaciones. Todos los sistemas vivos son redes de componentes más pequeños, la trama de la Vida, como un todo, presenta una estructura en niveles de organización creciente, de sistemas vivos que anidan en el interior de otros, de redes dentro de redes. En palabras de Lynn Margulis: «un orgánulo en el interior de una ameba, en el tracto intestinal de un mamífero que vive en un bosque de este planeta, se encuentra inmerso en un mundo que está comprendido en muchos otros mundos. Cada uno de ellos proporciona su propio punto de referencia y su propia realidad» (8). Según la visión sistémica, los seres vivos son entidades autopoiéticas (que se hacen a sí mismos), que se autoorganizan siguiendo un determinado patrón de organización (9). Nuestras células no son las misraas que teníamos hace diez años, han cambiado, pero seguimos siendo los mismos. Porque se mantienen los patrones de organización. El patrón de organización es un concepto clave de la teoría de sistemas. Los patrones no pueden pesarse ni medirse, son redes de relaciones que configuran y caracterizan un determinado sistema. Los seres vivos son algo más que átomos y moléculas, existe algo más, algo inmaterial e irreducible: el patrón de organización. El patrón de organización básico y elemental de todos los seres vivos sería la célula, con toda su compleja red de interrelaciones moleculares. Cuando una célula se reproduce, no sólo le transmite a su descendencia la información contenida en su ADN, le transmite también su patrón de organización. Cuando se coloca una célula en una placa de Petri con medio de cultivo enriquecido, la célula se reproduce, formando replicas de si misma hasta cubrir la superficie de la placa. Pero si al colocarla en la placa de Petri, la célula inicial se rompe, es decir, si pierde su patrón de organización, la célula no se reproducirá a pesar de que en esa placa esté el ADN y toda la maquinaria metabóli-Hacia un nuevo concepto de evolución ca celular. El ADN y la maquinaria metabólica celular desorganizados son incapaces de regenerar una nueva célula porque han perdido la información contenida en el patrón de organización. Esa información contenida en el patrón de organización celular y sustentada por la compleja red de interrelaciones moleculares es tan vital para el proceso de reproducción como la información contenida en el ADN. El ADN lleva la información para la síntesis de los elementos estructurales de la célula, pero no para su autoensamblaje. Este último depende de la información contenida en el patrón de organización. En los experimentos de clonaje, como el de la oveja Dolly, los científicos han conseguido manipular el ADN de la célula, extrayendo el ADN original e introduciendo un ADN ajeno, pero el éxito del experimento siempre ha dependido de que la célula no se rompa al manipularla, es decir, de conservar el patrón de organización celular. Hasta ahora nadie ha sido capaz de ensamblar de nuevo los elementos estructurales de una célula desorganizada. El estudio del patrón de organización es crucial para la comprensión de los sistemas vivos, puesto que las propiedades sistémicas emergen de una configuración de relaciones ordenadas que no siguen un modelo lineal sino en red (7). En estas redes, un estímulo o mensaje puede viajar en un camino cíclico, que puede convertirse en un bucle de retroalimentación, lo que permite a las redes regularse a si mismas. La compleja maquinaria metabólica de una célula, con sus múltiples rutas metabólicas que se entrecruzan, relacionan y regulan entre si, sería un ejemplo de red autopoietica. En estas redes la función de cada componente es participar en la producción o transformación de otros componentes de la red, de modo que toda la red se hace a si misma continuamente. Ello hace que el sistema completo sea organizativamente cerrado. Sin embargo, desde el punto de vista termodinámico, el sistema es abierto. Es decir, capaz de incorporar materia y energía de su entorno para mantener así su orden interno (7). En ese hacerse a si mismo y generar su orden interno, los seres vivos disipan en forma de calor buena parte de la energía incorporada, aumentando así el desorden (entropía) de su entorno. Ello es palpable cuando se considera la cantidad de basura y contaminación que generamos en nuestro hacer cotidiano. Cuanto más compleja y organizada es la estructura social creada por el hombre, mayor nivel de desorden y contaminación genera en el ambiente. Ello no es más que el reflejo de las leyes termodinámicas que gobiernan el universo y la vida. Por tanto, gracias al incesante flujo de materia y energía y al constante recambio de sus componentes, los organismos vivos mantienen estable su estructura general a través de la autoorganización. Por eso se-güimos siendo nosotros mismos a pesar de que todos nuestros componentes estructurales se hayan recambiado. Los seres vivos somos lo que Prigogine llamó «estructura disipativa de energía» (10). Es decir, estructuras termodinámicamente abiertas que necesitan un aporte constante de materia y energía para mantener su autoorganización. Una característica fundamental de estas estructuras disipativas de energía, y por tanto de los seres vivos, es que se mantienen estables en un estado alejado del equilibrio termodinámico, ya que el equilibrio termodinámico implica la muerte del organismo. Lejos del equilibrio, las estructuras disipativas pueden desarrollarse hacia formas de complejidad creciente. La reiterada retroalimentación de estos sistemas complejos conduce a puntos de inestabilidad donde el sistema se encontrará ante una bifurcación que puede conducir al derrumbe de la estructura o a la emergencia de nuevos estados de orden de mayor complejidad (7). Lo que sucederá en ese punto de inestabilidad es impredecible y dependerá de la historia previa del sistema. En el punto de bifurcación, la estructura disipativa es extraordinariamente sensible a las pequeñas fluctuaciones del entorno, de forma que cualquier pequeño cambio en este último, puede generar un gran cambio en el sistema. Es decir, la propia dinámica interna de los sistemas autopoiéticos disipativos de energía les lleva a aumentar su complejidad hasta llegar a alcanzar un punto donde se pierde la estabilidad del sistema. En ese punto de inestabilidad, el sistema se encuentra ante una bifurcación de caminos en la que tiene necesariamente que cambiar -evolucionar-hacia nuevos estados de orden o desaparecer. El camino a seguir es impredecible pero no depende del azar, sino de las circunstancias del propio sistema -su historia previa-y de las fluctuaciones del entorno. Como vemos, por tanto, la evolución es una propiedad intrínseca a los sistemas autopoiéticos disipativos de energía. Esta tendencia innata de las estructuras disipativas de energía hacia el incremento de la complejidad, recuerda claramente a la «tendencia innata de la materia viva hacia la complejidad» que proponía Lamarck y que ha sido tan criticada por los darwinistas, que veían en ella algo indefinible, poco científico y proclive a la idea del «Gran Diseñador». Pudiera ser que esa idea lamarckista de la tendencia innata a la complejidad no sea más que el resultado de las leyes naturales de la Termodinámica de los sistemas abiertos disipativos de energía. Es decir, algo perfectamente enmarcable en el campo de la ciencia y alejado de cualquier vitalismo. De hecho, si uno contempla la historia evolutiva de la vida como un todo, con una visión global y holística, y no desde el punto de vista reduccionista de la evolución de tal o cual taxón, lo que ob-Hacia un nuevo concepto de evolución serva es una clara tendencia al incremento en la complejidad estructural de los seres vivos, con, al menos, tres grandes saltos de complejidad: de la célula procariota a la eucariota; de los organismos unicelulares a los coloniales, y de los organismos coloniales a los que presentan tejidos diferenciados. Estos saltos no sólo implican una mayor complejidad estructural, sino, sobre todo, una mayor complejidad de relaciones. Y ese mismo incremento en la complejidad de relaciones, es lo que se desprende del bien conocido y establecido incremento en la diversidad de especies a lo largo de la historia de la Vida, que sólo se ve puntuado por las grandes extinciones masivas, pero que se incrementa después de cada una de ellas (4). Es evidente que cuanto mayor es la diversidad de especies, más compleja se hace la red de interacciones entre ellas. La tercera característica de los sistemas vivientes, según la teoría de sistemas, sería la cognición, el proceso de conocer (9). La actividad organizadora de los sistemas vivos, a todos los niveles de la vida, es una actividad cognitiva. Las interacciones de un organismo vivo -bacteria, planta, animal u hombre-con su entorno son interacciones cognitivas, porque todos ellos, incluidos los más simples, tienen capacidad de percepción de estímulos internos y externos y de dar las respuestas homeostáticas adecuadas a esos estímulos. Es evidente, que en los organismos con sistema nervioso desarrollado, el proceso de cognición se hace más complejo y elaborado, pero la cognición por si misma es, según Maturana y Várela (9), una consecuencia necesaria e inevitable del grado de complejidad de los patrones de organización básicos de la Vida. Esta nueva visión holística y sistémica de los seres vivos es difícilmente compatible con la visión reduccionista del proceso evolutivo que tiene el neodarwinismo. La Evolución se concibe como un proceso unitario que abarca a toda la biosfera y no puede reducirse a los cambios adaptativos de una u otra especie. La Evolución no sólo implica un cambio en la estructura y morfología de los organismos sino también un cambio en sus interrelaciones. Cualquier modificación que aparezca en un sistema va a repercutir de forma inmediata en todos los componentes de ese sistema y, en consecuencia, será el conjunto del sistema el que evolucione. Cuando aparece un cambio evolutivo en un órgano o tejido de un organismo, las interrelaciones entre los órganos y tejidos de ese organismo cambiarán y con ello cambiará el conjunto del organismo. Cuando una nueva especie se introduce en un ecosistema, o cuando una especie desa-parece de un ecosistema, todo el ecosistema deberá adaptarse a ese cambio, la intrincada red de interrelaciones se modificará y, por tanto, el ecosistema evolucionará. La evolución de una especie no puede entenderse al margen de la evolución de las especies que se interrelacionan con ella. ¿Cómo se puede entender la evolución de las plantas con flores al margen de la evolución de los animales que las polinizan? Un aspecto clave para la comprensión del proceso evolutivo, que no ha sido tomado en consideración en las teorías neodarwinistas, es el hecho de que no sólo el ambiente influye en la evolución de los seres vivos, sino que también los seres vivos influyen en la evolución del ambiente, y de esa forma están influyendo y modelando su propio proceso evolutivo. La aparición y acumulación del oxígeno en la atmósfera es, sin duda alguna, el cambio más importante que ha sufrido el ambiente del planeta a lo largo de su historia, y ese cambio fue propiciado por la evolución de las cianobacterias, un grupo cosmopolita de bacterias fotosintéticas que aparecieron en la tierra hace 3500 millones de años. En el proceso fotosíntético, el COg del aire es transformado en hidratos de carbono mediante la energía lumínica del sol. La reducción química del CO2 a hidratos de carbono requiere la incorporación de átomos de hidrógeno. Las primitivas bacterias fotosintéticas incorporaban el hidrógeno en forma de sulfuro de hidrógeno (HgS) procedente de la actividad volcánica, cuya disponibilidad era progresivamente limitada. Había otra fuente de hidrógeno mucho más abundante, el hidrógeno del agua (HgO), pero la limitada capacidad de absorción de energía lumínica de las primitivas bacterias fotosintéticas no les permitía romper los fuertes enlaces que unen los átomos de hidrógeno y oxígeno en la molécula de agua. En estas condiciones, las cianobacterias «inventaron» un nuevo tipo de fotosíntesis, la fotosíntesis oxigénica, la misma que desarrollan hoy en día todas las algas y plantas terrestres. El nuevo proceso fotosíntético les permitía absorber luz solar de mayor energía (menor longitud de onda) y, por tanto, romper la molécula de agua y utilizar el hidrógeno del agua como fuente de electrones para reducir la molécula de COg. La consecuencia inmediata de la ruptura de la molécula de agua era el desprendimiento a la atmósfera del oxígeno residual, un hecho que resultó trascendental para la posterior evolución de la vida sobre el planeta. Inicialmente, el oxígeno residual sería absorbido por los metales y minerales oxidantes presentes en la superficie de la tierra, pero al cabo de millones de años, el oxígeno empezó a acumularse en la atmósfera. La red de interacciones de los ecosistemas microbianos tuvo que reajustarse y adaptarse a la presencia del oxígeno, muchas especies bacterianas sensibles al oxígeno debieron desaparecer, pero otras fueron capaces no sólo de adaptarse a él y tolerar su presencia, sino de utilizarlo en su beneficio en el proceso respiratorio. De esta forma se cerró el ciclo bioenergético que ha sustentado la vida en el planeta desde entonces: la fotosíntesis, consumidora de COg y productora de oxígeno, y la respiración, productora de CO2 y consumidora de oxígeno (Fig. 1). La llamada «revolución del oxígeno» es quizás el ejemplo más notable de como la evolución de los seres vivos modifica el ambiente y de como esa modificación del ambiente influye posteriormente, de forma significativa, en la evolución de los propios seres vivos, pero no es el único ejemplo. Así, se ha propuesto recientemente, que el desarrollo de las hojas de las plantas terrestres se produjo como consecuencia de un masivo descenso de la concentración de COg en la atmósfera durante el periodo Devónico ( 363-410 millones de años), el cual, a su vez, fue consecuencia de la aparición de las primeras plantas terrestres, que no tenían hojas desarrolladas (11). Y un ejemplo mucho más cercano lo tenemos en el efecto de nuestra propia especie sobre las condiciones ambientales del planeta, la cual está propiciando una masiva extinción de especies (12). La comprensión del proceso evolutivo requiere un cambio de coordenadas de observación, un cambio de mentalidad, requiere pasar de las partes al todo. La evolución no es un sumatorio de pequeños cambios en las distintas especies, sino un proceso global que afecta a toda la biosfera, es decir, a los seres vivos y a su entorno. En palabras de James Lovelock «Tan íntimamente vinculada está la evolución de los organismos vivos con la evolución de su entorno, que juntos constituyen un único proceso evolutivo» (13). La necesaria revisión de las ideas evolutivas no sólo está propiciada por la nueva visión holística de los organismos y de la vida, sino también por los nuevos descubrimientos de la Biología Molecular que está poniendo de manifiesto una complejidad del genoma muy alejada de la clásica visión mendeliana de una disposición lineal de genes independientes, sobre la que se edificó la teoría neodarwinista. Por el contrario, el genoma aparece como una red altamente compleja de genes interconectados, sujetos a múltiples regulaciones en cascada, con secuencias móviles capaces de transponerse y reordenarse. Los viejos dogmas de la Biología Molecular van cayendo uno tras otro a medida que avanza el conocimiento del genoma. Hoy sabemos, por ejemplo, que un mismo gen puede dar origen a diferentes proteínas, según se eliminen y procesen sus secuencias no codificantes (intrones) que aparecen intercaladas entre las secuencias codificantes (exones). Este hecho viene a echar por tierra la vieja idea de «un gen, una proteina». Hay aspectos del genoma, como las modificaciones epigenéticas o la presencia de elementos transponibles que pueden tener una clara incidencia evolutiva. Las modificaciones epigenéticas no implican un cambio en la secuencia de nucleotides del ADN, sino que consisten en la unión reversible de ciertos grupos químicos al ADN, como puede ser la unión de grupos metilo a los nucleotides de citosina, o en la unión de proteínas que forman un complejo con el ADN. Estas modificaciones epigenéticas que alteran la capacidad de transcripción de los genes, ocurren con más frecuencia que los cambios genéticos, y pueden ser heredadas a través de la línea germinal (14). Estas modificaciones epigenéticas pueden dar lugar a cambios morfológicos heredables, como se ha demostrado en el caso de la planta Linaria vulgaris en la que la metilación de un gen es la responsable de un cambio en la simetría floral, de una simetría bilateral a una Hacia un nuevo concepto de evolución simetría radial (15). Ello indica que este tipo de modificaciones, que no afectan a la secuencia de nucleotides de un gen pero si a su expresión, puede haber jugado un papel importante en la evolución. La secuenciación de los genomas de distintos organismos ha puesto de manifiesto la extraordinaria abundancia de elementos transponibles en el ADN, tanto transposones de ADN como retrotransposones. Estos últimos son elementos que pueden saltar de un lado a otro del genoma a través de un mecanismo que implica varios pasos. En primer lugar se transcriben en un ARN intermediario, posteriormente, y por acción de una transcriptasa inversa, se forma una copia de ADN a partir de ese ARN intermediario, y finalmente, la copia de ADN se inserta en cualquier lugar del genoma. Existen distintos tipos de retrotransposones ( 16) como los LINE (long interspersed elements), que se transcriben a partir de un promotor interno y que codifican proteinas necesarias para la retrotransposición. Otros como los LTR (long terminal repeats) tienen una estructura genómica similar a la de los retrovirus. Cerca de un 40% del genoma humano está constituido por retrotransposones (17). Muchos de estos transposones parecen estar inactivados por modificaciones epigenéticas, sin embargo, hay evidencias, tanto en plantas (18) como en animales (19) de que este silenciamiento de los transposones puede ser imperfecto o verse alterado por la mutación de algún gen, lo que conduce a una activación del retrotransposón, lo que puede interferir en la transcripción de otros genes y dar origen a variaciones fenotípicas, incluso entre organismos genéticamente idénticos, que pueden ser heredables por vía no mendeliana (19). Estas modificaciones inducidas por los cambios epigenéticos y por la activación de los retrotransposones, recuerdan más a la denostada herencia de caracteres adquiridos de Lamarck, que a la típica herencia mendeliana. Parece claro que estamos aún muy lejos de comprender la extraordinaria complejidad del genoma y de las interacciones que en él se producen, y más lejos aún de comprender las infinitas interacciones moleculares que determinan los patrones de organización de los seres vivos, pero resulta cada vez más evidente la necesidad de hacer una profunda revisión de las ideas evolutivas. El papel de las bacterias en el proceso evolutivo de la vida es uno de los aspectos que requieren una revisión en profundidad dentro de las teorías evolutivas. El mundo bacteriano ha sido el gran desconocido en los estudios evolutivos. Cuando se leen libros sobre evolución parece como si las bacterias nunca hubiesen existido y la evolución se hubiese iniciado en la famosa explosión del Cámbrico en la que aparecen representados en el registro fósil todos los filum del reino animal. Las únicas referencias al mundo bacteriano son para decir que surgieron hace 3500 millones de años, o incluso para decir que durante 3000 millones de años no se produjeron grandes cambios evolutivos sobre la tierra, ya que las bacterias no han cambiado mucho desde entonces. Esta falta de atención y de interés en la evolución bacteriana es fruto de una visión reduccionista de la evolución, según la cual lo único interesante desde el punto de vista evolutivo son los cambios genéticos y morfológicos de las distintas especies de plantas y animales. Pero, como dijimos anteriormente, lo que evoluciona es el conjunto de la vida y el entorno que la sustenta, y la evolución de la vida -incluidos plantas y animales-y de su entorno no pueden comprenderse al margen de los acontecimientos que ocurrieron en el Precámbrico, tanto en el periodo Arcaico como en el Proterozoico, pues a lo largo de 3000 millones de años -las 5/6 partes de la historia de la vida sobre la tierra-, la larga y lenta evolución bacteriana cambió radicalmente las condiciones de la tierra, propiciando así la posterior aparición de las formas de vida más complejas. La radiación evolutiva de las bacterias dio origen a todas las formas de nutrición que hoy existen y a la maquinaria metabólica de las células. El desarrollo de todas las formas de nutrición tuvo como consecuencia un hecho trascendental: se cerraron los ciclos biogeoquímicos del planeta, lo que permitió a la vida independizarse de la síntesis abiótica de materia orgánica y hacerse autosuficiente. La actividad secuencial y acompasada de los organismos fotosintéticos, heterótrofos, saprofitos y quimiosintéticos permitió y permite que la materia se recicle y pueda utilizarse de forma indefinida. Otra consecuencia formidable de los cambios metabólicos bacterianos, fue el ya comentado cambio en la composición de la atmósfera -la «revolución del oxígeno»-que no sólo posibilitó la aparición de los complejos organismos aerobios, gracias a la posibilidad de disponer de eficientes mecanismos de obtención de energía, sino que además dio origen a la formación de la ozonosfera, la cual, al detener la mayor parte de la radiación ultravioleta, posibilitó la salida de la vida a tierra firme y su desarrollo en el ambiente terrestre. Si hoy estamos aquí, respirando oxígeno y caminando por tierra firme, se lo debemos al hecho de que hace miles de millones de años un pequeño grupo de bacterias modificó ligeramente su aparato fotosintético y empezó a utilizar el hidrógeno del agua como donador de electrones fotosintéticos. Pero no sólo el aire que respiramos se lo debemos a las bacterias, sino que también el orgánulo celular que nos permite utilizar el oxígeno del aire para obtener energía del alimento que ingerimos -la mitocondria-, es fruto de la evolución bacteriana y del proceso de simbiosis que condujo a la formación de la célula eucariota. A la vista de todo esto, decir que no hubo cambios significativos en el proceso evolutivo durante los primeros 3000 millones de años de vida en el planeta, porque los organismos procariotas no han cambiado mucho desde entonces, sólo puede ser reflejo de una visión deformada y simplista de la evolución. Algunas evidencias geológicas en la formación de Isua en Groenlandia sugieren la existencia de vida hace 3800 millones de años (20). Los microfósiles bacterianos más antiguos se han encontrado en la región de Pilbara en Australia (21) y en la región de Barbenton Mountain Land en Suráfrica (22) y están datados en 3500 millones de años, en el inicio del periodo Arcaico del Precámbrico (3960 --2500 millones de años). También se han encontrado en las mismas zonas estromatolitos fósiles (formaciones órgano-sedimentarias laminadas formadas por la precipitación de sedimentos como resultado de la actividad bacteriana) (23). Así mismo, hay evidencias isotópicas de la presencia de bacterias reductoras de sulfato en ese mismo periodo (24). La presencia de estromatolitos y de microfósiles bacterianos es mucho más abundante en las formaciones datadas en el Proterozoico (2500-540 millones de años). Fósiles de este periodo se han encontrado en distintas partes del mundo (25,26). Los detallados estudios morfométricos de estos fósiles han puesto de manifiesto su estrecha semejanza con especies actuales de cianobacterias unicelulares y filamentosas (25,27). La semejanza morfológica entre las cianobacterias actuales y las fósiles no implica necesariamente que estas últimas desarrollaran una fotosíntesis oxigénica similar a la de las cianobacterias actuales. Sin embargo, hay abundantes evidencias geológicas que indican la presencia de oxígeno en las aguas someras del Precámbrico, en cantidades superiores a las que podrían explicarse en base a la disociación de la molécula de agua por la radiación ultravioleta y que, por tanto, deben tener un origen biológico (23). Así pues, todas las evidencias indican la presencia de bacterias fototróficas, incluidas cianobacterias, hace 3500 millones de años y además indican, al menos en el caso de las cianobacterias, que esas bacterias primitivas eran tremendamente parecidas a las actuales en morfología y metabolismo. Todo ello nos indica un «tempo» y un modo evolutivo muy diferente a los característicos de los organismos complejos del Fanerozoico (25). La evolución durante el Fanerozoico se caracteriza por unas «reglas de juego evolutivo» basadas en la especiación la especialización y la extinción (28). Es decir, una evolución caracterizada por una relativamente rápida capacidad de cambio, que afecta a la morfología de órganos y estructuras, y que permite la especialización de los organismos para la explotación de nichos ecológicos particulares. Como resultado de esa especialización ecológica, la evolución del Fanerozoico estuvo puntuada por sucesivos episodios de extinción, seguidos cada uno de ellos por la radiación adaptativa de los linajes supervivientes. Por el contrario, las «reglas del juego evolutivo» durante el Precámbrico se basan en la especiación, la generalización y la larga supervivencia (25). Es decir, la evolución en el Precámbrico presenta una rápida diversificación inicial, basada más en cambios bioquímicos que morfológicos, seguida de un larguísimo periodo de estasis evolutivo de miles de millones de años sin cambios aparentes. Esa capacidad de sobrevivir a las grandes extinciones masivas es fruto de una estrategia generalista, de baja especialización y gran versatilidad ecológica. Como se ve, las reglas del juego evolutivo de las bacterias no encajan excesivamente bien en el esquema de cambio gradual y selección natural propuesto por el neodarwinismo. Transferencia lateral de genes Cuando una célula o un organismo se reproduce, transmite a su descendencia la información genética necesaria para su desarrollo. La transferencia de genes de padres a hijos es una transferencia vertical y es la única que se ha tomado en consideración hasta ahora en los esquemas evolutivos neodarwinistas. En los casos de reproducción sexual, la transferencia vertical de genes va acompañada de recombinación génica a través de los procesos de meiosis y de fusión de los gametos, en el que se mezclan los genomas paterno y materno. En el caso de reproducción asexual, la transferencia vertical de genes no va acompañada de recombinación génica. Sin embargo, en las bacterias se conocen desde hace tiempo fenómenos de parasexualidad, mediante los cuales un organismo adquiere información genética de otro organismo, en un proceso independiente de la reproducción (Fig. 2). Como consecuencia de estos procesos el organismo receptor adquiere nuevos genes que podrá transmitir posteriormente a su descendencia. Estos procesos de parasexualidad suponen una transferencia lateral u horizontal de genes, ya que no se transmiten de una generación a otra, sino dentro de una misma generación. Se conocen tres mecanismos básicos de transferencia lateral de genes: la transformación, mediante la cual una bacteria capta ADN que se encuentra libre en el entorno que rodea a la bacteria; la transducción, mediante la cual una bacteria adquiere ADN exógeno a través de un vector vírico, que previamente ha infectado a otras células e incorporado parte de su ADN; y la conjugación mediante la cual una bacteria entra en contacto con otra, mediante un pelo o «fimbriae», e incorpora parte del ADN de la misma a través de la transferencia de un plásmido. Algunos de los fragmentos de ADN, adquiridos a través de estos procesos de transferencia lateral de genes, se recombinan con los genes propios de la bacteria receptora, mientras que otros son transferidos de nuevo a otras células Mediante estos procesos de transferencia horizontal de genes, cualquier bacteria puede adquirir genes procedentes de otras bacterias, que le permiten desarrollar actividades para las que su propio ADN no lleva información. De esta forma, el mundo bacteriano es mucho más flexible y presenta mayor capacidad de adaptación que el mundo de los organis-mos eucariotas, lo que, sin duda alguna, ha contribuido a su larga supervivencia sobre la Tierra. La amplitud de la transferencia lateral de genes supone un grave problema para la taxonomía bacteriana, hasta el punto de que se ha llegado a proponer que el concepto de especie no es de aplicación en el mundo bacteriano (29). Como dicen Margulis y Sagan (8): «si todas las cepas bacterianas pueden compartir sus genes, podríamos decir, en el más estricto sentido, que en el mundo bacteriano no se dan las especies verdaderas». La transferencia lateral de genes se produce por doquier en el mundo bacteriano. Hay evidencias filogenéticas de transferencia lateral de genes entre eubacterias y arqueobacterias (30)(31)(32). Así mismo hay evidencias de que a través de ella los primitivos eucariotas, evolucionados a partir de las arqueobacterias, adquirieron genes bacterianos que les resultaron decisivos para su metabolismo (31). Esta capacidad de intercambio de genes bacterianos de unas especies a otras hace, por tanto, muy difícil, por no decir imposible, deslindar las etapas iniciales de la evolución bacteriana y siembra dudas razonables sobre la coherencia del árbol filogenético de la vida, al menos en sus raíces (30)(31)(32). Los tres procesos de parasexualidad o de transferencia lateral de genes se conocen desde hace tiempo, de hecho, los famosos experimentos de Griffith en los años 20 y de Avery en los años 40 sobre la transformación de neumococos han pasado a la historia de la Biología ya que gracias a ellos se demostró que el ADN es el portador de la información genética. Estos procesos están también en la base de toda la tecnología molecular y de la ingeniería genética, ya que permiten la transferencia de ADN de unos organismos a otros. Además, son también los responsables de la transmisión de la resistencia a los antibióticos, proceso bien conocido en todos los hospitales desde los años 70. Sin embargo, y hasta estos últimos años, la transferencia lateral de genes nunca había sido tomada en consideración desde el punto de vista evolutivo. ¿Qué implica desde el punto de vista evolutivo la transferencia lateral de genes?. A través de estos procesos un organismo adquiere a lo largo de su vida una información genética de otro organismo, lo que le permite expresar nuevos caracteres y transmitirlos posteriormente a su descendencia. Eso es simplemente un mecanismo de herencia de caracteres adquiridos. No tiene exactamente las connotaciones que le dio Lamarck, porque, entre otras cosas, Lamarck, al igual que Darwin, desconocía todo lo relativo a los mecanismos de la herencia. Es evidente que lo que se adquiere y se transmite no es una simple modificación fenotípica, sino una modificación genotípica con su correspondiente reflejo fenotípi-Hacia un nuevo concepto de evolución CO, pero no por ello deja de ser una herencia de caracteres adquiridos. ¿Se produce esa transferencia lateral de genes como una respuesta adaptativa a las exigencias del ambiente?. Es pronto para poder afirmarlo con certeza, pero al menos en algunos casos parece que así es. En cualquier caso, la evolución bacteriana, al igual que la tendencia a la complejidad de los sistemas disipativos de energía que se comentó anteriormente, parecen hacer necesaria una revisión no dogmática de alguna de las ideas evolutivas de Lamarck. La pregunta que surge inmediatamente es si la transferencia lateral de genes entre bacterias y organismos eucariotas ha seguido produciéndose a lo largo del proceso evolutivo o fue un fenómeno exclusivo de las primeras etapas de la evolución. La idea general es que la adquisición de las líneas de células germinales en los organismos pluricelulares de reproducción sexual, les blindó frente a la transmisión hereditaria de los posibles genes adquiridos lateralmente (31). Sin embargo, la publicación del primer borrador del genoma humano ha puesto una sombra de duda sobre si no existe, o ha existido una transferencia lateral de genes entre bacterias y organismos pluricelulares eucariotas. El análisis del genoma humano ha puesto de manifiesto la existencia en el mismo de 223 genes que codifican proteínas que tienen una similitud significativa con proteínas bacterianas y que no tienen similitud con proteínas de ninguno de los otros organismos pluricelulares cuyo genoma ha sido secuenciado. Al menos 113 de esos genes están ampliamente difundidos entre las bacterias, pero, entre los eucariotas, sólo parecen estar presentes en los vertebrados (17). Una posibilidad, que parece haberse visto confirmada en el caso de alguno de ellos (33,34), es que esos genes estuvieran presentes en el genoma de los primitivos procariotas y eucariotas, pero que se hubieran perdido en muchos de los linajes de los de los diferentes grupos de eucariotas. La otra posibilidad, no descartable por el momento, es que esos genes llegaran al linaje de los vertebrados por transferencia horizontal a partir de bacterias. En cualquier caso, la transferencia lateral de genes al genoma de vertebrados a partir de otros organismos ha ocurrido en múltiples ocasiones, como se deduce de la repentina llegada al ADN humano de muchos transposones de ADN con estrechas similitudes a otros organismos (17,35). Dada la capacidad de los transposones de ADN de inducir reordenamientos cromosómicos a gran escala, es posible que estuvieran implicados en los eventos de especiación (17). De confirmarse estos datos, la trascendencia evolutiva de la transferencia lateral de genes sería enorme, pero aunque no fuera así, y el fenómeno de la transferencia lateral de genes quedara circunscrito al mundo bacteriano, ello no sería óbice para no tenerlo en cuenta a la hora de plasmar una teoría evolutiva, ya que afecta, cuando menos, a dos de los tres Dominios de seres vivos. La simbiosis es un proceso mediante el cual dos organismos diferentes se juntan y forman una asociación estable. El primer gran salto evolutivo hacia la aparición de formas de vida más complejas se produjo hace unos 2000 millones de años y tuvo lugar a través de una simbiosis entre bacterias. Una bacteria aerobia, que utilizaba el oxígeno para extraer energía de la materia orgánica, entró en el interior de otra y entre las dos establecieron una asociación cooperativa. Con el paso del tiem.po este consorcio bacteriano se hizo tan interdependiente que llegó a funcionar como un solo organismo integrado, de forma que buena parte de los genes de la bacteria invasora -la actual mitocondria-se transfirieron lateralmente al genoma de la bacteria hospedadora. De esta forma, la bacteria aerobia entregó una parte vital de si misma -sus genes-a la custodia de la célula hospedadora a cambio de suministrar la energía necesaria para el funcionamiento del nuevo organismo integrado y de metabolizar el oxígeno tóxico que las rodeaba. No sabemos como se produjo la entrada de una bacteria en el interior de otra, pero si sabemos que ello es posible porque recientemente se ha descrito la existencia de bacterias endosimbiontes que viven en el interior de otras bacterias (36). Este proceso simbiótico no fue un hecho aislado porque volvió a repetirse poco después, implicando en este caso a una bacteria fotosintética. De nuevo, la bacteria fotosintética invasora -el actual cloroplasto-cedió una parte de sus genes a la bacteria hospedadora a cambio de suministrar energía y materia orgánica al nuevo organismo integrado. Estos consorcios bacterianos descubrieron que la cooperación entre ellos era más ventajosa que la competencia, y así, organismos separados se convirtieron en uno solo, creando una totalidad que era mayor que la suma de las partes. En sus inicios, la teoría del origen endosimbionte de mitocondrias y cloroplastos fue muy contestada, pero los datos que la confirman son cada vez más abrumadores y hoy en día prácticamente nadie duda de ello. El árbol filogenético basado en la secuenciación del ARN ribosómico confirma también que mitocondrias y cloroplastos se originaron a partir de especies endosimbiontes del Dominio Bacteria (37). Las mitocondrias tiene su origen en el grupo de las proteobacterias alfa, grupo que incluye Hacia un nuevo concepto de evolución a otras bacterias simbiontes como Agrobacterium y Rhizobium, En cuanto a los cloroplastos, el árbol evolutivo los coloca con un antepasado común con las cianobacterias. El origen de la célula hospedadora no está, sin embargo, tan claro. Pudiera tratarse de organismos similares a los actuales protistas sin mitocondrias o, como opina Lynn Margulis (8), podría tratarse de arqueobacterias semejantes a Thermoplasma o Sulfolobulus. Sea cual sea el origen de la célula hospedadora, lo que no cabe duda es que la simbiosis que condujo a la formación de estos orgánulos fue un hecho trascendental en el proceso evolutivo de la vida. Pero la simbiosis no es un hecho aislado que se sitúe en los orígenes de la célula eucariota, sino que aparece por doquier en la naturaleza, tal es el caso de los liqúenes (algas y hongos), o de los arrecifes de coral (celentéreos y algas dinoflageladas), o de la asociación entre leguminosas y bacterias del genero Rhizobium, o el caso de las bacterias que viven en simbiosis en el interior del aparato digestivo de muchos animales. Además, están bien documentados los casos de simbiosis secundarias, como el de distintos grupos de algas que adquirieron sus cloroplastos a través de una endosimbiosis secundaria en la cual incorporaron otra alga eucariota y la rodearon de membranas del retículo. En algunos casos, como en las criptomónadas, los cloroplastos adquiridos por endosimbiosis secundaria conservan su propio núcleo, aunque éste contiene un genoma de pequeño tamaño, posiblemente debido a una pérdida o a una transferencia de genes a lo largo del proceso evolutivo (38). Parece que la tendencia a la cooperación no es un hecho aislado en la naturaleza. Todas estas consideraciones indican que la simbiosis ha sido y sigue siendo una importante fuerza conductora de la evolución, aunque su importancia no ha sido reconocida por el neodarwinismo. A través de este mecanismo, se complementan las capacidades metabólicas y las características vitales de los organismos que participan en ella, formando un conjunto cuyas propiedades son mayores a las de la suma de las partes. La simbiosis supone una ventaja selectiva para los organismos que se enfrentan a ambientes cambiantes. La estrecha proximidad de los participantes en la simbiosis crea oportunidades para la coevolución de los genomas y para la transferencia lateral de información genética. La simbiosis es, por tanto, una asociación cooperativa entre dos organismos en los que ambos se benefician y de la que surge una estructura nueva, más compleja, y con propiedades emergentes que no tienen ninguno de los asociados por separado. La idea de la cooperación como fuerza evolutiva, choca frontalmente con la idea darwinista de la lucha por la vida y la competencia como motor de la evolución a través de la selección natural, sin embargo, los hechos están ahí y nos muestran claramente la importancia de la cooperación en el proceso evolutivo. La vida se organiza en niveles de complejidad creciente: los orgánulos en células; las células en tejidos y órganos, los órganos en organismos, los organismos en sociedades etc. Esta estructuración de la materia viva hace que cada estructura viva tenga un comportamiento dual: es un todo y una parte a la vez. Es un todo en su propio nivel de organización y es una parte del nivel de organización superior. Como «todo» tienen que competir con otros «todos» para mantener su espacio vital; como parte tiene que cooperar con las otras partes para raantener con vida al nivel de organización superior, ya que de la supervivencia de éste, depende su propia supervivencia. La vida no es sólo competencia como nos han querido hacer ver, la vida, como proceso unitario es sobre todo cooperación, un delicado equilibrio entre la cooperación de las partes y la competencia de los todos. La evolución depende en último término de ese delicado equilibrio entre los dos términos opuestos, pero complementarios. En definitiva, el vertiginoso avance del conocimiento científico en los últimos cincuenta años ha dejado desfasado el concepto neodarwinista de la evolución. La evidencias de las grandes catástrofes planetarias y del registro fósil son poco compatibles con la idea de un cambio gradual. La nueva visión del genoma como una compleja red de interacciones de genes que se regulan unos a otros, los procesos de regulación epigenética, la modularidad de los grandes complejos proteicos, la abundante presencia de transposones y retrotransposones, las diferentes pautas de lectura de un gen a través del procesamiento del ARN mensajero y la transferencia lateral de genes, son algunos de los aspectos que emergen del conocimiento del genoma y que son difícilmente compatibles con la idea de la lenta acumulación de mutaciones como motor de la variabilidad genética. Todo ello, unido a la evidencia de que el mundo bacteriano ha seguido un «tempo y un modo» evolutivos diferente al de los organismos complejos del Fanerozoico y de que la simbiosis ha sido una de las grandes fuerzas motoras de la evolución y que, por tanto, la asociación y la cooperación constituyen una fuerza evolutiva tan importante o más que la competencia y la selección natural, ponen de manifiesto claramente la necesidad de una profunda revisión de los conceptos evolutivos. Revisión que debería plantearse desde la perspectiva holística de la teoría de sis- Eduardo Fernández Valiente Eduardo Fernández Valiente Eduardo Fernández Valiente Eduardo Fernández Valiente Eduardo Fernández Valiente Eduardo Fernández Valiente Eduardo Fernández Valiente Hacia un nuevo concepto de evolución temas y desde la comprensión de la Evolución como un proceso unitario que abarca al conjunto de la biosfera, en sus aspectos bióticos y abióticos. La Biología se encuentra en un momento clave de su historia, similar al que se vivió en el mundo de la Física a principios del siglo XX, cuando se constató que la mecánica de Newton no era de aplicación al mundo del átomo y surgieron nuevos conceptos y teorías como la mecánica cuántica y la relatividad. Ha llegado el momento de despojar a la Evolución de ideologías y de dogmatismos y dejar que las ideas evolutivas evolucionen a la luz de los nuevos descubrimientos.
Se presenta una discusión del papel actual de la paleontología en el estudio de la evolución orgánica. Diferentes descubrimientos, tanto teóricos como empíricos, están cuestionando algunos de los principios básicos del paradigma neo-darvinista. La irrupción de la genética del desarrollo y la noción de procesos que limitan el potencial de variación del fenotipo han abierto nuevos programas de investigación. Desde la paleontología se desarrollan los fundamentos de una teoría macroevolutiva. El estudio de la morfología, un tema clásico de las ciencias naturales, vive un resurgir a la luz de los nuevos datos y enfoques. Quedan, no obstante, importantes incógnitas por resolver ante la pregunta de cómo y porqué cambian los organismos. La integración de los nuevos datos de la neontología en un contexto temporal amplio (tiempo geológico) proporciona a la paleontología una función importante en el momento actual de la investigación en biología evolutiva. La comprensión de la complejidad de un planeta Tierra en constante cambio solo es posible mediante la investigación de los procesos naturales que operan a diferentes escalas espacio-temporales. Solo la Paleontología accede a escalas de interacción de los procesos bióticos y físicos que excedan tiempos superiores a unos pocos cientos de años. Una dimensión temporal amplia en la investigación de las dinámicas de la vida no es solo un complemento al conocimiento; en muchas ocasiones es sencillamente imprescindible. Las pruebas de la realidad física de la evolución proceden de cuatro disciplinas clásicas de la biología: la Anatomía Comparada, la Embriología, la Biogeografía y la Paleontología. De estas disciplinas, la Paleontología proporciona la evidencia más tangible del cambio de los organismos a lo largo del tiempo. Sin embargo, una vez superada la constatación de lo evidente del fenómeno de la evolución, la ciencia trata de profundizar en el conocimiento de las causas y mecanismos que operan en la naturaleza. Y los paleontólogos nos preguntamos ¿qué papel juega la Paleontología en el conocimiento de los procesos y las causas de la evolución? La Comunidad Europea y el gobierno de los Estados Unidos han solicitado en los últimos años informes detallados sobre la pertinencia de la investigación en diferentes áreas, entre ellas la Paleontología (Fergurson, 1997; Futujmaa et al., 1997). Lejos de verse socavada en sus apoyos formales, la Paleontología emerge como una disciplina de futuro (Jablonski, 1999). El sentido de la Paleontología La paleontología es la ciencia de los fósiles. Es decir, la disciplina científica que usando como objeto material de estudio los restos y/o señales de organismos del pasado, aborda todas aquellas cuestiones relacionadas con la historia de la vida en la Tierra y sus aplicaciones a otros saberes. Formalmente, la paleontología ha sido subdividida en tres disciplinas básicas: la biocronología, la tafonomía y la paleobiología (ver Fernández López, 1989; López-Martínez y Truyols, 1994). En este trabajo nos centraremos en la paleobiología, cuyo objetivo más general versa sobre la reconstrucción y estudio de la historia de la vida. Esta puede ser entendida como una sucesión de acontecimientos en la historia de los distintos linajes de la vida. Y puede, además, ser entendida como un entramado de procesos bióticos y abióticos a la espera de descubrir sus relaciones, sus causas y las variables que los rigen. Ambas aproximaciones son necesarias y complementarias, aunque quizá una aproximación procesual presenta en la actualidad un mayor atractivo. En la práctica, las diferentes aproximaciones a la paleobiología puede ser resumidas en un triple proceso: identificar los eventos bióticos del pasado, conocer los procesos que los han modelado y reconstruir los medios ecológicos donde se han producidos estos. En el contexto del paradigma del neo-darvinismo, la paleontología ha sido objeto de fuertes críticas epistemológicas que han desembocado en cuestionarse el valor de los estudios paleontológicos. Dos son los argu-Programas de Investigación en Paleobiología y Teoría evolutiva mentes sobre los que han recaído estas críticas. Por un lado, la imperfección del registro fósil, aludiéndose que la falta de registro puede proporcionar una imagen sesgada del tempo y la secuencia real de los acontecimientos evolutivos. Por otro, se ha argumentado que los procesos evolutivos no fosilizan; es decir, que los procesos solo se pueden abordar en lo vivo. En este paradigma todo lo que la paleobiología puede hacer respecto a los estudios evolutivos es que sus datos no contradigan lo que genéticos y evolucionistas sugieren (Huxley, 1942). En este caso la paleobiología solo puede aspirar a proporcionar fósiles interesantes y documentación. Una defensa a estas críticas a la paleontología evolutiva se puede argumentar en torno a planteamientos generales. La ciencia actual tiende a un planteamiento reduccionista al buscar las causas de los fenómenos naturales, en este caso biológicos, en sus bases moleculares y bioquímicas. Por el contrario, la paleontología trata con procesos que se extienden en escalas temporales muy superiores a las que aborda la neontología, circunstancia por la que sus estudios tienden hacia una perspectiva más holística. Sin embargo, al margen de discusiones generales, en un ambiente altamente competitivo por la consecución de fondos para la investigación, el interés de una disciplina debe estar especialmente bien definido. En este sentido recientemente se han elaborado una serie de informes por comités de expertos para responder a la pregunta: ¿que puede aportar la paleontología a la ciencia del siglo XXI? Fergurson (1997), en un informe para la Unión Europea, responde con una serie de argumentos resumidos en los siguientes puntos. La paleontología representa uno de los pilares sobre los que se sigue construyendo la teoría evolutiva. Costaría mucho trabajo mantener la teoría evolutiva sin la información que proporciona el registro fósil. Desde un punto de vista teórico, el modelo del equilibrio puntuado da una nueva visión del proceso evolutivo de lo que cabe esperar en el registro fósil; no cabe esperar toda la serie gradual de cambios de forma que propone el esquema gradualista. Además, los datos del registro fósil son un modo de testar hipótesis filogenéticas, hoy más necesarias que nunca; por ejemplo, las filogenias moleculares. El registro fósil es único e imprescindible al ser la única fuente de datos del registro histórico de la vida que contempla tiempos de ordenes de magnitud inaccesibles a otras disciplinas. En este sentido, la paleontología proporciona una información vital sobre cambios en climas y ecosistemas del pasado. En otro orden de cosas, el estado de preservación de los fósiles -tafonomía-proporciona información sobre diagénesis y tectónica. Además, los fósiles se usan para datar secuencias geológicas. Interés genuino y legítimo de nuestra especie por conocer nuestros ancestros. Todos los informes consultados coinciden en señalar que la paleontología humana es una disciplina con la suficiente entidad para justificar el ser uno de los pilares de la paleontología. La paleontología humana es, además, un una ciencia básica, y en cierto modo aplicada, puesto que tiene un rendimiento inmediato en la cultura, con implicaciones en ética y derecho. La paleontología humana arrastra y da trabajo a otros paleontólogos. Hoy en día no se entiende el estudio de la evolución humana sin el concurso de otras especialidades paleontológicas y ciencias afines tales como las de mamíferos, pólenes, zooarqueología, etc. El aspecto que más nos ocupa en esta ocasión concierne al desarrollo de la teoría evolutiva. La vida es un fenómeno histórico y como tal solo es posible comprender mejor su naturaleza bajo la integración de los datos disponibles en un contexto temporal. Por eso se dice que la evolución es la única teoría capaz de abarcar y dar sentido a las múltiples disciplinas de la Biología. En un momento de intenso debate intelectual, en un documento elaborado por 8 importantes sociedades científicas de USA, destinado a los responsables de la política científica de aquel país, resimien las siguientes áreas de investigación para el desarrollo futuro de la teoría evolutiva: 1.-seguir documentando la historia de la diversidad; 2.-Tasas de extinción, el fenómeno de la extinción en masa y recuperación de ecosistemas (con clara repercusión en la gestión de la biodiversidad actual) y 3.-evolución de la forma orgánica y su significado en la existencia de los organismos, aspecto que trataremos en mayor detalle. Causas de la Evolución Durante décadas, la biología evolutiva y la paleobiología han estado dominadas por el paradigma neo-darvinista (también llamado adaptacionista). Dicho paradigma, lejos de haberse agotado, sigue vigente y se desarrolla en ámbitos como la genética de poblaciones, la ecología evolutiva, evolución del comportamiento, etc. Darwin propuso a la selección natural -la supervivencia del más apto-como el agente fundamental del proceso de adaptación. Es decir, la facultad de los organismos para desarrollar las «herramientas biológicas» que les permiten reproducirse y explotar los recursos del medio con la mayor eficacia. Durante los años 40 y 50 del siglo XX, un conjunto de avances científicos dio lugar a la Teoría Sintética o Neo-darvinismo. En esencia, la incorporación de la mutación al azar actuando sobre los genes, entendidos como las unidades elementales de información que se trans-Programas de Investigación en Paleobiología y Teoría evolutiva mite entre generaciones, proporcionó un soporte genético sólido a la teoría de la evolución por selección natural. Además, la acción de la selección natural modulando las frecuencias génicas en el seno de las poblaciones, acorde con criterios de eficacia reproductora, encontraba en el modelo gradual de cambio una base explicativa congruente: natura non facit saltum. Los paleontólogos, por su parte, tradicionalmente han estado en desacuerdo con este principio. En contradicción con el casi universal postulado del cambio gradual sostenido por el darvinismo, el registro fósil muestra discontinuidades en las transiciones morfológicas, revoluciones en las biotas del pasado, además de pautas de cambio sostenidas durante millones de años -las llamadas tendencias evolutivas-, y en otras ocasiones largos períodos de estasis morfológico en las especies. En definitiva, toda una fenomenología del mundo vivo que escapa a la visión unitaria de gradualismo sobre la que se apoya la teoría darviniana de la evolución. Es aquí donde se abrió un abismo entre neontólogos y paleontólogos. Los primeros, equipados con la observación de lo que está vivo y con las poderosas armas de la experimentación, han tendido a comprender la evolución como una extensión en el tiempo geológico de los procesos observables en la actualidad. Los segundos, acostumbrados a manejar la inmensidad del tiempo geológico, tienen ante sus ojos fenómenos de difícil explicación con un simple ejercicio de actualismo. Con la aceptación general de la Teoría Sintética, esta dialéctica desembocó en una incomprensión por parte de la Neobiología hacia la Paleobiología, que terminó relegando a ésta a un papel de mero ilustrador de los principios teóricos que emanaban de disciplinas como la genética de poblaciones. Pero las cosas han cambiado. Desde los años 80, diferentes autores han proclamado con solvencia realidades ignoradas por la Teoría Sintética. El nuevo resurgir de la Paleontología evolutiva ha proclamado la existencia de procesos macroevolutivos; es decir, aquellos que suceden por encima del nivel de especie y que han dado lugar a la diversidad y disparidad de las múltiples organizaciones biológicas ¿Cómo interpreta la teoría sintética los procesos macroevolutivos? La idea es simple: los procesos evolutivos pueden interpretarse como la extensión en largos periodos de tiempo de las leyes que rigen los fenómenos microevolutivos (las dinámicas que ocurren en el seno de las poblaciones). Es la adición de ese ingente tiempo geológico lo que posibilita los grandes cambios. Ante este planteamiento, en los últimos años algunos paleobiólogos se han planteado la pregunta: ¿pueden extrapolarse sin más los procesos que suceden en unos cuantos años a los procesos evolutivos inscritos en un tiempo geológico? La respuesta es no. Existen fenómenos que no son explicables con la extensión en el tiempo de las leyes microevolutivas. Creo que no se exagera si añrmamos que Stephen J. Grould es el autor más influyente en la paleobiología de los últimos 30 años. En un artículo de gran influencia Gould (1995) analiza los pilares del darwinismo y los posibles fundamentos de una teoría de la macroevolución. En su opinión las críticas al neo-darvinismo se pueden articular en tomo a los tres puntos siguientes (Figura 1). Debates actuales en Paleobiología Creatividad de la selección natural Morfoespaeio contíuuo Variación al a^ar A nivel de organisme 3.-Eficacia de la selección natural Extensión de procesos microevolutivos Resumen de la discusión actual sobre teoría evolutiva, en sus vertientes micro y macroevolutiva, basada en la discusión de los tres principios básicos de la Teoría Sintética discutidos por Gould (1995). La creatividad de la selección natural. La selección natural es un agente primordial en evolución. No obstante su papel es eliminatorio. El organismo propone (variación al azar) y el ambiente dispone. ¿Pueden las nuevas formas surgir a través de otros procesos? Los críticos del darvinismo opinan que deben existir otros procesos que expliquen las novedades evolutivas al margen del potencial creativo de la selección natural. Entre las propuestas figuran los procesos de heterocronía y las restricciones del desarrollo. Programas de Investigación en Paleobiología y Teoría evolutiva 2. Niveles a los que actúa la selección natural. El darvinismo sostiene que la selección natural actúa a nivel de los organismos en función de su éxito reproductivo individual. Con la proposición del modelo del equilibrio puntuado (Eldredge & Gould, 1972; Gould & Eldredge) se ha planteado la teoría jerárquica de la selección. Es decir, la selección natural puede actuar a diferentes niveles desde el puramente genético al nivel de especies o ciados (Vrba and Eldredge, 1984). El modelo de la selección de especies, basado en un principio de éxito diferencial en la supervivencia de las especies, es quizá el que más desarrollo ha tenido dentro la paleobiología. Eficacia de la selección natural en extensión. El neo-d£irvinismo sostiene que de las dinámicas de población observadas durante unos pocos años (cambios en frecuenias alélicas), extendidas en el tiempo geológico puede explicar el proceso evoltutivo. Sin embargo, no está nada claro que dicho mecanismo pueda dar cuenta del cambio genealógico en todos los niveles taxonómicos. Gould (1995) señala dos clases de fenómenos que no concuerdan con el principio de extensión. Por un lado, los eventos de gran magnitud que ocurren de forma infrecuente tales como el impacto de meteoritos y su influencia sobre la biodiversidad, la coalescencia de placas continentales, cambios climáticos. Y por otro, procesos que operan a niveles superiores o a tasas mucho más lentas de las que puedan ser detectadas en lo inmediato de la actualidad. Es en este marco donde adquieren su máximo sentido el análisis de la evolución de la diversidad, las tasas de extinción en diferentes linajes y momentos, y recuperación de los ecosistemas y de los diferentes grupos taxonómicos tras una situación de crisis (Kirchner and Weil, 2000; Erwin, 2000) (Figura 2). A juzgar por los trabajos publicados en los últimos años, de los puntos previamente señalados los que más desarrollo intelectual y empírico están alcanzando son los que conciernen a la discusión sobre el papel creativo de la selección natural y la eficacia de la selección natural en extensión. El modelo de selección de especies, por el contrario, parece que no ha propiciado tanta aceptación. Evolución de la forma El estudio de la forma orgánica, su variación y su evolución es un tema clásico de las ciencias naturales que tuvo su mayor explendor en el desarrollo de la Anatomía Comparada. El estudio de la forma siempre ha estado organizado en torno a la dialéctica estructura/función ¿Qué determina la diversidad de los seres vivos? ¿La realización de funciones en un contexto ecológico? ¿o existen leyes que gobiernan la estructura al mar- FIGURA 2. Análisis de la evolución de la diversidad, grandes extinciones y pautas de recuperación de taxones según Kirchner and Weil (2000) (imagen adaptada del diario El País). Programas de Investigación en Paleobiología y Teoría evolutiva gen de las funciones que realizen? Con la aceptación general de la Teoría Sintética, el debate sobre «estructura y función» quedó casi enmascarado por el éxito de la biología funcional. La paleobiología, en este sentido, ha jugado un papel muy importante al seguir planteando desde el estudio del registro fósil cuestiones de esta naturaleza. En la actualidad, la reciente incorporación de datos y conceptos nuevos esta reactivando el problema de la forma, adquiriendo nuevos enfoques. Paradójicamente, el retorno a viejas preguntas viene de la mano de una biología funcional que necesita de la biología comparada y de la paleobiología para poder resolver sus propias cuestiones (Raff, 1996). El progreso en el conocimiento de las leyes de la herencia, apoyada en la biología molecular, ha devenido en una Genética del Desarrollo que converge en sus preguntas con el núcleo mismo de los problemas clásicos de la Anatomía Comparada y la Paleontología (ver Shubin et al., 1997; Carroll, 2000). En la actualidad dos acontecimientos han reactivado el estudio de la morfología. De una parte, la irrupción en escena de la genética y biología del desarrollo con el descubrimiento de los genes reguladores del desarrollo. De otra, la discusión de la validez de las hipótesis filogenéticas construidas con datos moleculares frente a las derivadas de datos morfológicos. El descubrimiento de los genes Hox y su conservación en amplios grupos de organismos nos está permitiendo comprender cómo se establece la información posicional que permite a las células saber su localización en el embrión y por ello como deben diferenciarse. La genética del desarrollo ha revelado un patrón de control genético en la evolución de los caracteres estructurales en metazoos bien distinto del preconizado por la genética mendeliana y de poblaciones. La evolución a gran escala -macroevolución-no es el resultado de selección de alelos alternativos o la acumulación de mutaciones, como preconiza la genética cuantitativa. Más bien parece que los grandes cambios estructurales derivan de la reutilización de un conjunto de redes de genes reguladores genéticamente homólogos. A la luz de estos datos no se puede pretender que la selección natural modele todas las direcciones evolutivas (Gould, 1995). Se pone de manifiesto la necesidad de un diálogo entre los factores externos que llevan a una adaptación y la existencia de limitaciones internas inherentes a la propia organización de los seres vivos. Poco a poco la ciencia va desvelando como los caminos evolutivos potenciales no son ilimitados ya que la propia organización de los sistemas orgánicos impone restricciones sobre el dominio de lo que es posible. He aquí un argumento claramente fuera del darvinismo que puede dar cuenta de fenómenos evolutivos a gran escala como, por ejemplo, las tendencias evolutivas. ¿Cuáles son las causas de esas limitaciones a los procesos evolutivos internas a los organismos? Antonio Rosas González 50 Relaciones entre evolución y desarrollo individual El esclarecimiento de estas cuestiones parece estar íntimamente ligado al estudio de las relaciones ontogenia-filogenia. Es éste un campo de estudios con profimdas raíces históricas que surge de la observación de cómo los caracteres de la forma adulta de las especies aparecen en estados embrionarios de sus hipotéticos descendientes. Como resultado de este tipo de observaciones, se enunciaron las conocidas cuatro leyes de von Baer así como la ley biogenética de Haeckel. Más recientemente, desde la poderosa influencia de la obra de Gould (1977) Ontogeny and Phylogeny, los estudios de heterocronía tuvieron un momento de auge en los pasados años 80. En la actualidad, con la incorporación de la biología molecular y la genética del desarrollo, una nueva disciplina informalmente denominada evo-devo (Evolution and Development; Raff, 1997) ocupa la atención central en la investigación de la evolución de la forma y sus leyes. Una vez constatada la necesidad de considerar factores internos limitantes en la variación disponible, la forma más inmediata de abordar el problema es considerar que la variación a lo largo de las trayectorias ontogenéticas previamente existentes constituye el canal más inmediato para determinar una dirección filética. De aquí que el concepto de heterocronía -modificación de los tiempos y las tasas de desarrollo-haya servido de guía para el estudio de las relaciones ontogenia-filogenia (ver Mc-Kinney, 1988; McKinney y McNamara, 1991). Los estudios sobre heterocronía, muy enraizados en la noción de recapitulación, sin embargo, a considerar el propio proceso de desarrollo como una unidad (aunque el fundamento de los modelos de heterocronía recae en una disociación de los procesos de crecimiento, desarrollo y maduración sexual). En particular, la noción de recapitulación recogida en la ley biogenética, considera que la evolución se ocasiona mediante el mecanismo de adición terminal de nuevos caracteres (es decir, adición de estados al final del desarrollo). La noción e investigación de la heterocronía perdió interés en gran medida por la exagerada proliferación de términos y por su carácter esencialmente descriptivo. Así, la descripción de una transformación morfológica terminaba reduciéndose a un catalogo de términos sin que se pudiera abordar el estudio de su organización (ver Rosas, 1989). El estudio de la organización del fenotipo y su potencial de variación, estrictamente al azar o restringido, se ha aglutinado en torno a la noción de «restricciones del desarrollo» (en inglés, developmental constraints). Se entiende por «constraint»: un sesgo en la producción de variación de Programas de Investigación en Paleobiología y Teoría evolutiva 51 fenotipos o una limitación en la variabilidad fenotípica causada por estructura, carácter, composición o dinámica del desarrollo (ver trabajos en Bonner, 1982; Smith et aL, 1985). Esta noción esta basada en el concepto de canalización y en la metáfora de los paisajes epigenéticos, elaborada por Waddington, en la que el sistema en desarrollo, representado por la bola que se desliza por una ladera, puede descender por una serie de canales previamente determinados (figura 3). Inspirado en esta concepción, las restricciones del desarrollo emergen naturalmente de la dinámica de sistemas complejos, simplemente por dos condiciones: que el sistema implique un elevado número de componentes y que la naturaleza de las interacciones sean no-lineales. Representación gráfica de la metáfora de los paisajes epigenéticos propuesta por Waddington. La bola representa al fenotipo cuyo desarrollo puede tener lugar solo por canales determinados. Alberch (1982) nos propone el siguiente planteamiento. Partiendo de una especie o taxón con un ámbito fenotípico determinado, se dan teóricamente dos posibilidades en su evolución: 1.-si la generación de formas es evolutivamente continua, aparecerá con el paso del tiempo un morfo- espacio mas o menos homogéneamente relleno. 2.-Si solo son posibles ciertas casos entonces el morfoespacio será rellenado de manera discontinua. En torno a este planteamiento se ha desarrollado una morfología teórica basada en la simulación de la forma orgánica mediante modelos matemáticos, para producir morfoespacios teóricos como una base para poder entender la lógica de la distribución de los fenotipos (figura 4). Alberch (1990) propuso que toda manifestación de orden en la naturaleza (desde los eventos de especiación a las tendencias evolutivas), puede deberse a dos posibles conjuntos de causas: por un lado, los procesos de adaptación, y, por otro, las propias limitaciones de la estructura. Qué peso tiene cada una de estas causas no es posible conocerlo a priori: es objeto de investigación (Sterns, 1992). Esta aportación teórica representa, además, un cambio epistemológico de primer orden ya que propone un programa de investigación donde se conjugan un amplio número de disciplinas al reunir las viejas preguntas de la Anatomía Comparada con los avances más recientes de la biología molecular. Incorpora, además, modelos de la teoría de sistemas dinámicos complejos y define un diálogo constructivo entre los paradigmas funcionalista y estructuralista de la evolución. El neo-darvinismo sostiene que el proceso de adaptación es elprimum mouens del cambio evolutivo de la forma. La función es la causa primaria de la forma. La distribución de la diversidad se inscribe en el concepto de paisaje adaptativo, en el que cada fenotipo tiene adscrito un cierto valor de eficacia (fitness). Con el paso del tiempo, las dinámicas del medio ecológico y la selección natural van modulando las trayectorias evolutivas de las especies. La realización de este proceso exige un ejercicio de ensayo y error en el que los organismos produzcan una variación puramente aleatoria, a disposición de la selceción natural, que no esté limitada por su arquitectura genética o de desarrollo. Frente a la interpretación adaptativa de los caracteres cabe plantear la hipótesis de si la aparición de caracteres independientes en diferentes linajes puede significar que la evolución iterativa sea una consecuencia de restricciones actuando sobre la evolución morfológica por medio de la canalización del desarrollo. Eventos evolutivos diferentes que llevan a resultados morfológicos similares no siempre indican una explicación adaptativa común (Wake, 1991). En el ámbito de la paleobiología, la noción de «restricciones del desarrollo» proporciona una base teórica para explicar las discontinuidades morfológicas observadas en el registro fósil. Este constituye el mejor conjunto de datos para contrastar la influencia de un hipotética restricción. La literatura actual ofrece numerosos ejemplos de colaboración e inten- La cooperación entre estos dos campos científicos se sustenta en la premisa de que paleontología nos dice lo que ha pasado realmente en la historia de la vida, mientras que la biología del desarrollo puede desvelar las pautas genéticas a través de las cuales han tenido lugar las transiciones observadas. El registro fósil muestra lo que realmente ha pasado. Esta constatación siempre será del todo necesaria. La necesidad de la filogenia y el efecto de la cladística La biología del desarrollo ha puesto nuevamente sobre el tapete la necesidad de distinguir entre caracteres homólogos y caracteres convergentes. Según comenta Raff (1997), los biólogos del desarrollo han tomado conciencia de la importancia de conocer la filogenia cuando se ha descubierto que genes que juegan papeles centrales en el desarrollo están muy extendidos entre los distintos phyla. Compartir genes reguladores del desarrollo implica un origen común -homología-para trayectorias de desarrollo muy diferentes. Esto plantea una paradoja: ¿cómo es posible que planes corporales tan dispares cómo los de un artrópodo y un vertebrado sean establecidos por los mismos genes reguladores del desarrollo? Para poder develar este tipo de cuestiones es imprescindible disponer de hipótesis filogeneticas robustas sobre las que discutir los diferentes aspectos de la homología. Huelga decir que la cladística es la metodología más extendida para la reconstrucción de filogenias. Tradicionalmente las propuestas filogenéticas proceden del estudio de la morfología, y cuando los fósiles entran en los análisis, se emplean básicamente los caracteres del esqueleto. Desde la proposición de las llamadas filogenias moleculares han surgido numerosas de discrepancias en los resultados procedentes de uno y otro campo. Un buen número de autores reconoce en la actualidad la mayor consistencia de las filogenias moleculares. Sin embargo, hoy por hoy, no es factible la extracción de ADN de los fósiles por lo que el uso de la morfología sigue siendo obligado. Sin embargo, la trascendencia de este debate no es tanto la discusión de si unos datos son mejores que otros, en cuyo caso se llegan a mezclar intereses de gremio. La paradoja reside en la discrepancia tan marcada entre los resultados moleculares y los morfológicos ¿por qué la evolución morfológica en ocasiones se aleja tanto de la pauta filogenética? En los análisis cladísticos la homoplasia (convergencia y evolución paralela) Programas de Investigación en Paleobiología y Teoría evolutiva aparece con una frecuencia inusitada. Esta circunstancia está dando lugar a una reconsideración de cómo emplear los caracteres de forma en la reconstrucción filogenética. En este contexto surgen un aspecto importante y es que los análisis cladísticos exigen que los caracteres que entran en el análisis sean independientes. Sin embargo, las interacciones que ocurren en múltiples niveles jerárquicos del desarrollo -desde genes individuales a módulos estructurales-dificultan y confunden sobremanera los intentos de definir qué caracteres son realmente independientes. Se plantea aquí un importante problema teórico y metodológico en biología evolutiva. El organismo no es un sumatorio de rasgos sino un complejo sistema integrado. Esclarecer estos aspectos plantea la necesidad de considerar los caracteres morfológicos en términos de sus procesos generativos. Y en cierto sentido, con este planteamiento, se cierra el bucle entre morfología y biología del desarrollo. Mucho nos queda por aprender en biología evolutiva. En este ensayo hemos dado una rápida visión del estado actual de algunos aspectos de esta fascinante disciplina. Una conclusión general parece emerger. La vida es un fenómeno extraordinariamente complejo con múltiples manifestaciones en sus distintos niveles de organización. El denominado problema de la forma está íntimamente asociado a dos de las grandes cuestiones de la biología. Uno es el denominado problema de la representación. Es decir, como una información codificada en secuencias de ADN encuentra su representación en un fenotipo tridimensional y sujeto a una fisiología. La morfología es el producto del desarrollo, el cual esta controlado por programas genéticos reguladores. Y, a escala evolutiva, el otro gran problema de la biología es la relación entre el desarrollo individual del organismo (ontogenia) y las pautas de evolución de su linaje (filogenia), o viceversa. Las diferentes disciplinas -unas clásicas, otras muy recientes-convergen en las mismas preguntas de fondo y solo mediante ensayos serios de integrar todos estos aspectos podremos avanzar en el conocimiento de la evolución orgánica. Agradecimientos Agradezco al Dr. Máximo Sandín el ofrecimiento de publicar este trabajo. A mis compañeros del Departamento de Paleobiología del Museo Nacional de Ciencias Naturales con los que he tenido ocasión de discutir algunos aspectos de los temas aquí recogidos, especialmente a Markus Bastir y Manolo Nieto.
las áreas con mayores aplicaciones. Las matemáticas, por su parte, han proporcionado herramientas y metáforas muy poderosas para abordar la increíble complejidad de los sistemas biológicos. Esto ha permitido la génesis de marcos conceptuales sólidos. En este artículo resumo algunas de las aplicaciones más exitosas de las matemáticas a la biología que van desde la genética de poblaciones a la biología del desarrollo y las redes de interacciones ecológicas.
Numerosos datos del campo de la Botánica (tanto paleo como neontológica) inciden sobre los puntos flacos del paradigma neodarwinista, cuestionando algunos de sus pilares básicos y proporcionando puntos de vista alternativos acerca de los tempos y modos de evolución. La puesta en común de saberes procedentes de distintas aproximaciones y de todos los niveles de la jerarquía biológica: desde el molecular hasta el ecosistémico, contrasta con el reduccionismo del paradigma dominante y parece estar produciendo nuevos y mejores frutos. Introducción: La Botánica y los estudios de evolución Es probable que las mayores contribuciones a la teoría evolutiva se deban más a zoólogos s.l. que a botánicos. Quizá poque los Animalia forman un grupo monofilético, relativamente reciente, amén de que la mayoría fosilizan bien, de suerte que se han podido establecer desde pronto filogenias fiables de sus estirpes; la existencia de éstas a su vez, ha permitido jugar con diferentes hipótesis acerca de cómo trabaja la evolución, de sus tempos y modos. «Cada organismo es el producto de su historia. Es necesario conocer su historia para entender su naturaleza» Olsen & al. (1). Por el contrario, la Botánica se ha ocupado tradicionalmente de una buena colección de organismos fotosintetizadores mas de los hongos que no lo son (precisamente lo que son es grupo hermano de los animales), abarcando desde las cianobacterias («inventoras» de la fotosíntesis oxigénica) y las «algas eucarióticas» (ese conjunto polifilético) hasta las (c) Consejo Superior de Investigaciones Científicas Licencia Creative Commons 3.0 España (by-nc) plantas terrestres; es decir, cuatro de los cinco reinos reconocidos por Margulis & Schwartz (2), que han desplegado su actividad a lo largo de c. 4.000 millones de años (= Ma): la totalidad del tiempo de la biosfera. Además no se tuvo noticia del registro fósil más temprano prácticamente hasta la segunda mitad del siglo XX, siendo éste más difícil de datar y de interpretar (3) ya que sus componentes, tan diferentes a los actuales, se resisten al trabajo comparativo; y también resultaba menos inmediato el establecimiento de buenas filogenias «vegetales» a causa de que su morfología más simple se presta a un mayor contenido de homoplasia. Quizá por todo ello, los botánicos se han visto poco estimulados a emprender trabajos sobre evolución y han participado apenas en los grandes debates que han sacudido a las teorías evolutivas: lamarckismo vs. darwinismo, gradualismo vs. abruptismo, adaptacionismo vs. neutralismo etc.; así por ejemplo, Rayner & al. (4) se lamentan de que la evolución no haya estado presente en los círculos de los micólogos y casi lo mismo podría decirse del resto de la áreas que cubre la botánica. No obstante no han faltado importantes contribuciones, como las de Grant (5,6), Stebbins (7,8) o Niklas (9) aunque casi siempre referidas sólo a las plantas vasculares cuando no exclusivamente a las angiospermas. Los mayores avances se han producido en el campo de la filogenia, en el que se ha pasado prácticamente de la (casi) nada al (casi) todo, arrollando entre medias a buena parte de los viejos paradigmas, confirmando otros y erigiendo nuevos: no se puede dudar actualmente de la naturaleza microbiana de mitocondrias y plastos primarios; de la condición plurigenómica de los eucariontes; de la polifilia de «las algas» y de lo irrazonable de estudiarlas separadas de sus parientes «protozoos». Igualmente entre las plantas terrestres se ha determinado con certeza el linaje algino del que proceden, y se avanza en el conocimiento de las relaciones entre sus grupos. Numerosos temas quedan aún sin resolver pero la disponibilidad actual de un registro fósil razobablemente nutrido a la vez que de hipótesis filogenéticas suficientemente buenas, permite ahora replantearse los viejos problemas, proponer para ellos nuevas interpretaciones, realizar nuevas síntesis y explorar los tópicos de la teoría evolutiva a la luz de los nuevos datos. Paradigma neodarwinista como punto de partida El último siglo ha contemplado el desarrollo del neodarwinismo hasta su conversión en paradigma hegemónico, aunque salpicado de fuertes Botánica y Evolución polémicas que ponían en entredicho unos u otros de sus grandes pilares: el cambio evolutivo gradual, las micromutaciones como materia prima del cambio, la macroevolución como resultado sumario de la microevolución, la selección natural como fuerza creadora, etc. Darwin (y posteriormente la escuela Neodarwinista) defendía que el cambio evolutivo se originaba mediante pequeñas diferencias individuales aparecidas (por azar) en cada generación de toda población, las cuales, gracias a la competencia entre fenotipos y al concurso de la selección natural, permanecerían o serían eliminadas; tales cambios, acumulados a lo largo de un tiempo suficiente, originarían otros mayores dando lugar a nuevos diseños o tipos principales, de suerte que la macroevolución «no sería más que una extrapolación y ampliación de los acontecimientos que tienen lugar en el seno de poblaciones y especies» (10), es decir, de la microevolución. Pronto se cuestionó, desde el lado de la paleontología, la naturaleza gradual del cambio ya que el registro fósil no parecía contener los «tipos intermedios» esperables de un proceso de variación continua; más parecía dar la razón a los postulados de Cuvier acerca de sucesivos desastres seguidos de sucesivas creaciones, cada una con tipos bien diferentes a los anteriores y que mantenían su aspecto (tipostasis) desde el comienzo (tipogénesis) hasta su desaparición (tipolisis). El problema «se resolvió» invocando la escasez del registro fósil, pero aunque se puso toda la voluntad en la búsqueda de los «eslabones perdidos», éstos no se hallaron y el registro siguió mostrando tozudamente tipostasis prolongadas, así como discontinuidades entre diseños. Simpson (11) intentó una expUcación diferente para las discontinuidades entre tipos, suponiendo una altísima tasa evolutiva en estirpes que hubieran sufrido reducciones drásticas en el tamaño de sus poblaciones; reconocía así la posibilidad de evolución rápida (evolución cuántica) debida a deriva genética, en poblaciones pequeñas. El desarrollo de la Genética proporcionó una base material a los postulados de Darwin, mostrando que la herencia de los caracteres «residía» en genes y cromosomas. Se trataba de averiguar qué modificaciones (génicas o genómicas) serían las responsables de los cambios en los caracteres que determinarían la transformación de un linaje en otro, es decir, cuáles serían los determinantes (materia prima) del cambio evolutivo. En torno a esta cuestión surgieron tempranamente dos tendencias: la de los que pensaban que en las macromutaciones, cuyos efectos proporcionaban cambios cualitativos y drásticos en el fenotipo, habría que buscar las claves para la génesis de nuevos diseños (Bateson, De Vries, Goldschmidt, etc.) y la de los que defendían que tales mutaciones sólo 62 Margarita producían «monstruos» inviables que nunca podrían constituirse en especies o tipos nuevos; el origen de éstos habría que buscarlo en la suma de micromutaciones como mandaba el paradigma de cambio gradual. Los «cualitativistas» perdieron la batalla frente a los «cuantitativistas» y la variación discontinua dejó prácticamente de ser materia de investigación mientras la genética de poblaciones se hacía dominante, desarrollándose en su seno modelos teóricos (Fisher, Haldane, Wright, Chetverikov, etc.) para el proceso evolutivo, entendido como variación cuantitativa de frecuencias alélicas en el seno de las poblaciones; la materia prima del cambio sería el material genético sometido a micromutaciones al azar y a recombinación y la selección natural debida al ambiente, la que dirige y canaliza la fijación o desaparición de unas u otras variantes; pronto se añadieron también, como fuentes de variación, hibridación y poliploidía que, si raras en animales, no lo son tanto en plantas. Frente al concepto de cambio lento y gradual, Eldredge & Gould (12) presentaron la «teoría de los equilibrios puntuados» (saltacionismo, abruptismo) en la que se resalta la existencia de periodos prolongados de tiempo en los que predomina la tipostasis de las estirpes, jalonados por periodos cortos y críticos, ricos en cambio evolutivo. Frente a la consideración, demasiado simplista, de que es la variabilidad en el seno de las poblaciones el determinante fundamental de la evolución, se entiende ahora que hay multitud de fenómenos (a varios niveles) capaces de originar novedades evolutivas como pueden ser los de simbiosis, homeosis, incorporación de ADN foráneo, etc. No hay una traducción simple de genes a caracteres sino complejas relaciones jerarquizadas, reguladas y mediatizada (p. ej. por procesos homeóticos) que ponen en entredicho también la preponderancia del papel atribuido al azar; desde el nivel molecular, en adelante, no cualquier cambio es posible, manifestándose la importancia de la orientación endógena y de las restricciones impuestras por la estructura y la autoorganización. Para Simpson (11) «el cambio genético determina el cambio morfológico y la tasa del primero se traduce en la tasa del segundo», sin embargo entendemos ahora que existe una estructura jerárquica de la variación, que ésta se produce en todos los niveles de la jerarquía biológica y que en todos debe ser estudiada en sus particularidades y en sus consecuencias. Cada uno de los niveles requiere de la información contenida en los anteriores pero no se puede explicar sólo como suma de sus componentes ya que, cada vez, aparecerán propiedades e información nuevas (emergentes) derivadas de la integración, cohesión, coordinación, regulación, comunicación... de sus partes, propiedades que no se hubieran po-Botánica y Evolución dido predecir del estudio por separado de cada una de ellas. Así como la condición líquida del agua no se deduce automáticamente de la gaseosa del oxígeno y del hidrógeno, de las propiedades de las moléculas no podemos deducir todas las una célula (una célula es algo más que un saco de moléculas) y así sucesivamente a lo largo de la jerarquía biológica. La consideración de que el conocimiento de la variación en el nivel molecular (o en cualquier otro) es bastante para comprender el proceso evolutivo en su conjunto, es reduccionista y la teoría Sintética lo es en su consideración del origen de la variación. Frente a la competencia y la selección natural que «elegirá a los más aptos», como elementos canalizadores de la variabilidad natural, otros elementos, tales como la cooperación e integración de entidades, han de ser considerados. Y todo ello en los diferentes niveles de la jerarquía biológica (desde el molecular hasta el ecosistémico); sólo conociendo el modus operandi de la evolución en todos y cada uno de ellos podremos obtener tanto síntesis parciales como generales. Gould (13) protesta de la hegemonía de la microevolución en el pensamiento neodarwinista, una síntesis reduccionista que necesita ser sustituida por el pluralismo y por el análisis de múltiples niveles de causas. En este mismo sentido postulan algunos autores (p. ej. Sandín (14) modelos de evolución debida a la integración de sistemas complejos autoorganizados en niveles de complejidad sucesivamente mayor, considerando la posibilidad de génesis de entidades nuevas y diferentes mediante integración de «cuantos» (sistemas ya complejos en sí mismos) que se asocian para formar un nuevo cuanto aún más complejo. Repasaremos a continuación, someramente, lo que pueden decirnos algunos datos «de la botánica» sobre los temas mencionados. Tempo (Cambio lento y gradual vs. rápido y abrupto): ¿qué dicen el registro fósil, los relojes moleculares y las filogenias «vegetales»?: Hace tan solo medio siglo no se tenía certeza de la existencia de vida en el Precámbrico; desde entonces hasta ahora las bases de datos del registro fósil no han dejado de crecer en paralelo con la discusión acerca de la completitud del mismo. Parece haber consenso sobre su suficiencia para la mayor parte de las estirpes, aunque aún con lagunas para otras (15, 16, 17, etc.); según Benton (18), globalmente, el registro está lo bastante completo como para leer en él directamente los avatares de la evolución en cada momento. De tal lectura parece deducirse que la diversidad biológica no ha dejado de crecer aunque con tempo ralentizado en sus comienzos y acelerado en los últimos 600-500 Ma (18,19,20); también que este crecimiento se ha visto jalonado por crisis de extinciones masivas seguidas, cada vez. por nuevas explosiones evolutivas. La extinción de especies no se ha considerado normalmente como un elemento importante en el neodarwinismo siendo que, en palabras de Raup (21) «para un biólogo ignorar la extinción es como para un demógrafo olvidar la mortalidad». Las grandes extinciones en masa conducen a importantes reestructuraciones en la biosfera, así tras un periodo transitorio de pobreza biótica, sobreviene la expansión de los ciados sobrevivientes; éstos, que con frecuencia habían sido poco relevantes (cualitativa y cuantitativamente) en las biotas anteriores, protagonizarán las nuevas radiaciones evolutivas llamadas a ocupar (generar) los nuevos habitats «liberados» en cada crisis. No puede predecirse a priori qué especies serán sobrevivientes y cuáles perecerán. Según Benton (18) hay poca evidencia de que la extinción se deba a selección, en el sentido defendido por Darwin. Sobre estos temas cabe hacerse varias preguntas: ¿confirman los datos del registro fósil vegetal, y otras evidencias, los equilibrios puntuados? ¿qué es lo que determina que tras una crisis surjan súbitamente numerosas nuevas líneas filéticas? ¿qué cambios o reajustes se producen en sus genomas?. Datos en el registro fósil: Los primeros habitantes del Planeta fueron de tipo procariótico {Bacteria), unicelulares o filamentos simples y muy variados estromatolitos (22) cuya morfología cambió poco durante los primeros c. Quizá las primeras cianobacterias surgieron hace c. No se (re)conoce registro fósil de arquebacterias (Archaea) pero ciertas señales geoquímicas sugieren la posible existencia de estirpes metanógenas hace al menos 2800 Ma, momento que, si no de su origen, podría serlo de su expansión. Algún reloj molecular (27) obtiene el tiempo de divergencia entre Bacteria y Archaea en el intervalo de hace c. Tampoco se conoce el momento de origen de los eucariontes (Eykarya) que algunos ubican hace c. 2500 Ma debió ser un periodo de cambios importantes en la biosfera en el que, aparte de la posible expansión de las Archaea, hubo una renovación de tipos bacterianos: cocoides de mayor tamaño, diversidad de filamentos septados y sifonales, formas inusuales muy diferentes de las modernas, etc., quizá en relación con el incremento de oxígeno atmosférico y además con la probable presencia de la estirpe eucariótica que para KnoU (29) podría haber sido aerobia desde el comienzo (por lo que sería también de este momento la incorporación Botánica y Evolución endosimbiótica de la mitocondria, quizá en el origen mismo de los eucariontes). Por su parte Belfort (30) (reloj molecular) ubica además en este periodo la incorporación (en alguna estirpe eucariótica de las recién originadas) de un nuevo pasajero intracelular: tma cianobacteria (plasto primario). Tal estirpe, ancestral de algas rojas, verdes y glaucófitos, quedaría constituida como la primera eucariótica fotosíntetizadora; su rama hermana incluiría al ancestro común de Fungi+Animalia. KnoU (29) sin embargo ubica la adquisición de plasto primario en torno a hace c. 2000 Ma, momento en que comenzaría un «big bang» de los eucariontes. Una cifira anterior, c. 2200 Ma, es la que proporcionan algunos relojes moleculares (31) para la mentada explosión. Esta debió suceder tras la caída de diversidad que sin duda determinó la intensa glaciación global datada en hace c. Knoll (22) da cuenta de la recuperación renovada de la diversidad ya entre los 1900 y los 1600 Ma, con una variedad de estromatolitos (también los de modelo cónico) y de fósiles eucarióticos, entre ellos acritarcos sencillos, filamentos diversos y formas megascópicas, todos difícilmente adscribibles a los grupos alginos actuales; se reconocen de c. 1600 Ma escamas compatibles con las de clorófitos unicelulares (micromónadas) pero muy distintas de las recientes y se detecta un incremento de tamaño en el conjunto eucariótico unicelular. 1400 Ma aparecen acritarcos esculturados (22) y escamas compatibles con las de las estirpes doradas (crisófitos) también diferentes de las actuales. Algún reloj molecular ubica en este momento el origen de las algas rojas aunque el primer fósil indiscutible de éstas es poco más reciente (c. Escalante & Ayala (33) consideran que en este periodo (reloj molecular) surgieron los alveolados; más tarde se produciría una explosión evolutiva de sus ciados mayores (básicamente ciliados y dinoflagelados). En el intervalo de entre hace c. 1200-1000 Ma sitúan algunos relojes moleculares la divergencia entre Fungi y Animalia, argumento que esgrime Pagel (34) para negar el big-bang animal del Cámbrico, sin tomar en cuenta que momento de tipogénesis y momento de explosión evolutiva son cosas diferentes y no necesariamente coincidentes en el tiempo: unos y otros pudieron ser elementos poco conspicuos al principio hasta su momento de diversificación y expansión. En este intervalo comienza la segunda gran explosión eucariótica (que debió serlo también bacteriana pues entre c. 1200-900 Ma se produce la mayor diversidad de estromatolitos); se reconoce una nueva renovación de acritarcos, algas rojas y verdes y una radiación diversificadora del conjunto pardo-dorado (35). Cabe 66 Margarita Moreno señalar que, de las algas verdes uniceltilares, hay escamas tipo Pyramimonas ya muy semejantes a las actuales. 900-800 Ma hubo una crisis de bacterias seguida de una modernización de las mismas. La diversidad eucariótica también parece renovarse: acritarcos muy diferentes de los anteriores, protista testados, escamas similares a las de crisófitos sinúridos y haptófitos cocolitofóridos aunque no referibles sin dudas a estos grupos (36); se ubica (reloj molecular) en este tiempo la divergencia de los apicomplejos desde sus ancestros dinoflagelados. Y ciertos fósiles de este periodo son interpretados por algunos autores como de metazoos. Con 800 Ma se conocen fósiles de pseudofungi: oomicetes saprolegniaceos (37) y de hace c. 700 Ma de verdaderos hongos quitridiomicetes. Entre hace 800-600 Ma parece que hubo nuevas glaciaciones (23), tras las que florecieron las faunas Ediacaranas y las biotas de Burgess Shale. A partir de este momento los tempos evolutivos se aceleran: estamos a las puertas de la radiación cámbrica (que también lo es bacteriana: hace c. 550 Ma se aprecia otra renovación de formas que serán ya prácticamente iguales a las actuales); en cuanto a los eucariontes, aparecen nuevos acritarcos muy ornamentados, se renuevan las estirpes de algas verdes (p. ej., micromónadas nuevas y primeros fósiles codiáceos o dasycladáceos) y rojas (p. ej. Solenoporáceas), hay expansión de los grupos pardo-dorados cuyas escamas ya son similares a las de los crisófitos actuales aunque más grandes, los hongos quitridiomicetes invaden las aguas dulces, se originan los zigomicetes glomáceos (reloj molecular de Berbee & Taylor (38) y radian los animales celomados. KnoU (35) lo define como una espiral ecológica que continuará durante el Ordovícico con la incorporación de nuevos ciados en el mar (especialmente animales aunque también de algas rojas y otras) pero sobre todo en los continentes con la aparición de las Planta: esporas en tetradas, «tubos» y cutículas nos hablan de una súbita diversidad de plantas prevasculares; acompañando a las primeras plantas aparecen también filamentos fúngicos septados no referibles exactamente a los grupos actuales sino al ancestro común de basidio y ascomicetes. El Ordovíco acaba con una glaciación global y, como es habitual, extinciones masivas en tierra y mar. Tras ellas, el Silúrico conoce una nueva radiación modernizadora de animales marinos, algas verdes terrestres (p. ej. de Sycidiales y Trochiliscales entre las carofíceas) y plantas: la diversidad de cutículas y esporas es mayor que en el periodo anterior habiendo diadas, tetradas y mónadas triletas (indicadoras ya de flora vascular) muy diversas; cabe mentar a Dyadospora similar a las de hepáticas actuales (39) que indica el florecimiento de este ciado. Y no se puede ob-Botánica y Evolución viar la presencia, en el Silúrico superior, de Cooksonia, una planta con estomas y sistema conductor no lignificado, al modo de los hidromas de los musgos. En el silúrico superior ya están presentes las plantas vasculares lignificadas, al menos zosterófitos y sus descendientes licopodiófitos (40). El Devónico es el periodo más espectacular en cuanto a la evolución de las plantas; en el inferior había una gran diversidad de hepáticas, musgoides (Sporogonites, Tortüicaulis, Steganotheca, Horneophyton, etc.) y de sus parientes cooksonioides (Uskiella, Hsüa, Yarravia, Aglaophyton, etc.), pero también de vasculares con lignina, como los riniodes (Rhynia, Renalia, Nothia, etc.) y los ya mencionados zosterófitos y licopodiófitos. Clásicamente se ha considerado que los zosterófitos derivarían de algún rinioide pero no se han hallado fósiles de este grupo anteriores al Devónico, y parece difícil que sus descendientes (y los descendientes de sus descendientes) sean anteriores a ellos, como sugiere la presencia de zosterófitos-licopodiófitos ya en el Silúrico superior; cabe pensar que el registro fósil de los rinioides más tempranos no ha sido encontrado o, alternativamente que hubo una estirpe anterior, derivada de cooksonioides, en la que se lignificó por vez primera el sistema conductor y que, de ella, derivarían tanto los rinioides como los zosterófitos, resultando ser grupos hermanos en vez de ancestro-descendiente. Unos y otros son áfilos y con ramas dicótomas, apareciendo ya un tipo de folioma en los licopodiófitos (Drepanophycales, Protolepidodendrales). Con la expansión de las plantas vinieron los primeros animales terrestres (arácnidos, miriápodos...) así como una nueva diversificación de hongos (38) que se patentiza no solo en la gran expansión de zigomicetes glomáceos sino también en la divergencia desde el común ancestro (reloj molecular) de los eumicetes (basio y ascomicetes). En el mar se aprecia la surgencia de nuevas algas verdes calcificadas y nuevas micromónadas con escamas ya referibles a las formas actuales. Hacia el Devónico medio, pese a la caída de la mayoría de los cooksonioides, riniófitos y zosterófitos, la explosión fué aún mayor, con el origen de plantas aún afilas pero con ramificación alterna: los trimerófitos, quizá derivados de algún rinioide, y (prácticamente a la vez) de sus propios descendientes helechoides y progimnospermoides. Fué en este periodo cuando se constituyeron los primeros bosques (41) que albergaron a los primeros tetrápodos (anfibios tipo Ichtyostega). Se produjo también una expansión modernizadora de algas rojas macroscópicas, de verdes Coleochaetales y Chavales, de hongos micorrícicos y liqúenes, de hepáticas (como Pallavicinites, ya de aspecto moderno), etc. Descendientes de progimnospermas, surgieron en el Devónico superior, las primeras plantas con semilla y desde alguna línea helechoide (probablemente cladoxi- Margarita Moreno leana) se diferenciaron los primeros equisetófitos (Pseudoborniales, Sphenophyllales y Archaeocalamites), El tránsito Devónico-Carbonífero vino nuevamente marcado por glaciaciones y declive en las biotas, desaparecieron los acritarcos (inmediatamente seguidos por una explosión dinoflagelada), se extinguieron también las carofíceas Sycidiales y Trochiliscales (tomando el relevo las modernas Chavales), otras muchas algas verdes declinaron y, de la flora terrestre, desaparecieron los últimos restos de las estirpes más antiguas, incluidos los trimerófitos y algunos helechoides (cladoxflidos, iridopteridos) así como la mayoría de progimnospermas. El Carbonífero es de nuevo momento de tipogénesis: además de la dinoflagelada, el reloj molecular ubica el origen de las diatomeas, el registro fósil incorpora a las algas verdes desmidiaceas (iguales a las actuales) en las aguas dulces, y también cocolitos (que quizá correspondan a haptófitos) y nuevas algas rojas calcificadas (ancestrales de corallinoides); en el inferior hay basidiomicetes (royas) de poro simple y en el superior los primeros ascomicetes. Se detectan nuevas hepáticas (como las actuales Pallavicinia, Metzgeria o Fossombronia a la vez que otras no referibles a formas actuales) y musgos diversos (entre ellos Polytrichum). De la flora euvascular, surgen los licopodiófitos Lycopodiales (como los actuales), Lepidodendrales (algunos gigantescos) y Selaginellales; se aprecia una extensión de helechoides stauroptéridos y zygoptéridos y el máximo desarrollo de equisetófitos Sphenophyllales y Archaeocalamites pero también el origen de Equisetales y Calamitales. Los verdaderos heléchos (p. ej. Marattiales) surgen en el Carbonífero medio así como las familias Füicales más plesiotípicas (botryopteridáceas, anachoropteridáceas, tedeleaceas) que durarán hasta el Pérmico. Quedan progimnospermas residuales (Protopytiales) y radian las pteridospermas (Calamopityales, Buteoxilonales, Lyginopteridales, Medullosales, Callistophytales). Hacia el Carbonífero medio se originan las primeras cicadas (Spermopteris, Taeniopteris) y los coniferoides (cordaitidos). Verdaderas coniferas (utrechtiáceas, emporiáceas...) se presentan en el Carbonífero superior. Se reconstruye este periodo como de buen clima, cálido y húmedo, al menos en el hemisferio norte, lo que posibilitó el establecimiento de bosques complejos en torno a grandes áreas pantanosas, en valles y colinas, donde medraron diversos artrópodos, entre ellos los primeros insectos así como anfibios modernizados y los primeros reptiles; insectos alados aparecen en el Carbonífero superior. A finales del Carbonífero sucedió un enfriamiento paulatino del clima, con desecación de amplias áreas pantanosas, lo que determinó una crisis Botánica y Evolución en la vegetación: se extinguieron los licopodiofitos plesiotípicos, helechoides, la mayoría de las pteridospermas y la mayoría de los cordaitidos. Durante el Pérmico continuó el enfriamiento, con varios pulsos, y la sequía, determinando una gran pobreza ñorística y faunística, a la que seguirá una explosión y expansión de estirpes resistentes, que acabarán dominando en todo el mesozoico (42): matorrales de heléchos (osmundáceas y quizá schizaeaceas y gleicheniáceas), pteridospermas xerófitas (glossopteridales que dominarán en el Pérmico tardío, peltaspermales), ginkgófitos en los mejores ambientes, cicadas renovadas (Phasmatocycas, Archaeocycas) y también nuevas familias coniferas (ferugliocladáceas, buriadiáceas, majonicáceas, uUmanniáceas...). Unos pocos cordaitidos quedan aún y también habrá musgos (varios ordenes y fannlias modernas) además de los primeros esfagnos (Protosphagnum). De los equisetófitos habrá aún SphenophyHales, Equisetales y Calamitales pero ya formas de escaso porte y de los licopodiofitos irán desapareciendo los gigantes y, los menores, pasarán a ser elementos poco importantes en las biotas siguientes. Igual que la vegetación cambia drásticamente, lo hace la fauna, desarrollándose en este periodo tras la pobreza inicial, una muy rica reptiliana y de terápsidos. La crisis Permo-Trías (se dice que debida a varios pulsos de frío intenso muy seguidos) se considera, si no la mayor, una de las más graves sufridas por la biosfera, con la extinción del 80-95 % de las especies, SO-TO % de los géneros y 50 % de las familias vegetales. Desaparecieron los últimos restos de «aspecto» paleozoico de suerte que el Triásico comienza prácticamente con un desierto ecológico: floras y faunas generalizadas y paupérrimas como la casi monoespecífica «flora Dicroidium», una pteridosperma, que se instaló en Gondwana. En un nuevo periodo de tipogénesis, surgen nuevos licófitos (Pleuromeiales e Isoetales) ahora de escaso porte, nuevos equisetófitos calamitales {Neocalamites...) también pequeños, nuevos heléchos (mattoniáceas y gleicheniáceas seguras) y pteridospermas Coristospermales (como el mencionado Dicroidium) y Caytoniales ya en el Pérmico superior. Las cicadas (Bjuvia, Leptocycas...) se renuevan en el Trías superior en un proceso de anagenesis rápida, así como las coniferas con el origen de nuevas familias, entre ellas varias de las modernas (palissyáceas, cheirolepidiáceas, pináceas, podocarpáceas, araucariáceas, taxodiáceas). Es también momento de tipogénesis de cicadeoides o Bennetitales (Wielandiella y otras) y de gnetófitos (Maculostrobus, Dinophyton, polen tipo Ephedra y tipo Welwitschia, formas muy diferentes de las actuales) ambas estirpes (Bennetitales y Gnetales) aún poco importantes. Algunos relojes moleculares indican también el origen de las angiospermas. Se produce en paralelo una radiación de basidiomicetes y ascomicetes que empiezan a mostrar carpóforos complejos. Hay además una renovación de insectos (coleópteros, himenópteros), una radiación renovadora de anfibios, dinosaurios, tortugas, cocodrilos... así como, en los mares, de peces elasmobranquios y osteictios; se reconocen dinoflagelados goniaulacoides y peridinioides pero con escasa diversidad, primeras algas rojas Gigartinales y recuperación renovada de algas verdes calcificadas. Hacia el Trías medio ya se han recuperado las biotas pero el paso al Jurásico se define por una extinción faunal masiva, atribuida (estudios geoquímicos) a un efecto invernadero, en el que la concentración de CO2 llegó a ser cuatro veces superior a la actual (43). En el Jurásico se originan los basidiomicetes con doliporos, nuevas hepáticas (algunos géneros modernos como Riccia) y, de entre los musgos, surge el género Sphagnum; también hay una renovación de heléchos (dicksoniáceas, cyateáceas, dennstaedtioides, pteridoides, blechnoides, dryopteridoides) originándose las familias (o plexos) actuales que radiarán en el Cretácico. Las pteridospermas Caytoniales continúan su diversificación en el hemisferio norte y, de las coniferas, hay que anotar el origen de las taxáceas (Paleotaxus) y cefalotaxáceas. Todo el Jurásico (y Cretácico inferior) es el momento álgido de ginkgófitos y cicadas aunque éstas renovadas en los géneros modernos; lo es también de extensión de coniferas (muchas familias renuevan sus géneros) y también son importantes las Bennetitales renovadas (Weltrichia, Williamsonia, Cycadeoidea...). Es también el momento de tipogénesis de los mamíferos ovíparos (44) y de los anfibios anuros. Del Jurásico medio se conocen los antófitos Pentoxylales (a los que se supone parientes de gnetofitos, cicadeoides y angiospermas) y el primer fósil angiospérmico (Archaefructus). El Jurásico superior conoce el origen de lagartos y aves, radiación de cocodrilos y es el momento álgido de los dinosaurios saurópodos; también se produce una extensión de dípteros y lepidópteros y ya son muchas las familias de insectos constituidas por aquél tiempo como las modernas. En los mares se expanden los dinoflagelados (génesis de dinofisioides y cetariáceos y explosión de goniaulacoides y peridinoides). Se aprecia (en el registro fósil, confirmado por datos moleculares) una explosión de los grupos del ciado pardo-dorado, del cocolitofórido (=haptófitos) y es momento álgido para las algas rojas calcificadas (como solenoporáceas). La crisis del fin del Jurásico parece relacionada con una nueva ola de frío que determinó el declive de los dinoflagelados y otros protista, algas rojas nemaliales, algas verdes charales y, entre las plantas, la caída de los últimos licófitos pleuromeiales. En el Cretácico inferior se inicia un nuevo calentamiento y con él se expanden extraordinariamente nuevos dinoflagelados, registrándose los primeros de agua dulce; parece momento de diversificación de crisofíceas y diatomeas marinas, y también se renuevan los cocolitofóridos; momento de recuperación de Chavales (clavatoráceas) y de génesis, en las algas rojas, de muchos de los ordenes que han llegado a nuestros días. En los continentes radian explosivamente los basidiomicetes (ectomicorrizas) y los ascomictes. Es momento de extensión de heléchos y origen de algunos nuevos como asplenioides y polipodioides, de acmé de los ginkgófitos, y de expansión de Isoetales (tras la caída de Pleuromeiales). Las coniferas son muy abundantes, diferenciándose el género Pinus (45). Aún son importantes las pteridospermas Czekanovskiales y Caytoniales o las cicadas, produciéndose el acmé de los cicadeoides i=Bennetitales) y el origen de nuevos gnetófitos (Drewria, Eoantha) que también ganan su máxima distribución y diversidad. Las angiospermas son ya muy diversas y continúan en rapidísima radiación Barremiense-Aptiense (46,47). El registro fósil indica la presencia de estirpes clorantoides, tipogénesis de monocotiledóneas y de euangiospermas (las que tienen polen tricolpado). Paralelamente diversifican lagartos, serpientes, aves y terios. En el Cretácico medio el calor es máximo lo que, junto a los fenómenos de vulcanismo y los derivados de la orogenia alpina, determinó una crisis aunque no global ni masiva. De las algas verdes carofíceas se extinguieron las clavatoráceas (sólo quedó la familia Characeae) y también los heléchos arcaicos (el grupo protagonizó inmediatamente después una radiación, con la génesis de la mayoría de las familias modernas). Desaparecieron las cheirolepidiáceas (pero no otras coniferas) y fué la crisis definitiva para las Bennetitales y para los dinosaurios enormes. Como contrapartida no sólo hubo la ya comentada radiación mayor de los heléchos modernos, en la que hay que contar además el origen de los hidroptéridos marsileales, sino también una nueva explosión de angiospermas: magnólidas herbáceas (clorantoides) y arbóreas {Magnoliales y Laurales), nuevas monocotiledóneas y ranuncúlidas (Ranunculales), nuevas hamamélidas platanáceas y Trochodendrales, pero sobre todo una expansión de rósidas-dilénidas (Myricales, Juglandales, Urticales, Hippuridales, Celastrales, Ericales), En paralelo se produce una renovación de insectos (p. ej. con la génesis de apoideos y vespoideos), el origen de los mamíferos vivíparos y una radiación de aves. En el mar se reconoce la tipogénesis de los silicoflagelados y la expansión de nuevas algas verdes sifonales y también de clorofíceas que ya se corresponden con taxones actuales. En el Cretácico superior ya se aprecia localmente la dominancia angiospérmica así como la radiación de Fágales, Betulales, Euphorbiales, Myrtales y en el Maastrichtiense, Caryophyllales, Ebenales, Málvales, Fabales, Geraniales, Santalales, Proteales, Arecales, Pandanales, En paralelo desaparecen las pteridospermas Caytoniales y comienza el declive de los ginkgófitos hasta su extinción virtual en el Terciario. Las coniferas siguen siendo importantes, con explosión de especies de pinos y la génesis de Cuppresaceas, Cedrus y quizá Larix, En los mares es el acmé de silicoflagelados y cocolitofóridos y en las aguas dulces diversifican las algas verdes caráceas y surgen las diatomeas pennales. La banda Creta-Terciario se determina por una crisis aguda, con regresiones marinas y enfiiamiento de las aguas, plasmada en la desaparición desastrosa del plancton (aunque las diatomeas pasaron indemnes). En los continentes hubo extinciones pero sobre todo grandes migraciones de floras (p. ej. de heléchos); los gnetófitos sufideron severamente, aunque la crisis no ñie bastante para detener el continuo avance angiospérmico. Se acabaron de extinguir los dinosaurios no avíanos y hubo también desapariciones en otros grupos faunales aunque, como en la flora, predominaron las grandes migraciones. En el Terciario (Paleoceno) se incorporan nuevos ordenes o familias (p. ej. papilionáceas) de angiospermas: Hamamelidales, Eucommiales, Casuarinales, Polygonales, Rutales, Polygalales, Cornales, Gentianales, Restionales, Poales, Thyphales, mientras en el mar se expanden nuevos dinoflagelados, se produce una explosión de algas pardas, una recuperación de cocolitofóridos, con la tipogénesis de formas más grandes, nuevas algas verdes sifonales y, en las aguas continentales el origen del moderno género Chara. Al final de Paleoceno sufrieron una nueva crisis las estirpes planctónicas (dinoflagelados, diatomeas marinas, silicoflagelados, foraminiferos, radiolarios...) y también las algas rojas calcificadas plesiotípicas (que vendrán a ser sustituidas por las modernas corallináceas) tras la cual se produjo la consiguiente recuperación-renovación, ya en el Eoceno, de los grupos mencionados. En las aguas dulces se origina el género Spirogyra con las características que han llegado a nuestros días. También renuevan sus géneros las hepáticas y se originan nuevos ordenes angiospérmicos: Theales, Thymeliales, Nepenthales, Polemiales, Dipsacales, Cyperales, Luíales. Termina el periodo con una nueva crisis particularmente aguda en los mares que afectó sobre todo a las especies planctónicas. Ordenes angiospérmicos con tipogénesis en el Oligoceno parecen ser, por ejemplo: Nelumbonales, Viólales, Cucurbitales, Salicales, Rosales, Rhamnales, Oléales, Eleagnales, Campanulales, Asterales. Se reconoce Botánica y Evolución en los mares, una nueva explosión de algas pardas con la tipogénesis de los ordenes actuales. Y, al final del periodo una nueva crisis para el plancton. El Mioceno vino cálido, con el desarrollo de estepas y desiertos, aquellas formadas por la extensión de plantas especialistas C4 y éstos colonizados por familias surgentes que desarrollan reservónos de agua en su soma (cactáceas, crasuláceas). Los nuevos ordenes de angisopermas que se originan en este periodo son: Lamíales, Plumbaginales, Dillenia-leSy Capparales, Primulales, Alismatales, Majadales, Árales. Parece también el momento de génesis de los ecosistemas de corte moderno cuya vegetación ya está constituida prácticamente como la reciente. En el mar se renuevan y expanden las diatomeas centrales; es momento de acmé para los silicoflagelados y de tipogénesis de las algas pardas laminariales y rojas florideofíceas. Sin embargo sigue disminuyendo la diversidad de los cocolitofóridos que no consiguieron recuperarse de la crisis anterior. Del último periodo, Plio-Pleistoceno, cabe reseñar los efectos de las glaciaciones que provocaron, más que nada, grandes migraciones de floras y faunas aunque también trajeron el declive de algunas estirpes, entre ellas las cicadas en tierra o, en el mar, los silicoflagelados. Con más incertidumbres sobre los tiempos más remotos y más certezas sobre los recientes, globalmente, el registro fósil «vegetal» proporciona escenarios de evolución que apuntan hacia equilibrios puntuados: surgencias explosivas de linajes, tipogénesis súbitas imposibles de obtener mediante cambios lentos acumulados, largas tipostasis, crisis y caidas de la diversidad sucedidas cada vez por nuevas explosiones renovadoras de estirpes y biotas. Llama la atención la rapidez con que se originan, en el Devónico y en sólo c. 50 Ma, prácticamente todos los tipos mayores de Planta, así como el hecho de que, en cada ocasión, las líneas descendientes surjan casi a la vez que sus antepasados, derivadas sin duda de las ramas más básales de aquellos. Las filogenias moleculares parecen contar la misma historia, resolviéndose en radiaciones explosivas de linajes mayores (y lo mismo dentro de cada linaje de menor rango). En muchas ocasiones el orden de aparición de las estirpes de un mismo ciado no es fácil de establecer (colapsándose las ramas en multifurcaciones) debido a la proximidad de los eventos cladogenéticos. Esto es lo que aprecia Pace (48) cuando expresa que la diversidad bacteriana parece haber nacido básicamente en una radiación explosiva de linajes; o lo que se deduce de la topología de tantos cladogramas como por ejemplo, de algas pardo-doradas y afines (49), algas rojas florideofíceas (50), heléchos (51) o angiospermas (52). Revisando las fuentes de variación: entre la permanencia y el cambio La materia viva, mediante los procesos replicativos lo que «pretende» es permanecer (producir entidades iguales a las parentales) y, generalmente, lo consigue. En el paradigma darwinista, mediante cambio gradual, una especie «es» a la vez que continuamente «está dejando de ser», lo que resulta contradictorio con la permanencia (estasis) que muestra el registro fósil; alternativamente, Carson (53) propone que la especie «es» (lo que es y como es, mientras dura) porque posee un sistema o programa genético con una parte cerrada, refractaria al cambio (base de su permanencia) a la vez que otra más abierta, que admite ciertas modificaciones; éstas son irrelevantes para la condición de especie (que no deja de ser ella misma) pero le confieren una variabilidad que quizá proporciona ajustes (adaptaciones) locales. Sin embargo, los cambios en la parte cerrada del programa genético son los que pueden determinar modificaciones cualitativas y originar nuevas especies (o tipos mayores). Tales cambios han de ser raros en general, aunque parece que se desatan en situaciones de crisis, resultando en las explosiones evolutivas que suceden a las grandes extinciones. Entonces ¿cuáles son las fuentes de variación a lo largo de la jerarquía biológica y que consecuencias pueden llegar a tener?, ¿se ajustan a los postulados neodarwinistas?, ¿cómo se puede modificar «esa parte cerrada» del programa genético específico?. Puede haber variación en el ADN, sea este codificador o no, en su secuencia (sustituciones de nucleótidos, insercionçs-deleciones, etc.), en su ubicación (transposiciones) o en su número (multiplicaciones de secuencia). La asunción de que la variación génica se produce al azar no parece confirmarse: la probabilidad de cambio no es la misma para cualquier nucleótido, ni para cualquier posición en el codón, las sustituciones sinónimas son frecuentes pero las no sinónimas son raras, hay fragmentos de ADN más proclives que otros a incorporar o a perder secuencias (in-del). Más que azar parece haber reglas: en ciertas secuencias o regiones el cambio está prohibido, reglas que hay que descubrir y precisar. En Planta los genes propiamente dichos se permiten escasa variación pero sucede lo contrario en las regiones espadadoras. El comportamiento de un gen puede modificarse según el lugar que ocupe en el cromosoma, las secuencias que lo flanqueen, etc. No sólo las mutaciones en su ADN provocan variación sino también la relación-coordinación-integración de unas secuencias (codificadoras o no) con otras. Ahora se está concediendo al ADN repetitivo toda la importancia que se Botánica y Evolución le hurtó (tildándolo de «chatarra, parásito o egoísta») ante la evidencia de su participación en múltiples procesos vitales y de su papel como factor de evolución. De entre las angiospermas, parece abundante en gramíneas y escaso en Arabidopsis, pero los datos son aún pocos y no es posible sacar conclusiones de valor general; no obstante, se sabe que buena parte del mismo es de origen viral y, con frecuencia, móvil: hasta el 70 % del genoma de Hordeum vulgare es ADN móvil y sus cambios de lugar (alterando la expresión génica) provocan cambios en el fenotipo (54). Parece que los transposones son muy comunes en las plantas, que cambian con rapidez y que «se mueven» en situaciones de estrés ambiental, lo que, en palabras de Clegg (55), nos conduce a un «poco confortable lamarckismo». Todos estos procesos, aún poco explorados, son algo más que los meros cambios en las frecuencias alélicas en el marco de la población, y abren una puerta a la posibilidad de modificación rápida en tiempos de crisis. Puede haber variación en los cromosomas: no son raras pérdidas o ganancias de genes, áreas de recombinación, fisiones y fusiones, translocaciones, inversiones y multiplicaciones. Con frecuencia estos fenómenos tampoco dependen del azar, por ejemplo, las áreas de recombinación no son cualesquiera: en Planta las regiones aledañas a los centromeres (plagadas de genes) presentan recombinación intensa, mientras ocurre lo contrario en la región organizadora del nucléolo (56). La disposición de los genes también parece seguir reglas precisas, al menos para aquellos que actúan coordinadamente que aparecen siempre ligados e inseparables (operones bacterianos, genes Hox, tandem de la familia de genes ADNr o conjunto de genes que codifican las globinas, etc.), igual comportamiento muestran los (super)genes que controlan la heterostilia en Prímula o el tipo sexual en Chlamydomonas, De nuevo aparecen fenómenos de integración poco explorados. Fuentes de variación cromosómica son también los fenómenos de hibridación y poliploidía, raros en animales pero menos en plantas donde pueden ir asociados de manera que, tras un cruzamiento hibridógeno, se restaura la viabilidad meiótica mediante duplicación cromosómica. En otras ocasiones se evita la esterilidad híbrida mediante la eliminación de uno de los genomas parentales (57). Recientemente se ha demostrado que la hibridación en angiospremas no es tan ubicua como se pensaba y, sobre todo, que no se distribuye al azar en la jerarquía taxonómica (58) sino que se concentra en ciertas familias y ciertos géneros, generalmente de plantas perennes. Son comunes las redisposiciones (p. ej. translocaciones) en los genomas híbridos (59) quedando sus cromosomas como verdaderos mosaicos 76 Margarita Moreno de regiones que contienen genes de ambos progenitores (60). Tales translocaciones no parece que se produzcan al azar sino de manera precisa y regulada: Song & al. ( 61) dan noticia de la génesis de translocaciones idénticas en los híbridos artificiales de Brassica rapa x B. nigra y B. rapa X B. olerácea en los que, al parecer, el genoma materno controla al conjunto del genoma. Se suponía que la poliploidía sería favorecida por la selección ya que la repetición de genes proporcionaría mayor cantidad de productos, enmascararía las mutaciones deletéreas y dotaría de altos niveles de heterocigosis (con su correspondiente variedad de isozimas); también se dice que los poliploides sufren menos depresión por autocruzamiento, lo que parece cierto en heléchos pero no en angiospermas, todo ello se consideraba causa de su mayor vigor, agresividad y valencia ecológica. Sin embargo, estudiados los valores de isozimas en heléchos poliploides se encontró que eran semejantes a los de los diploides y, en angiospermas, los poliploides de cada género no presentan una distribución geográfica más amplia que la de sus parentales, lo que pone en entredicho también su presunta mayor valencia ecológica (57). También hay que explorar más las consecuencias de la repetición de genes pues, en ocasiones, proporciona efectos sorprendentes; así, por ejemplo, si en Petunia se añaden copias de ciertos genes a fin de obtener una pigmentación más intensa, no se gana el efecto deseado sino que el centro del pétalo queda blanco; ello se debe a que algunos genes (en Planta y Animalia al menos) en dosis extra tienen efectos sobre la expresión de otros (los silencian). Galitski & al. (62) también comprueban en Fungi (Saccharomyces) que la expresión génica varía según el nivel de ploidía: unos genes se inducen y otros se silencian. Poliploidía e hibridación son casi las únicas fuentes de variación súbita que reconoce el neodarwinismo aunque resulta evidente que aún abundan las incógnitas sobre su condición. 2c, Puede haber variación en los procesos de desarrollo y morfogénesis: Aún entendemos escasamente los mecanismos que subtienden la aparición de las formas biológicas (63) y sólo recientemente se están comenzando a desentrañar algunos de ellos; lejos de la idea simplista de una relación directa «genotipo-fenotipo» lo que hay es una relación muy regulada y mediatizada por los procesos homeóticos. La forma biológica depende de la acción coordinada de ciertos genes. Los estructurales especifican productos y los reguladores especifican la actividad o paro de los anteriores en los lugares y tiempos adecuados; esto es lo que permite obtener distintos tipos celulares, tejidos y órganos. En los años 90 se ha comprobado que la morfogénesis es un fenómeno universal de la vida (au-Botánica y Evolución toorganización en un nivel superior al génico-genético), con un orden intrínseco e inherente a la propia mecánica de la morfogénesis. En el campo de la botánica son notables las observaciones de Stebbins, ya desde los años 50, sobre la relación positiva entre tamaño del primordio y de la flor (y de su cantidad de piezas), sobre el número de células iniciales necesarias para producir un primordio, sobre el tiempo en que las células iniciales retienen su particular capacidad de diferenciación, sobre las tendencias repetidas en angiospermas (ganancia o reducción de piezas, soldadura de partes, zigomorfía...), sobre su capacidad para la reversión o sobre el papel de determinados metabolitos en la formación de paredes celulares y su relación con la forma celular y organísmica. En otro estilo (mediante simulaciones numéricas) también Niklas, desde los años 70, ha explorado la cuestión de forma y diseño y la relación recíproca de estructura y bioquímica (límites impuestos por los requerimientos mecánicos tanto como por los materiales de construcción disponibles). Cada diseño óptimo, apunta el autor, representa una condición estable pero puede perderse la estabilidad mediante perturbaciones producidas dentro del sistema (pérdida de coherencia interna) o fuera de él (estrés ambiental), y ello obligará (si no sobreviene la extinción de la forma) a un cambio que proporcione un nuevo diseño óptimo. Concluye así, por ejemplo, que un incremento de tamaño en las plantas pioneras terrestres (taloides dorsiventrales), manteniendo la relación superficie / volumen, sólo pudo alcanzarse mediante elaboración de formas lobuladas (como son las hepáticas) y que el cambio del modelo dorsiventral al erguido requiere de la formación de estructuras resistentes en la periferia de los ejes (antes que en el interior de los mismos) de manera que los cortex fueron los primeros elementos de sostén, antes de la aparición de las traqueidas lignificadas, lo que se cumple en el registro fósil. Sabemos aún muy poco de morfogénesis en plantas. Estas (como sus ancestros carofíticos) tienen crecimiento apical y órganos sexuales multicelulares pero desarrollan dos generaciones: gametofítica y esporofítica, una y otra con tejidos bien diferenciados. Las áreas nodales en Chara y algunas especies de Coleochaete (grupos hermanos de Planta) son parenquimatosas y su crecimiento es marginal como en los meristemos de las plantas (64); las células meristemáticas (embrionarias) son muy plásticas y muchas diferencias de forma se deben a dónde y cuándo actúa (o se suprime) la proliferación celular (65,66) que, a su vez, está controlada por hormonas (auxinas, etileno, hidroxiprolinas...). Stebbins (67) informa de hepáticas a las que se aplican inhibidores de la hidroxilación de las prolinas que se desarrollan con feno- tipos «más primitivos», igualmente mutaciones en los genes para las glicoproteinas asociadas a las paredes celulares pueden promover diversidad de formas. De las diferencias entre gametófitos (n) y esporófitos (2n) se pensó que podrían tener su base en el nivel ploídico pero existen gametófitos 2n (a partir de esporas que no han sufrido meiosis) y esporófitos n (a partir de gametos sin fecundar); se sabe de diferencias (citológicas) entre esporas y gametos (más o menos ribosomas, desarrollo del sistema de endomembranas, etc.) pero apenas se alcanza a comprender su significado biológico o su papel en la morfogénesis. El estudio de estos temas es una asignatura pendiente. Algo más se ha avanzado en el que es, por el momento, el tema estrella: la morfogénesis floral. En los años 80 se descubrieron (en genes embrionarios responsables de la identidad de los órganos animales) las secuencias homeobox. Posteriormente se comprobó que muchas de ellas tenían homologas en genes de Fungi y Planta y también de Bacteria (las habrá también de Protista). La función de los genes con esta secuencia (genes Hox) es la de regular a otros genes. En Planta {Antirrhinum y Arahidopsis) se detectó la presencia de una segunda familia multigénica (genes MADS-box, también con homólogos al menos en Fungi y Animalia) con la misma capacidad; los genes MADS-box están involucrados en la identidad de los órganos florales aunque no son los únicos que intervienen en la producción de inflorescencias y flores. Las plantas tienen un meristemo apical para el crecimiento caulino que genera, en su periferia, primordios foliares; en la axila de la hoja se forma un meristemo secundario para producir nuevas ramas (o yemas). Existen genes que determinan la transición entre ramas vegetativas y ramas floríferas (inflorescencias) así como entre inflorescencias indeterminadas y determinadas o entre hojas y flores y lo hacen mediante juegos de expresión/represión. La expresión de algunos está mediatizada por señales ambientales y endógenas (68,69). Se conocen genes {en Arahidopsis) cuyos productos aumentan o disminuyen según el ciclo día/noche, que regulan la expresión de otro gen (para criptocromos) involucrado en los ritmos circadianos {Animalia y Planta); los criptocromos son flavoproteinas que absorben la luz azul y ésta es necesaria para inducir la floración (70,71). Acerca del tiempo de floración (temprano vs. tardío), Weigel (69) da noticia de c. 12 relacionados con hormonas) involucrados, algunos de los cuales dependen de la luz para su expresión. Obteniendo inflorescencias: la presencia del gen GEN de Antirrhinum {= TEL 1 de Arahidopsis) determina que el meristemo crezca como rama pero la expresión del gen FLO de Antirrhinum (= LEY de Arahi-Botánica y Evolución dopsis) lo inhibe y el tejido meristemático formará una flor (72,73,74). Mutantes de CEN (inactivación) también acabarán las ramas en flor (75). A su vez CEN reprime a FLO y del juego en diferentes lugares y momentos de la expresión de uno u otro se obtienen las diferentes arquitecturas de las inflorescencias (76), resultando determinadas si en el meristemo apical actúa FLO o indeterminadas si sólo lo hace en los primordios laterales. El cambio de un modelo de inflorescencia a otro se ha producido (y revertido) varias veces en la evolución de las estirpes angiospermas. Por otra parte, la inflorescencia será bracteada o ebracteada según se exprese o no FLO en el primordio bracteal. FLO se puede expresar en brácteas, sépalos y pétalos (induciendo la expresión de API) pero no en estambres o carpelos (76,77). Posteriormente se concluiría que para la formación de inflorescencias con flores se requiere la acción coordinada de al menos cinco genes: FLO, API, UFO, CAL y AP2 (algunos de los cuales son redundantes). Elaborando flores: Una vez ganada la identidad floral por un meristemo se inicia el desarrollo de la flor: nuevos genes (homeóticos) y su juego de expresión o silencio, conferirán identidad a los verticilos (unidades merísticas); si uno de ellos se expresa en un lugar incorrecto, se producirán órganos normales en una posición anormal (78) al modo en que salen patas en el lugar de las antenas en Drosophila. Lacandonia schismatica representa este caso, con los estambres en el interior, rodeados de carpelos; esta mutación no es adaptativa (es planta cleistógama y no supone ventaja alguna para su fertilización) por lo que el rasgo debió fijarse sin concurso de la selección natural. Según parece los genes involucrados en el desarrollo de los dos primeros verticilos y los necesarios para formar el cuarto (carpelos) se inhiben mutuamente. De esta manera el lugar (verticilo) en que aparecerán los primordios de cada tipo de órgano está muy controlado genéticamente; no tanto el número de órganos resultantes pues parecen fáciles incrementos o decrementos de pétalos, estambres o carpelos, a juzgar por las numerosas veces que han sucedido a lo largo de la evolución de las familias angiospérmicas. Cascada de genes para la especificación de órganos florales El estudio de los fenotipos aberrantes determinados por mutaciones de los genes homeóticos (de tipo A: carpelos en vez de sépalos y estambres en lugar de pétalos, de tipo B: sépalos en vez de pétalos y carpelos 80 en vez de estambres, de tipo C: pétalos en vez de estambres y sépalos en lugar de carpelos) condujo ( 76) a suponer un modelo en cascada (orden de expresión) de genes que sería el responsable de la identidad de los órganos singulares y de su desarrollo en el verticilo correcto. Comenzarían expresándose los genes de clase A y se definirían sépalos; a estos se añadirían los de clase B y juntos, formarían pétalos; el silencio de los A y la expresión de los B+C determinaría estambres y los de clase C en solitario especificarían carpelos (fig. 1). Los años 90 ñieron fi:-uctíferos en la localización y estudio de las ñmciones de los genes de la «cascada ABC» que pronto se vería ampliada con genes de clase D para especificar óvulos. Se identificaron los genes API y AP2 como de clase A; los parálogos AP3 y PI de clase B; AG de clase C y BELL y SUP de clase D. Ya se ha dicho que los genes AP y PI (primeros verticilos) inactivan a AG (cuarto verticilo) y viceversa, pero también BELL silencia a AG (en el momento de la formación de óvulos) y CURLY LEAF al principio del desarrollo floral para permitir la expresión de los genes de clase A y B. Por su parte SUP reprime a AP3 en el centro de la flor temprana pero le deja actuar en la tardía ya que se requiere (además de BELL y el propio SUP) en el desarrollo ovular. Se pensaba que la secuencia ritualizada (en cascada) de los genes ABC bastaría para determinar flores y que su silencio en un meristemo indiferenciado permitiría el desarrollo de hoja (en vez de flor) sin embargo, la presencia de los genes ABC también en el cuerpo vegetativo de la planta, obligó a pensar que, para el desarrollo floral, debían intervenir aún más genes. Pelaz & al. (79) añadieron una nueva clase de genes MADS-box a la cascada (clase E: genes SEP) cuya pérdida de fimción determina que todos los órganos florales se asemejen a sépalos; éstos no se expresarían en hojas y, junto con los ABC, especificarían la identidad de la flor y de sus órganos: A+B+E para pétalos, B+C+E para estambres y C+E para carpelos. TheiBen & Saedler (80) analizaron la filogenia de la familia de genes MADS-box encontrando que (duplicaciones aparte) se ha diversificado en tres ciados: el primero formado por los genes de clase B (AP3, PI), el segundo por los de clase C y D (AG y los especificadores de óvulos) y el tercero por los de clase A (API, AP2) más los de clase E (SEPl, SEP2, SEP3). Los mismos autores proporcionan un modelo (que denominan «del cuarteto») como base molecular para la cascada. A: modelo «en cascada» de los tipos (clases) de genes que intervienen en la morfogénesis floral. B: modelo «del cuarteto» con especificación de los genes de cada clase que intervienen en la determinación de los órganos florales. Basada en referencia 80. El modelo del cuarteto propone que la identidad de los órganos florales está ligada a la acción de cuatro complejos tetraméricos (factores de transcripción) compuestos por proteínas MADS-box. Así los sépalos serían especificados por dos genes de clase A y otros dos desconocidos (¿clase E?); los pétalos por dos genes de clase B, uno de A y otro de E; los estambres por dos genes de clase B, otro de clase C y el cuarto de clase E y los carpelos por dos genes de clase C y otros dos de clase E (fig.l). Probando si la cascada es universal en angiospermas, Kramer & al (83) hallan que en las básales (incluso en ranuncúlidas) sólo hay un gen AP3 (paleo-AP3) mientras que en las demás eudicotiledóneas, se multiplica (AP3 1, AP3 2, AP3 3); también que, en ranuncúlidas, el comportamiento de los parálogos AP3 y PI (clase B) no es uniforme en cuanto a la determinación de pétalos: en papaveráceas se expresan, como en el resto de las eudicotiledóneas, en pétalos y estambres (y en tegumentos ovulares) pero en ranunculáceas lo hacen o no en pétalos para cuya formación intervienen otros genes no identificados. Caben pues, como se sabía, dos orígenes para los pétalos: el que los relaciona con brácteas y el que lo hace con estambres. Con respecto a la simetría floral, se conocen desde antiguo mutaciones que la modifican pero sólo recientemente se ha aislado el gen CYC responsable de la bilateralidad de la flor de Antirrhinum (84). Igualmente (85) la forma mutante (metilada e inactiva) de su homólogo en Linaria 82 Margarita Moreno también produce flores regulares; ocasionalmente el mutante revierte durante el desarrollo (desmetilación). Flores zigomorfas se han producido numerosas veces en el curso evolutivo de las angiospermas. Algunos géneros producen flores regulares en posición terminal y zigomorfas en posición lateral, ello se debe a que el gen CYC no actúa en el meristemo apical. Sobre el silencio de los genes (enArabidopsis) y su relación con el estado metilado de los mismos se halla mayor complejidad de la esperada ya que algunos «despiertan» mientras siguen metilados en tanto que otros, no metilados, guardan silencio (86). Parece claro que son aún más las preguntas que las respuestas conseguidas en el tema de la morfogénesis vegetal, pero también que los genes homeóticos son fundamentales tanto para unidad (permanencia de la especie como tal) como para la diversidad de la morfología (87); los complejos homeóticos son básicamente conservadores pero también sufren cambios (de secuencia, duplicaciones de genes, pérdidas o ganancias, inversiones, etc. (88) y tales alteraciones en este genoma regulador, responsable de la morfogénesis, permite la surgencia súbita de estructuras nuevas sin la incorporación de nuevos aleles en la población; pero, incluso sin los cambios antedichos, basta con ciertos «errores» en el orden, en el lugar o en el momento de expresión de los genes homeóticos para que se produzcan cambios importantes en el fenotipo; son indudablemente una fuente de variación no gradual, capaz de generar nuevos diseños. Alteraciones de este tipo también permiten explicar las explosiones evolutivas producidas en un tiempo limitado ya que pueden proporcionar una gran diversidad fenotípica partiendo de sólo unos pocos genes. De otras morfogénesis: En el mundo de las bacterias también se considera el tema de la morfogénesis. Así se ha demostrado (89) que Anahaena (una cianobacteria) sabe contar hasta 10 y cada 10 células normales fabrica un heterociste; posee genes para la diferenciación o para la represión de los mismos. Otras bacterias no sólo «saben aritmética» sino que también «entienden de demografía»: son capaces de censar los efectivos de su propia especie y de las ajenas, modiñcando su modo de crecimiento y agregación en función de los resultados obtenidos. Poseen varios lenguajes químicos y la misma o diferentes especies pueden trabajar juntas, portándose como un organismo multicelular, para dividir el trabajo (segregar enzimas que inactivan a los antibióticos o mucilages para evitar la desecación...); saben coordinar actividades (como segregar actinas al unisono) y producir (o detener) en el momento exacto las hormonas de agregación; saben organizarse en Botánica y Evolución diferentes tipos de agregados (colonias, filamentos, etc.), con la ventaja (para ellas) de que algunos de éstos (p. ej. el modelo biofilm) no son atacados por los antibióticos, los detergentes o el sistema inmunitario. Las más de las veces se desconocen las bases genéticas (y morfogenéticas) para estos procesos y se pone de manifiesto que tenemos que abrir más los ojos a la dimensión de la cooperación en los fenómenos de la vida y de su diversidad. Entre los protista es común la complejidad de sus ciclos biológicos; así por ejemplo, una misma especie dinoflagelada puede ser sucesivamente flagelado pelágico, cocoide parásito de peces, «quiste» grande o mediano o pequeño, «ameba» enorme lobosa bentónica, «ameba» pequeña filosa, cocoide parásito de algas...y cada fase puede contener plaste o no (90, 91, 92) (fig. 2); los mismos genes «saben» elaborar diseños muy diferentes que permiten a la especie la explotación de recursos diversos en el espacio y en el tiempo. El estudio de la morfogénesis en estos y en tantos otros casos análogos es también una asignatura pendiente. Asignatura pendiente es además el estudio de la morfogénesis en el mundo fúngico. Los hongos suelen presentar una enorme plasticidad fenotípica: una misma especie sabe crecer como levadura o como micelio y éste puede ser de hifas laxas o apretadas en denso plecténquima, todo ello está claramente regulado aunque no se sabe cómo. Puede haber variación en el nivel de las poblaciones: mutaciones, recombinación (mediada por la reproducción sexual), etc. darán lugar a la presencia de diferentes aleles en la población. Pero tal (micro )variación se traduce en polimorfismos (continuos cuantitativos) en el seno de las poblaciones o entre éstas (en el seno de la especie), lo que parece tener importancia en la obtención de «ajustes locales» dando una oportunidad a la colonización de habitats diversos, aunque no parece la base (por lo menos no la única) del origen de nuevas especies (discontinuidades cualitativas) ni siquiera por medio de dilatados periodos de tiempo. Sería el caso de las mariposas, primero blancas sobre abedules blancos, luego oscuras sobre abedules ensombrecidos por la carbonilla de la revolución industrial, ahora volviendo a blanquear (unas y otros) gracias a la sustitución del carbón por el petróleo: blancas o negras no dejan de ser la misma especie. O de nuestras razas blancas que si no lo fueran padecerían raquitismo en los umbrosos paises del norte donde tendrían dificultades para asimilar la vitamina D, pero blancos o negros todos somos Homo sapiens. O de los pájaros que cruzan los Himalayas que, de las varias posibles, usan preferentemente las hemoglobinas con mayor afinidad por el oxígeno... Volviendo a la idea de Carson (53), la variación de aleles en la población parece corresponder a la permitida por la parte abierta del programa genético especifico. Y debe ser ésta la que se moviliza y manifiesta en las razas o variedades sometidas a selección artificial, las cuales pueden poseer fenotipos muy desviados de la forma salvaje, aunque no dejan de pertenecer a la misma especie. Es lo que parece deducirse de los resultados obtenidos por Balick (93) quien plantó semillas de variedades de cultivo que llevaban décadas encapsuladas y conservadas en un banco de germoplasma, con la intención de comprobar su capacidad germinativa; la sorpresa fué que las plantas obtenidas no mostraban las características que les hacían pertenecer a una u otra variedad sino que todas se parecían al tipo silvestre. ¿Qué ha sucedido en su ADN, durante las décadas de conservación, para que se «haya purgado» la variación poco relevante y mantenido «lo fundamental»?. Otros descubrimientos proporcionan más claves acerca de cómo se puede producir vairiación en la parte cerrada del sistema genético específico. Es el caso de las proteínas de respuesta al estrés (= de choque térmico), cuya función en tiempos «normales» parece ser la de reparar el ADN pero que, en tiempos de crisis, deben ocuparse (son chaperoninas) de restaurar a otras proteínas (alteradas por las condiciones adversas) a fin de que el organismo siga funcionando; desatienden así su misión primordial (lo urgente impide acometer lo importante) con el re-Botánica y Evolución sultado de una acumulación de cambios en el ADN (cuyas consecuencias son impredecibles). Igualmente, existe un sistema «SOS bacteriano» que promueve mutagenesis (redisposiciones génicas, escisiones, transposiciones y recombinacion) y que se activa en condiciones adversas. Hechos como estos abren también una puerta a la posibilidad de variación súbita y drástica como la que es necesaria para provocar las explosiones evolutivas que siguen a las crisis ambientales y a las extinciones masivas. En la dimensión de la comunicación también parecen estar involucradas las proteínas de respuesta al estrés. Se sabe de plantas que desencadenan defensas cuando detectan sustancia volátiles emitidas por sus congéneres dañados (94,95) y también que tienen memoria (química): determinados estímulos provocan respuesta sea en la región afectada o en tejidos alejados de ésta y sea inmediata o diferida; esto supone capacidad para procesar datos del entorno, almacenar información, recuperarla en un momento dado y transmitirla por todo el cuerpo vegetal (96); se desconocen los mecanismos responsables de estos procesos aunque parece haber relación con el estado iónico de la planta y con la actividad de ciertos genes (que codifican proteínas antiestrés). Un experimento en el mismo sentido (97) consistió en exponer algunas hojas de Arahidopsis a un exceso de luz (que inhibe la fotosíntesis) con el resultado de que éstas enviaron señales al resto que comenzaron a producir antioxidantes para protegerse de un exceso lumínico que no estaban sufriendo. Memoria, cooperación y comunicación, operando desde el nivel molecular hasta (al menos) el organísmico, cuya dimensión evolutiva apenas comenzamos a vislumbrar. Acerca de la relación entre variabilidad, tamaño de la población y reproducción sexual, Simpson (11) consideró la posibilidad de evolución rápida en poblaciones pequeñas (deriva genética) como excepción a la norma mantenida por el paradigma neodarwinista en el que la tasa de cambio evolutivo se considera proporcional a la diversidad genética disponible, ésta será mayor en las poblaciones amplias y panmícticas que en las reducidas con cruzamiento menos aleatorio, de suerte que las primeras poseerán no sólo mayor éxito sino también mayor potencial evolutivo. En este marco, Stebbins (98) consideraba a las plantas raras (escasas y en poblaciones pequeñas) como genéticamente depauperadas pero cambió de opinión (99) cuando encontró altos niveles de variabilidad en algunas de ellas a la vez que variabilidad escasa en especies muy comunes y formadoras de poblaciones amplias. Parece así que los niveles de variabilidad no guardan relación con el tamaño de la población (ni por tanto con el cruzamiento panmíctico) sino 86 Margarita Moreno con la filiación de las especies (constricción filogenética): raras o comunes estrechamente emparentadas mostrarán similares (altos o bajos) niveles de variabilidad (100). También en poblaciones reducidas de Drosophila (101) se ha hallado tanta o más variabilidad que en las amplias panmícticas. Incluso, el esperado incremento de variabilidad mediado por la reproducción sexual parece una predicción que tampoco se cumple: numerosos son los casos de plantas autógamas que portan un alto nivel de variabilidad (7) y lo mismo sucede en hongos que han perdido sus ciclos sexuales y se multiplican sólo vegetativamente (102,103). Y puede haber variación por integración de especies (simbiosis y otras adiciones de información): La integración de organismos completos en la génesis de nuevos diseños parece haber sido la causa del origen de la célula eucariótica. A esta quimera se añadió una nueva bacteria endosimbionte (pariente ancestral de las modernas rickettsias) que se transformó en mitocondria. Y, complicando más las cosas, una estirpe eucariótica (fagotrofa de origen) captó una cianobacteria a la que transformó en plasto primario (directamente bacteriano); tal estirpe, la primera eucariótica fotosintetizadora, se ramificaría con el tiempo en glaucófitos, algas rojas y verdes (fig. 3). Se ha prestado mucha atención a mitocondria y plasto y muy poca a la pléyade de bacterias diversas que son comunes en el citoplasma de los eucariontes unicelulares; de muchas se sabe que han transferido parte de su genoma al núcleo, de otras que proporcionan vitaminas a la célula principal. Peroxisomas, hidrogenosomas y otros «orgánulos» quizá tienen su origen también en antiguas endosimbiosis. Por si esto era poco, aquellos eucariontes autotrofos (portadores de al menos tres genomas: núcleo, mitocondria y plasto primario, integrados y cooperantes) también pudieron ser «cazados» por otros eucariontes fagotrofos, a los que convirtieron en fotosintetizadores, transformándose ellos mismos en plastos secundarios (de origen eucariótico) dentro de aquellos. Y la rueda siguió girando. Así una estirpe euglénida (pero no todas: hay euglénidos primariamente aplastídicos) captó un alga verde que convirtió en euglenoplasto tras reducirla drásticamente (113,114,115). La rama ancestral de los criptófitos incorporó un alga roja (116 y ref. contenidas) que también fué reducida aunque conservando su núcleo vestigial (117). Igualmente el ancestro de los primnesiófitos (= haptófitos o cocolitofóridos) independientemente, captó y redujo a un alga roja diferente (118). Más compleja es la historia de los plastos del conjunto pardo-dorado: quizá el antepasado común a sus linajes fotosintetizadores y pseudofúngicos (laberintúlidos y oomicetes, diatomeas, crisófitos, xantófitos, algas pardas, pelagoficeas, silicoflagelados y pedinélidos) incorporó un alga roja unicelular (119,120) que fué reducida a crisoplasto; especies individuales o ramas enteras (como los laberintúlidos y oomicetes) lo perdieron secundariamente (algunas retienen mancha ocular como resto del mismo). Pero el plasto de eustigmatofíceas y, sobre todo los de rafidofíceas 88 (=cloromónadas) parecen tener otros orígenes: quizá perdieron su crisoplasto original y lo sustituyeron mediante la captura de un pariente, p. ej. xantofíceo u otro, más o menos próximo (121). «Amebas reticulares» como Chlorarachnion portan plastes (con su propio núcleo) que parecen afiliarse con las algas verdes (122) mientras que otras «redes de babas» como Reticulosphaera los tienen de tipo crisoplasto. Entre los dinoflagelados hay estirpes primariamente aplastídicas y otras fotosintetizadoras pero sus plastes son de origen diverso, lo que implica varias endosimbiosis independientes de algas rojas, verdes, haptófitos, diatomeas, crisófitos o criptófitos (123,124,125,126,127 (128,129) aunque derivaron hacia el parasitismo (antes clasificados en el polifilético grupo de los esperezóos). Nunca estudiados en la Botánica pese a que muchos de ellos fotosintetizan (y algunos llegan a ser importantes productores primarios) son los ciliados, foraminíferos, radiolarios, acantarios, corales, esponjas, cnidarios, turbelarios, moluscos, platelmintos, equinodermos, ascidias, renacuajos..., los cuales pueden tener como endosimbiontes a cianobacterias, algas verdes, dinoñagelados, crisofíceas, xantofíceas, diatomeas o haptofíceas. Piénsese en el número de genomas que conviven armoniosamente, por ejemplo, en un diado fotosintetizador gracias a un endosimbionte dinoflagelado (pariente a fin de cuentas) cuyo plaste sea un criptófito: el del núcleo del ciliado, de su mitocondria, del núcleo dinoñagelado, de su mitocondria, del núcleo criptofítico, de su mitocondria, del núcleo vestigial del alga roja (no conserva mitocondria) y el de la cianobacteria o plaste primario; y en los finos mecanismos de regulación y de comunicación molecular que deben desplegarse para conseguirlo. El caso paradigmático de (exo)simbiosis en el mundo vegetal lo proporcionan los liqúenes, organismos plurigenómicos (aunque también los casos mencionados más arriba lo son) que para Tibell (130) están tan altamente integrados que el éxito de ambos por separado se aproxima a cero. También es de interés la asociación de los hongos (micorrizas) con las raíces de las plantas, ya presente en fósiles de más de 400 Ma (131, 132 y ref. contenidas). Para algunos (133) la colonización de la tierra firme por las plantas no hubiera sido posible sin su asociación con los hongos; otros consideran que los hongos pudieron haber sido los inductores de la lignificación vegetal e incluso (134) que el ancestro carofíceo de Planta adquirió el crecimiento apical (que le confirió la capacidad de formar te-Botánica y Evolución jidos) mediante asociación temprana con hongos simbióticos y gracias al ADN que éstos le cedieron. La compatibilidad planta-hongo implica complejos procesos de reconocimiento y coordinación molecular entre ambos: la raíz induce la germinación sólo de las esporas deseadas y elimina las respuestas defensivas; alteraciones en la morfogénesis celular permiten la penetración de la hifa, etc. ( 135): se trata de mecanismos muy diferentes a los expresados frente a los patógenos. Por otra parte, las micorrizas no sólo proporcionan agua y nutrientes a la planta sino que también provocan cambios morfológicos: en gramíneas C4 determinan un incremento de la estela y con ello del tamaño de la planta (136). Pero además de micorrizas hay hongos en las partes aéreas de muchas plantas que, con frecuencia les proporcionan mayor vigor y tasa de supervivencia quizá porque las protegen de ataques de insectos, de otros hongos o bacterias etc. Estas asociaciones se conocen desde hepáticas en adelante, y quizá se establecieron ya en el Ordovícico. De parecida naturaleza debe ser la simbiosis de algunas plantas con bacterias rizobiales, las cuales también les ceden ADN, desarrollando complejos sistemas de comunicación entre ambas e involucrando genes de reconocimiento; como en el caso de las microrrizas, una vez establecida la simbiosis con bacterias, se evitan otras infecciones. Son también numerosos los casos descritos de asociaciones (ecto y endocelulares) de cianobacterias con plantas. En los procesos de simbiosis, hay una componente ecológica y otra evolutiva; en ciertos casos, la asociación incrementa (o posibilita) la eficiencia ecológica de al menos una de las estirpes pero no origina otra nueva: un caracol o un renacuajo «fotosintetizadores» pueden explotar ambientes pobres en nutrientes pero no dejan de ser un caracol o un anfibio. La dimensión evolutiva de la simbiosis como generadora de diseños novedosos, está fuera de toda duda en el origen de la célula eucaríótica, también en el origen de los liqúenes y en de los primeros eucariontes fotosintetizadores: aquel pequeño flagelado fagotrofo que incorporó a una cianobacteria se constituyó en una línea radicalmente diferente; y, si tal evento no hubiera sucedido, no hubiera sido posible la cascada de endosimbiosis que dio lugar a las diferentes líneas algales con plastes secundarios; tampoco existirían las plantas terrestres que son, en definitiva, descendientes de una rama de algas verdes. De ser ciertos los postulados de Pirozinsky y Mallok, no hubiera sido posible el establecimiento de las plantas sobre la tierra firme. Con respecto a otras adiciones de ADN, también está fuera de toda duda la transferencia horizontal entre diferentes estirpes (con conse-90 Margarita Moreno cuencias impredecibles), entre simbiontes e incluso desde (o hacia) parásitos; un agente infeccioso bacteriano puede transformarse en endosimbionte en pocos años (137). Las bacterias pueden tomar ADN libre (138 y ref. contenidas) lo que debió tener su importancia en la evolución celular temprana. Bien conocida es la transferencia de secuencias entre bacterias de la misma o distinta especie, sea mediada por conjugación, fagos o transposones (139,140,141); pero también se ha docimcientado el paso de genes desde Bacteria aArchaea; no parecen raros los intercambios entre plaste y mitocondria (142,143), así el plaste de las algas rojas (rodoplasto) debió perder uno de los genes necesarios para la síntesis de Rubisco, pero lo repuso con el transferido de su propia mitocondria (144). Y están bien documentados los trasiegos masivos de genes de ambos (mitocondria y plaste) al núcleo eucariótico (en Planta, entre el 3 y el 7% de su ADN es de origen organular (145); al parecer la pérdida masiva de genes organulares fue temprana y rápida habiendo habido después algunas pérdidas diferenciales entre estirpes (146). También se conocen genes eucarióticos que se han incorporado en bacterias: Escherichia coli tiene un gen de Planta, genes animales aparecen en otras Bacteria (147 y ref. contenidas), llamativo es el caso de genes de un áfido imprescindibles para su desarrollo larvario pero que residen en su bacteria endosimbionte (148), y Mycobacterium tuberculosis contiene, al menos, ocho genes humanos (149). Otro ejemplo de intercambio de genes entre organismos de diferentes reinos es el de un intrón móvil del ADN mitocondrial de muchas angiospermas que parece llegado desde Fungi mediante c. Parece pues que las barreras al trasiego de ADN entre especies distintas son sorteables, que las transferencias masivas (aunque raras) se realizan muy rápidamente, que por lo común no parecen tener grandes consecuencias fenotípicas en el que recibe los genes, bien porque éstos se «purgan» o se silencian, se integran «sin hacer ruido» o se utilizan para otros fines; en este sentido se conocen en Bacteria sistemas enzimáticos para reparar su ADN usando el recién incorporado y eliminando el erróneo; algunos autores (151) consideran que el origen del sexo puede tener relación con la necesidad de tomar ADN foráneo para la reparación del propio y que, en Eukarya, con alguna sofisticación mayor, la fusión y segregación de cromosomas permite igualmente purgar los parásitos moleculares; es ésta una interpretación bien diferente a la tradicional que pone el sexo al sevicio de la recombinación de aleles. Pero la incorporación de genes también puede tener consecuencias evolutivas ya que, como se ha visto, la inserción de secuencias en según Botánica y Evolución qué lugares puede modificar la expresión de los genes aledaños. En este sentido se piensa en el ADN móvil (que con ñrecuencia es de origen viral) como elemento capaz de generar novedades evolutivas. Los ubicuos virus pueden ser vehículos de ADN y la alta cantidad de secuencias virales halladas en los genomas secuenciados, incluido el humano (recuérdese también el caso de Hordeum citado más arriba) así parecen atestiguarlo. Fuhrman (152) informa de la existencia de una formidable cantidad (c. 10.000 millones / litro) de virus marinos y de su importancia real tanto en los procesos ecológicos y biogeoquímicos como en la probable debida a su capacidad para la transferencia genética; ésta podría tener lugar en periodos de crisis mediante, por ejemplo, transgresiones marinas. Schwemmler (153) propone un modelo evolutivo que denomina endocitobiológico, basado en transferencias horizontales mediadas por virus y bacterias que jugarían a reactivar genes silentes. Una infección vírica puede afectar a la vez a numerosos individuos de una población (y más en situaciones de estrés); si su inserción en el genoma de los mismos no se produce al azar sino en algún lugar preciso (como parece la norma), muchos portarán idéntica «mutación»; si las consecuencias de tal inserción afectan a la parte cerrada del programa genético, en la morfogénesis de la generación siguiente se producirán numerosos «monstruos» (iguales entre sí y distintos de sus parentales) que tal vez serán los nuevos «diseños óptimos» de Niklas. Quizá de esta manera el «monstruo» solitario de Goldschmidt encuentra compañeros; quizá es así como surge una nueva especie. Parece que, además de la génesis de nuevos diseños mediante la integración de simbiontes, existe también posibilidad de evolución de nuevas estirpes debida a estas secuencias transferidas (integración igualmente de entidades aunque, en este caso, moleculares) materia prima para sucesivas redisposiciones de genes, regulaciones diferentes, etc. Es evidente que, mas allá de los lentos cambios cuantitativos en las frecuencias alélicas, existen otros mecanismos que proporcionan variación súbita y la posibilidad de génesis de nuevos tipos. De la competencia y la selección natural: finalmente, en el paradigma darwiniano, se canaliza la variabilidad mediante competencia y selección natural: una vez producidas las variantes se establece competencia entre sus portadores, sobreviviendo (y perpetuando sus genes) los más aptos, elegidos y promocionados por la selección natural; pero muchos de los procesos descritos más arriba pueden ser sendas fuentes de novedades evolutivas súbitas sin necesidad de competencia y de selección natural; por el contrario, requieren de autoorganización y cooperación, sea en el nivel molecular, celular u organísmico (154). Parece que, tras un largo periodo de ciencia reduccionista que se instauró con el crecimiento de las disciplinas de la Biología funcional en detrimento de las de la Biología sistemática o evolutiva (pero que también afectó a ésta) estamos en un momento de recuperación del interés por los procesos del cambio evolutivo. Pero no sólo, sino que también parece haberse desarrollado la voluntad de poner en común los saberes procedentes de distintas aproximaciones, la consecuencia es que se están produciendo muy rápidamente nuevos y mejores frutos.
«La generación espontánea de la vida en la tierra habría tenido tantas probabilidades de darse como el ensamblaje de un avión 747 por un tornado a su paso por un depósito de chatarra». El modelo darwinista es un modelo sencillo que pretende explicar la manera en la que los seres vivos han evolucionado. La simplicidad de sus planteamientos ha facilitado la difusión de estas ideas. Pero esa misma simplicidad hace que difícilmente pueda explicar la complejidad de los seres vivos. Tampoco explica la enorme velocidad de evolución de las especies, que se deduce de la aparente ausencia de intermediarios en el registro fósil. Para soslayar estos problemas, diversos autores han sugerido la presencia en la célula de mecanismos adaptativos y no preadaptativos, como sugiere el modelo darwinista. La arquitectura de los sistemas informáticos, así como los lenguajes de programación, han tendido, a medida que se han ido haciendo mas complejos, a adoptar la filosofía de los servicios prestados o programación orientada a objeto. Otras herramientas como el debugger han facilitado tremendamente la tarea de los programadores para depurar código y localizar y corregir errores de programación. La adopción de esta filosofía de trabajo ha posibilitado la aparición de sistemas informáticos complejos, robustos y de fácil actualización. Los principios que han posibilitado el aumento en complejidad, su robustez y han facilitado la evolución de lo sistemas informáticos, también podrían estar presentes en la célula. A estos mecanismos los podríamos llamar de «adaptación facilitada», y permitirían: a) introducir azar «controladamente» en los genes, b) acotar los conjuntos de genes sobre los que este mecanismo actúa, c) «validar» si los cambios introducidos han sido o no adaptativos, d) facilitar la fijación de dichos cambios en el genoma y e) facilitar la propagación horizontal, mediante virus, de genes adaptivos. Juan Cedano 102 Introducción En los organismos vivos encontramos diferentes niveles de organización: molécula, célula, tejido, órgano, aparato, individuo, grupo, población, comunidad, etc. Aunque en este texto tan sólo se hará referencia al nivel celular, se ha de tener en cuenta que los mismos principios que se van a definir para la célula se puede extrapolar al resto de niveles de organización. Mecanismos análogos a los que se van a describir para la célula ya se han descrito con detalle para el nivel organizativo individuo. Esta información, por desgracia, es de difícil acceso, aunque sí existe algún libro que puede proporcionar un poco información sobre el tema (Herrera^, 1999; Herrera^,, 1999). El planteamiento general de este capítulo es utilizar los sistemas informáticos como fuente de inspiración, para tratar de comprender los mecanismos moleculares y celulares que podrían estar implicados en los procesos evolutivos. Se pretende hacer incapié sobre ciertos indicios que apuntan que podrían existir en las células ciertos mecanismos que dirigen y facilitan la adaptación de los seres vivos. En el texto se hace un recorrido sobre algunos aspectos del funcionamiento de los seres vivos, estableciendo numerosos paralelismos entre la organización de la información en los seres vivos y los ordenadores. En los últimos años hemos asistido a la aparición, expansión y evolución de los sistemas informáticos. A lo largo de esta evolución, tanto máquinas como sistemas operativos y aplicaciones se han ido haciendo cada vez más complejos. Gestionar de forma efectiva esta creciente complejidad ha obligado a los ingenieros de sistemas a estructurar y jerarquizar la información y los recursos. De esta manera, se impidió que este aumento en complejidad condujese indefectiblemente a convertir nuestras computadoras en sistemas cada vez más inestables. Los seres vivos, al igual que los sistemas informáticos, podríamos ser definidos como sistemas complejos de información dinámica. Es muy probable que durante el largo proceso evolutivo que condujo a la aparición de los organismos pluricelulares, algunos de los mecanismos que han permitido a las computadoras evolucionar como sistemas estables y coherentes, también se han hecho patentes en la organización interna de los seres vivos. Estos mecanismos no son más que una respuesta a la complejidad creciente y permiten acotar el esfuerzo adaptativo de los seres vivos comprometiendo lo menos posible el funcionamiento global del individuo. Cuando se habla de evolución, normalmente aparece la visión oficial del tema, que es básicamente Darwinista. En esta visión se habla de mutación al azar generadora de varianza preadaptativa guiada por la «to-Modelos informáticos para entender la evolución 103 dopoderosa» selección natural. Este modelo de evolución difícilmente explica la falta de intermediarios en el registro fósil, y la enorme velocidad de aparición de las nuevas especies. En depósitos aluviales como los del lago Turkana se observa claramente esta discontinuidad en el registro fósil. Los fósiles de los moluscos del lago están profusamente representados y se estratifican ordenadamente pero sin intermediarios, a pesar de que según Williamson no se aprecian cambios significativos en el entorno del lago. ¿Dónde están estos supuestos eslabones perdidos, que el registro fósil se empeña en ocultarnos? Existen multitud de indicios que nos permiten sospechar que el verdadero funcionamiento de los sistemas biológicos no se asemeja demasiado a los mecanismos propuestos por Darwin. En este texto no se pretende realizar una descripción pormenorizada de toda la bibliografía que se aparta de los modelos Darwinistas, tan sólo se mostrarán los mínimos ejemplos que nos permitan hilvanar un hilo conductor más o menos inteligible. De todas formas, esta tarea ya la han realizado algunos autores, que se han dedicado a recopilar exhaustivamente documentación discrepante con el modelo Darwinista. De entre ellos destacaría el libro de Rémy Chauvin, «Darwinismo El Fin de un Mito». En este libro se recogen multitud de referencias que permiten al lector generar una visión crítica sobre la visión Darwinista de la evolución y sus implicaciones. Pero tanto en éste como en otros libros críticos con la obra de Darwin, falta la propuesta de un modelo alternativo. La crítica sólo tiene sentido si es constructiva, y no se puede dejar a la comunidad científica sin un modelo. Es cierto que el azar actúa sobre los sistemas vivos. Por ejemplo, durante la replicación del DNA. Estos errores introducen cambios en la secuencia de DNA que podrían considerarse azarosos. Gran parte de estas modificaciones serán mutaciones silenciosas^, o no se traducirán en un cambio fenotípico lo suficientemente acusado como para dar lugar a un cambio significativo en «fitness» para el individuo que la hereda. Pero, por lo general, las mutaciones al azar no producirán una mejora, sino más bien todo lo contrario. Estas mtutaciones al azar y la varianza que de ella se deriva, desde el punto de vista informático, no serían más que ruido de fondo, simplemente errores del sistema. Para un programador, la idea de que por azar una aplicación pueda mejorar en cualquier aspecto, es a todas luces absurda. Los sistemas vivos son sistemas de alta complejidad que contienen una gran cantidad de información que puede ser usada dependiendo de los requerimientos del sistema. En el fondo, entre una célula viva y un ordenador se pueden establecer muchos paralelismos que nos ayudan a comprender los meca-Juan Cedano 104 nismos que hacen posible la evolución. La información de los sistemas complejos, aunque puede estructurarse de muchas maneras, ha de cumplir una serie de requisitos que contribuyan a dar estabilidad y coherencia interna a los mismos. Una pequeña visión histórica puede ayudarnos a aclarar conceptos. En los albores de la programación, los ordenadores tenían que ser programados en código máquina. Esto implicaba, por parte del programador, conocer la arquitectura interna de la máquina con que se trabajaba, conocer las llamadas a las diferentes funciones disponibles en el microprocesador, así como los registros en los que se debían depositar los datos y aquellos registros en los que se recogen los resultados. Esto hacía de la tarea de programar un trabajo tedioso y poco intuitivo. Pero en cierta manera, y debido al elevado precio de los ordenadores y la memoria, era la forma óptima de trabajar. Con el tiempo, y gracias al descenso en el precio de los ordenadores y sus componentes, fue extendiéndose el uso de código fuente en lenguajes de programación cada vez de más alto nivel, más cercano al lenguaje del usuario, ya fuera éste lenguaje compilado o interpretado. Los sistemas operativos fueron tomando progresivamente más importancia, asistiendo al usuario y evitando en gran medida los conflictos a la hora de gestionar los recursos de la máquina. La evolución de los lenguajes de programación les llevó a incorporar progresivamente una mejor gestión de los errores, tanto de las aplicaciones como del sistema. Al correr del tiempo, se pasó de la programación lineal a la programación estructurada. La programación estructurada era más intuitiva que la programación lineal, hacía que el código fuese más inteligible, facilitaba la reutilización del código y permitía descomponer las tareas más complejas en multitud de funciones básicas con entidad propia. Estas funciones básicas son accesibles y pueden ser llamadas desde otras funciones para dar lugar a nuevas tareas complejas. La forma en la que el genoma de las bacterias se organiza seguiría, básicamente, un modelo de programación estructurada. Programación estructurada en la organización de los sistemas vivos Para un usuario informático el funcionamiento interno de su ordenador es como una caja negra. El usuario no es «consciente» de la gran cantidad de operaciones que internamente realiza el ordenador para que, por ejemplo, el texto que se teclea usando un procesador de textos aparezca finalmente por pantalla. Si todo funciona correctamente, como Modelos informáticos para entender la evolución 105 usuarios, sólo tendremos «conciencia» de las respuestas para las que nuestro ordenador ha sido programado. Pero eso no sierapre es así, en la pantalla también pueden aflorar mensajes que nos advierten de algún error interno en el sistema. Si se crea un programa en el que se intente dividir cualquier número por cero, el sistema no podrá hacerlo. En lugar de devolver el resultado al usuario, el sistema advertirá que para esa operación no tiene respuesta apropiada. Nuestro sistema informático presenta una cierta tolerancia a los errores, es capaz de detectar algunos errores para los que está programado como la división por cero. Pero incluso en aquellos errores para los que no está específicamente programado, el sistema es capaz de advertirnos que se está produciendo una operación errónea en dicho sistema y que la aplicación ha generado dicho error o simplemente no responde. La información que se obtiene del sistema puede ser muy importante a la hora de depurar los errores de las aplicaciones instaladas en la máquina. Ahora bien, si la máquina en la que se ejecuta dicha aplicación errónea pertenece a un programador, muy probablemente dicho error provocará la ejecución automática de una herramienta que los programadores utilizan habitualmente para depurar el código que generan. Esta herramienta de depuración de código suele formar parte del compilador que el programador utiliza para implement ar y compilar sus aplicaciones. El control que el programador puede ejercer sobre los procesos que realiza la aplicación se hace aún más patente cuando se activa la utilidad del «debugger» mientras se ejecuta la aplicación en el compilador. El «debugger» permite controlar la ejecución de la aplicación paso por paso. Y además, permite cambiar el contenido de las variables en cualquier momento de la ejecución de la aplicación sin necesidad de volver a recompilarla^. Esta forma de funcionar nos parece de lo más «natural» en un ordenador. Entendemos que se trata de una forma lógica de actuar para localizar errores y abordar los problemas, facilitando en gran manera la tarea de los programadores para generar nuevas aplicaciones. Ahora bien, ¿qué consecuencia tendría sobre el proceso evolutivo de la vida si en los seres vivos existieran mecanismos similares a los descritos en los ordenadores? La respuesta a esta pregunta es bastante obvia. Para los programadores estas herramientas suponen una reducción considerable en los tiempos de desarrollo de una nueva aplicación. En un ser vivo, representaría que su velocidad de adaptación podría ser mucho naás alta que la que esperaríamos por puro azar. Pero, ¿existen mecanismos similares entre los seres vivos? Veamos un posible ejemplo biológico de lo que se intenta decir. En 1991 Barry B. Hall publicó un artículo en el que se analizaba la tasa de Juan Cedano 106 reversión de un doble mutante trp-. Cada una de las dos mutaciones por separado, trpA o trpB, en sus respectivos genes, impide que la célula pueda sintetizar triptófano. Para calcular la tasa de reversión de cada una de las dos mutaciones por separado se realizaron sendos cultivos en placa. En colonias en fase estacionaria, se observó la aparición de papi-las^ capaces de crecer a pesar de que el triptófano del medio ya se había agotado. La tasa de reversión de la cepa que presentaba las dos mutaciones se calculó de la misma manera. Si realmente la adaptación de la bacteria a condiciones de deficiencia de triptófano fuese debida a mutaciones al azar, la tasa de reversión del doble mutante sería fácilm.ente calculable, simplemente habría que multiplicar la tasa de reversión de la mutación trpA por la de trpB. Sin embargo, el resultado del experimento fue tremendamente sorprendente. La tasa de reversión era 100 millones de veces mayor de lo esperado. Es obvio que, en las bacterias de dicho experimento se estaba produciendo un mecanismo de evolución guiada y facilitada. Además, Hall secuenció los revertientes y observó un hecho curioso, en los mutantes del gen trpA se apreciaban tres tasas de crecimiento muy diferentes. Un subtipo de colonia crecía igual que las células silvestres, pero en los otros dos subtipos se apreciaba una tasa de crecimiento más baja. Estos dos últimos subtipos, aunque producían un enzima activo, éste era distinto al del enzima silvestre. Este experimento se aleja bastante de un modelo Darwinista. Pero, ¿podría ajustarse a los supuestos que antes hemos definido? Existen algunos puntos sobre los que habría que hacer un especial énfasis. En primer lugar se ha de considerar que la bacteria se encuentra en un estado de deprivación (starvation) por falta de un aminoácido esencial. Dicho de otra manera, la supervivencia de esta bacteria se encontraría seriamente comprometida por falta de triptófano. Esto podría disparar mecanismos de respuesta similares a los que se producen en los ordenadores. Pero, si bien el sistema operativo de un ordenador puede identificar qué aplicación no responde, otra manera más burda y simple de saber qué ha fallado es mirar qué aplicación provoca el error al ser ejecutada. De esta manera descartamos todas las otras aplicaciones, que aun estando instaladas en nuestro disco duro, no estaban en ejecución en el momento de producirse el error de sistema. Si se aplica este sencillo principio al experimento de Hall, se aprecia que, entre los genes que están siendo expresados en el momento de hacerse patente el «conflicto biológico», se hallan los genes de síntesis de aminoácidos esenciales. Se aprecia que al haberse agotado el triptófano del medio, la bacteria ha entrado en fase estacionaria, con la consiguiente inhibición de gran parte de la cascada de genes que rige la división y Modelos informáticos para entender la evolución el ciclo celular. ïln este momento el azar sí que podría jugar a favor de la célula, introduciendo a pequeñas dosis mutaciones en el RNA mensajero de los genes que se están expresando hasta encontrar una respuesta adaptativa. Esta respuesta adaptativa, en el caso que nos ocupa, vendría en forma de RNA mensajero revertido que produciría proteína nativa, reconstruyéndose así la ruta metabólica. En el momento en que dicha pseudo-reversión se produjera, el sistema tendría que fijar el RNA producido y recombinarlo con los genes de origen para así poder de fijar la adaptación conseguida. En una bacteria la posibilidad de realizar un banco de pruebas, utilizando el RNA, sin necesidad de pasar por una ronda de replicación, recuerda tremendamente a alguna de las utilidades típicas de un «debugger». Estos sencillos mecanismos moleculares permitirían producir varianza justo en los caracteres que la célula necesita cambiar para adaptarse, reduciendo así los «daños colaterales» de la mutación al azar y reduciendo el papel determinante que la selección natural ejercería, según el modelo Darwinista. La célula, al revertir esta mutación «resuelve» su «conflicto biológico» y vuelve a la normalidad. Introducir cambios en los genes de control del metabolismo del triptófano dejará de ser un objetivo para la célula, y ésta saldrá de lo que se podría llamar compilación en «debugger». El «conflicto» se «resuelve» aunque esa respuesta sea el 30% del crecimiento de una cepa silvestre, como sucede con el gen trpA. No se trata de una respuesta de todo o nada, los sistemas biológicos se ajustan más a las características de los sistemas difusos. Los mecanismos propuestos, pueden explicar parcialmente una tasa de reversión 100 millones de veces superior a la esperada por azar, e implica una regulación fina de dichos procesos. Existen algunos indicios que apunta a que podrían haber funciones en las RNA polimerasas bacterianas que todavía desconocemos. Eso explicaría porqué la evolución ha construido una proteína multimérica compleja, cuyas funciones pueden ser aparentemente emuladas por RNA polimerasas monoméricas de origen vírico. De todas formas, no es el interés de este texto describir detenidamente todas las moléculas implicadas en los mecanismos de «debugger celular» en los diferentes organismo, ya que una descripción pormenorizada no haría más que introducir más confusión en el modelo. Por lo que nos centraremos, para tener una visión global del «debugger en la célula» en los mecanismos propios de las células eucariotas de animales «superiores». En el resto de organismos, aunque el nombre con el que se ha bautizado a las proteínas y las cascadas de activación del «debugger» puedan variar, las funciones que el «debugger celular» desempeña son equivales. El «debugger celular» en las células eucariotas animales La herramienta «debugger», aunque está mucho más refinada en los lenguajes de programación orientada a objeto, también la encontramos en los compiladores de lenguajes estructurados. Antes de entrar en los mecanismos moleculares concretos en los que pueden estar implicado el «debugger celular», hay que remarcar que la principal diferencia entre la evolución en las células y en los ordenadores es que la célula no cuenta ni con programadores, ni ingenieros de sistemas; en este caso la función innovadora y organizadora que el programador ejerce sobre el código ha de ser suplida por otros mecanismos moleculares que permitan introducir modificaciones «controladas» en el genoma. Qué elementos o mecanimos han de integrar el «debugger celular» • Ha de incluir algún mecanismo que permita introducir mutaciones en el código genético. La aparición de mutaciones está bien documentada en determinadas condiciones fisiológicas, como por ejemplo en los tumores. La proteína mejor estudiada es la pSS^* expresada en altas concentraciones en células tumorales y a la que se le atribuye una función antitumor al. El estudio de esta proteína puede ayudar a entender cómo funcionaría el «debugger celular». Cuando observamos la frecuencia de mutación de la proteína p53, encontrada en multitud de tumores, se aprecia claramente que la tasa de mutación a lo largo de la proteína es tremendamente variable. Hay regiones de la proteína en las que prácticamente no se han encontrado mutaciones y otras regiones en las que las mutaciones son tremendamente variables (Van Oijen et al., 2000). Esta variabilidad en la frecuencia de aparición de mutaciones puede estar relacionada con el concepto de abstracción explicado más adelante en el texto. Bajo la perspectiva de la «adaptación facilitada», nos podría estar indicando que los intrones no son simples secuencias intercaladas en los exones, sino que pueden incluir información para la RNA polimerasa que, cuando funciona en condiciones de «conflicto activo», puede variar su tasa de fidelidad de traducción dependiendo de si la secuencia que se traduce ha sido marcada en los intrones como variable o como conservada. Ahora bien, hablando de forma estricta, el «debugger celular» permitiría introducir mutaciones controladas en el RNA mensajero producido, pero fijar dichas mutaciones en el DNA implicaría mecanismos de recombinación. La recombinación es uno de los mecanismos de más alta eficiencia a la hora de introducir o revertir mutaciones (Ellis et al, 2001; Beetham Modelos informáticos para entender la evolución 109 et al., 1999; Liu et al., 2001). Dicha recombinación estaría haciendo en realidad las veces del programador, ya que modificaría el código fuente del programa (DNA) tras probar una modificación con el «debugger» que solventa con éxito un error del programa. • El «debugger» ha de permitir relacionar el código con su proceso en ejecución. En un ordenador esta relación es directa ya que sólo se está ejecutando un proceso. En el caso del «debugger celular», para que el acoplamiento entre código mutado (RNAm mutado) y proceso (proteína) se produzca, es necesario que la vida media del RNAm sea larga. Una larga vida del RNAm permitiría producir la suficiente proteína para testar si los cambios introducidos en el RNAm son o no adaptativos. Paralelamente se debería producir una baja tasa de traducción de la RNA polimerasa, ya que si se están produciendo a la vez muchos RNAs mensajeros mutados es difícil determinar a cuál de ellos atribuir una posible mutación adaptativa. Ahora bien, ¿existe algún indicio de que estos mecanismos acoplados existan en la célula? Hasta hace poco tiempo, estos mecanismos tan sólo eran parte de un modelo teórico. En estos momentos existen algunos indicios que sugieren su existencia física en la célula. La roscovitina es un potente inhibidor reversible de varias quinasas dependientes de ciclina, proteínas implicadas en el control del ciclo celular. Cuando se administra esta droga se observa un fuerte incremento en la cantidad de proteína p53 que se acumula en el núcleo. Este efecto está íntimamente ligado a la inhibición de la transcripción de la RNA polimerasa II (Ljungman, 2001). Este dato parece indicar que realmente existe un mecanismo que permite bajar las tasas de transcripción de la RNA polimerasa II. Pero sigue faltando un elemento en el conjunto, ha de producirse un aumento de la vida media del RNAm acoplado al resto de procesos propios del «debugger celular». Tradicionalmente se ha asimaido que la poliadenilación del RNA mensajero tan sólo se producía en el citoplasma y, dado que la transcripción se da en el núcleo, entre ambos procesos no parece existir una conexión directa. Ahora bien, hace poco se ha descubierto una nueva poli(A) polimerasa, sobreexpresada en núcleo de células cancerosas, a la que se ha llamado neo-PAP (Poly(A) polymerase) (Topalian et al., 2001). Para que la proteína neo-PAP se ajuste totalmente al modelo su actividad debería ser modulada de igual manera que la de la RNA polimerasa. Pues bien: neo-PAP contiene un motivo conservado de reconocimiento por ciclina y múltiples lugares de forsforilación ciclina dependientes (Topalian et al., 2001). En otras palabras, y a falta de experimentos concretos que lo demuestren de forma más fehaciente, esto podría querer decir que la poliadenilación nuclear viene acompañada por una baja tasa de transcripción del DNA. • El «debugger» permite depurar el código de las aplicaciones, pero no se puede usar para modificar el propio sistema operativo. En el «debugger celular» debería suceder lo mismo: sobre el RNAm de determinadas estructuras celulares, que podríamos considerar el núcleo del sistema, no se debería aplicar ninguna tasa de reducción de la fidelidad de transcripción. El ribosoma podría ser considerado una parte fundamental del núcleo del sistema. La estructura de un ribosoma es tremendamente compleja, y éste está compuesto por numerosas proteínas y por RNA. El RNA ribosomal, de hecho, representa la mayor partel de RNA que se produce en el núcleo. Si la transcripción de los ribosomas estuviera ligada a la RNA polimerasa II, al entrar la célula en «conflicto activo» el gran número de mutaciones que se podrían acumular en el RNA ribosómico generaría rápidamente ribosomas inactivos que colapsarían la maquinaria celular. Por este motivo, tanto la transcripción del RNA ribosómico (r-RNA) como la transcripción de RNA de transferencia (t-RNA) estarían ligados a una RNA polimerasa distinta de la II. Concretamente, se sabe que la RNA polimerasa III transcribe el r-RNA en el nucléolo y que la RNA polimerasa I transcribe el t-RNA. • Fijación de los cambios adaptativos en el código fuente. Este mecanismo, como ya hemos mencionado anteriormente, sería realizado por el programador en un sistema informático, pero en la célula ha de ser el propio «debugger celular» el que se encargue de hacerlo de forma automática. Esto implicaría que la cascada que se pone en marcha en el «debugger» también ha de facilitar la recombinación. Parece que hay datos que así lo indican: efectivamente, la proteína p53 puede activar la transcripción de la topoisomerasa I (Albor, 1998), necesaria para este proceso. • Truncado de árboles de exploración. Esta idea está íntimamente ligada a los mecanismos del «debugger celular». Consiste en descartar aquellos caminos pretendidamente adaptativos que pudieran conducir a callejones sin salida. Cuando una célula en «conflicto activo» pone en marcha su «debugger celular», pero en lugar de resolver su «conflicto» el camino que ha tomado empeora su situación, desde el punto de vista de la «adaptación facilitada» sería conveniente destruir la célula, y también las posibles modificaciones que sobre el DNA esta célula hubiera hecho. Este mecanismo es la apoptosis. El bloqueo de la RNA polimerasa II y la inducción de la expresión de la p53, si se llevan al extremo, conducen a la apoptosis celular (Ljungman, 2001; Lane, 2001). La activación del «debugger celular» también debería facilitar la adopción de otros mecanismos adaptativos como el trans-splicing, la incorporación de genes no propios, ya sean víricos, bacterianos... etc. Programación orientada a objeto en la organización de los sistemas vivos complejos Volviendo a los símiles informáticos, el gran salto en complejidad de los sistemas informáticos forzó la adopción de la programación orientada a objeto. Los seres vivos tampoco detuvieron su evolución tras la aparición de las bacterias. La programación orientada a objeto aporta una serie de ventajas y, de haber sido adoptada por los seres vivos, les proporcionaría un procedimiento de gestión interna de la información tremendamente útil que permitiría una evolución rápida de los sistemas vivos. ¿Qué ventajas aporta la programación orientada a objeto? Da lugar a sistemas más robustos y con menos errores. Aumenta la productividad permitiendo construir módulos reutilizables. Es prácticamente imprescindible cuando nos enfrentamos a grandes sistemas complejos. La utilización de la herencia^ contribuye de forma decisiva a crear un sistema más fiable, fácil de ampliar y menos costoso de mantener. Genera menos código y en módulos más comprensibles. La encapsulación^ de los datos y las funciones ayudan a diseñar sistemas más estables, impidiendo que la modificación de una estructura, función o procedimiento pueda afectar a otros procedimientos. La ejecución de estas aplicaciones resulta más lenta. Requiere desarrollar bibliotecas de clases. La implantación generalizada de la programación orientada a objeto fue propiciada por el considerable aumento de la capacidad de los ordenadores. Pero, aunque en un principio representó un considerable incremento del número de horas que los programadores y analistas empleaban en definir las estructuras de datos, las funciones y los procedimientos a ellas asociados, con el tiempo y la utilización de librerías de objetos predefinidos y de propiedades como la herencia, -usada para de-Juan Cedano 112 finir nuevas clases y objetos-, se acabó consiguiendo una evolución rápida de aplicaciones con una elevada complejidad, minimizando además los errores. Este tipo de programación es mucho más intuitiva, pues entre otras cosas, facilita gestionar eventos, muy importante, en la programación de entornos visuales amigables a los que estamos ya tan habituados. Si la programación estructurada se interesa primero por los procedimientos y después por los datos, el diseño orientado a objetos se interesa en primer lugar por los datos, a los que se asocian posteriormente los procedimientos (Ceballos, 1997). Esto es, ahora la idea no es tanto qué ha de hacer esta función, sino más bien, ¿sobre qué trata este programa?^. Se construye, no alrededor de los procedimientos, sino alrededor de los datos, ya que estos suelen ser más estables. Elementos de la programación orientada a objeto Estas características las encontraríamos de forma más clara en las células eucariotas. Algunas de las características fundamentales son: abstracción, encapsulamiento y herencia, y sus mecanismos básicos son: objetos, mensajes, métodos, clases y subclases. A continuación se definirán estos conceptos, aunque en realidad se trata de conceptos muy intuitivos. La abstracción consiste en la generalización conceptual de los atributos y propiedades de un determinado conjunto de objetos. Precisamente la clave de la programación orientada a objetos está en abstraer los métodos y los datos comunes a un conjunto de objetos y almacenarlos en una clase. Desde este punto de vista la introducción o eliminación de un objeto en una determinada aplicación supondrá un trabajo mínimo o nulo (Ceballos, 1997). Este concepto desde el punto de vista biológico está íntimamente ligado al de herencia, que detallamos a continuación. La abstracción permite trabajar con el DNA independientemente de la función biológica que éste realice. Esta propiedad podría explicar la existencia de intrones en la secuencia de genes. Supongamos una célula con un «conflicto de asimilación». En el medio hay una fuente de carbono que no es asimilable por la célula. Finalmente la célula, siguiendo la es-Modelos informáticos para entender la evolución trategia de cambio mínimos, consigue introducir cambios de especificidad de sustrato en unos enzimas y esto le permite a la célula digerir la nueva fuente de carbono, resolviendo así su conflicto. Este nuevo gen será colocado junto a la batería de genes hidrolíticos. Ahora bien, de la secuencia del propio gen, independientemente de la función que éste realice, se puede obtener la información de qué partes de la proteína han variado y cuáles no lo han hecho con respecto al enzima original. Esta información puede ser muy interesante para futuros intentos de adaptación, ya que nos permitiría ir clasificando las partes de la proteína que conviene conservar y aquellas que son mutables. Los intrones podrían marcar la separación entre regiones fijas y variables. Esta estrategia es muy interesante, ya que la actmiulación progresiva de esta información podría acelerar tremendamente la velocidad de adaptación mediante el mecanismo de trans-splicing, que permite recombinar regiones de diferentes proteínas. La presencia de intrones también debe de permitir la compactación de código gracias al splicing alternativo. Esta práctica se refiere a incluir dentro de un objeto todo lo que este objeto necesita. De esta forma el objeto actúa como una caja negra. También limita el acceso a los datos y funciones incluidas en un objeto a los demás objetos de la aplicación, siempre y cuando se tenga en cuenta la recomendable práctica de declarar funciones y datos como privados. La encapsulación y el objeto están íntimamente ligados, y se basan en la filosofía de servicios prestados y caja negra. No existen los modelos puros. De la misma manera que con lenguajes estructurados no orientados a objeto se puede programar siguiendo los criterios de la programación orientada a objeto, en las bacterias también se puede encontrar ciertas características propias de la programación orientada a objeto. Un ejemplo de una cierta encapsulación en los genes eubacterianos lo encontraríamos en los diversos factores a que pueden integrase en el pentámero que constituye la RNA polimerasa y que confieren a ésta especificidad respecto a determinados tipos de promotores (Rojo, 1999). Este cambio de especificidad por parte de la RNA polimerasa permite a Bacillus pasar a expresar genes de esporulación tan sólo cambiando el factor s que se integra en el pentámero. En organismos pluricelulares la encapsulación se produce a todos los niveles de organización: célula, tejido, órgano, aparato, organismo, grupo, población, comunidad, etc. La expresión diferencial de los genes Hox a lo largo del individuo permite compartimentar el cuerpo y distribuir los diferentes objetos (en este caso tejidos y órganos) de forma ordenada a lo largo del animal. Este concepto tendría que ser tenido en cuenta cuando se elaboran mapas de genomas, sobre todo en los organismos superiores, ya que la información exclusiva de los genes nos da una visión muy parcial de lo que el genoma significa. Aunque ya hay algunos intentos de incluir enhancers, silencers, promotores, regiones de reconocimiento de factores de transcripción..., que cuando sepamos interpretar correctamente nos darán mucha información (Kolchanov et aL, 2000). Es el mecanismo para compartir automáticamente métodos y atributos entre clases y subclases. Esta característica está fuertemente ligada a la reutilización de código. Esto es, el código de cualquiera de las clases existentes puede ser utilizado simplemente con crear una clase derivada de ella. La herencia conduce a una estructura jerárquica de las clases. Esta herencia puede ser múltiple de una clase: pueden derivarse ninguna, una, dos o más clases. Que una clase hija herede las características de una clase madre tampoco tendría mayor importancia, ya que sería una simple copia, si no fuera porque la herencia en programación orientada a objeto permite añadir y redéfinir métodos (Macay y Nicolas, 1996). La modificación en un método o dato de la clase madre repercute en la hija si la hija no ha redefinido dicho método o dato. Sin embargo, un cambio en un método o dato de la clase hija no tiene ninguna repercusión en la clase madre'^. El resultado de este tipo de herencia en los seres vivos se apreciaría claramente en los procesos de diferenciación celular, que durante el desarrollo embrionario observamos. A medida que nos aproximamos a los últimos estadios de diferenciación, las características propias del tejido final se hacen cada vez más patentes, mientras las propias de la célula madre se van desdibujando. La herencia orientada a objeto tiene un significado distinto y más amplio que la herencia en biología Darwinista. Se trata de un concepto más dinámico ya que permite heredar de la clase madre los elementos que se consideran útiles, redéfinir elementos de la clase materna e incluso añadir elementos nuevos. Para apreciar la verdadera versatilidad de este concepto, tal vez sea mejor ilustrarlo con un ejemplo teórico que, tal vez no sea demasiado correcto, pero puede ser aclarador. Supongamos un pez que ha pasado de Modelos informáticos para entender la evolución ser cartilaginoso a óseo^. En este proceso de adaptación a un nuevo tipo de esqueleto hay muchas características que han de cambiar para permitir el crecimiento de las estructuras óseas. Entre ellos conseguir digerir la nueva matriz inorgánica. Desde esta perspectiva, lo primero que hay que hacer es buscar qué tipo celular está afectado y cuál será su «conflicto biológico». En este caso, el tipo celular está afectado será el macrófago y su conflicto «no poder digerir la matriz inorgánica». En este momento, algunos de los macrófagos inmersos en la matriz ósea entrarán en «conflicto activo». Opciones a explorar, según la intensidad del conflicto • Modular los niveles de producción de las proteínas en expresión, tanto las propias de la clase macrófago, como las house-keeping, mut ando promotores y enhancers. • Hacer réplicas de dichas proteínas, ya sea en microcromosomas o dentro del cromosoma. Esta opción se tomaría si ha habido una resolución parcial del conflicto por parte de la célula al expresar dichas proteínas. • Introducir mutaciones controladas en las proteínas antes citadas. • Desdiferenciar la célula hasta el progenitor del macrófago, es decir, monocito. • Hacer pruebas de expresión y mutación de los genes propios de la clase monocito. • Generar una nueva clase hija de monocito que en este caso llamaremos clase osteoclasto. • Probar la incorporación de cualquier otro gen a la definición de clase hija de monocito (osteoclasto). • Conforme la intensidad del conflicto aumenta, la tasa de mutación que se introduce en los genes también lo hace. • En este caso, cuando se consigue incorporar una fosfatasa alcalina a la definición de osteoclasto el conflicto se solucionaría y la clase osteoclasto se fijaría. Si el conflicto sigue sin resolverse, la célula sigue desdiferenciándose tras sucesivos intentos de diferenciación fallidos, en muchos casos acaban con la muerte por apoptosis celular, este mecanismo intenta truncar Juan Cedano 116 la exploración, por parte de la célula, de vías no adaptativas. De forma progresiva, si el conflicto no se resuelve, se evoluciona hacia estadios más primitivos en el desarrollo embrionario. Este proceso de desdiferenciación, muerte y división celular activa es interpretado por los patólogos, en muchos casos, como una tumoración. La frontera entre la célula cancerosas y las células madres es muy delgada (Tannishtha, 2001). Durante el proceso de intento de adaptación se prueban multitud de proteínas, muchas de las cuales están mutadas, motivo por el cual se pliegan mal. Las chaperonas resultaría entonces tremendamente importantes, no sólo porque ayudaría a plegar las proteínas, sino porque también determinarían qué proteínas se pliegan mal, para así marcarlas por ubiquitinación, señalización que las envía a los lisosomas para ser «recicladas». Si la célula que entra en «conflicto», pertenece a una clase ya tremendamente diferenciada como las neuronas, las células musculares, los adipocitos, etc., no podrá poner en marcha este mecanismo ya que el alto grado de diferenciación se lo impidiria; tan sólo se producirá una alta tasa de mortalidad celular. El grado de proliferación celular durante el «conflicto activo» dependería del origen embrionario del tejido. Las células provenientes del endodermo, por ejemplo, presentan una alta tasa de división celular durante el «conflicto activo» dando lugar a tumor aciones. En los casos en que la tasa de división es muy baja durante el «conflicto activo», lo que se aprecia es la aparición de ulceraciones. Sin embargo, cuando el conflicto se resuelve, si que empezarán a dividirse activamente para expresar los nuevos genes incorporados, si es que los ha habido, y es entonces cuando observamos la aparición de tumores. Si esta célula en «conflicto» se ha desdiferenciado mucho, al expresar sus «adaptaciones» tras la «resolución» producirá tumores en los que se encontrarán tipos celulares diferentes, todos aquellos que se puedan originar a partir del estadio de célula madre en el que se encuentre dicha célula. Durante el desarrollo embrionario, la diferenciación de las células germinales es anterior a la de endodermo, mesodermo y ectodermo. Esto hace que ante la «resolución» de «conflictos de infertilidad», que afecta a células germinales, tras la desdiferencición de éstas durante el «conflicto activo», se produce un tipo de tumor muy especial: el teratoma. Los teratomas son tumores que presentan las tres láminas embrionarias. Esto es posible debido a que las células germinales desdiferenciadas son pseudozigotos mutados. En programación orientada a objeto, tanto los datos como los métodos se encuentran encapsulados formando objetos. De hecho en programación orientada a objeto tan sólo existen objetos, que actúan a modo de caja negra, y que en realidad las clases y subclases son definiciones del cómo se ha de crear el objeto. Por decirlo de alguna manera, la definición de clase sería el código (encapsulado en forma de DNA) presente en el genoma que define la clase monocito. Este código es potencialidad, pero hasta que el DNA no se expresa en forma de proteínas el objeto célula monocítica no existe. Los mensajes entre objetos son los que originan cambios en el estado del objeto. El objeto receptor de un mensaje debe conocer perfectamente qué ha de hacer tras recibir dicho mensaje, pero cuando emite una respuesta no necesita conocer cómo se desarrolla, simplemente que se está desarrollando. Una célula pancreática ante el mensaje -concentración elevada de azúcar en sangre-ha de saber producir insulina y liberarla al torrente sanguíneo. Pero le ha de traer sin cuidado si el resto de células saben interpretar que la insulina les da permiso para tomar azúcar del medio. Tan sólo ha de constatar que la concentración de azúcar en sangre baja. Dicho de otra manera, el «debugger» permite relacionar el código fuente del programa (DNA) con el proceso en ejecución (proteína expresada), pudiendo introducir cambios controlados durante la ejecución del programa (la fidelidad de copia de la RNA polimerasa se podría modular). Para ello la tasa de transcripción del DNA ha de ser baja, ya que de otra manera se complicaría mucho la identificación del RNA mensajero que incluye alguna mutación adaptativa. Ejemplos biológicos de adaptación Uno de los principios fundamentales de la programación, aunque no aparece en ningún manual, es: si funciona, no lo toques. Este consejo, por experiencia os lo puedo asegurar, es tremendamente útil. Resultaría absurdo que la vida no lo hubiera adoptado. A no ser que exista una razón clara para cambiar algo, ya sea por que no funciona o porque lo Juan Cedano 118 hace de forma insuficiente, ninguno de los mecanismos de adaptación facilitada se pondrán en marcha. Por lo tanto, y como premisa para que esta maquinaria actúe, ha de existir un desencadenante al que llamaremos «conflicto biológico». Durante el tiempo que dicho conflicto esté «activo», y dependiendo de la intensidad del conflicto, un tipo u otro de mecanismo adaptative se pondrán en marcha,. En biología no existe una solución única para resolver los problemas. Una actividad deficiente de un enzima puede ser resuelta de muchas maneras: duplicando el gen, aumentando la eficiencia de su promotor, aumentando por mutación del gen su actividad enzimática, etc. A continuación se describen algunos ejemplos sobre algunas de las soluciones adaptativas encontradas por ciertos sistemas vivos para solucionar sus «conflictos biológicos». Generación de soluciones adaptativas in vitro El ejemplo mejor caracterizado de mecanismo adaptative con repercusión en el genoma es la resistencia al metotrexato (mtx), uno de los primeros quimioterápicos anticancerígenos administrados por la medicina científica. La célula a la que se administra el metotrexato puede adquirir resistencia mediante mutaciones que cambian la actividad de la enzima dihidrofolato reductasa (DHFR) o amplificando el número de genes estructurales dhfr, siendo esta última forma de adaptarse la más frecuente. Fenómenos similares han sido observados en más de 20 genes (Lewin, 1989). Es decir, el metotrexato sería el desencadenante de un «conflicto biológico activo», ya que al bloquear el metabolismo del ácido fólico el metotrexato impide que la célula se divida por falta de timina para fabricar s\i DNA. La «resolución» del «conflicto de falta de timina» se logra al conseguir la resistencia tras pasar de 1 copia del gen dhfr entre 40 y 400 copias dependiendo de la presión selectiva o sea, la «intensidad del conflicto». De las líneas que adquieren resistencia al metotrexato mtxr se pueden distinguir dos clases, las que mantienen la resistencia y forma estable y las que son inestables. Las líneas inestables presentan cromosomas diminutos dobles (double-minute) en los que se encuentran las copias del gen dhfr. Estas líneas, al dividirse en ausencia de metotrexato, suelen ir perdiendo estos microcromosomas. Las líneas estables no pierden su resistencia. En este caso las réplicas del gen dhfr se encuentran integrados en el cromosoma junto a la co-Modelos informáticos para entender la evolución pia original del gen. Pero generalmente esta copia se da sólo en uno de los dos locus^. Generalmente la estrategia de generar diminutos dobles es una buena opción para una adaptación temporal. Pero a largo plazo, si se quiere fijar la adaptación, se ha de optar por «encapsular» estos genes en el cromosoma junto a los restantes genes que definen la clase. Éste es uno de los mecanismos a los que se atribuye la adquisición de resistencia a la quimioterapia de los tumores en pacientes oncológicos. Pero no deja de ser curioso que estos mecanismos aparezcan en células tumorales (Guo, 1999), mientras que no parecen ser comunes en las células consideradas «sanas». Generación de soluciones adaptativas in vivo y el papel de ciertos virus que actuarían a modo de «parche del sistema» Volviendo a los símiles informáticos. Supongamos por un momento que todos los ordenadores que funcionan bajo windows 98 son como células de un superorganismo, ya que no dejan de ser copias exactas de un mismo programa. El programa ya ha sido distribuido por todo el mundo, pero los usuarios han detectado un problema a la hora de imprimir: cuando dos usuarios intentan imprimir a la vez en una impresora compartida los derechos de los dos usuarios entran en «conflicto» y el ordenador que comparte la impresora se cuelga. ¿Qué estrategia sigue microsoft en estos casos? Evidentemente, contacta con el programador especializado en control de impresión que diseño el módulo de impresión y, tras aplicarle el correctivo oportuno, le hace trabajar a marchas forzadas en una máquina controlada hasta que consigue subsanar el problema. Durante el proceso, probablemente la máquina del programador se colgará en multitud de ocasiones, tendrá que reprogramar parte del sistema y modificar alguna librería. Pero al final del proceso, si todo va bien, conseguirá hacer que todo funcione correctamente. Microsoft ya tiene la solución al problema de impresión, y el programador vuelve a dormir tranquilo. Ahora bien, ¿cómo sabe microsoft qué clientes están teniendo problemas para compartir sus impresoras? La solución más económica es poner en red y a disposición de quien lo quiera un parche para solucionar el problema que tan sólo reinstala la librería modificada. Eso sí, a partir de ahora en las nuevas distribuciones el sistema operativo ya vendrá con la nueva librería. Traslademos este ejemplo al ámbito de la biología y veamos tres ejemplos, uno en humanos, otro en aves de corral y un tercero en insec-Juan Cedano 120 tos. Cada uno de estos ejemplos representa un problema adaptative concreto. Supongamos que tenemos un individuo que está bajo un «conflicto biológico» similar al que analizamos en los cultivos celulares. Por ejemplo, un enfermo al que se le ha diagnosticado un SIDA, que sigue su terapia rutinaria con Dacortin, Azt, Aciclovir, Septrim o Bactrim, y demás sustancias. De todos estos preparados, para este ejemplo nos centraremos en el Septrim (Cotrimoxazol). Los dos componentes principales de este preparado son el trimetoprim y el sulfametoxazol (TMP/SMX). Ambos bloquean de dos formas distintas la síntesis de timina, impidiendo la división celular por imposibilidad de sintetizar DNA. Si realizamos los paralelismos oportunos con el símil informático, el sistema biológico encargaría la tarea de encontrar una solución no a todas y cada una de las células, sino a unas células especializadas. Ya hemos visto que las células cancerosas son especialmente adaptables. A pesar de lo que pudiera derivarse de una visión Darwinista, los tumores en los pacientes diagnosticados de SIDA no son mucho más comunes que en la población normal. Esto debería chocarnos, ya que se trata de paciente con las defensas bajas. Hay alguna excepción, ciertos tipos de cáncer son muy comunes en enfermos a los que se les ha diagnosticado un SIDA, como son los linfomas, los sarcomas y, en mujeres, el cáncer de cuello de útero. Como ya se vio en el ejemplo del metotrexato, la célula tumoral, a modo de programador experto, es perfectamente capaz de adaptarse y resolver el problema de la deficiencia de timina. Pero, ¿es capaz de exportar esta capacidad al resto de las células con el mismo problema a modo de «parche del sistema»? Los sarcomas de kaposi han sido los más estudiados y algunos de los virus que estos producen, como el KSHV (Kaposi sarcoma-associated herpesvirus), ha sido secuenciado (Russo et al, 1996). ¿Qué genes debería contener este virus, para que realmente se comportase como un «parche del sistema»? Por un lado, los genes propios del virus que actuarían a modo de soporte informático, pero además deberían incluir teda la batería de genes adaptatives que la célula tumoral se ha encargado de seleccionar y procesar para solucionar el «conflicto biológico» en curso. ¿Qué genes no propiamente virales se deberían encontrar? Deberían estar aquellos que codifiquen para alguna vía de la síntesis de timina o directamente para la incorporación de timidina. A continuación se detallan algunos de los genes presentes en el genoma del virus KSHV (Russo et al, 1996): Timidilato sintasa (metila a partir metilentetrahidrofolato, el dUMP a dTMP liberando dihidrofolato), dihidrofolato reductasa (regenera el dihidrofolato a tetrahidrofolato), dUTPasa (defosforila del dUTP a dUMP), Timidilato kinasa (le permite incorporar timidina), ribonucleotide reductasas, etc. Al menos en apariencia, este virus ha recopilado una batería de genes que pueden ayudar a superar una deficiencia severa de timina. Este virus podría ser de reciente creación, desarrollándose paralelamente a la administración de este tipo de medicación, pero también es posible que evolucionase al cabo de los años tras múltiples conflictos de deficiencia de ácido fólico. Sea como ñiere, este virus se asemeja mucho a lo que se esperaría que ñiese un parche biológico del sistema para subsanar una deficiencia de timina. En el caso de un ave de corral, su «conflicto biológico» derivaría de las condiciones en las que viven debido a los criterios de productividad y de reducción de costes de producción que se aplican actualmente a las granjas de cría de pollos. En el genoma de uno de los virus que infecta a estos animales (Afonso, 2000) encontramos genes que podrían ser resultado de una respuesta adaptativa a este tipo de problema. Encontramos genes de detoxificación (Glutatión peroxidasa) que resultarían muy útiles para animales que consumen piensos de baja calidad y están sometidos ñiertes condiciones de estrés. También encontramos resistencias a antibióticos como la rafampicina, que por ser un antibiótico barato no sería de extrañar que se suministrase a los pollos. El tercer ejemplo que se muestra es el de un virus de saltamontes (Afonso, 1999), los cuales podrían estar enfrentándose a nuevos «conflictos biológicos» derivados del uso generalizado de los pesticidas. Los pesticidas presentan varios frentes de acción, entre ellos provocar lesiones en el DNA. La presencia en el virus de varios genes de reparación del daño en el DNA pueden ser útiles para el hospedador del virus (uracil DNA glicosilasa, AP endonucleassa, DNA polymerasa B, topoisomerasa I y NAD+ dependiente DNA ligasa). Además aparecen en el virus inhibidores de la apoptosis celular, muy útiles para la supervivencia de las células del hospedador del virus, ya que el daño del DNA puede desencadenar por si solo la apoptosis celular. Distribución de los «parches del sistema» Virus como poliovirus, coxsackievirus, echovirus y enterovirus en general también podrían ser unos buenos candidatos para funcionar a modo de «parche del sistema». Además estos virus presentan una altísima tasa de recombinación en los genes que no codifican para su propia cápside (Santti, 1999). Esta característica podría contribuir a crear un conjunto de genes de procedencia diversa esperando que alguien los adopte para su acerbo genético. La transmisión horizontal de genes sería un mecanismo mucho más generalizado de lo que se consideraba hasta ahora. Así parecen confirmarlo algunos modelos matemáticos (Qian, 2001). Qian y sus colaboradores, partiendo de los genomas completos secuenciados hasta el momento, calcularon la distribución de familias, superfamilias y plegamiientos (folds) en los diferentes genomas secuenciados. Siguiendo el modelo por ellos expuesto, la distribución de dichas fi: ecuencias se comportaría como una función exponencial si el componente principal de la variabilidad genética viniese de la duplicación interna de genes. Sin embargo, la adopción de proteínas externas con otros plegamientos, durante un largo periodo de evolución, daría lugar a una distribución potencial. La conclusión final a la que se llega en el estudio es que la distribución tanto de las familias como las superfamilias y los plegamientos de proteínas siguen una distribución potencial. En otras palabras, que tanto la duplicación como la transmisión horizontal de genes juegan un papel crucial en los mecanismos de evolución celular. Como ya se ha adelantado al explicar el «debugger celular», la activación del mismo facilitaría a adopción de genes externos, como serían los que arrastran los virus mencionados. Los genes exportados por estos virus pueden fijarse en las células somáticas propias, en las células de otros individuos de la especie, o incluso en las células de los individuos de otras especies (Staeheli, 2000). Incluso, como demuestra la enorme cantidad de secuencias de origen vírico encontradas durante la secuenciación del genoma humano, acabar fijándose en las células germinales, tal vez por la acción de los transposones. No todos los virus son «parches del sistema» La mayoría de los virus no presentan genes ajenos en su secuencia, ya que las características de su cápside no permiten empaquetar más genes que esos. Estos virus no podrían funcionar a modo de «parche del sistema». Incluso existen virus que se comportan como auténticos depredadores. Por ejemplo, el virus de la rabia, al atacar el sistema nervioso central de su víctima, produce lesiones que estimulan regiones del cerebro que exacerban la conducta fóbica y agresiva del individuo infectado. En estas circunstancias, el individuo infectado interpreta cualquier situación como una agresión y tiende a morder cualquier otro animal que se le aproxime. Dado que una pequeña parte de los virus de la rabia se re-Modelos informáticos para entender la evolución producen en las glándulas salivares, esto propicia el inicio del siguiente ciclo de infección. La naturaleza de los seres vivos es tremendamente compleja y está llena de matices, por este motivo es tan difícil extraer leyes generales que expliquen su funcionamiento. En el texto se ha intentado esbozar parte de un mecanismo de «adaptación facilitada» que pretendidamente y de forma automática actúa como director de la adaptación celular, promoviendo modificaciones «adaptativas» del genoma de la célula. Las modificaciones inducidas sobre el genoma se producirían por un mecanismo celular bautizado como «debugger celular» que, respetando la arquitectura orientada a objeto atribuida a la organización de los seres vivos, exploraría las posibilidades adaptativas de la célula. Las modificaciones más comunes del genoma serían: mutaciones puntuales de genes y/o promotores, duplicación de genes, inserciones de genes ajenos y recombianción con genes propios o ajenos, trans-splicing, splicing alternativo.... La propagación horizontal de estos genes «adaptativos» se realizaría mediante virus. «A ti, por tomarte la molestia de leer este texto. A toda esa maravillosa gente que me rodea, ha sabido escucharme y tanto me ha enseñado, incluso cuando, en algunos casos, mis ideas difirieran diametralmente de las suyas». ^ Mutación que a pesar de dar lugar a un cambio en la secuencia del triplete de DNA, debido al uso de codón propio de dicho organismo, no se traducirá en un cambio de aminoácido en la proteína codificada. 2 Traducido a términos biológicos, si una céMa contase con una utilidad tipo «debugger», le permitiría probar diferentes fenotipos sin necesidad de cambiar su genotipo. ^ Las cepas trp-crecen sobre la placa hasta agotar el triptófano del medio. Hasta ese momento, aparecen como una colonia única en fase estacionaria. Si se produce una reversión en el conjunto de las células que forman la colonia, éstas crecerán sobre la colonia, apareciendo una papila. Contar las papilas permite establecer la tasa de reversión de la mutación trp-que se está estudiando. Juan Cedano 124 ^ Dentro del modelo de «adaptación facilitada» la presencia de la proteína p53 estaría indicando que la célula está en «conflicto activo» y que el mecanismo de «debugger celular» se ha disparado. ^ Estos conceptos se detallan más adelante en el texto. ^ Desde el punto de vista biológico, esta característica de la programación orientada a objeto, que permite atacar el diseño de una aplicación o una función con un planteamiento tan difuso como ¿de qué trata el programa?, harían de este tipo de programación un sistema ideal como propuesta, para sistemas vivos adaptativos. ^ Esta estructura jerárquica y la encapsulación de las clases es especialmente interesante para modelos de evolución adaptativa en seres vivos, ya que protegerían las células madres de los daños derivados de los intentos fallidos de adaptación de sus células hijas. ^ Algunos cambios aunque son respuestas adaptativas a un «conflicto biológico» concreto, generan una cascada de nuevos «conflictos» que al ser resueltos en cadena, dan lugar a los saltos evolutivos que apreciamos en el registro fósil. ^ La estrategia de introducir los cambios en sólo uno de los locus dejando el otro intacto, es un excelente mecanismo de seguridad que garantiza que si el cambio, pretendidamente adaptative, no funciona o genera problemas, al menos se contara con un original.
Durante los viajes que James Lovelock realizó por todo el mundo, rastreando el DDT y otros componentes traza con su invento del detector de captura de electrones, le llamó la atención la interconectividad química de toda la atmósfera con los seres vivos y su gran estabilidad, lo que le llevó a la concepción de una nueva teoría, la hipótesis Gaia, que él define como «Una nueva visión de las interacciones entre las partes vivas e inorgánicas del planeta. Lyn Margulis, la conocida bióloga, dotó a la hipótesis de una base científica que la dio credibilidad, pero en mi parecer el éxito de la teoría entre el gran público radica más en la elección del nombre «Gaia», la antigua madre-diosa griega, y su posible connotación religiosa, que no en su aportación científica. El mismo Lovelock da pie a esa interpretación cuando afirma «... para mí, Gaia es un concepto religioso y científico a la vez, y es manejable en ambas esferas», aunque en otros momentos ha intentado matizar «De ningún modo veo a Gaia como un ser consciente, un Dios alternativo. Para mí Gaia está viva y es parte del universo inefable y yo soy una parte de ella». Desde el mundo científico se acepta mal esa ambivalencia y todavía hay quienes arquean las cejas al oír hablar de Gaia. Sin embargo la hipótesis ha facilitado un nuevo marco de referencia en el que ahora caben perspectivas más amplias e interesantes, como la simbiogénesis que propone Margulis. En el continuo debate sobre la evolución, y desde el punto de vista de su éxito social, es casi inevitable tratar de comparar Gaia con el evolucionismo de Darwin, aunque Lovelock se declara cien por cien darwinista y afirma que su hipótesis no lo reemplaza, sino que meramente lo extiende. Darwin suministró a la sociedad de su época argumentos que encajaban perfectamente con el discurso social al uso y que dieron justificación a las políticas de su nación. Lovelock ha proporcionado una nueva vía de pensamiento a la juventud inconformista de los años setenta de los países desarrollados, pero es dudoso que su impacto sea tan profundo y duradero como han sido las ideas darwinistas. En un ambiente de globalización como el actual, en el que la información es un bien al alcance de muchos, parecería llegado el momento de tratar de acometer, de nuevo, una amplia reflexión sobre el tema de la evolución, sin pre-juicios, sin pre-concepciones, teniendo en cuenta la base conceptual que proporcionaría el análisis del conocimiento socio-científico-cultural que tenían las civilizaciones del pasado, junto con el que existe en el conjunto de las civilizaciones del mundo de hoy; sin confundir las ideas que del mundo se hace la civilización occidental con la realidad misma, o con la única posibilidad que tiene el ser humano de conocer. Para ello es imprescindible hacerse previamente una idea de la magnitud de lo que estamos discutiendo y de nuestras capacidades como seres, en este estadio evolutivo. En el último cuarto del siglo XX ha visto la luz una nueva idea sobre la organización de la vida sobre la Tierra: la hipótesis Gaia. Curiosamente, esta nueva hipótesis no procede de alguien del campo de la biología o de las ciencias naturales, sino de un químico muy prestigioso: James Lovelock. Pensador e inventor, diseñó y construyó en 1957 un detector de captura de electrones, con el que se pudo realizar por primera vez un seguimiento de las trazas del DDT por todo el mundo. Como fruto de sus recorridos analizando gases traza por muchos lugares del planeta, e impregnado por el hecho de que la interconectividad química de la atmósfera es una realidad obvia para cualquier químico o físico, extendió de forma natural sus observaciones a los intercambios gaseosos con los seres vivos. Sorprendido ante la estabilidad de los sistemas bióticos/abióticos, llegó a la formulación de una hipótesis que, según sus propias pala-Algunas reflexiones sobre Gaia, evolución y cultura 129 bras, es «Una nueva visión de las interacciones entre las partes vivas e inorgánicas del planeta. Como puede verse, la idea básica es más bien un postulado que una hipótesis, puesto que parece de difícil demostración. Sin embargo es una idea que surgió en un momento histórico muy oportuno, en el que se comenzaba a reaccionar contra el racionalismo a ultranza de las décadas anteriores. El aire romántico de los setenta fue un caldo muy apropiado para la aceptación de la hipótesis Gaia, sobre todo entre los movimientos ambientalistas del momento. Por otra parte, el soporte entusiasta que la bióloga Lynn Margulis dio a la hipótesis, permitió dotarla de una base naturalista más firme y le dio credibilidad ante una parte importante de la sociedad científica. No obstante, en mi opinión, un componente esencial del éxito social de la hipótesis Gaia es el propio nombre, que fue magistralmente elegido por William Golding, un novelista amigo de Lovelock. Gaia, Gaea, Gea, o GE, es el nombre que los antiguos griegos daban a la madre diosa, antes de que los helénicos introdujeran al dios masculino Zeus. Después pasó a encarnar a la diosa Tierra, y como tal es la que da los sueños, la que nutre a las plantas y a los niños pequeños. Aunque hoy la partícula geo (geografía, geología, geodinámica, etc) denota un carácter un tanto materialista, en la palabra «Gaia» recupera con su sonido una parte del aire místico que tuvo cuando era cantada por Homero. Muy probablemente sea precisamente ese componente seudo religioso de la hipótesis el que atrae a una buena parte de sus seguidores, que buscan en ella un sustituto algo más racional a sus inquietudes religiosas, en un mundo moderno en el que las ideas tradicionales han quedado quizá un tanto desfasadas. Releyendo a Lovelock, da la impresión que él mismo partió de esa situación; de hecho afirma: «...para mí, Gaia es un concepto religioso y científico a la vez, y es manejable en ambas esferas.» Al situarse en esa posición. Lovelock incurre en una cierta incorrección social dentro de la comunidad científica, donde no está bien visto el mezclar temas aparentemente tan separados. En «Las Edades de Gaia»^ su posición se hace totalmente explícita al hacer una interpretación de la figura de la Virgen María en relación con Gaia; interpretación que probablemente no sea del agrado de muchos creyentes, y cuya presencia, por otra parte, tampoco parece muy justificada en el contexto de esa obra. La carga ético-religiosa en obras posteriores sigue estando presente en sus Antonio Pou 130 ideas, incluso algunas veces da la impresión de ir por delante de los aspectos científicos^. Ese tipo de aproximaciones ha dado pie a que mucha gente intente proyectar la hipótesis Gaia hasta una dimensión que no entraba probablemente en las ideas iniciales de sus autores, lo cual obliga a Lovelock a afirmar que «De ningún modo veo a Gaia como un ser consciente, un Dios alternativo. Para mí Gaia está viva y es parte del universo inefable y yo soy una parte de ella.» Lo antedicho no resta mérito al importante papel que la hipótesis Gaia ha tenido y tiene entre muchos científicos, como inspirador de una manera diferente de abordar el conocimiento. Desde ese punto de vista, Lynn Margulis en The Symbiotic Planet^, presenta un serio y prometedor enfoque científico que emana de Gaia. Sin embargo, en ese libro, no se hacen excesivas referencias a Gaia, sino que se utiliza una modalidad de pensar que podríamos denominar «Galana». Lo cual, teniendo en cuenta que ella fue en su momento cogeneradora de la hipótesis, da pie a pensar que sus ideas sobre la simbiosis fluyen de alguna manera un poco al margen de Gaia, que, socialmente hablando, probablemente ha cristalizado en demasía, y las dirige, con mayor firmeza, por los cauces científicos más ortodoxtos. Desde el punto de vista evolutivo. Lovelock nunca ha intentado crear una hipótesis que deshancara las ideas de Darwin: «Soy cien por cien Darwinista. Pero yo diría que Gaia es al Darwinismo lo que la relatividad es a la física de Newton. En ningún modo la reemplaza; meramente la extiende». A pesar de esa afirmación, muchos seguidores han encontrado en Gaia un nuevo combustible con el que atizar el fuego de la, casi eterna, discusión sobre la evolución. Ante la consideración de una posible aceptación universal de la hipótesis Gaia, equiparable a la que tuvo la evolución Darwinista, existe una importante diferencia entre ambas. Las ideas de Darwin sonaban muy bien entre las elites de la Inglaterra del siglo XVIII y comienzos del XIX^. Dichas ideas daban soporte y justificación científica a lo que era el núcleo del discurso social de las clases dirigentes. Eso explica el increíble éxito editorial que tuvo «El origen de las especies» y que sorprendió al mismo Darwin. Ese discurso social subyace aún en buena medida en parte de la sociedad occidental actual, por lo cual el Darwinismo, en sus múltiples facetas, sigue teniendo un papel importante como idea rectora, porque sigue teniendo aplicación práctica en el contexto social. Por el contrario, Gaia encontró el campo abonado en un sector social que estaba intentando en los años setenta romper con las estructuras sociales, tanto en Estados Unidos como en Europa. Los jóvenes de entonces se convirtieron después en adultos, impregnando sus profesiones con tintes de diversas ideologías. Hoy Gaia viaja con ellos en el tiempo y no pa-Algunas reflexiones sobre Gaia, evolución y cultura rece que las nuevas generaciones comulguen con ella con el mismo fervor que las anteriores. Carente del soporte del discurso social imperante, es posible que tenga sus días contados. Claro que, como idea romántica, siempre puede volver a ser activada en cualquier momento. El humano, especialmente si es de género masculino, suele tener tendencia a aclarar rápidamente las medias tintas y a tomar posición formando grupo, es decir, tribu, con los que considera más afines, distanciándose con ello de las demás tribus. Mediante ese procedimiento consigue aliviar las urgencias primitivas que nos llevan a excitarnos, incluso divertirnos, mediante la confrontación. De ese modo estamos mucho más dispuestos a tomar partido por el Lamarckismo, por el Darwinismo, o por la hipótesis Gaia, que a sumergirnos en la ardua, y nada divertida labor, de analizar lo que pueda haber de útil en cada una de las ideas. ¿Cómo explicar sino que pueda continuar un debate de más de dos siglos de duración, empleando unas armas intelectuales que casi no han variado, sobre todo si las comparamos con el avance ocurrido, durante ese mismo espacio de tiempo, en el campo tecnológico y en ciertos campos del conocimiento? Probablemente es una osadía intentar conocer con precisión un tema, como el de la evolución, en el que estamos inexorablemente sumergidos y del que es imposible distanciarnos. Ni las dimensiones temporales que se manejan, ni las espaciales, ni la complejidad, están dentro de los rangos habituales del pensamiento ni de la acción. Es decir, tenemos frente a nosotros una tarea imposible, lo cual no quiere decir ni mucho menos que no merezca la pena intentarla. Precisamente ese tipo de retos exige tal grado de esfuerzo, que en sí mismo es ya un fruto. Por otra parte, ese mismo esfuerzo arrastra a campos de conocimiento vecinos que sin ese empuje permanecerían quizá aletargados. No obstante, conviene no perder ni un solo momento la perspectiva de la enorme dificultad de reflexionar sobre la evolución de la biosfera. Se han escrito mucho millares de libros analizando el tema desde muchos puntos de vista, pero sin embargo, comparativamente, se ha prestado mucha menos atención a las circunstancias básicas que condicionan ese análisis. Se da más que por supuesto que el ser humano está dotado de la capacidad de abordarlo y, por lo tanto, la discusión se centra en las modalidades del análisis. Pero en estas páginas quisiera llamar la atención del lector sobre nuestras propias limitaciones, acudiendo a unos cuantos aspectos que son muy simples y bastante bien conocidos y que, sin embargo, se ignoran sistemáticamente en el discurso científico habitual. En primer lugar plantear la obviedad de que la mente intelectual no dispone de una conexión directa con el exterior. Encerrada entre las pa-Antonio Pou 132 redes craneales, necesita de unos sensores que trasladen la información desde el exterior, un mundo extraño y agresivo, que no debe ponerse en contacto fisiológico directo con las neuronas. Dichos sensores tienen un rango limitado de actuación en función de las necesidades de la estructura corporal que los soporta y que tiene que trasladarlos de un sitio a otro, buscándose la vida entre otros seres que conforman el ecosistema. Por consiguiente, tienen que ser ligeros y proporcionar la información básica esencial, restringiendo al máximo su rango para evitar informaciones innecesarias, que ocupen lugar y distraigan de otras funciones. La actual explosión de actividad intelectual se hace detrayendo la atención de otras áreas y no es infrecuente que esa desatención repercuta en el equilibrio celular y conduzca a enfermedad. Por consiguiente debería tenerse en cuenta que, en alguna medida, estamos «forzando» nuestras capacidades naturales. El desarrollo tecnológico ha conseguido extender extraordinariamente el rango de nuestros sensores y ha creado otros nuevos. Con ello hemos expandido brutalmente la cantidad de información a la que tenemos acceso, pero el problema real no es la cantidad de información sino la capacidad de procesamiento. Esa sigue estando limitada, pendiente de la aparición de un nuevo ser que esté un eslabón por encima nuestro en la evolución, por lo que nos vemos obligados a abordar los problemas de forma parcial: una limitación de primer orden al intentar comprender algo tan extraordinariamente complejo como la evolución. Los procedimientos de comprensión tampoco suelen ser directos, sino que forman parte de una especie de «software» que se desarrolla en el individuo mediante el aprendizaje por ensayo y error, y por el condicionamiento del entorno social y de la cultura en el que se desenvuelva. Cada familia, cada grupo, cada cultura, desarrolla unos procedimientos propios que les son característicos y que utiliza constantemente para enjuiciar cualquier situación. Mediante esos procedimientos se crean en la mente de cada uno de nosotros modelos que imaginan cómo es el mundo que está fuera de nuestras paredes craneales. Esos modelos son modelos «ad hoc», modelos creados en función del objeto o problema al que van dirigidos y en función de la intencionalidad del individuo. Fuera del contexto en el que fueron creados carecen probablemente de validez. El método científico surgió de la necesidad de una cierta estandarización de esos modelos. El franciscano Roger Bacon, en la Inglaterra del siglo XIII fue uno de los precursores en esa tarea. En el siglo XVI Francis Bacon estableció en esa misma línea las bases del actual método científico, pero, a diferencia de Roger, dejó al experimentador fuera del experimento, con lo cual se creó la ficción de la objetividad. Algunas reflexiones sobre Gaia, evolución y cultura 133 Los protocolos de esa estandarización han resultado ser de una extraordinaria utilidad y sin duda han contribuido a impulsar la ciencia hasta los niveles actuales. Sin embargo, al igual que ocurre con nuestros sensores, su rango de utilidad está limitado por su propio diseño, algo que se hace evidente en cuanto se aborda un problema suficientemente complejo, como la evolución. Por constitución, el ser humano está dotado de varios procedimientos para modelizar e intentar comprender la realidad exterior. Una parte del cerebro funciona en una modalidad que se podría llamar «secuencial» y que se aloja fundamentalmente en la parte izquierda del cerebro. Otra es de índole global, intuitiva, atemporal y reside aproximadamente en el hemisferio derecho, aunque las investigaciones recientes dibujan un panorama mucho más complejo. La llamada «lógica formal», que es la base estructurante del método científico, es un modelo, muy simple y sólido, que «corre» con mucha facilidad en el «hardware» del hemisferio izquierdo. Sería de imaginar, que, ante un problema de una magnitud tan enorme como es el de la evolución, los seres humanos echásemos mano de todas las herramientas de que estamos dotados. Sin embargo, nos enfrentamos a él desde una óptica muy restringida, despreciando de entrada las capacidades del hemisferio derecho y dejando reducidas a un mínimo las del izquierdo. El encasquillamiento histórico en el que estamos metidos respecto al tema de la evolución, no podrá nunca desbloquearse mientras no estemos dispuestos a examinar con mente abierta todas las teorías, buscando aquellos aspectos que puedan ser de utilidad al paradigma de hoy, sean esos los que sean, sin miedo a romper el hilo del debate, y dejando a parte argumentaciones que pertenecen a un contexto social de otras épocas, y sabiendo que con ello estamos simplemente creando un nuevo modelo de utilidad limitada y con fecha de caducidad. En ese nuevo enfoque habría que considerar algunos aspectos que vienen siendo sistemáticamente lanzados contra el modelo evolucionista, por así decir «occidental», por los modelos creados por otros grupos socioculturales. Entre ellos destaca el «diseño». Es constante encontrar en la naturaleza artilujios que participan del espíritu del «ingenio» humano; por ejemplo, el lóbulo membranoso que tiene el rape (Lophius piscatorius) en la extremidad de una de las varias espinas que salen de su cabeza y que utiliza como señuelo para capturar sus presas. Es decir, el mismo procedimiento que empleamos los humanos para pescar con señuelo. Nadie duda, al ver una caña de pescar y un aparejo, que eso es fruto de un diseño intencionado. Sin embargo, sistemáticamente nos cerramos en banda a la posibilidad de que su equivalente en el pez pueda responder a una intencionalidad. Esa actitud es fruto del «modelo» que Antonio Pou 134 estamos empleando y que incluye aspectos religioso-culturales anclados en el pasado. Ejemplos como ese hay miles y hay gente que se dedica a arrojarlos al mundo escrito para intentar desprestigiar la teoría de la evolución^. Aunque es muy interesante tratar de ver con ojos diferentes ciertos hechos, generalmente nos encontramos, de nuevo, ante modelos que pretenden, más que clarificar el proceso de comprensión, sustituir unos modelos absolutistas por otros. En mi opinión, estamos sobrados de ese tipo de procedimientos y lo que necesitamos ahora es, fundamentalmente, mucha más humildad, ñexibilidad, espíritu crítico y abrir los procedimientos para incorporar otras herramientas que están siendo empleadas en otros campos científicos, como la teoría de la complejidad^. Jalaludin Rumi, sabio y místico del siglo XIII que vivía en la ciudad de Konia, escribió lo siguiente: «En el origen fuiste arcilla. Partiendo de ser un mineral, te hiciste vegetal. De vegetal te hiciste animal, y de animal, hombre. Durante estos periodos el hombre no sabía a dónde iba, sin embargo estaba siendo transportado en un largo viaje. Y todavía tendrás que pasar por cien mundos diferentes.» Visto así parece una idea precursora de las teorías sobre la evolución, pero no hay que perder de vista el uso habitual que se hacía en aquella época de la analogía, por lo que no podemos estar seguros que necesariamente se estuviese refiriendo a lo que nos referiríamos ahora con esa fraseología. Es decir, su interpretación requiere conocer previamente las claves culturales y específicas del grupo para el que fueron escritas, conocer su modelo. Todo lo antedicho en estas páginas queda resumido, y al mismo tiempo ampliado, en su conocida historia del elefante y los ciegos, en el que tras examinar sus distintas partes, cada uno se empeña en hacer valer su modelo e imponerlo a los demás, afirmando que aquella entidad era un conjunto de rollos de alfombra, o unos tapices, o unos pilares, o cuerdas, según qué parte del animal hubiese explorado. En este caso, Lamarck, Darwin, Lovelock y todos nosotros, seríamos esos ciegos, y la biosfera y su evolución, el elefante.
El genoma humano contiene un importante número de retrovirus endógenos (HERVs), es decir, secuencias derivadas de pasadas infecciones retrovirales insertadas de forma permanente; y secuencias similares se pueden observar en prácticamente todos los organismos eucariontes. Muchos de estos HERVs se transcriben y traducen en condiciones fisiológicas normales, llegando a formar partículas virales completas, y participando en procesos tan complejos como la placentación. Por su capacidad de retrotransposición y recombinación entre ellos son una fuente importante de remodelación genómica y, junto con otros retroelementos, participan en la generación de retrogenes y retropseudogenes, que suponen un sustrato de variabilidad informacional fundamental para la aparición de nuevas estructuras y funciones. Puesto que su actividad responde también a las condiciones ambientales, los cambios genómicos generados por ellos no son graduales, sino que aparecen en oleadas, de modo que se puede producir una variedad fenotípica muy extensa en momentos evolutivos concretos, coincidiendo con situaciones ambientales críticas. La consideración de los HERVs como parte integral y consustancial de nuestro genoma obliga a replantearse la utilización de vectores retrovirales en protocolos de terapia génica, así como la utilización de órganos animales -con sus propios retrovirus endógenos-para xenotrasplantes. Cerca del 10% del Genoma Humano está compuesto por secuencias de origen retroviral muy diferentes entre sí pero englobadas bajo la deno- 136 minación genérica de retrovirus endógenos humanos o HERVs (de sus siglas en inglés). La estructura de los HERVs es la característica de los retrovirus exógenos (RVs) en su forma de provirus, con dos repeticiones terminales largas en los extremos (LTRs) y los genes gag, pol y env, que codifican las proteínas necesarias para la formación de nuevas partículas virales, incluyendo la Transcriptasa Inversa (RT) que permite la transcripción de un molde de RNA en DNA (retrotranscripción), y es, por tanto, parte esencial del ciclo vital de los retrovirus. Las LTRs se generan durante el proceso de retrotranscripción y son necesarias para la integración viral en el DNA genómico (Figura 1). Además, presentan los elementos necesarios para regular la expresión de sus genes, incluyendo las secuencias de unión a factores de transcripción y hormonas, y las señales de poliadenilación para el correcto procesamiento de los RNAs virales. Al formar parte del genoma, los fjEj^yg gg transmiten de modo vertical (mendeliano) a la descendencia, mientras que los RVs se transmiten de modo horizontal (infectivo) entre los individuos de una población, afectando a tipos celulares concretos, normalmente células somáticas. Durante el curso de la evolución los progenitores exógenos de los HERVs tuvieron que insertarse en las células de la línea germinal, convirtiéndose en endógenos (Lower et al., 1996). Aunque las infecciones de la línea germinal no deben ser un evento muy frecuente, ha debido haber varios sucesos de este tipo ya que existen diversas familias de HERVs poco relacionadas entre sí y cada una de ellas presenta secuencias homologas en otros grupos animales, sobre todo en Primates (Bock y Stoye, 2000; Weiss, 2000). Una vez integrados, los -ahora-HERVs han sufrido múltiples eventos de retrotransposición (amplificación y transposición), gracias a la presencia de las LTRs y del gen de la RT, de modo que se han ido generando miles de secuencias retrovirales, parciales o completas, que se encuentran dispersas por el genoma. Algunas de estas secuencias mantienen la estructura proviral completa y son capaces de formar partículas virales, mientras que muchas de ellas son defectivas y han perdido la capacidad individual de replicarse, y la inmensa mayoría son LTRs solitarias, habiendo perdido todos los genes estructurales, pero manteniendo su capacidad reguladora. En cualquier caso, defectivas o no, estas secuencias pueden tener o retener funciones biológicas diversas, aunque el posible significado biológico y evolutivo de las secuencias retrovirales humanas sigue siendo bastante polémico, pese a que su potencial en ambos sentidos es enorme: son secuencias complejas, con capacidad de regulación y procesamiento espacio-temporal, con lo que sus productos estructurales (los productos de sus genes) pueden tener funciones diferentes, dependiendo del entorno celular y del momento de desarrollo en Carlos Sentís 138 el que se expresen. Además, sus secuencias reguladoras (las LTRs) pueden afectar a la regulación de genes cercanos, dotándoles de características funcionales específicas y durante el proceso de retrotransposición se pueden generar nuevas especificidades y funciones, así como transducir otros genes, ubicándolos en nuevos entornos genómicos con (o sin) nuevas funciones. En su forma de partículas los retrovirus son diploides, ya que encapsulan dos moléculas de RNA, y como consecuencia, tienen una alta tasa de recombinación intra e intermolecular, lo que genera nuevas moléculas de RNA y permite la incorporación de una información genética distinta de la de los RNAs parentales en las células infectadas (Mikkelsen y Pedersen, 2000; Zhang y Ma., 2001). También se está demostrando recientemente la implicación de los HERVs en funciones celulares normales, e incluso se les ha implicado en procesos tan complejos e importantes evolutivamente como la placentación. Sin embargo, desde su descubrimiento en 1981 (Martin et al., 1981) los HERVs comenzaron por considerarse exclusivamente como potenciales agentes patogénicos sobre todo en procesos cancerosos y autoinmunes, y esta postura ha sido recientemente reforzada por algunos autores (Lower, 1999). Aunque es perfectamente posible la implicación de los HERVs en diversas enfermedades -incluyendo recientemente la esquizofrenia (Karlsson et al., 2001)-, centrar su potencial papel biológico en su patogenicidad resulta simplista y contrario a las evidencias experimentales. A principios de la década de los 80 esta postura era comprensible, ya que lo que se conocía de retrovirus animales era su capacidad oncogénica y, con la aparición del SIDA y la posterior asociación entre esta enfermedad y el retrovirus HIV, sólo se podían imaginar como agentes infectivos patógenos, pero la realidad es que la mayoría de los retrovirus infectivos (exógenos) humanos tiene un potencial patogénico bajo (caso del HTLV-1) o nulo (como el HTLV-2 y el Espumavirus humano o HFV), excepto en conjunción con otras infecciones virales, especialmente con Herpesvirus (Israel et al., 1995). En el caso de los retrovirus endógenos no se ha podido demostrar su papel causal en ninguna enfermedad, aunque, como secuencias genómicas que son, probablemente, en algunos casos, las mutaciones y los fallos de regulación de su expresión tengan consecuencias patológicas como sucede con cualquier otro gen. Más allá de su posible implicación en enfermedades, se pueden apreciar generalmente dos enfoques diferentes a la hora de analizar el papel de los HERVs y sus consecuencias evolutivas que se centran en la cuestión sobre si son parásitos o simbiontes. El primer punto de vista considera que, puesto que son el resultado de una infección retroviral de la línea germinal, estas secuencias son parásitos infiltrados en nuestro Retrovirus endógenos humanos: Significado biológico. genoma, que utilizan la maquinaria celular en su beneficio. Por tanto, los HERVs (y dentro de esta perspectiva se incluiría el resto de los elementos móviles, lo que supone hasta el 50% del genoma humano) serían DNA egoísta, también llamado DNA basura, y están en permanente competencia con las secuencias celulares residentes, sin aportar nada al anfitrión, excepto los problemas derivados de su propia retrotransposición, que puede ser una fiíente de mutaciones, principalmente mediante mutagenesis insercional. Como expresaron acertadamente Zuckerkandl y Hennig (1995): «Dada la suficiente falta de comprensión, cualquier cosa (y esto incluye un cuarteto de Mozart) puede ser declarada basura» (el resaltado es de los autores). El segundo punto de vista las considera secuencias simbiontes (o mutualistas), es decir, les adjudican ciertas ñmciones beneficiosas para la célula que se han adquirido muy posteriormente a la infección (genes exaptados, según la terminología de Brosius y Gould, (1992)). Sin embargo, las evidencias más recientes muestran cada vez más la implicación de los HERVs en procesos celulares y de desarrollo básicos y por tanto se podrían abandonar ya definitivamente los viejos conceptos de DNA egoísta o basura (viejos, pero aun muy en boga en ciertos sectores científicos). El problema que comparten ambas visiones sobre los HERVs es dotar a unas secuencias de DNA de un carácter ontológico independiente, como si fiíeran entidades distintas del resto de las secuencias del genoma, capaces de dinámicas fiíncionales y evolutivas separadas, cuando la realidad es que unas y otras, aunque con orígenes distintos, conforman los genomas actuales, sin que ningún organismo (al menos pluricelular) se pueda entender -ni probablemente existir-sin ellas. De todo esto se deriva la necesidad de revisar el significado biológico de los HERVs, su origen y sus implicaciones evolutivas desde una nueva perspectiva que los considera parte integral de nuestro genoma y son por tanto, desde el punto de vista genético, lo que nos hace ser lo que somos. Universalidad y especificidad de los retrovirus endógenos Tradicionalmente los retrovirus endógenos se han asociado a los Vertebrados, que es donde se descubrieron y donde se conocía la existencia de retrovirus infectivos, mientras que el resto de los organismos eucariontes presenta retrotransposones con LTRs, pero que los distintos autores no incluyen en la categoría de Retrovirus Endógenos (ERVs) ya que estos retroelementos aparentemente no podrían formar partículas al carecer del gen env. Sin embargo, resulta cada vez más claro que los retro-Carlos Sentís 140 virus endógenos están presentes en todos los grupos animales, al menos, en los que se han estudiado genómicamente en profundidad, desde que en los últimos años se han encontrado retrotransposones con LTR que además contienen el gen env (y son, por tanto, capaces de formar partículas) tanto en Artrópodos como en Nematodos (Tanda et al., 1994; Leblanc et al., 2000; Bowen y McDonald, 1999). Además, algunos de ellos se han demostrado infectivos, como gypsy y osvaldo en Drosophila, y muestran todas las características de los retrovirus infectivos (Kim et al., 1994; Pantazidis et al., 1999). Más aún, se han descrito recientemente provirus endógenos completos en plantas (Laten et al., 1998; Wright y Voj^as, 1998; Peterson-Burch et al., 2000), y todos los retroelementos con LTRs, los ERVs de plantas e invertebrados, junto con los ya conocidos endógenos y exógenos en Vertebrados, constituyen un grupo monofilético (Capy et al., 1997), lo que significaría la presencia prácticamente universal de los ERVs en los genomas eucariontes. Se ha hipotetizado que distintos tipos de virus podrían haber participado en el origen de la célula eucarionte, como los fusellovirus de Archaea o el mycoplasmavirus L3, que habrían participado en la unión de bacterias primitivas para formar los primeros eucariontes (Sinkovics, 2001). Además, la maquinaria de replicación eucariótica parece haber derivado de los genes que codifican estas funciones en los virus DNA (Villareal y DeFilippis, 2000). A ésto habría ahora que añadir la posibilidad de que también los retrovirus participaran en el proceso que dio origen a la célula eucarionte, lo que explicaría la distribución en prácticamente todos los grupos eucariontes observada actualmente. El mantenimiento de estas secuencias en estado funcional a lo largo de millones de años y el alto nivel de homología entre los distintos elementos presentes en especies muy distantes filogenéticamente son característicos de genes clásicos con funciones celulares bien definidas y necesarias. A pesar de esta amplia distribución filética, cada especie presenta su propio -y único-repertorio en tipología, cantidad y localización genómica de ERVs que la caracterizan y la distinguen del resto. Estas dos características -aparentemente contradictorias-de universalidad y a la vez especificidad de los ERVs se explica por su propio mecanismo dual de transmisión, vertical y horizontal, ya que los ERVs pueden convertirse en infectivos, es decir, en RVs, que, a su vez, en determinadas ocasiones pueden integrarse en la línea germinal, sufriendo mutaciones y recombinaciones durante el proceso de dispersión e integración. Tras su inserción en la línea germinal para formar parte de los genomas, los ERVs pueden generar un elevado número de copias en diferentes localizaciones genómicas a través de la retrotransposición. A partir de Retrovirus endógenos humanos: Significado biológico... 141 aquí, se transmiten de modo vertical a la descendencia durante largos periodos de tiempo, pero acumulando mutaciones (debido en parte a la alta tasa de mutación de la RT) y con capacidad de recombinación entre ellas y con otras previamente presentes en el genoma, generando nuevas combinaciones (Kubo et al., 1996; Lindeskog et al., 1998) que pueden recuperar la infectividad, pero con características alteradas de especificidad celular y de huésped, lo que permite su paso a distintas especies por transmisión horizontal, donde se endogenizan y amplifican, volviendo a iniciarse el proceso. La fase de transmisión horizontal de los retrovirus tiene la ventaja como mecanismo evolutivo de que permite provocar un cambio genómico importante, afectando incluso a procesos de desarrollo o reproducción, en un número significativo de población, frente a la dificultad de expansión a la población de una mutación importante en un único individuo que afecte, por ejemplo, a la reproducción, que nunca ha tenido una explicación adecuada. De este modo, las comparaciones filogénéticas de cada familia de ERVs es, en general, concordante con la filogenia conocida de los organismos que los presentan, mientras que, a mayor complejidad organísmica, aparecen mayor número de familias distintas, lo que implica sucesivas entradas de RVs a lo largo de la evolución. Pero también hay familias de ERVs específicas de determinados grupos, por lo que la actual distribución, tipología y número de ERVs en una especie debería recapitular su historia evolutiva. Sin embargo, la presencia de ERVs muy similares en especies muy alejadas permite identificar transmisiones horizontales entre grupos animales, que, aunque ocasionales, pueden ser importantes (un muy alto nivel de homología entre secuencias de especies muy alejadas evolutivamente se interpreta como transmisión horizontal). Varios ejemplos de transmisiones de RVs de este tipo entre especies se han detectado entre mamíferos placentarios, donde parecen ser relativamente frecuentes, incluyendo transmisiones entre el hombre y otros primates (Benveniste y Todaro, 1974; Li et al., 2001; Koralnik et al., 1994; Mang et al., 2000). Pero también se han postulado infecciones horizontales recientes entre especies pertenecientes a distintas clases de vertebrados (Martin et al., 1999), como el SNV aviar (spleen necrosis virus), que parece haberse transferido desde un equidna (Monotrema) para después sufrir una radiación adaptativa en algunas familias de aves; el otro caso es entre marsupiales y placentarios, concretamente un retrovirus endógeno de koala que se ha transferido al gibón como un RV exógeno altamente oncogénico e infectivo. En el caso de la especie humana, que es la mejor conocida a nivel genómico por lo que se refiere a los retrovirus endógenos, se han identificado -de momento-22 familias de HERVs (Tristem, 2000), algunas de Carlos Sentís 142 las cuales pueden ser encontradas en especies muy alejadas filogenéticamente, aunque la mayoría son características de los primates. Dos de ellas, HERV-I y HERV-E, se pueden considerar ocupantes muy antiguos, ya que están en todos los vertebrados (Martin et al., 1997; Herniou et al., 1998), mientras que HERV-L se remonta a, como mínimo, antes de la radiación de los mamíferos, ya que se encuentra en todos los placentarios, y parece haber sufrido amplificaciones explosivas en algunos grupos, como Simios o Mus, pero no en otros cercanos filogenéticamente como Prosimios y Rattus, respectivamente (Benit et al., 1999). Pero muchas de las familias de HERVs identificadas son específicas de Primates, algunas sólo de Catarrinos, y algunos miembros de estas familias (sobre todo de la superfamilia HERV-K) son únicas de la especie humana, bien como LTRs solitarias, bien como provirus completos con todos sus genes operativos, y no están presentes en ninguna otra especie (Barbulescu et al., 1999)^. Asimismo, otros miembros de HERV-K están presentes en chimpancés y gorilas, pero no en humanos (Barbulescu et al., 2001), por lo que los distintos elementos de esta familia han continuado reinfectando la línea germinal en tiempos recientes en distintas especies de Homínidos tras su divergencia, y mantienen su capacidad de formar nuevos virus funcionales, puesto que algunos de ellos son polimórficos en las poblaciones humanas (Turner et al., 2001). Aunque falta mucho del genoma humano por conocer, y casi todo del genoma de chimpancé, se calcula que hay centenares de secuencias de este tipo específicas de la especie humana entre provirus completos y, sobre todo, LTRs solitarias, es decir, un repertorio único de genes estructurales y elementos reguladores, que contribuye a explicar nuestras diferencias genéticas con las especies próximas. A la vez, cada vez está más claro que las diferencias entre las especies próximas de Primates no radican en la existencia de muchos genes estructurales distintos, sino más bien en la expresión diferencial de los genes compartidos, es decir, las diferencias fundamentales son las que afectan a la regulación de los genes existentes, con ganancias y pérdidas de función específicas, o la expresión en tejidos y momentos de desarrollo diferentes (Brosius, 1999a, Gagneux y Varki, 2001; Hacia, 2001), eventos en los que las LTRs de HERVs pueden ser esenciales. Funciones celulares de los HERVs A partir de las funciones codificadoras que tienen los genes retrovirales gag, pol y env (Figura 1), se puede extrapolar que cuando estos genes presentes en los HERVs se expresan pueden producir muy diversos productos, tanto estructurales como enzimáticos, desde receptores de membrana (env), hasta proteínas de unión específica a secuencias determinadas de DNA (gag), que interaccionan con otros productos celulares. Por otro lado, la propia presencia de la RT (codificada por el gen pol) sigue siendo un misterio, ya que nadie sabe cuál puede ser realmente su fimción en un organismo eucarionte, puesto que aparentemente ningún proceso celular depende de ella. Teniendo en cuenta que tanto los HERVs como los otros retroelementos autónomos sin origen viral, como las LI-NEs, presentan el gen que codifica la RT, ésta sería la familia multigénica más repetida de todo el genoma, y probablemente el número de sus copias -aunque ligeramente distintas entre sí-sea probablemente mayor que la cantidad total de genes identificados en el último versión de la secuencia del Genoma Humano (The Genome Sequencing Consortium, 2001). ¿¡Y todo este material genético para codificar una proteína perfectamente dispensable por la célula!? Los HERVs son biológicamente activos, tanto a nivel de RNAs transcritos, como de las proteínas que codifican, y son ya muchos los ejemplos de participación de los genes y las regiones reguladores retrovirales en las funciones celulares normales. Además, se expresan diferencialmente según los tipos celulares y tejidos, así como dependiendo del momento de desarrollo, de modo que están sometidos a una regulación espacio-temporal muy precisa (Schon et al., 2001; Blond et al., 2000: Mi et al., 2000). Muchas de las proteínas que producen son funcionales (Medstrand y Mager, 1998), aunque muchas de ellas sean truncadas, ya que presentan los motivos proteicos funcionales, como en el caso del gen env de HERV-H que produce proteínas incompletas pero con el dominio de transmembrana inmunosupresor (Lindeskog y Blomberg, 1997), o el gen gag de HERV-W con dominios parciales de cápsida y matriz capaces de unirse a DNA (Voisset et al., 2000). Los productos de los HERVs están plenamente integrados en el desarrollo, ya que algunos de ellos son necesarios para la propia diferenciación celular, puesto que son el sustrato sobre el que actúan potentes morfógenos, como el ácido retinoico y las BMPs (Bone Morphogenetic Proteins) sobre HERV-K. La activación de distintos miembros de la familia HERV-K por estos morfógenos parece ser un paso intermedio necesario en la diferenciación de células epiteliales y neuronales a partir de células embrionarias (Caricasole et al., 2000a y b). La expresión y el procesamiento de estos genes provirales está controlada por sus LTRs así como por el conjunto de factores celulares que regulan la expresión génica, ya que las LTRs contienen secuencias respondedoras a hormonas (estrógenos, progesterona, glucocorticoides...) 144 (Patience et al., 1997b; Medstrand et al., 1997) y a factores de transcripción, tanto ubicuos como específicos tisulares (De Parseval et al.,1999; Knossl et al., 1999), De este modo, una misma LTR puede desarrollar actividades distintas en diferentes líneas celulares (Baust et al., 2001) y, por el contrario, otras LTRs sólo manifiestan actividad promotora en un tipo celular determinado (Schon et al., 2001). Esta especificidad estricta de tipo celular depende de su secuencia, ya que la mantiene cuando se transfiere a ratón o cuando cambia de posición en el genoma (Casau et al., 1999), pero pequeñas mutaciones en su secuencia cambian la especificidad tisular de los genes que controlan (Sugimoto et al., 2001), por lo que se puede afirmar que contienen los elementos necesarios para su propia regulación espacio-temporal. Puesto que hay miles de LTRs solitarias dispersas por el genoma, muchas de ellas actúan sobre otros genes controlando su expresión, bien actuando como promotores o enhancers específicos de tejidos, o bien proporcionando señales alternativas de poliadenilación, con lo que se pueden obtener distintos productos proteicos de un solo gen con distintas actividades biológicas, e incluso dando como resultado productos completamente nuevos, como en el caso del gen PLA2L, mediante un splicing intergénico (para algunos ejemplos sobre las funciones de las LTRs, ver: Mager et al., 1999; Baust et al., 2000; Lavrentieva, 1998; Kowalski et al., 1999; StrazzuUo et al., 1998; Medstrand et al., 2001; King y Francomano, 2001). El resultado de todas estas interacciones entre los HERVs y el resto de las secuencias y productos celulares es una impresionante diversidad de productos posibles que son utilizados según las necesidades celulares, pero a diferencia de otras secuencias, los HERVs son capaces de modelar el genoma de manera dinámica gracias a sus capacidades de recombinación y transposición. La capacidad de los HERVs de formar proteínas de fusión con otros genes genera una variedad combinatoria muy superior a la visión estática del simple número de genes como constructores de la realidad fisiológica: es evidente que no es lo mismo una proteína con dominios exclusivamente citoplasmáticos, que otra con el ligero añadido de un dominio de transmembrana de un gen env, localizando así su actividad en la membrana. Integración de las funciones de los HERVs en procesos fisiológicos complejos: el ejemplo de la placentación La expresión de RNAs y proteínas de diferentes HERVs se puede obervar en prácticamente todos los tejidos humanos, pero es especialmente conspicua, llegándose a formar retrovirus completos extracelula-Retrovirus endógenos humanos: Significado biológico... res, en las células de la línea germinal (Nilsson et al., 1992), en tejidos embrionarios y, sobre todo, en placenta. La gran expresión de proteínas de diferentes familias de HERVs en este tejido ha sugerido (Boyd et al., 1993; Villareal, 1997; Harris, 1998) una función para ellos en el fenómeno mismo de la placentación, que, pese a su enorme importancia, es un proceso poco comprendido, y cuya aparición sigue siendo un interrogante evolutivo de primer orden. Desde el punto de vista inmunológico, la madre debería rechazar al embrión por ser un tejido medio extraño, ya que expresa antígenos de origen paterno, pero, por supuesto este rechazo no se da; por otro lado, debe restringir el crecimiento fetal para que la invasión que, de todas maneras, supone de los tejidos maternos esté controlada (Ober, 1992, Loke y King 1997). Los retrovirus son generalmente inmunosupresores y fusogénicos, gracias a las características de las proteínas codificadas, principalmente, por el gen env, lo que convierte a sus versiones endógenas -los ERVs-en candidatos idóneos para superar este aparente conflicto, ya que sus productos mantienen las mismas propiedades (Denner, 1999). Los retrovirus endógenos estarían implicados en la protección del feto de dos maneras: fusionando las células del trofectodermo para formar un sincitio e inmunosuprimiendo las células maternas en la vecindad inmediata de la placenta. De hecho, se detectan partículas retrovirales endógenas en trofoblasto pero no en la masa de células interna que dará lugar al embrión propiamente dicho (Stromberg y Benveniste, 1983; Johnson, 1993) y, puesto que el trofoblasto protege al embrión de los macrófagos maternos (Sionov et al., 1993), el papel que jugarían los HERVs sería mediante una infección local sobre las células circundantes, de modo que sólo provocaría la inmunosupresión de los macrófagos maternos inmediatamente próximos, que serían los encargados del rechazo fetal, mientras que el resto del sistema inmune materno seguiría defendiendo a la madre y al feto de los agentes patógenos^. Por otro lado, el sincitiotrofoblasto es una estructura única de los placentarios que constituye la interfase feto-materna y contribuye a la limitación del crecimiento fetal, y se forma gracias a una proteína, la sincitina, que permite la fusión celular del citotrofoblasto y es el producto del gen env de un miembro de la famiha HERV-W (Mi et al., 2000; Blond et al., 2000), completamente funcional, tanto en su dominio inmunosupresor como en su Carlos Sentís 146 dominio fusogénico. Al diferenciar terminalmente las células del trofoblasto y formar el sincitio, la sincitina limitaría la capacidad invasiva del trofoblasto sobre el endometrio. Además, otros muchos HERVs de diferentes familias (HERV-K, HERV-F, etc.) se expresan durante la placentación y participarían activamente en el proceso, como ERV3 que se ha demostrado necesario para la correcta diferenciación de las células del trofoblasto en cultivo (Lin et al., 1999). Sin embargo, se da la paradoja de que HERV-W es una familia de HERVs propia de los primates catarrinos, mientras que la placentación es un fenómeno general de todos los euterios. Esto se puede explicar porque, debido a la redundancia característica de los HERVs, existen múltiples genes env con las mismas -o similares-capacidades inmunomoduladoras y fusogénicas, por lo que es probable una transcomplementación de funciones entre las distintas secuencias retrovirales y sus productos, lo que no sería raro, ya que la redundancia funcional es una característica de los genes con funciones esenciales para la supervivencia del organismo. Esto explicaría, además, las observaciones de implantaciones y embarazos normales en las mujeres que presentan el ERV3 mutado no funcional (De Parseval y Heidmann, 1998). Es más, las partículas retrovirales observadas no pueden ser exclusivamente de HERV-W ya que, aunque el gen env sea funcional, parece que los genes gag ypol de este provirus no son funcionales al contener múltiples codones de terminación, por lo que la formación de partículas exige la colaboración de productos de otros HERVs, cuyos RNAs son detectados en las partículas, como HERV-K. De hecho, la sincitina puede transcomplementar a otros retrovirus exógenos defectivos, como el HIV sin el gen env funcional, y son capaces de formar partículas con ellos (An et al., 2001). La participación de varios HERVs en este proceso explicaría las diferencias en el proceso de implantación en las distintas especies de mamíferos: por ejemplo, el sincitiotrofoblasto humano es diferente del de ratón ya que mientras que el humano se forma por fusión de células mononucleadas, el de ratón se forma por división sin citocinesis, por lo que aunque sea una estructura tan fundamental, los procesos para su formación pueden haber sido diferentes durante la evolución, lo que sería un ejemplo más de estructuras homologas que utilizan distintas rutas de desarrollo (Wray y Abouheif, 1998). Pero las funciones de los HERVs en la placentación no son únicamente las derivadas de las propiedades de sus partículas, sino que otras secuencias retrovirales están implicadas en la complicada regulación de la fisiología placentaria y el desarrollo fetal. Por ejemplo, el factor de crecimiento PTN (pleiotrofina) es ubicuo, pero en humanos tiene además un promotor específico de trofoblasto en una LTR de HERV-E, de modo que en este tejido se forman productos de fusión HERV-E-PTN que contribuyen a las funciones invasivas y proliferativas que le son propias (Schulte et al., 1996,). Por otro lado, una LTR retroviral proporciona el enhancer específico de placenta al gen de la leptina (Bi et al., 1997). Este enhancer promueve una alta tasa de expresión de este gen en placenta, concretamente en sincitiotrofoblasto, y contribuye al incremento de las concentraciones circulantes de leptina durante el embarazo. Además de las funciones conocidas de la leptina como regulador del equilibrio energético, en placenta se le atribuye un papel angiogénico e inmunomodulador mediante mecanismos autocrinos y paracrinos, y parece afectar al crecimiento fetal y al desarrollo mediante su unión a los receptores de leptina específicos presentes en los órganos fetales (Ashworth et al., 2000; Henson y Castracane, 2000). A su vez, el receptor de leptina placentario presenta varias isoformas como resultado del splicing alternativo del gen OBRa, una de las cuales se genera mediante la adición de 67 aminoácidos procedentes de otra LTR (esta vez de un retrovirus distinto de la familia HERV-K) (Kapitonov y Jurka, 1999) y sería interesante conocer las proporciones de las distintas isoformas en la placenta y en los tejidos fetales, ya que en el caso de otros genes bajo el control de dos promotores -uno retroviral y otro no-, la isoforma promovida por la LTR retroviral es mayoritaria o exclusiva en placenta, mentras que en otros tejidos los transcritos se generan de ambos promotores de modo equivalente (Medstrand et al., 2001). Por supuesto, la desregulación de la leptina placentaria (y/o de sus receptores, que es funcionalmente lo mismo) se ha asociado con problemas en el embarazo, como preeclampsia y diabetes materna, retraso en el crecimiento fetal, insuficiencia placentaria, etc., lo que significa que su expresión, controlada por HERVs, está exquisitamente controlada e integrada en el entramado fisiológico. La enorme complejidad del proceso de placentación, la necesidad de sincronización en la acción de múltiples genes para su correcto funcionamiento, la generación de estructuras previamente inexistentes, como el sincitiotrofoblasto, así como el control preciso de su papel invasivo -que no debe llegar a colonizar los tejidos maternos-, a la vez que se inhibe de un modo controlado el sistema inmune materno para evitar el rechazo del embrión parcialmente alogénico, hace imposible que todas estas funciones surgieran por mutaciones o duplicación y divergencia de genes individuales de modo gradual. A la vez, la multiplicidad de funciones celulares y tisulares de los HERVs y la cantidad y diversidad de ellos que participan en el proceso de placentación, hace poco probable su incorporación paulatina a ese proceso, ya que se necesita la acción coordinada y simultánea de todos ellos para la propia existencia del proceso. Por el Carlos Sentís 148 contrario, un proceso de integración retroviral y posterior amplificación y retrotransposicion explosiva, como los observados en condiciones de shock genómico por stress ambiental, (Wessler, 1996; Kidwell y Lisch, 1997) podría explicar mejor la generación de distintas funciones coordinadas en la red genética. Por otro lado, la interpretación de que esos genes puedan ser exaptados para solucionar el conflicto genético de la placentacion (Haig, 1992), según el cual una vez aparecida la placentación, los embriones generan la inmunosupresión para que la madre no los rechace, y la madre adquiere caracteres que restringen el crecimiento fetal para no ser invadida, no se sostiene, ya que sin estos caracteres (y los HERVs que los determinan) el mismo proceso de la placentación, simplemente, no podia haber existido. Efectos genómicos de los HERVs La existencia de miles de secuencias de las distintas familias de HERVs en el genoma humano, que presentan homologías parciales y capacidad de retrotransposicion, es una fuente enorme de variabilidad y plasticidad genómica. Gracias a sus homologías facultan las recombinaciones entre distintas regiones del genoma, promoviendo en general reorganizaciones genómicas y, en algunos casos concretos, duplicaciones génicas, tanto de sí mismas, como de cualquier gen que esté flanqueado por las repeticiones (Shen et al., 1994; Andersson et al., 1998). También podrían contribuir a la aparición de las duplicaciones de segmentos cromosómicos completos que se observan en el genoma humano (The Genome Sequencing Consortium, 2001) y, como otros elementos móviles, producir otras reordenaciones cromosómicas (Caceres et al., 1999; Gray, 2000). Puesto que el movimiento de los HERVs por el genoma se debe a su propia capacidad de retrotransposicion -es decir, con un intermediario de RNA y la acción de la RT-, la consecuencia más inmediata es la amplificación del propio genoma. De hecho, aunque la mayoría de los HERVs son defectivos, se pueden dispersar por el genoma mediante transposiciones intracelulares (Tchenio y Heidmann, 1991), lo que implica que existe transcomplementariedad entre sus distintos productos. Aunque todos los retroelementos autónomos movilizan preferentemente el RNA que codifican, sus proteínas pueden actuar en trans para promover la retrotransposicion de otros elementos defectivos y otros RNAs celulares (Wei et al., 2001). Por su capacidad de movimiento pueden adquirir nuevas funciones dependiendo de su nueva situación genómica y bajo qué secuencias reguladoras se dispongan, o, a la inversa, dotar de nuevos elementos reguladores en cis a otros genes, que supongan un nuevo patrón de expresión (como en el caso de uno de los genes de la amilasa, en el que la integración de un HERV le da capacidad de expresión en saliva y no sólo en pancreas (Samuelson et al., 1990; Ting et al., 1992)). También pueden combinarse con otras secuencias codificantes dando lugar a nuevas formas funcionales y existen múltiples ejemplos de transcritos de fusión entre genes y secuencias de HERVs. De hecho, se calcula que, al menos el 4% de los genes contienen retroelementos insertados que se han convertido en exones nuevos (Nekrutenko y Li, 2001). La integración de HERVs produce además diversidad alélica en las poblaciones, como se ha demostrado en la región del Complejo Mayor de Histocompatibihdad (MHC) (Tassabehji et al., 1994; Dawkins et al., 1999; Kulski et al., 1999;) y puede producir respuestas individuales diferenciales ante determinadas enfermedades, sobre todo contra las infecciones virales exógenas (Dangel et al., 1994; Schneider et al., 2001). La propia diversidad y complejidad del MHC se puede atribuir a las inserciones de distintos HERVs y a las recombinaciones entre ellos que han producido las duplicaciones de grupos génicos completos dentro del complejo, como el módulo de cuatro genes RCCX, que aparece de una a tres veces en la población (Shen et al., 1994). Por supuesto, no todos los efectos de los HERVs sobre el genoma son constructivos: si el elemento movilizado se inserta un una secuencia codificante se puede producir la inactivación de ese gen por mutagenesis insercional, convirtiéndose en deletéreo o en letal, dependiendo de la función afectada, como ha ocurrido con la Distrofia Muscular de tipo Fukuyama (Kobayashi et al., 1998). Mientras que las mutaciones puntuales son un medio lento de cambio genómico, y por tanto son herramientas poco satisfactorias para la generación de diversidad estructural y funcional del genoma, los reordenamientos mediante recombinación y tansposición mediados por los HERVs son mucho más eficientes para la remodelación global de los genomas, que es una condición previa e indispensable para la evolución de los organismos. Otro efecto de los HERVs sobre el genoma, en colaboración con otros retroelementos autónomos, es la formación de genes y pseudogenes procesados (retrogenes y retropseudogenes), es decir, copias de los RNAs producidos por otros genes a DNA mediante transcripción inversa con la RT, que son integrados en el genoma, provocando su duplicación funcional, ya que contienen la parte informacional de esos genes, y con la posibilidad de adquirir nuevas funciones celulares. La gran mayoría de estas secuencias amplificadas derivan de RNAs pequeños nucleares o de tR-NAs (es decir, RNAs que no se traducen a proteínas, pero que tienen propiedades estructurales-y enzimáticas) y constituyen las SINEs, que, en Carlos Sentís 150 conjunto, ocupan aproximadamente el 15% del genoma y cuyas fimciones, esencialmente reguladoras, han sido objeto de excelentes revisiones (Smit, 1999; Brosius, 1999a). El otro grupo de genes procesados deriva de RNAs mensajeros maduros y por tanto generalmente carecen de intrones y de secuencias promotoras, pero mantienen toda la secuencia que codifica proteína. Pese a no tener la región promotora, muchos de ellos se transcriben debido a que su reubicación genómica les ha colocado bajo el control de otros promotores o de las LTRs con actividad promotora que están dispersas por el genoma. De este modo, los retrogenes a menudo se expresan en distintos tipos celulares o momentos de desarrollo que los genes originales de los que derivan, por lo que pueden tener ñmciones celulares alteradas o completamente nuevas (Brosius, 1999b). Parte de estos genes son aparentemente no operativos (retropseudogenes) ya que presentan mutaciones puntuales, inserciones o deleciones, sin embargo, no se pueden calificar de inactivos ya que muchos de ellos se transcriben y en ocasiones se traducen, aunque desconocemos las posibles ñmciones de sus productos. En todo caso, la existencia de miles de genes procesados supone un acervo de variabilidad informacional muy superior a la duplicación génica tradicional, ya que supone la capacidad de asociar unidades codificadoras completas con elementos reguladores completamente distintos de los que tenía, con el consiguiente potencial evolutivo que ello supone. En general, los retrogenes derivan de genes ampliamente expresados y altamente conservados, por lo que este proceso es uno de los pocos que permiten de modo inmediato nuevas ñmciones más específicas en el complejo entramado molecular de la célula. Está claro por tanto que los retrogenes son una ñiente de variabilidad genómica -un tipo de duplicación ñmcional, pero con patrones de expresión nuevos-que hace evolucionar a los genomas. El problema sigue siendo cómo llegan los retrogenes a la línea germinal para extenderse a la población de modo mendeliano. Puesto que los retrogenes forman parte de los genomas, los eventos de retrotransposición e integración por los que se generan han tenido que suceder en las células de la línea germinal. Esto es relativamente fácil de explicar en el caso de que los genes de los que se derivan se expresen en esas células o durante los primeros estadios del desarrollo embrionario. No resulta sencillo de explicar mediante mecanismos convencionales, sin embargo, cuando los genes originales se expresan exclusivamente en un tejido somático, ya que su RNA mensajero sólo se expresará en ese tejido, y para llegar a la linea germinal hace falta un vehículo que interconecte las líneas somática y germinal y consiga trasladar un RNA desde una célula somática a una célula germinal y en ella retrotranscribirlo e Retrovirus endógenos humanos: Significado biológico... integrarlo en el genoma. El mecanismo más probable para movilizar RNAs entre distintas células y que además puede integrarlos en la línea germinal es la transfección retroviral (retrotransfección o retrofección), es decir, que las partículas retrovirales serían un vector de trasmisión de información genética de la línea somática a la germinal. De hecho, ya dijimos que el propio origen de los retrovirus endógenos es la infección retroviral de las células germinales, lo que implica la existencia de este proceso, aunque sea poco frecuente. Si un RNA celular se encapsula en una partícula vírica, puede ser transportado por ésta en su infección de otras células, retrotranscrito e integrado como secuencia de DNA en el genoma de las células germinales ya que ésto forma parte del ciclo vital del retrovirus. Su carácter infectivo le permite además afectar a un cierto número de iindividuos simultáneamente y, de este modo, la información producida por las células somáticas en forma de RNAs se transfiere ocasionalmente a la linea germinal, heredándose a partir de ahí de modo mendeliano y se observan en el genoma como retrogenes y retropseudogenes. Las reordenaciones genómicas producidas por los HERVs dependen de las condiciones ambientales La dispersión de los retroelementos se asocia a menudo con situaciones de bruscos cambios ambientales. Ya desde los trabajos pioneros de McClintock con elementos transponibles (ver p.e. su conferencia de recepción del Premio Nobel, publicada en Science: McClintock, 1984), se sabe que determinadas condiciones externas pueden provocar cambios genómicos bruscos (un estado de shock genómico) y las observaciones indican que se produce una transposición concertada de distintos tipos de elementos transponibles, tanto DNA (transposones), como RNA (retroposones y retrovirus endógenos) (Wessler, 1996; Kidwell y Lisch, 1997). Las situaciones de stress ambiental pueden ser m^uy diversas e incluyen la endogamia forzada por la selección artificial de razas (Mang et al., 2001), la hibridación interespecífica (Labrador et al., 1999), los cultivos celulares de larga duración (Pouteau et al, 1991), y la presencia de agentes mutagénicos ambientales, como los rayos ultravioleta (Hohenadl et al., 1999). Por ejemplo, los análogos de bases, como la iododeoxiuridina y la azacitidina inducen la formación de partículas virales infectivas a partir de provirus endógenos en ratón (Khan et al., 2001). Los HERVs, como parte de su expresión normal en las células, son inducibles en ciertos tejidos y momentos de desarrollo (Svensson et al.. 2001), lo que implica que pueden responder a distintas señales externas e internas, pero se activan especialmente tras la infección con otros virus y bacterias (Hará et al., 1981). Por ejemplo, es bastante conocido (Stevens ^et al., 1999) que la mayoría de los infectados por HIV muestran sobreexpresión de HERVs. En la especie humana precisamente se han asociado los HERVs con algunas enfermedades ya que algunos tumores, los tejidos afectados en pacientes autoinmunes y, recientemente, también en esquizofrénicos, contienen partículas retrovirales producidas por HERVs, y algunas de estas partículas tienen un probado carácter infectivo (Christensen et al., 2000). La reactivación de algunos HERVs se puede observar, incluso, durante el envejecimiento, aunque no parece tener implicaciones en ninguna enfermedad asociada con este proceso (Puech et al., 1997). En cada uno de estos casos parece claro que ha habido una desregulación en la expresión de los HERVs -y de otros muchos genesen situaciones de fallo celular generalizado, inducido por factores genéticos y xenogenéticos. Este cambio de regulación puede aumentar la expresión de un determinado HERV, como en el caso de los teratomas que muestran partículas de HERV-K (mientras que en las células germinales normales de los que derivan esos tumores la expresión del mismo HERV es muy pequeña), o, por el contrario, es la falta de expresión de un determinado HERV la que se asocia con un desarrollo neoplásico, como ERV3, muy expresado en placentas normales, pero ausente en coriocarcinoma (Kato et al., 1990). Pero la desregulación también puede implicar un cambio en el momento de desarrollo o el lugar en que se expresan, como parece ser el caso de MSRV/HERV-W que se expresa de modo normal en placenta (Blond et al., 1999) y que se detecta en las partículas retrovirales observadas en los pacientes de esclerosis múltiple, pero no en los mismos tejidos de los individuos sanos (Perron et al., 2000). En este caso, parece que la infección previa por el virus de Epstein-Barr (un herpesvirus) es un prerrequisito para el desarrollo de la enfermedad (Háár y Munch, 2000), por lo que el fallo de regulación de los HERVs sería una respuesta a otra infección viral. Es decir, la activación de los HERVS formaría parte de la respuesta celular ante situaciones de agresión externa, de modo que en determinadas circunstancias de graves crisis ambientales se produciría un incremento explosivo en su actividad de retrotransposición que posibilita las reordenaciones genómicas que se vieron en el apartado anterior, y, al formar partículas, aumentaría su capacidad de retrotransfección tanto de ellos mismos como de otros RNAs celulares para su integración estable en la línea germinal. La expresión de los HERVs en la línea germinal permitiría y potenciaría su movimiento y dispersión en la población de modo infectivo en momentos concretos de Retrovirus endógenos humanos: Significado biológico... su historia evolutiva, mientras que en los periodos intercríticos estarían sometidos a una estricta regulación somática de su expresión para mantener la estabilidad genómica ante ambientes estables, restringiendo, entre otros efectos, la mutagenesis insercional y los resultados perniciosos de su expresión inadecuada. De este modo, las situaciones de stress organísmico o celular podrían provocar, en momentos evolutivos concretos, cambios genómicos extensos, sobre todo funcionales, y la activación de todos los retroelementos mediados por los HERVs, lo que contribuiría significativamente a la diversidad de los fenotipos, que, al fin y al cabo, son las unidades básicas del proceso evolutivo. Desde una perspectiva evolutiva esta mutabilidad inducida por condiciones ambientales puede ser muy importante y se diferencia de otros procesos mutacionales clásicos por su potencial diversidad estructural y funcional, e implica que las tasas de cambio genómico no son, ni mucho menos, constantes, sino que aparecen en avalanchas de modo repentino, tras largos periodos de aparente inactividad transposicional, como sucede con otros elementos móviles (Wessler, 1996). Esto podría explicar las explosiones retrotransposicionales esporádicas en momentos evolutivos que coinciden con grandes reordenaciones organísmicas, como la aparición de nuevas familias (Devor, 2001; Goncalves et al., 2000). Incluso se ha conjeturado (Travis, 1992) que estas explosiones transposicionales -incluyendo, no solo HERVs, sino todos los elementos genéticos móvilespodrían ser responsables de las grandes radiaciones evolutivas, como la denominada explosión del Cámbrico, en la que aparecen repentinamente múltiples organizaciones animales distintas. En todo caso, estas reorganizaciones genómicas extensivas producidas por los HERVs en momentos concretos, ante situaciones ambientales críticas, podrían explicar una parte de las discontinuidades evolutivas observadas, por lo que se pondría de manifiesto su enorme importancia como mecanismo de cambio en los procesos macroevolutivos. Las nuevas combinaciones genómicas funcionales producidas por los HERVs contribuyen a la diversidad morfológica Los avances de la Genética y de la Biología del Desarrollo en los últimos años, con las primeras versiones casi definitivas de genomas completos, han puesto de manifiesto el alto nivel de complejidad y de interacción en red que exige el fimcionamiento celular y organísmico, mucho más parecido a la teoría de sistemas complejos que al mecanicismo imperante en las explicaciones tradicionales del papel de los genes en la de- Las relaciones funcionales entre genotipo y fenotipo son extraordinariamente complejas, ya que genes homólogos no especifican necesariamente estructuras homologas y viceversa (Wray, 1999), y ya no es posible considerar a los genes como unidades independientes que determinan todos los caracteres observables, porque esa supuesta autonomía génica difícilmente explicaría los procesos de diferenciación y desarrollo, que son los que, en ultimo término, identifican y definen a cada uno de los seres vivos. Eran los tiempos de la hipótesis de «un gen-un enzima», de modo que cada gen codificaba una proteína y se asociaba a un fenotipo particular. Lo que nos dice la genómica es que los sistemas genéticos son redundantes y cada gen está constituido por una serie de módulos reguladores y codificadores que están sujetos a múltiples mecanismos de cambio (Dover, 2000), que permiten la aparición y dispersión de nuevas combinaciones de módulos que contribuyen de modo significativo a la evolución de los fenotipos. Entre estos mecanismos juegan un papel fundamental los HERVs, ya que pueden promover, no sólo la construcción de estructuras nuevas, sino su dispersión a la población en momentos evolutivos concretos, coincidentes con cambios medioambientales profundos que provocan sus explosiones retrotransposicionales y consiguiente remodelación de los genomas. El hecho de que existan múltiples secuencias reguladoras -miles de LTRs dispersas por el genoma-, que están implicadas un distintos procesos de diferenciación y desarrollo, podría ayndar a comprender cómo se puede producir este proceso. Si a esto le añadimos que, por la mera presencia de los HERVs, el genoma puede disponer de miles de secuencias que codifican dominios proteicos funcionales con capacidad de formar productos quiméricos con otras secuencias codificantes, cuya función última depende del transcrito y proteína que finalmente formen, obtendremos un enorme bagaje combinatorial al que hay que sumar los cambios que sin duda se producirán en sus interacciones con el resto de los elementos que componen la red genética. Estos intercambios entre secuencias reguladoras y las secuencias controladas por ellas ofrecen más posibilidades de cambio morfológico y evolutivo que aquellos cambios estructurales que afecten a sus actividades propiamente bioquímicas. La posibilidad de que estas secuencias reguladoras adquieran nuevas funciones de desarrollo, perdiendo o no las anteriores funciones, hace relativamente innecesaria la aparición de nuevos genes: basta con dotar a los genes existentes de nuevas composiciones modulares. Esto no significa que otros mecanismos no sean posibles o no puedan coexistir como factores del cambio genético, pero hace mucho más factible la comprensión de la realidad observada, que, lejos de seguir siempre un patrón Retrovirus endógenos humanos: Significado biológico... único de duplicación y divergencia gradual, parece explicarse mejor mediante la combinación de elementos preexistentes que alteran radicalmente sus funciones. El hecho de que gupos tan alejados ñlogenéticamente como Artrópodos, Nematodos y Vertebrados compartan gran parte de los genes directamente implicados en desarrollo, pese a mostrar morfologías y fisiologías tan diferentes, implica que los mismos genes pueden tener funciones distintas en distintos entornos genómicos. Mientras que gran parte de los genes fundamentales están presentes en todas las organizaciones organísmicas, lo que es tremendamente variable entre ellas es el tipo y la distribución de los elementos móviles, incluyendo las secuencias retrovirales. Es decir, que son esencialmente los mismos genes, pero distintos elementos reguladores, integrados todos ellos en una compleja red genética funcional, los que cambian funcionalmente durante el curso de la evolución, y que combinaciones nuevas de unos y otros pueden ser la base de las novedades morfológicas que diferencian a los distintos grupos. Siendo ésto así, no es posible seguir considerando a los genes como la unidad de cambio evolutivo, sino que el proceso evolutivo operará sobre las distintas partes funcionales del genoma: los elementos reguladores que determinan cuándo, cuánto y dónde se expresan las unidades codificantes, y si a estas unidades codificadoras las diseccionamos según sus propiedades funcionales en los distintos dominios proteicos, no sólo se obtiene un mayor -exponencialmente mayor-número de posibilidades de cambio, sino que obliga a modificar los modelos actuales sobre los que se explican las observaciones. Este cambio de unidad evolutiva, del gen a las distintas partes que pueden ser funcionales en el genoma, considera la medularidad de elementos genómicos funcionales, su capacidad combinatoria y su expresión en red, como una unidad de orden superior sobre la que construir los modelos que expliquen el cambio evolutivo. Un cambio de expresión de un gen (de lugar o de momento) puede provocar un nuevo juego de relaciones en el entramado de relaciones genes-RNA-proteínas, generando propiedades alteradas o completamente nuevas, es decir, cambios fenológicos, a veces sutiles, a veces bruscos. Es interesante que la inmensa mayoría de los retroelementos que forman parte de las regiones codificadoras lo hacen como exones nuevos, es decir, que una vez integrados en un intrón, un cambio de procesamiento los convierte en parte de la proteína codificada, dotando a la nueva proteína de características nuevas, bien de respuesta a otros factores, bien de unión específica a otras secuencias, o de lugar intracelular de actuación, con los efectos pleiotrópicos en la fisiología celular que ésto puede implicar y que son típicos de cualquier sistema complejo que funciona en red. La existencia de retroelementos, y sobre todo de HERVs, implica que las células contienen toda la maquinaria necesaria para que opere una ingeniería genética natural que responde plásticamente a las condiciones ambientales en que se desarrolla y permite nuevas combinaciones de elementos informacionales. Su existencia implica que el genoma no es una entidad sujeta a una tasa de variación constante, sino que es fluido y está sujeto a reorganizaciones masivas, episódicas, y no aleatorias, que son capaces de producir nuevas arquitecturas funcionales. Algunas implicaciones prácticas del significado evolutivo de los HERVs Por último, es necesario hacer una pequeña reflexión sobre la importancia que puede tener el cambio de enfoque teórico respecto al significado y funciones de los HERVs en el ámbito aplicado de la salud humana. La concepción de que los HERVs son secuencias constitutivas de nuestro genoma que realizan diferentes funciones celulares y fisiológicas, y no parásitos egoístas que sólo pueden causar problemas, es decir, enfermedades, puede cambiar alguno de los planteamientos que se están utilizando en el manejo de los retrovirus y las enfermedades retrovirales en biomedicina. En primer lugar, la utilización de agentes antirretrovirales inespecíficos en el tratamiento de enfermedades somo el SIDA puede, además de detener la replicación del HIV, alterar las funciones normales desempeñadas por los HERVs. Por un lado, los análogos de base, como el AZT, impiden la replicación de los RVs infectivos, pero pueden activar los HERVs en tejidos o momentos donde no deberían expresarse, como sucede con otros productos similares (Khan et al., 2001), y puede interferir con sus funciones normales, ya que inhibe la RTs, en aquellos tejidos donde su función es necesaria. No se puede precisar el alcance de estos efectos de inhibición/activación puesto que los efectos de los HERVs son mayoritariamente desconocidos, así como sus interacciones con otros productos celulares y sus posibles reacciones ante los factores ambientales, sobre todo cuando actúan en periodos críticos del desarrollo embrionario, por ejemplo, durante la implantación, donde los HERVs son muy activos y necesarios como se vio en apartados anteriores. En segundo lugar, también puede tener interés práctico en la discusión sobre la utilización de órganos de origen animal para su trasplante a seres humanos -xenotrasplantes-. Al igual que el genoma humano está plagado de HERVs, todos los genomas animales contienen retrovirus endógenos aunque en distinto número y de distinto tipo y, en concreto. los cerdos (que son los mejores candidatos como factorías de órganos para xenotrasplantes) tienen su propio repertorio (de PERVs) que aún no es del todo conocido (Mang et al., 2001). Sin embargo, el comportamiento de los PERVs conocidos en cultivo resulta alarmante, ya que cuando cambian de entorno celular -por ejemplo, en un cultivo mixto de células porcinas y humanas-pueden activarse y formar partículas infectivas para las células humanas con las que entran en contacto (Patience et al., 1997a). Este hecho era predecible desde el supuesto de que los retrovirus endógenos responden a las condiciones ambientales y que, por su capacidad de recombinación, las partículas formadas pueden adquirir propiedades nuevas, por ejemplo en su tropismo, y traspasar la barrera de especie que usualmente se observa en los RVs infectivos y, por tanto, con el potencial de provocar una infección zoonótica en la especie humana. Aunque es comprensible la presión social por parte de los enfermos que necesitan ser trasplantados (sobre todo en los países con baja tasa de donación de órganos, como en EEUU), es un riesgo inaceptable continuar con este tipo de experimentación en pacientes humanos, ya que, aunque los resultados hasta ahora han sido fulminantes, con resultado de muerte inmediata, es más que una posibilidad que tras uno de esos experimentos aparezca un nuevo RV infectivo, cuyas características de tropismo y transmisión sean completamente nuevas, con la posibilidad de provocar una nueva pandemia, y, por tanto, con efectos potencialmente devastadores para la especie humana. Por último, pero muy relacionado con lo anterior, está la cada vez mayor utilización de vectores retrovirales, previamente inactivados en alguno de sus genes, en protocolos experimentales de terapia génica. En primer lugar, la introducción de estos vectores puede provocar respuestas celulares por parte de los HERVs, o bien interaccionar con ellos interfiriendo con sus funciones normales. En segundo lugar, ya no se podría establecer la barrera entre terapia génica somática y terapia germinal -esta última prohibida en todos los países-porque siempre existe la posibilidad de que esos vectores retrovirales, aún utilizados en células somáticas, alcancen la línea germinal como, aunque en ocasiones especiales, pueden hacer los RVs, llevando consigo el carácter que hayamos introducido. Esto ya ha sucedido en la fase experimental de algunos protocolos de terapia en animales (Reaves et al., 1999) y no hay razón para pensar que no pudiera suceder en su aplicación a humanos. A partir de su inserción en la línea germinal este carácter se transmitiría a toda la descendencia. El que los vectores sean defectivos no supondría ningún obstáculo, porque existiendo miles de HERVs, y teniendo en común la maquinaria de retrotransposición, la posibilidad de transcomplementa-Carlos Sentís 158 ción entre productos génicos de HERVs y de los vectores que hayamos añadido es muy alta. De hecho, uno de los genes de los miembros de la familia HERV-K, el cORF, tiene las mismas funciones -aunque no se parece nada en su secuencia-que la proteína Rev del HIV y es capaz de complementar experimentalmente sus funciones cuando el HIV es defectivo para Rev (Yang et al., 1999). Todos estos ejemplos ponen de manifiesto la obligatoriedad de comprender mejor las funciones normales de los HERVs -así como sus posibles fallos-, antes de que una experimentación precipitada, poco o mal sustentada desde el punto de vista teórico, o partiendo de un paradigma erróneo, como que los HERVs forman parte del DNA basura o parásito, que no sirve para nada, pueda tener efectos desastrosos irreversibles. Todas las revisiones de este tipo suelen acabar con la necesidad de profundizar en la investigación de laboratorio y en la obtención de más datos para resolver las incógnitas y dudas que quedan abiertas. En este caso, y sin despreciar la aportación continua de datos, lo que hace falta es una tarea de síntesis y comprensión de los que ya poseemos (miles de artículos, en lo que se refiere al tema que nos ocupa) y una tarea de reflexión multidisciplinar, partiendo de un punto de vista holístico y abierto a diversas posibilidades teóricas, sin la constricción que suponen los paradigmas previos en los que se tiende a encajar -muchas veces de modo forzado-los resultados disponibles. Notas ^ Resulta curioso que algunas de estas secuencias retrovirales específicamente humanas se han localizado en regiones genómicas asociadas con la asimetría cerebral y el lenguaje, y se encuentran desreguladas en pacientes esquizofi'énicos (Kim et al., 1999; Karlsson et al., 2001). ^ Resulta sorprendente sin embargo que, en ocasiones, los efectos de enfermedades autoinmunes, como la artritis reumatoide, e incluso las generalizadas alergias disminuyen durante el embarazo, sugiriendo una alteración inmunológica no sólo a nivel local, sino a nivel sistémico. Retrovirus endógenos humanos: Significado biológico..
La victoria del darwinismo ha sido tan completa que es un shock darse cuenta de cuan vacía es realmente la visión darwiniana de la vida». Esta rotunda frase no parece significar solamente la manifestación de una opinión personal. Pertenece a un editorial publicado en Nature y /ïrmado por Henry Gee, uno de sus comentaristas sobre evolución. El motivo de que una revista científica de las más prestigiosas (que se pueden considerar como las mantenedoras de la ortodoxia), haga suyo ese comentario es que las investigaciones más recientes (especialmente en el campo de la embriogénesis) han revelado unos fenómenos que han puesto de manifiesto su absoluta incompatibilidad con la teoría darwinista de la evolución. Las consecuencias de esto son obvias, y las precisa otro editorialista de Nature, Philip Ball, en un comentario sobre la secuenciación del Genoma humano: «Los biólogos van a tener que construir una nueva Biología». Tenemos por delante un duro y largo trabajo científico por realizar, pero también tenemos una tarea previa: depurar la Biología de la, tan arraigada, terminología darwinista, cargada de conceptos y prejuicios deformadores de los fenómenos biológicos. El término «Teoría» se define en los diccionarios con dos acepciones: a) «Conjunto de leyes y reglas sistemáticamente organizadas, que son la base de una ciencia y sirven para relacionar y explicar un determinado orden de fenómenos». b) «Conocimiento especulativo considerado con independencia de toda aplicación». 168 Si tenemos en cuenta que estamos comenzando lo que se ha dado en llamar «El siglo de la Biología», durante el cual las aplicaciones de los nuevos descubrimientos van a ser crecientes, cabe preguntarse a que categoría pertenece la teoría que constituye la base de la Biología: «La teoría de la evolución». Un problema difícil porque, cada vez más, parece significar distintas cosas para distintas disciplinas biológicas. Se puede asumir, no obstante, que es el neodarwinismo, surgido de la «Teoría Sintética Moderna», la base científica aceptada por la inmensa mayoría de la comunidad científica, pero también difícil de concretar, porque ésta nunca estuvo claramente formulada. Por tanto, para precisar cuales son sus bases teóricas actuales habremos de recurrir a dos textos científicos recientes. El primero, «Cómo evolucionaron los humanos» (Boyd y Silk, 01), nos explica la evolución en éstos términos: (Pág. 75) «Cuando se combinaron las teorías de Wright, Fisher y Haldane con la teoría de Darwin sobre la selección natural, y con estudios modernos de campo de biólogos como Theodosius Dobzhansky, Ernst Mayr y George Gaylord Simpson, surgió una explicación muy poderosa sobre la evolución orgánica. El grueso de esa teoría y la evidencia empírica que la soporta se llama actualmente la Síntesis m^oderna. Continuamente los caracteres que varían están afectados por genes de muchos loci, teniendo cada locus sólo un efecto muy pequeño en el fenotipo. Para ver cómo funciona la teoría de Wrigth Fisher y Haldane empecemos por un caso irreal pero instructivo. Supóngameos un carácter medible, que varía de forma continua, tal como la altura del pico, y supongamos dos alelas + y -^ que operan en un único locus genético para el control del carácter. Asumiremos que el gen de este locus influencia la producción de una hormona que estimula el crecimiento del pico, y que cada alelo conduce a la producción de una cantidad diferente de la hormona del crecimiento. Digamos que cada «dosis» del alelo •¥ incrementa el crecimiento del pico, mientras que cada dosis de -lo reduce. De esta forma los individuos ++ tienen los picos más altos, los individuos -tienen los mas planos, y los +-tienen picos intermedios. Además, supongamos (los resaltados son míos) que la frecuencia del alelo -h en la población es 0,5. Ahora usemos la regla de Hardy-Weimberg (ecuación 3) para calcular las frecuencias de diferentes alturas de picos en la población. Un cuarto de la población tendrá picos altos (++) la mitad tendrá picos intermedios (+ -), y el cuarto restante tendrá picos bajos (-)». Mas adelante, complican el modelo con la intervención de mas loci y con una abundante exposición de gráficos con distintas distribuciones de grosores de picos, lo que hace suponer que los autores están convencidos de que las dife-Hacia una nueva Biología 169 rendas de grosor en los picos de los pinzones son un ejemplo de la evolución de los organismos, para finalizar sorprendiéndonos con el siguiente texto: «La variación ambiental influye en la distribución de alturas de pico. De nuevo hay tres loci afectando a la altura de los picos, como se muestra en la figura 3.6. Sin embargo, ahora asumimos que las condiciones ambientales hace (sic) que individuos con el mismo genotipo desarrollen picos de diferentes alturas». Sorprendentemente, el epígrafe bajo el que se sitúa este texto afirma: «La visión de Darwin sobre la selección natural se puede incorporar fácilmente a la visión genética de que la evolución se produce típicamente a partir de cambios en las frecuencias génicas». Pero, para que existan estas diferencias en las frecuencias génicas es necesaria una fuente de variación, que F.J. Ayala en su libro «La teoría de la evolución» (99), explica así (Pág. 69): «¿Qué procesos pueden explicar la impresionante variación genética que existe en cada especie y la enorme diversidad de especies?. Entre tales procesos ha de haber alguno por medio del cual la composición del ADN de un organismo cambie; es decir, un proceso que produzca nuevos alelas, o variantes genéticas, que puedan entonces incorporarse al acervo genético de la especie. El proceso por el que se originan nuevas variantes hereditarias se conoce con el nombre genético de mutación». Estas mutaciones, son definidas por el autor como «errores ocasionales» en la replicación del ADN, y «pueden tener un rango de consecuencias desde inapreciable a letal. Sin embargo, en ocasiones una nueva mutación puede incrementar la adaptación del organismo». Y, a continuación, expone en un cuadro (Pág. 76) una serie de mutaciones conocidas y el «carácter» que producen, a saber: en el hombre, Corea de Huntington, ausencia de iris, tumor en la retina. Hemofilia A, acodroplasia y tumor de tejido nervioso. En Drosophila, ojos blancos, cuerpo amarillo y variantes electroferéticas. En maíz, semillas purpúreas o arrugadas... Estas «fuentes de variación», naturalmente individuales y al azar se complementan mas adelante con ocasionales «mutaciones cromosómicas» como delecciones, inversiones, duplicaciones y translocaciones que, simplemente, «ocurren» en el ADN, y que también son frecuentemente letales. Sin embargo, en el caso de que una de estas desorganizaciones «incremente la adaptación del organismo», intenvendría la selección natural para hacerla mayoritaria en la población. En concreto, la selección que es el motor de los cambios evolutivos, la «Selección direccional»: «La distribución de fenotipos en una población cambia a veces de forma sistemática en una dirección particular. Los componentes físicos y biológicos del ambiente están cambiando continuamente, y los cambios pueden ser im- Máximo Sandín 170 portantes cuando persisten durante largos períodos de tiempo». Seguidamente, expone dos ejemplos, que ya son verdaderos «clásicos» en los libros de texto, sobre la «evolución» por selección direccional, como la resistencia de los insectos a los pesticidas, que explica textualmente así: «Esto ocurre porque los organismos evolucionan haciéndose resistentes a los pesticidas gracias a la selección direccional» (Pág. 120), y el «melanismo industrial» en la famosa Biston hetularia, cuya frecuencia de alas de color oscuro aumentó con el ennegrecimiento de las fachadas y los árboles consecuencia de la contaminación ambiental durante el siglo XIX, al ser menos visibles por los pájaros depredadores. «No obstante a partir de 1960 las leyes inglesas redujeron bastante el uso del carbón en ciertas industrias con el propósito de reducir o eliminar por completo el hollín producido. Como consecuencia se redujo el ennegrecimiento de la vegetación circundante y las polillas moteadas empezaron a aumentar en frecuencia de forma gradual, de manera que en la actualidad han reemplazado de nuevo a las negras en muchas regiones.» Es decir, la «evolución» por selección direccional puede ser reversible. De todos modos existe otro tipo de selección que lo que elimina son los fenotipos «extremos»: «La selección estabilizadora es muy común. Con frecuencia, los individuos que sobreviven y se reproducen con más éxito son los que presentan los valores fenotípicos intermedios» (es decir, los individuos normales). «Los efectos de la selección estabilizadora interfieren a veces con los de la artificial». Los ejemplos son la selección de gallinas que pongan los huevos más gordos, o las vacas que den más leche, gracias a la selección dirigida por el ganadero: «si ésta se suspende la selección natural toma su curso y provoca el retorno gradual de los caracteres a los valores intermedios originales» (porque eso es lo que «hace» la Naturaleza, exactamente lo contrario de lo que hacen los ganaderos en los que se basó Darwin: poner las cosas en su sitio). Este tipo de argumentos son los que conforman la base de la teoría que pretende explicar los grandes cambios de organización biológica que se han producido a lo largo de la evolución: las «asunciones» y «suposiciones» sobre la variación de las frecuencias de unos, también supuestos, aleles responsables directos de la variedad fenotípica dentro de una población, los errores de duplicación del ADN como creadores de caracteres «beneficiosos», y la eliminación de las variaciones no adecuadas por la selección natural que, «en muchas ocasiones» favorece a los individuos normales. El hecho de que los insectos resistentes a los pesticidas, los picos más o menos gruesos de los pinzones, o las mariposas que sobreviven a los depredadores ya existían antes de la supuesta actuación de la selección natural, y que sigan siendo los mismos insectos, los mismos pinzo-Hacia una nueva Biología nes y las mismas rntariposas, no parece ser óbice para afirmar que «han evolucionado». Y así, a pesar de la evidente falta de coherencia lógica entre el proceso y el resultado, la fé en la capacidad creadora de la selección natural permite afirmar que: «la selección natural explica por qué los pájaros tienen alas y los peces agallas, y por qué el ojo está específicamente diseñado para ver y la mano para coger», (Ayala,99), lo que equivale a afirmar que el verdadero responsable de las diferentes características y propiedades de un avión o un automóvil es el señor que elimina los que han salido defectuosos de fábrica. En definitiva, el estado actual de la Teoría de la evolución, la situaría en la segunda acepción del diccionario, es decir, no susceptible de aplicación. No obstante, a pesar de que la «extremadamente simple, al tiempo que poderosa» (Ayala, 99) explicación de la selección natural continúa figurando en los libros de texto y la mayoría de las publicaciones científicas como reponsable último capaz de crear desde los organismos voladores hasta los ecosistemas, desde las «primeras moléculas autorreplicantes» hasta los sistemas bioquímicos, la (efectivamente) simpleza de esta supuesta explicación está llevando a un número creciente de científicos muy cualificados de distintos campos a plantear la necesidad de elaborar una nueva teoría, verdaderamente científica «capaz de relacionar y explicar» los fenómenos biológicos. El paleontólogo Niles Eldredge, en su libro «Síntesis inacabada» (97) concluye: «... la evolución es probablemente un asunto mas complejo de lo que la teoría sintética nos ha hecho creer». Una complejidad que según Michael J. Behe (99), en su libro «La caja negra de Darwin: El reto de la bioquímica al darwinismo» es incompatible con los «mecanismos» darwinistas de evolución: «¿Qué tipo de sistema biológico no pudo formarse mediante numerosas y leves modificaciones sucesivas? Ante todo, un sistema que es irreductiblemente complejo. Con esta expresión me refiero a un solo sistema compuesto por varias piezas armónicas e interactuantes que contribuyen a la función básica, en el cual la eliminación de cualquiera de estas piezas impide al sistema funcionar». Pero problemas como este no entran en los cálculos de la genética de poblaciones: «La cuestión de las verdaderas causas de la morfogénesis y la evolución nunca ha sido resuelta por la teoría evolutiva predominante con su énfasis puesto exclusivamente en los genes» (Wan Ho, 01). Y sin embargo: «Los genes que son obviamente variables dentro de las poblaciones naturales no parecen estar en la base de muchos cambios adaptativos importantes, mientras que los que, aparentemente, constituyen el fundamento de muchos o la mayoría de los cambios adaptativos, aparentemente no son variables dentro de las poblaciones naturales» (McDonald,83). Para resumir estos cues- 172 tionamientos recurriremos al genetista evolutivo George Miklos (93):¿Quépredice, pues, esta teoría abarcadora de la evolución?. Dado un puñado de postulados, tales como las mutaciones aleatorias y los coeficientes de selección, predice cambios en frecuencias génicas a través del tiempo, ¿Es esto lo que debe ser una gran teoría de la evolución? Incluso las matemáticas, base de la «evolución» por cambios de frecuencias génicas dentro de una población, se resisten a darle la razón a la teoría sintética. Hace tiempo (Schutremberger, 67), que los matemáticos han manifestado que no ha habido tiempo suficiente en la historia de la Tierra para que «un ojo» se formara mediante mutaciones individuales y al azar. Si extendemos los cálculos al resto de los sistemas biológicos, la conclusión es obvia. Ante estos argumentos científicos, resulta sorprendente el mantenimiento, incluso el auge, de la concepción darwiniana de la Naturaleza, y especialmente la consideración de la selección natural como una especie de «Deus ex machina» capaz de generar la enorme complejidad de los fenómenos biológicos, cuando los argumentos y los cálculos para explicarla, incluso basados en unas asunciones y suposiciones sobre una base mendeliana apoyada en caracteres superficiales, ya ampliamente superadas por los datos reales, todo lo que pueden explicar es que unos individuos ya existentes sobrevivan mejor o peor en un ambiente concreto. Pero esta contradicción entre unos datos del Siglo XXI y una base teórica del Siglo XIX parece haber tocado fondo. A raíz de la publicación del informe sobre la secuenciación (parcial) del Genoma humano, P. Ball (01), editorialista de Nature, considerada una de las revistas científicas mas prestigiosas y, de algún modo «guardianes de la ortodoxia», escribió: «La Biología carece de un marco teórico para describir este tipo de situación... I...los biólogos van a tener que construir una nueva biología. Desde que en los años sesenta se descifró el código genético, la biología molecular ha sido una ciencia cualitativa, dedicada a investigar y clasificar las moléculas de la célula como los zoólogos Victorianos catalogaban las especies. El genoma humano marca la culminación de ese esfuerzo. Ahora se necesitan modelos y teorías que ayuden a lograr que la inmensa fortuna de datos que se han amasado cobre sentido» (El subrrayado es mío). La afirmación de que la Biología «carece de marco teórico» puede ser considerada una apreciación personal, si bien sorprendente en un editorial de tan influyente y ortodoxa revista, pero parece que algo está cambiando, porque no es un fenómeno ocasional. Otro prestigioso editorialista de la misma revista, Henry Gee (00), ya había planteado mas explícitamente aún la situación: «La cuestión del origen de las especies Hacia una nueva Biología dehe tener que ver, fundamentalmente, con la evolución de programas embrionarios... I...Usted puede buscar a Darwin para una respuesta pero buscará en vano. Darwin estudió leves variaciones en características externas, sugiriendo cómo esas variaciones pueden ser favorecidas por circunstancias externas, y extrapoló el proceso al árbol completo de la vida. Pero, seguramente, hay cuestiones mas profundas para preguntarse que por qué las polillas tienen alas mas negras o mas blancas, o por qué las orquídeas tienen pétalos de esta u otra forma. ¿Por qué las polillas tienen alas y por qué las orquídeas tienen pétalos'?.¿Qué creó esas estructuras por primera vez'? La victoria del Darwinismo ha sido tan completa que es un shock darse cuenta de cuan vacía es realmente la visión Darwiniana de la vida» (El subrrayado es mío). Aunque quizás ésta se pueda considerar una interpretación discutible, parece que se ha dado «oficialmente» el pistoletazo de salida. Una especie de permiso para plantear alternativas. Y de hecho, la reacción no se ha hecho esperar con afirmaciones del tipo «Era evidente que la teoría darwinista era insuficiente» pero que en el fondo parecen apuntar, no a un verdadero cambio de perspectiva, sino a un mantenimiento del darwinismo por la vía de la «ampliación» (Adami et al., 00) porque dado su carácter de narración de sucesos aleatorios es capaz de asimilar cualquier tipo de fenómeno por contradictorio que sea con la visión tradicional porque, en última instancia, si un individuo sobrevive es porque «ha actuado» la selección natural. Un problema típico de los «conversos» es que creen estar practicando el nuevo credo, pero, en realidad, no pueden desprenderse de los dogmas, tan asumidos, del anterior. El resultado puede ser una especie de «sincretismo» que, si bien es muy enriquecedor en su aspecto cultural, sería muy negativo en el aspecto científico porque puede contribuir al aumento de la confusión. Porque la actitud, aparentemente ecuánime y razonable de «conciliar posturas» es justamente la antítesis de la práctica científica que es, por definición, radical en el sentido de ir a las raíces de los fenómenos estudiados. Por eso, tal vez sea conveniente poner en limpio los datos, depurar lo que son hechos de las interpretaciones y, entre éstas, muy especialmente el vocabulario de la Biología actual que, bajo la consideración de terminología científica, lo que en realidad oculta es un contenido y un significado cargado de prejuicios deformadores de los fenómenos naturales. Porque el problema real no es que el darwinismo sea «una visión vacía de la vida», sino una visión deformada que convierte hechos ocasionales, incluso intrascendentes en fundamentales. Las metáforas como explicación científica El darwinisme surgió como una metáfora de la visión victoriana del mundo en un período de grandes desigualdades sociales y mundiales consecuencia de la revolución industrial y la expansión colonial británica (Sandín,00). La proyección sobre la Naturaleza de las doctrinas económicas y sociales de Malthus y su «lucha por la vida» y Spencer con «la supervivencia del mas apto», que Darwin reconoce como base de su teoría, es difícilmente cuestionable. Es, en palabras de Bertrand Rusell (35): «Una extensión al mundo animal y vegetal de la economía del laissez faire». En cuanto al carácter científico de la, aparentemente inamovible selección natural, también hace tiempo que se le ha situado en sus justos términos: G. Bernard Shaw, en su magnífico prólogo de «Vuelta a Matusalén» (58), una acerva crítica al darwinisme cargada de sensibilidad y lucidez, escribe sobre el éxito popular de este concepto: «La razón fue, creo yo, que la Selección Circunstancial (como él la denominó) es mas fácil de entender, mas visible y concreta que la evolución lamarckiana... I...Apenas hay en ninguna casa de campo inglesa un peón que no haya llevado una lechigada de gatitos o perritos al balde para ahogarlos a todos menos al que le parece el mas prometedor... Ese fue el secreto de la popularidad de Darwin. Nunca dejó perplejo a nadie... I...Pero nunca penetró debajo de los hechos ni se elevó por encima de ellos más de lo que lo pudiera seguir un hombre corriente». Sin embargo, y tal vez por esa «sencillez» de visualización, la selección natural ha llegado a convertirse en una cuestión de fé, acompañada de conceptos igualmente «evidentes» aunque tampoco tengan nada que ver con la evolución, pero también cargados de significados y valores culturales, pero más concretamente de un determinado sector social, porque, como hemos comprobado, no son compartidos por todos los miembros de la misma cultura. Y este fenómeno es detectable en muchos de los conceptos centrales del darwinisme. Los términos the fittest o selfish, por ejemplo, tienen en la cultura anglosajona un significado y unas connotaciones bastante diferentes de las que tienen en castellano sus inexactas traduciones más apto y egoísta, que son usadas como conceptos científicos. Pero va a resultar difícil desterrar estos términos del vocabulario biológico, ya que no sólo son parte constituyente del entramado conceptual de la «Biología moderna» sino que son permanentemente, incluso crecientemente reforzados por el modelo económico y social del que esta base conceptual nació. Nadie puede negar que en la Naturaleza existe la competencia, y aunque el hipotético «vencedor» en un ritual de apareamiento, o el supuesto «mejor cazador» siga siendo el mismo ciervo o la Hacia una nueva Biología misma águila, con los mismos genes que determinan el desarrollo embrionario que hace posible su condición de ciervo o águila, es indiscutible que esa condición se adquirió «por competición». Y por si nuestro entorno laboral o social no fuera suficiente para convencernos de que el progreso (o la simple supervivencia) se consigue por competición, los más pestigiosos científicos darwinistas se encargan de explicar al público las parábolas del libre mercado y la libre competencia en términos biológicos: «En realidad, sólo existe una entidad cuya perspectiva importa en la evolución. En los cuerpos juveniles los genes serán seleccionados por su habilidad en ser más astutos que los cuerpos de sus padres; en los cuerpos de los padres los genes serán seleccionados por su habilidad en superar en astucia a los jóvenes.... los genes son seleccionados por su habilidad en sacar el mejor provecho posible de las palancas de poder que se encuentran a su disposición: deberán explotar sus oportunidades prácticas» (R. Dawwkins, El gen egoísta 1993). Más concretamente: «Por decirlo en pocas palabras, se compite todo el tiempo y con todo el mundo, incluso con los miembros de la misma especie, del mismo sexo y hasta de la misma cantada.» (J.L. Arsuaga, Olimpiadas diarias de los animales, en el diario El País, 1999) Desde luego, no puede decirse que esta concepción de la vida resulte escandalizante en la actualidad para el ciudadano occidental. Es más, se la puede considerar la argumentación básica del llamado «pensamiento único». Sin embargo, en otras culturas, en otras épocas o para otras sensibilidades puede resultar una visión patológica de la realidad: «Los maestros calumnian a la Naturaleza: La injusticia, dicen, es Ley Natural.... Por Ley Natural, comprueban Richard Herrnstein y Charles Murray, los negros están en los más bajos peldaños de la escala social. Para explicar el éxito de sus negocios, John D. Rockefeller solía decir que la Naturaleza recompensa a los más aptos y castiga a los inútiles; y más de un siglo después, muchos dueños del Mundo siguen creyendo que Charles Darwin escribió sus obras para anunciarles la gloria.» (Eduardo Galeano, «Escuela del Mundo al revés» 1998). Pero la sublimación de la competencia en los argumentos darwinistas ha llegado a ser tal, que se llega a olvidar la evolución: «Según la hipótesis de la Reina Roja de Van Valen, el ambiente cambia constantemente aunque no se modifique el medio físico, porque la competición entre especies hace que todas tengan que «correr todo lo que puedan para estar en el mismo sitio». Ello se debe a que la suma de las eficacias darwinianas de las especies que interaccionan en una misma biota en un momento dado es una cantidad constante; en consecuencia, si la aptitud biológica (la «fitness») de una especie aumenta, todas las demás experimentarán Máximo Sandín 176 una cierta reducción en su aptitud y tendrán que evolucionar para recuperar su aptitud perdida y no extinguirse. Se pueden encontrar muchos ejemplos en los diferentes órdenes de mamíferos para ilustrar la hipótesis de la Reina Roja. Si una especie de ungulado se hace mas rápida todas las demás recibirán mayor presión por parte de los depredadores. Y si un depredador se hace mas rápido todos los demás corren el peligro de quedarse sin presas. De esta manera la evolución no se detiene jamás, aunque el medio físico permanezca estable (clima, relieve, etc.).» De lo que cabe deducir que evolucionar es correr mas rápido, aunque en palabras de B. Shaw: «... ninguna pulga será tan necia como para predicar que el Hombre, al matar pulgas, aplica un método de Selección Natural que acabará por producir una pulga tan veloz que no habrá hombre capaz de atraparla». Pero «así es la Naturaleza»: «La hipótesis de la Reina Roja de Van Valen traslada al campo de la Biología, como dice Agustí, la maldición de Sartre de que «el infierno son los otros»; sólo que en este caso el infierno serían, más concretamente, los hermanos, es decir, las especies emparentadas que interaccionan en la misma zona ecológica». (Arsuaga,01) En este «infierno», cualquier acto de cooperación y solidaridad sólo puede estar guiado por el propio interés. En el caso de ayudar a los individuos emparentedos, el motivo neodarwinista está claro: es la «selección familiar», es decir, «ayudas a mantener tus propios genes», pero entre los individuos no consanguíneos, cuando un individuo arriesga su vida con una llamada de alarma para que otros escapen, o avisa de la existencia de alimento, o escenifica un combate «ritualizado» para evitar daños «el problema es mucho más complejo y plantea un verdadero reto al neodarwinismo, porque la selección familiar no se puede aplicar cuando los contendientes no están muy relacionados genéticamente... Pero John Maynard Smith ha ofrecido una explicación que se basa en la teoría matemática de juegos, desarrollada por Jonh von Neumann y Oskar Morgenstern en los años cuarenta, y que saca al neodarwinismo del aprieto. Un conocido ejemplo es el llamado «dilema del prisionero», creado por el matemático Albert W. Tucker: Dos acusados de haber cometido un robo juntos, son aislados en celdas separadas y obligados a confesar sin que uno sepa lo que hace el otro...» Tras una descripción sobre las penas correspondientes según confiese uno solo o los dos, la conclusión es: «Paradógicamente, si cooperan los dos ladrones (y ninguno confiesa) les va mejor que si los dos confiesan (y no cooperan entre sí)». Posteriormente la metáfora se reñierza con el ejemplo de cómo las compañías petrolíferas subieron los precios, un poco, independientemente (?) y «el beneficio es menor a corto plazo, pero más estable a la larga», (pag. 225) para finalizar con la siguiente conclusión: «La Hacia una nueva Biología cooperación puede, como se ha visto, resultar rentable aunque los individuos no sean por naturaleza altruistas» (Arsuaga, 2001). Sería demasiado extenso el relato de las alegorías que surgen continuamente para tapar las grietas de «la» teoría de la evolución: fusiones bancarias, bacterias esclavas, la barba verde, el borracho y el muro... Pero ésta es la lógica «evolución» del darwinismo: comenzó como una parábola y acabará como una recopilación de cuentos populares. Aunque para personas relacionadas con otras disciplinas puede resultar extraño, estos son argumentos científicos que se pueden encontrar en textos y prestigiosas revistas como fiíndamento teórico de la biología actual, pero son imprescindibles para mantener, contra las evidencias, el darwinismo como explicación de la Naturaleza y son consideradas explicaciones «científicas». A este respecto, M. Behe (99) ha escrito: « Si se realizara una encuesta entre los científicos del mundo, la gran mayoría respondería que cree en la verdad del darwinismo. Pero los científicos, como todos los demás, basan la mayoría de sus opiniones en lo que dicen otras personas. Entre la gran mayoría de los que aceptan el darwinismo, muchos, (aunque no todos) lo hacen basados en el argumento de autoridad. Y, lamentablemente, la comunidad científica ha desdeñado muchas críticas por miedo a nutrir el arsenal de los creacionistas. Es irónico que se hayan desechado perspicaces críticas científicas de la selección natural en nombre de la protección de la ciencia». Y esta protección de «la ciencia» desde la confortable sensación que seguramente debe producir el sentirse apoyado por la doctrina dominante, permite una descalificación, con todos los tintes de un anatema, de las opiniones no sometidas a los criterios oficiales. Así, el prestigioso filósofo e historiador de «la» biología evolutiva (del darwinismo, para ser exactos) Michael Ruse, en su libro «El misterio de los misterios: ¿Es la evolución una construcción social?» (2001), nos informa de que el libro «Superstición superior, la izquierda académica y sus disputas con la ciencia», escrito por Dane R. Gross y Norman Lewitt, «ofrece una explicación tan simple como categórica. La década de los sesenta fue la época de los hijos de las flores: sexo, drogas, misticismo oriental y, por encima de todo, un profundo aborrecimiento de la ciencia, considerada el motor esencial del complejo militar-industrial.... Los tiempos han cambiado, pero no el pensamiento de aquellos niños, que con el tiempo se han convertido en catedráticos y rectores de las facultades de humanidades y ciencias sociales. Ahora ellos y sus discípulos pueden dar rienda suelta a su oposición a la ciencia, una oposición basada en el prejuicio, el miedo y, sobre todo, en una absoluta ignorancia». Pero no sólo se desautorizan las críticas en base a la «ignorancia» científica. Las opiniones discrepantes, que en ciencia son la fuente del en- 178 riquecedor debate intelectual, les resultan tan inconcebibles que provocan una «puritana» reacción de escándalo aunque provengan de científicos tan cualificados como Pierre Grasse, uno de los más grandes zoólogos europeos: «El citado Pierre Grasse se manifestaba (¡en 1973!) en abierto desacuerdo con los principios seleccionistas y utilitaristas del darwinismo. Grasse afirmaba que las mutaciones al azar por errores de copia del ADN no explicaban la evolución, ya que sólo producían alelos nuevos, y no genes nuevos; además se proclamaba abiertamente lamarckista y afirmaba que la evolución es un fenómeno orientado» (Arsuaga,01). La palabra lamarckista no necesita más descalificación (ya saben, el cuello de la jirafa), pero éste es el resultado de un fenómeno insólito e inimaginable para cualquier otra disciplina: el enorme vacío sobre el que los biólogos cimentamos nuestra formación. La ausencia de información (cuando no deformación) sobre las ideas y aportaciones de los precursores de nuestra disciplina, no sólo de Lamarck, sino de la escuela evolucionista francesa (véase el artículo de A. Galera en este monográfico), muchas de cuyas hipótesis, realmente científicas, están siendo reivindicadas por los descubrimientos más recientes. Una ocultación que debe de tener algún motivo, porque no puede ser sólo fruto de la ignorancia. Pero, desde luego, no es por descuido: En 1966, Simpson escribía en Sience: «Deseo insistir ahora en que todos los intentos efectuados para responder a este interrogante antes de 1859 carecen de valor, y en que asumiremos una posición más correcta si ignoramos dichas respuestas por completo». Y los darwinistas han cumplido perfectamente la orden. Así es como nos cuentan «la Buena Nueva»: « Los organismos vivientes han existido sobre la Tierra, sin nunca saber por qué, durante más de tres mil millones de años, antes de que la verdad, al fin, fuese comprendida por uno de ellos. Por un hombre llamado Charles Darío¿7z.»(Richard Dawkins: «El gen egoísta» 1993). Si la Nueva Biología quiere recuperar su base científica, tendrá que liberarse de la «visión vacía de la realidad» que ha deformado las interpretaciones de los descubrimientos producidos en los últimos 150 años. Para ello, tal vez sea un buen punto de partida volver a 1871 con la crítica científica al darwinismo expuesta por el que los historiadores darwinistas denominan (seguramente sin ninguna intención oculta), «el zoólogo católico (Strathern, 99) St. George Mivart»: «Lo que se puede alegar, se puede sintetizar de ésta manera: que la «selección natural» es incapaz de explicar las etapas incipientes de las estructuras útiles; que no armoniza con la coexistencia de estructuras muy similares de diverso origen; que hay fundamentos para pensar que las diferencias específicas se pueden desarrollar súbita y no gradualmente; que la opinión de que las especies Hacia una nueva Biología tienen límites definidos, aunque muy diferentes para su variabilidad todavía es sostenible; que ciertas formas fósiles de transición todavía están ausentes, cuando cabría esperar que estuviesen presentes/... /que hay muchos fenómenos notables de las formas orgánicas sobre los cuales la «selección natural» no arroja la menor luz». Nuevos datos: Viejas interpretaciones 1. Sobre el origen gradual y al azar de la vida Casi resulta una obviedad afirmar que el suceso crucial de la evolución de la vida es, precisamente, la aparición de la vida sobre la Tierra. Sin embargo este problema está muy lejos de ser resuelto desde la perspectiva «ortodoxa». El intento de explicar la aparición de lo que entendemos por vida en unas condiciones de altísimas temperaturas en medio de una atmósfera altamente tóxica mediante la aparición gradual e independiente de las especialísimas, numerosas e interdependientes moléculas que conforman el más mínimo fenómeno de la vida, constituye un auténtico quebradero de cabeza, al menos, para los que intentan una explicación racional y basada en datos reales (es decir, existentes). Pero, quizás sea conveniente comenzar por definir lo que científicamente se considera «vida». Para ello, habremos de referirnos a la visión predominante en la actualidad, a la de los expertos de programas de investigación que mueven ingentes sumas de dinero para la búsqueda de vida en el Universo: el programa SETI: «La mayoría de las definiciones propuestas han enfrentado serias objeciones. No obstante, una definición de trabajo se ha convertido en influyente en la comunidad de los orígenes de la vida: vida es un sistema químico autosostenible capaz de estar som^etido a evolución Darwiniana» (Chyba y Phillips, 01). (El subrayado es mío). Veamos, pues, cómo tuvo que producirse este «sistema químico». La aparición gradual (y al azar) de la vida como producto de reacciones químicas espontáneas, implica la aparición de «una» primera molécula. Este honor y esta dura responsabilidad han recaído sobre el ácido ribonucleico que, al parecer, tuvo que llegar a constituir todo un «Mundo ARN» (Gesteland y Atkins,93). Pero, «...el RNA es una molécula muy compleja, que jamás ha sido sintetizada en el laboratorio sin enzimas». Solución: «Dejemos, pues, a otros dilucidar el origen del RNA e interesémonos por el mundo RNA y su evolución.» Estos pasos son: La «aparición» de las proteínas (pero no unas cualesquiera). La «evolu-Máximo Sandín 180 ción» (al azar) del ARN y proteínas para formar un ribosoma (¿) y, finalmente, la entrada en escena del ADN que, dada la dificultad de que el ácido ribonucleico se transforme espontáneamente en desoxirribonucléico porque «es una reacción química muy difícil de realizar. En todos los organismos vivos actuales, esta reacción es catalizada por proteínas-enzimas muy perfeccionadas llamadas ribonucleótidos-reductasas», tuvo que ser aportado por un virus, (Forterre, 01) cuya oportuna presencia contradice la versión oficial, según la cual los virus son ADN o ARN celulares que han «adquirido» de la célula el gen que codifica la cápsida. Lo cierto es que, como los mismos partidarios de su aparición gradual y al azar reconocen, la vida necesita de la interacción simultánea de moléculas muy complejas con características muy especiales, que no se explican sólo como resultado de reacciones químicas. Pero que, además, sólo se pueden producir en estado de aislamiento del medio, y la «aparición» de la membrana, incluso si estuviese constituida solamente de fosfolípidos (que no es así), también resulta de muy difícil explicación. Estas moléculas están constituidas por tres partes de orígenes diferentes, para las cuales no se conoce ninguna reacción no enzimática que permita su síntesis. El resultado de la multiplicación de las probabilidades de que todas estas moléculas aparezcan e interactúen al azar sería de unas dimensiones de difícil calificación. Porque el menor sistema realmente vivo (autosostenible) que podamos imaginar es un sistema «irreductiblemente complejo», es decir, «compuesto por varias piezas armónicas e interactuantes que contribuyen a la función básica, en el cual la eliminación de cualquiera de estas piezas impide al sistema funcionar» (Behe,99). Estas características las reúnen los primeros organismos vivos de los que tenemos constancia real: las bacterias. (Aquí sería conveniente un inciso para hacer notar que las bacterias no pueden ser consideradas seres vivos según la definición «oficial» de la vida, ya que su supuesta «evolución» no se ajustaría al modelo neodarwinista (sólo tienen un cromosoma)). Lo cierto es que las bacterias aparecieron en la Tierra muy pronto, cuando todavía estaba en formación, y en unas condiciones en que la vida, tal como la conocemos, era imposible. En una atmósfera tóxica, sin oxígeno libre (y, por tanto, sin capa de ozono protectora de las dañinas radiaciones ultravioleta) y sometida a una radiactividad que se ha estimado en cincuenta veces mayor que la actual. Y esa asombrosa capacidad de supervivencia se mantiene en la actualidad: pueden vivir en las profundidades de la corteza terrestre, en depósitos de petróleo a casi dos kilómetros de profundidad, en fuentes geotermales a 112° C y soportando enormes presiones hidrostáticas. Incluso, pueden vivir en el interior de reactores nucleares soportando radiaciones miles de veces mayores de las que han existido nunca en la Tierra. Pero, además, los materiales que metabolizan (que utilizan para vivir, y no para «sobrevivir») son de lo más llamativo: desde sulfúrico a hierro, desde sales saturadas hasta titanio (lo que, teniendo en cuenta su escasez en la tierra es una «adaptación» muy voluntariosa). Si a todas estas cualidades o características incompatibles con lo que para nosotros son los procesos vitales, les añadimos el hecho constatado de que la mayor parte de la atmósfera apta para la vida fue una creación («un producto derivado de la actividad») de las bacterias, podemos llegar a tener la impresión de que tal vez las bacterias no sean el primer estado de vida surgido gradualmente y al azar como resultado de la actuación de la selección natural. De que no han dispuesto de suficiente tiempo para «adquirir» por azar esas capacidades, sino de que tienen esas capacidades, impensables para cualquier otro organismo vivo. De que, tal vez, sean «otra cosa». Desde luego, las condiciones en que aparecieron las bacterias en la Tierra no constituyen un escenario razonable para una supuesta formación por partes. Y este argumento está dejando de ser, oficialmente, una especulación propia de la ciencia ficción. En Octubre de 2001, Philip Ball escribía en Nature: « El ambiente en la joven Tierra estuvo plagado de explosiones que habrían hecho que una guerra nuclear pareciera un despliegue de fuegos artificiales. Cometas y asteroides gigantescos la golpeaban continuamente, haciendo hervir gran parte de los océanos y esterilizando el planeta. Pero es evidente que la vida sobrevivió. De hecho, las últimas teorías indican que los primeros microorganismos, lejos de ser frágiles, estaban sólidamente adaptados a entornos extremos/... /En cualquier caso, no es fácil hacer aparecer células vivas a partir de un «caldo» de sustancias químicas sencillas, y puede que la Tierra sólo tuviera un breve período de tiempo para que esto pasase. Por eso, algunos investigadores creen que es posible que nuestro planeta necesitara algo de ayuda desde el exterior...». Pero esta no es una especulación en el vacío. A propósito del descubrimiento de microfósiles de 3.500 millones de años en Apex chert (Australia) (Rasmussen, 00), Henry Gee escribe en Nature (00): «...las cianobacterias de Apex chert eran muy similares a las especies de cianobacterias vivientes hoy, sugiriendo que las cianobacterias evolucionan de un modo extremadamente lento. Esto nos lleva a otro rompecabezas: si las cianobacterias apenas han cambiado en 3.500 millones de años, ¿cómo pueden haber evolucionado tan rápidamente en los 700 millones precedentes?.{Aquí, habría que matizar que no se trata sólo del problema de su «evolución», sino el de su «formación»). Aunque microscó-Máximo Sandín 182 picas, las cianobacterias están constituidas por células y tienen una bioquímica tan sofisticada como cualquier otra forma de vida. ¿Cómo pudieron haber evolucionado de una simple mezcla de productos químicos en tan corto tiempo'?. Estos problemas están conduciendo a los investigadores interesados en el origen de la vida (se supone que no serán sólo unos pocos los «interesados»), a mirar de otra forma una sugerencia considerada usualmente una chifladura: que la vida haya evolucionado en algún lugar del Universo y haya llegado a la Tierra desde el espacio. Ahora están comenzando a comprobar esta idea experimentalmente». Sin embargo, parece que el interés del problema es de menor cuantía porque finaliza el comentario con estas palabras: «El gran problema con la idea fuera-de-la-Tierra es, no obstante, que no resuelve la cuestión del origen de la vida, simplemente cambia el problema de sitio». Una vez más, las viejas interpretaciones se resisten a dar a los datos el significado que tienen. Por ejemplo, el premio Nobel Cristian de Duve, (95) solventa el problema de este modo: «Incluso si aceptamos que la vida llegó a la Tierra desde el espacio exterior, obviamos el problema de cómo se originó. Por tanto, voy a asumir que la vida nació justo donde está actualmente: aquí, en la Tierra.» Estos argumentos, muy repetidos por los darwinistas, y que, seguramente, resultarán convincentes para los lectores convencidos de la idea de la vida como un fenómeno único y aleatorio, es una muestra de cómo el uso de los argumentos darwinistas nos ha acostumbrado a los biólogos (incluso a los más brillantes) a mirar «al dedo que señala a la Luna». Porque, efectivamente, la vida tuvo un principio en la Tierra, incluso la Tierra tuvO'Un principio. Pero es muy diferente el significado de que la vida tuviera un origen aleatorio, improbable y único, y precisamente aquí, de que la vida exista y se propague por el universo. De que posiblemente sea previa a la existencia de la Tierra. Un significado sobre el que volveremos más adelante. En este contexto, otro problema con muy distinto significado de la interpretación «obligatoria» es el de la aparición de «la primera célula». En 1909 el biólogo ruso Konstantin S. Merezhkovsky propuso que los cloroplastos (entonces llamados «puntos verdes») de las células vegetales procedían de un simbionte de origen externo. Acuñó el término «simbiogénesis», a la que atribuyó el carácter de principal fuerza creativa en la producción de nuevas clases de organismos (Barreno,99). Estas ideas fueron seguidas hasta los años 20 por algunos biólogos rusos y norteamericanos que fueron menospreciados por sus colegas, y olvidados, hasta que en los años 80 fueron retomadas por Lynn Margulis (aquí cabría introducir dos puntualizaciones: 1^: Ya está todo dicho. 2^: Quizá fuese conveniente una revisión histórica que permitiese una atribución más justa de los méritos científicos a sus verdaderos acreedores), en su teoría del origen endosimbionte de la célula, hoy suficientemente demostrado y mayoritariamente aceptado. Pero la aceptación de la teoría endosimbionte no significa que se le atribuya el carácter general de ñierza creadora de Merezhkovsky, sino que se restringe al origen de «la primera» célula. El resultado de esta simbiosis ocasional, sería favorecido por la inevitable selección natural. «Eventualmente, tenemos que comprender que la selección natural opera, no tanto actuando sobre mutaciones al azar, que son a menudo dañinas, sino sobre nuevas clases de individuos que evolucionan por simbiogénesis» (Margulis,L. y Sagan,D.,95) Al parecer, el hecho obvio de que unos seres sobrevivan en un momento determinado y otros no (incluso sólo de que unos organismos sobrevivan) conduce ineludiblemente a la actuación de la selección natural como causa de su presencia en la Tierra, ignorando el verdadero motivo de su aparición, el proceso que los formó. Si no tenemos más remedio que recurrir a las metáforas de nuestra vida cotidiana, este tipo de razonamiento resultaría comparable a atribuir el origen de un avión supersónico a «porque llega pronto». El origen endosimbionte de las células eucariotas es un hecho ampliamente admitido y constatado en la actualidad, e incluso los distintos tipos de mitocondrias se atribuyen a distintos orígenes bacterianos. La cuestión subyacente es si todos estos fenómenos responden a distintos sucesos aleatorios ocasionales e individuales, o forman parte de eventos más generales y sistemáticos. Porque este es otro punto crucial en el contexto del intento de devolver a la Biología su carácter de Ciencia: Una teoría basada en hechos contingentes (al azar, únicos e irrepetibles) no es, en realidad, una teoría, sino una narración histórica, y los sucesos únicos no pueden ser verificados experimentalmente (ni, en palabras de Popper, pueden ser por tanto sujetos al criterio de falsación) por lo que no pertenecen al campo de estudio de la ciencia. Veamos, pues, unos datos que pueden ser incluidos dentro de estos criterios: Mediante el estudio del ARN ribosómico, W. Ford Doolittle (00), ha transformado el hipotético árbol de la vida basado en un también hipotético «ultimo antecesor universal común» (LUCA, en sus iniciales inglesas), en una intrincada red que interconexiona arqueobacterias con eubacterias y las dos con eucariotas, y con una base de múltiples raíces, tanto en el origen de arqueobacterias como de eubacterias, que él denomina (necesariamente) «comunidad ancestral común de células primitivas». En cuanto a los genes celulares, los de la célula eucariota son una Máximo Sandín 184 mezcla de genes de eubacterias y arqueobacterias, que son los que realizan las funciones básicas celulares. Para el resto de los genes de los organismos eucariotas (como pueden ser los que controlan el desarrollo embrionario) y que según él, «se ignora de donde pudieron haber venido», reivindica la necesidad de «la existencia de un cuarto dominio de organismos, extinguido en la actualidad, que transfirió horizontalmente al núcleo de las células eucariotas los genes responsables de éstos caracteres». Una explicación razonable, si tenemos en cuenta que, dada la extremada conservación y especificidad de los genes celulares desde su mismo origen, es poco lógico pensar que los genes que controlan, por ejemplo el desarrollo embrionario, surjan gradualmente como consecuencia de mutaciones al azar en los genes que controlan las funciones básicas celulares. Ahora se trataría de identificar este «cuarto dominio, extinguido en la actualidad». Vayamos a otros datos contrastables que pueden ofrecernos alguna pista: Radhey Guptan (00), de la Universidad McMaster de Ontario, ha estudiado una gran cantidad de secuencias de ADN de los genomas procariotas y eucariotas secuenciados. Esto le ha permitido identificar numerosas inserciones y delecciones (y aquí, me permito llamar la atención sobre estos hechos, sobre cuyos responsables hablaremos más adelante), «con un alto grado de conservación que, o bien son únicas para grupos de especies, o son compartidas por grupos filéticos de organismos». Estas delecciones e inserciones, que él denomina «firmas», «permitirán estudiar relaciones entre los grupos principales de procariotas y eucariotas». (Una observación obvia, pero que, además, hace pensar que esas «firmas» específicas han tenido que estar implicadas en esas relaciones, es decir, en su evolución). Pero, esta no es la única información constatable (y significativa) que han aportado los estudios de Gupta. El análisis de diferentes genes/proteínas (es decir, y esto es muy significativo, no sólo los genes) que se encuentran en organismos eucariotas, nos informa de que los relacionados con la trasferencia de información provienen de arqueobacterias; los genes/proteínas implicados en las funciones metabólicas, de eubacterias. «Estos resultados muestran que la célula eucariota ancestral no se originó directamente de una arqueobacteria o de una bacteria, sino que es una quimera formada por la fusión e integración de los genomas de ambas/... líos otros orgánulos de eucariotas, como mitocondriasy cloroplastos, se adquirieron en acontecimientos endosimbióticos posteriores». El impresionante significado de estos fenómenos queda, sin embargo, oscurecido por la siguiente afirmación: «Las secuencias en diferentes proteínas también indican que la fusión primaria que llevó a la formación de la célula Hacia una nueva Biología eucariota fue única». ¿Quiere esto decir que, tanto la primera fusión, como los «eventos endosimbióticos posteriores» tuvieron lugar sólo una vez, y precisamente en una sola estirpe celular? Parece que ésta es su interpretación, porque, según Gupta, esta endosimbiosis fue un hecho excepcional, y el resto de la evolución tuvo lugar mediante la selección natural. Pero conociendo la increíble capacidad de supervivencia y reproducción de las bacterias, resulta poco creíble que «una» célula eucariota única con su comparativamente lenta reproducción y su fragilidad comparada con la eficacia reproductiva y la práctica inmortalidad de aquellas, tuviera muchas probabilidades de proliferar por competencia en un mundo bacteriano. Parece existir, incluso entre los científicos cuyas aportaciones son claves para entender los hechos más trascendentales de la evolución, una falta de conexión lógica, (condicionada, sin duda, por el paradigma obligatorio), entre un forzoso origen aleatorio, ocasional y único y los resultados inmediatos de ese hecho «azaroso»: la enorme complejidad y sincronía que se encuentra dentro de una célula, en la que cientos de miles de moléculas, cada una con unas propiedades, cuando menos, sorprendentes, interactúan con gran precisión para formar un sistema con una capacidad de integración y procesamiento de datos en relación con el ambiente interno y externo, con los ciclos de división, con autorreparación... resultan inconcebibles para la tecnología más avanzada. ¿Es lógico, es siquiera racional creer que sucesos aleatorios y «errores» ocasionales hayan podido ensamblar estos «sistemas operativos» que son, precisamente, la antítesis del azar? Sobre el aumento de complejidad y el muro limitante El problema se multiplica exponencialmente cuando se trata de explicar el siguiente «salto» en nivel de complejidad que constituye la aparición de los organismos pluricelulares. Es cierto que, mediante metáforas ingeniosas que, como siempre, olvidan preguntarse por los procesos biológicos reales implicados en su narración, pueden resultar, si no convincentes, al menos divertidas. El brillante S. J. Gould, implicado en su país en una dura batalla dialéctica contra las poderosas fuerzas sociales que subyacen a los movimientos creacionistas, se empeña, como negación del finalismo, en justificar el aumento de complejidad mediante la metáfora del borracho y el muro. Si éste sale de un bar caminando tambaleante, y su trayectoria está limitada por un muro a la izquierda, con el tiempo (suponiendo, naturalmente, que no caiga al primer paso) acabará Máximo Sandín 186 cayendo, forzosamente, a la calzada. «Toda vez que hay sitio disponible hacia la derecha del muro, es decir, en la dirección de una mayor complejidad, las nuevas especies se adentran ocasionalmente en ese territorio virgen y confieren a la curva de campana de la complejidad de todas las especies un sesgo a la derecha que puede ir acentuándose con el paso del tiempo» (Gould,99). Este es un caso tan típico de explicación darwinista que, seguramente, para muchos biólogos resulte suficiente. A la pregunta de por qué aumenta la complejidad se responde: «Porque hay espacio para que aumente». Los mecanismos responsables de ese aumento, la explicación científica de «por qué», no merecen consideración. Pero una explicación, esta vez basada en datos, nos la apuntan Aravind y Subramanian (1999), a partir de la comparación de los genomas de Saccharomyces cerevisiae (muy relacionado, por cierto, con el anterior ejemplo), Caernohabditis elegans y Arabidopsis thaliana: «Esas comparaciones evidencian algunas tendencias llamativas en términos de expansiones (es decir, repeticiones) o barajamientos extensivos (es decir, reordenamientos) de dominios específicos que están involucrados en fiínciones reguladoras y de señalización». En definitiva, ya tenemos algunos datos que relacionan materialmente distintos niveles de complejidad con duplicaciones y cambios de posición de grupos de genes. Veamos ahora como ellos mismos nos explican la implicación de sus datos en la aparición de los organismos multicelulares: «En el esquema básico del paradigma evolutivo darwiniano, aparece de esta forma: en una colonia surgida de la expansión clonal de una célula individual, la selección familiar («kin selection») pudo funcionar resultando en una forma diferencial multicelular. Un conjunto de células en una colonia tuvo que diferenciarse y por tanto sacrificar su capacidad reproductora a favor de la de sus clones, si ese comportamiento favoreció un incremento neto en fitness de ese estado en relación a sus copias unicelulares de reproducción individual». Para no resultar reiterativo (más aún), omitiré los comentarios sobre «la ñierza directora», pero son inevitables algunas preguntas sobre unos argumentos aceptables por la ortodoxia, como demuestra el que estén publicados en una revista prestigiosa: ¿Tienen sentido unos genes que, sin ninguna coordinación, produzcan varios tipos de células sin capacidad de reproducción?. ¿Qué ventaja (fitness) puede tener una masa informe con ¿dos?, ¿tres? tipos celulares, de las que sólo un tipo se puede reproducir, sobre organismos unicelulares perfectamente adaptados?.Y finalmente, ¿Qué tipo de genes son los que tienen capacidad para duplicarse y «barajarse»? Aquí, puede resultar conveniente interrumpir nuestro recorrido por el «beodo» camino hacia la complejidad y detenernos a rastrear el posible origen de estos peculiares y movedizos genes. Hacia una nueva Biología 3. Sobre los elementos móviles y sus derivados La creciente información derivada de la secuenciación, mas o menos completa, de los genomas de organismos multicelulares animales y vegetales está poniendo de manifiesto una proporción variable, pero en todos los casos altísima, de secuencias repetidas, elementos móviles y virus endógenos. Estos hechos, han llevado, ineludiblemente, a plantear el significado de su presencia en los genomas. Naturalmente, las interpretaciones que han suscitado mayor interés han sido las relativas a la secuenciación (parcial) del genoma himiano. En el informe publicado por el Consorcio Internacional (Nature, 15 de Febrero de 2001), podemos leer: «En el (genoma) humano, las secuencias codificantes comprenden menos del 5% del genoma, mientras que las secuencias repetidas abarcan, al menos, el 50% y probablemente mucho más I...ILas repeticiones son descritas a menudo como «basura» y desechadas como poco interesantes (se atribuyen a su cualidad de ADN egoísta). No obstante, actualmente representan una extraordinaria fuente de información sobre procesos biológicos I... I Como agentes activos, las repeticiones han remodelado el genoma, causando reordenamientos ectópicos, creando genes enteramente nuevos, modificando y barajando genes existentes y modulando el contenido total de Guanina -Citosina». En cuanto al origen de esas repeticiones: «La mayoría (¿no toda?) de las secuencias repetidas humanas deriva de elementos transponibles. Podemos reconocer sobre el 45% del genoma como perteneciente a esta clase». Y, mucho más interesante aún: «Mucho del restante ADN único debe también ser derivado de copias de antiguos elementos transponibles que han divergido demasiado para ser reconocibles como tales». Es decir, nos encontramos con que la gran mayoría del genoma humano está constituido por repeticiones de bloques de genes y de elementos transponibles, de los cuales los retrotransposones, que se mueven produciendo copias de sí mismos, son los evidentes responsables de dichas repeticiones (los transposones, que cambian de sitio en el genoma directamente, son los responsables de las «inserciones y delecciones»). Si tenemos en cuenta que el origen de los genes responsables de las funciones celulares básicas son de origen bacteriano, ¿de donde han salido estos paquetes de genes con tan extraña tendencia a moverse y a duplicarse? ¿Tal vez del cuarto dominio que reclamaba Doolittle? Prosigamos la lectura del informe: En el apartado «Repeticiones derivadas de transposones», nos encontramos con que: «450.000 copias, que constituyen el 8% del total del genoma (ya son el 10%), corresponden a elementos retrovirales (retrovirus-like elements). Unas, llamadas autónomas, tienen las secuencias gag^ pol y env (esta última responsable de la codificación de la cápsida viral), es decir, son retrovirus endógenos capaces de Máximo Sandín 188 reconstruir su cápsida y formar virus completos, y otras, llamadas no autónomas sólo tienen los genes gag y pol». Veamos, ahora, la interpretación del origen de estos elementos: «Los elementos autónomos (retrotransposones) contienen los genes gag y pol que codifican una proteasa, transcriptasa inversa, RNAasa H e integrasa. Los retrovirus exógenos parecen haber surgido de retrotransposones endógenos^ por adquisición de un gen celular env (cápsida)». Es decir, los retrotransposones, extraños paquetes de genes con la capacidad de insertar copias de sí mismos en otros puntos del genoma, parecen haber surgido «espontáneamente» en unos genomas con las secuencias celulares básicas altamente conservadas y, además, han sido capaces de formar virus por «adquisición» de un gen celular env, también surgido en la célula espontáneamente (¿y tal vez al azar?). Quizás el conocimiento de algunas curiosas características (y capacidades) de las cápsidas víricas, descubiertas recientemente, nos permitan valorar razonablemente la posibilidad de que éstas procedan de genes celulares: El 18 de Octubre de 2001, se publicó en Nature un artículo (Smith et al.) que por su gran espectacularidad fue portada en la citada revista. Su título: «El motor portal del bacteriófago 29 puede empaquetar ADN contra una gran fuerza interna». La investigación mediante una (cada vez más necesaria) colaboración entre biólogos moleculares, microbiólogos y físicos consiguió medir, por medio de unas (misteriosas para los biólogos) «pinzas ópticas» la fuerza con que la cápsida del citado fago empaquetaba el ADN en su interior: «El bacteriófago í) 29 empaqueta su doble cadena de ADN de 6,6 micrómetros de longitud en una cápsida de 45x54 nanómetros, por medio de un complejo portal que hidroliza ATP. Este proceso es remarcable, porque han de ser superadas energías entrópicas, electrostáticas y de plegamiento para empaquetar el ADN hasta un estado de densidad casi cristalina» (El subrrayado es mío). El equivalente, en términos «visualizables», sería objeto de cálculos mas afinados, pero de una forma grosera se aproximaría a introducir 100 sillas de brazo de un aula en la caja del proyector. «Este motor puede trabajar contra fuerzas de 55 piconewtons en media, convirtiéndole en uno de los más potentes motores moleculares reportados hasta la fecha/...I «Nuestros datos sugieren que ésta fuerza debe estar disponible para iniciar la eyección de ADN de la cápsida durante la infección». Al asombro que produce esta información se le pueden añadir serias dudas sobre la procedencia desde los conservados y específicos genes celulares (en este caso bacterianos) de ésta y otras sorprendentes y variadas cápsidas virales. ¿De qué procesos celulares pudieron los elementos móviles «adquirir» (¿también al azar?) estas cápsidas con estas propiedades? Sin embargo, y volviendo al Informe, el hecho, tan plausible que es casi obvio, de que los virus endógenos son de origen exógeno y que en algún momento de la historia de la vida se han insertado en los genomas, y de que es mas lógico pensar que la progresiva conversión en elementos móviles y secuencias no autónomas (partículas virales «defectivas») haya sido por pérdidas de secuencias, que el camino inverso de «progresivas adquisiciones», no parece encajar en la perspectiva «ortodoxa»: En la página 887, y bajo el epígrafe «Transposones como una fuerza creativa», se puede leer: «La fuerza primaria para el origen y expansión de la mayoría de los transposones ha sido la selección para su habilidad para crear progenie,C^)y no una ventaja selectiva para el huésped. No obstante, estas piezas egoístas de ADN han sido responsables de importantes innovaciones en muchos genomas, por ejemplo, aportando elementos reguladores (¿de donde?) e incluso genes nuevos. Veinte genes humanos han sido reconocidos como probablemente derivados de transposones». Es más: «Mucho del restante ADN único debe también haber derivado de antiguas copias de elementos transponibles que han divergido demasiado para ser reconocibles como tales». (Los subrrayados son míos). Abundantes interpretaciones de este tipo se pueden encontrar en el, por otra parte, magnífico informe. Porque siempre nos encontramos con el mismo problema: unos nuevos datos con una cantidad asombrosa (y muy significativa) de información, y unas interpretaciones basadas en los viejos conceptos. Pero, sobre todo, desligadas de las informaciones aportadas por otras disciplinas que sugieren una muy diferente interpretación, especialmente si las situamos en su contexto evolutivo. Así, por ejemplo, las «evidencias de transferencia horizontal de genes relativamente frecuentes» es decir, «genes transmitidos por vectores como virus», así como las «más de doscientas secuencias de origen bacteriano», que les resultan sorprendentes, pueden tener una explicación coherente si Doolittle y Gupta no están equi vocados (y parece que no lo están). En el genoma humano y en todos los genomas animales y vegetales hay muchas más de doscientas secuencias de origen bacteriano. La inevitable conclusión que se deriva de un simple cálculo, cuyos resultados pueden parecer heréticos (pero, en este caso, al culpable habría que buscarlo entre los primitivos matemáticos), es la siguiente: Si el 95% del genoma, (considerado inicialmente «no codificante», pero reconsiderado posteriormente, porque su actividad-inactividad puede depender de muchos factores), está constituido por secuencias repetidas (y ya sabemos quienes son los responsables de las repeticiones), elementos móviles, y un creciente número de virus endógenos, (el denominado por algunos «ADN basura»), y en el «genoma codificante» existen abundantes virus Máximo Sandín 190 endógenos y elementos móviles que participan activamente, «mucho del restante ADN único tiene que haber derivado de antiguas copias de elementos transponibles», y a esto le sumamos los genes responsables de la transmisión de información y los genes que controlan el metabolismo celular, cuyo origen es bacteriano, el resultado (con muy pocos genes de origen no identificado por el momento), es que, con muy poco riesgo de error, se puede concluir que serían los virus el «cuarto dominio», invocado por Doolittle, que aportó, por transferencia horizontal, los restantes genes de los eucariotas. Lo que, en definitiva, significa (afortunadamente los biólogos no tienen la costumbre de quemar a los herejes) que todo el ADN que no es de origen bacteriano, es, con toda probabilidad, de origen viral, Y también explicaría las «firmas» de Gupta (y su significado evolutivo), el fenómeno de las «numerosas inserciones y delecciones con un alto grado de conservación en diferentes genes/proteínas que, o bien son únicos para grupos específicos de especies, o son compartidos entre grupos determinados de organismos». Sobre el (confuso) origen de los virus La concepción de los virus dentro del paradigma vigente constituye, junto con la de las bacterias, las dos paradojas más incoherentes, pero persistentes, de la Biología actual. El hecho de que el descubrimiento de ambos fuera debido a su actividad patógena (Koch en el Ántrax de vacas y Stanley en el mosaico del tabaco), junto con que esta cualidad concuerda perfectamente con la visión competitiva de los fenómenos biológicos, les ha cargado con el estigma de ser «nuestros peores competidores», atribuyendo a su carácter patógeno (real, pero minoritario y siempre por algún motivo) su condición fundamental y considerando los, cada vez más abundantes casos de actividades imprescindibles en distintos procesos biológicos, como excepcionales, justificados como «parasitismo», «genes egoístas», «aprovechamiento por parte del genoma»... A pesar de esto, se están acumulando datos sobre las actividades normales de las bacterias que (al menos para algunos) están cambiando su situación dentro de la concepción de las relaciones entre los seres vivos. Hoy se sabe que los suelos terrestres están plagados de bacterias que cumplen funciones esenciales en la degradación de sustancias tóxicas, o en la fijación de Nitrógeno por las plantas y en la regeneración de suelos y ecosistemas terrestres y marinos. Que enormes cantidades de bacterias viven en el interior de los seres vivos, colaborando en funciones esencia-Hacia una nueva Biología les, como la degradación de sustancias que no pueden digerir o la producción de otras imprescindibles para el organismo. También se ha comprendido (no por todos) que su carácter patógeno se produce mediante transferencia horizontal de genes como respuesta a agresiones ambientales. En cuanto a los virus, «Se han realizado muchos trabajos para comprender el funcionamiento de los virus, encontrar nuevos medios de combatirlos o, por el contrario, utilizarlos para transportar genes de medicamentos (terapia génica)» (Zillig y Arnold, 99). Lo sorprendente es que argumentos de éste tipo no resulten absurdos, pero lo cierto, es que los virus constituyen otro de los muchos pilares inconsistentes de la Biología actual. Otro de los muchos problemas «cerrados en falso»: «Aunque nuestros conocimientos sobre la biología molecular de los virus han progresado mucho, su origen sigue siendo, en cambio, uno de los grandes misterios de la biología. Dado que necesitan una célula para multiplicarse, los investigadores creyeron durante mucho tiempo que los virus tenían como origen genes celulares» (Zillig y Arnold, 99). Resulta llamativo el empleo del tiempo pasado como si ésta creencia hubiera sido abandonada en la actualidad cuando, en realidad, sigue siendo la dominante; pero no es más que un reflejo de la desconexión existente entre distintas especialidades y así, lo que para los genetistas se solventa con la «adquisición de un gen celular env», para los virólogos no resulta tan evidente: «La existencia de características específicas de los virus, como algunas proteínas de las envolturas, genomas en forma de ARN y ARN polimerasas especiales (aquí hay que resaltar a la Transcriptasa inversa, con su función tan especial y tan concreta), sugiere, por el contrario, que al menos una parte de los virus no tiene el mismo origen celular que sus células huésped». Esta evidencia lleva inevitableraente a los autores a plantearse el origen y «evolución» de los virus: El estudio de los virus que «infectan» a las arqueas, ha puesto de manifiesto que no pertenecen a ninguna de las familias de los virus conocidos. Por ejemplo, el arqueófago O H tiene un genoma muy diferente del bacteriófago P 1. Sin embargo, su morfología es muy parecida, con una cabeza de forma geométrica y una cola que permite la fijación a la bacteria. Por lo tanto: «Sí se supone que existió una forma ancestral de virus en el antepasado común de las arqueobacterias y de las bacterias, se puede ver sin dificultad a O H y P 1 como los productos de una evolución divergente a partir de un mismo antepasado».... «Si esto es así, los virus del mismo tipo -y por tanto, todos los fagos con cabeza y cola -ya existían en el antepasado común de los procariotas y los eucariotas, e incluso, quizá antes». El problema (no menor) de estas rela- 192 dones es cómo puede evolucionar un virus que es inerte en ausencia de una célula y, sobre todo, qué tipo de mutación hace posible la elaboración del «motor molecular» de su mecanismo de inyección del ADN a partir de la «sopa primigeniçi». Pero lo más sorprendente de todo, es que esto ha tenido que ocurrir varias veces porque: «La notable variedad de los virus y su relativa simplicidad sugieren un origen polifilético: diferentes grupos de virus habrían derivado independientemente a partir de diferentes orígenes». Esta parece la argumentación más sólida (basada en datos) de todo el discurso sobre su «evolución». Lo cierto es que los arqueófagos que «infectaban» a las primeras formas de vida ya deberían disponer del mecanismo inyector de su ADN. Llegados a este punto, tal vez sea conveniente una recapitulación sobre los datos de que disponemos: Tenemos datos sobre la extremada conservación de las formas ancestrales de vida, sobre la presencia de virus simultánea (o incluso, posiblemente anterior) a éstas. Sabemos que «no todos sus genes» pueden tener origen celular (Zillig y Arnold, 99). También conocemos la existencia de la integrasa, que sirve para que los virus integren su genoma en los genomas celulares, de la Transcriptasa inversa que utilizan para retrotranscribir el ARN en ADN, de un complejo y difícil de explicar «motor molecular» que los virus utilizan para inyectar en las células, o empaquetar, su material genético. Es decir, que los virus de incierta y «polifilética» procedencia poseen unas funciones que utilizan para algo, que tiene una evidente finalidad, y que intentar explicar la rápida aparición de cada una de ellas independientemente como consecuencia de mutaciones al azar a partir de una «sopa primigenia» o, incluso, de un supuesto « Mundo ARN» carece de sentido científico, como cualquier matemático podría fácilmente demostrar. Probablemente, estos argumentos resulten menos ajustados al modo de razonar al que hemos sido acostumbrados los biólogos que las vagas y contradictorias explicaciones sobre la aparición por partes de la primera célula, con o sin ayuda de virus (de origen inexplicado), y con las «invenciones» de proteínas y ribosomas o la supuesta procedencia de los virus a partir de transposones (también «inventados» por el genoma), pero no hay que olvidar que estas «explicaciones» están basadas en la convicción (en la creencia) de cómo han tenido que ser, es decir, se han tenido que producir, forzosamente, de un modo gradual, al azar y, naturalmente, impulsados por la selección natural, y todos los argumentos se elaboran asumiendo estas únicas posibilidades. Estos axiomas (porque nunca se han demostrado), conducen a pasar por alto mediante vagas (o metafóricas, en su caso) explicaciones hechos con una información fun-Hacia una nueva Biología damental sobre la evolución en los que, muy probablemente, se encuentran las claves. Sobre los «parásitos» creativos En los últimos años, la información sobre las actividades de los virus, y sus derivados, los elementos móviles, tanto en procesos celulares normales, como en fenómenos con claras implicaciones evolutivas, ha crecido de un modo casi exponencial (Sandín,95,97,98,01). Las interpretaciones habituales de su presencia en los genomas animales y vegetales han incluido desde una «explotación» de sus inexplicadas capacidades por parte del genoma (Bromhan, 02) o un aprovechamiento de las respuestas ambientales de los transposones «cualquiera que sea su origen» (Grandbastien, 98), hasta un absoluto desconcierto por su presencia (Benoist y Mathis, 97: «Retrovirus as trigger precipitator or marker?»). Pero, si tenemos en cuenta que hoy estamos en condiciones de afirmar que la mayor parte del genoma de todos los seres vivos es de origen viral, resulta evidente que estas actividades no son ocasionales ni, mucho menos, excepcionales. Pero, además, estudios recientes han revelado unas actividades de los virus que van a obligar, al igual que en el caso de las bacterias, a replantear su verdadero y fundamental papel en la Naturaleza. En aguas marinas superficiales hay un número de virus de 10.000 millones por litro. Su papel ecológico consiste en el mantenimiento del equilibrio entre las diferentes especies que componen el plancton (y, como consecuencia, del resto de la cadena trófica) y entre los distintos tipos de bacterias, destruyéndolas cuando hay un exceso (Fuhrman,99). Al mismo tiempo, la materia orgánica liberada tras la destrucción de sus huéspedes enriquece en nutrientes el agua. Pero, además, tienen un papel secundario sorprendente: los derivados sulfurosos producidos por sus actividades contribuyen a la nucleación de las nubes. Y, seguramente, no serán éstas las únicas sorpresas que nos van a deparar. Hoy podemos afirmar que existen indicios más que suficientes para considerar a los virus, no sólo una parte del funcionamiento normal de los fenómenos biológicos, sino una parte fundamental. Hoy sabemos quienes son los responsables de las inserciones y delecciones que identifican grupos filéticos de organismos. También sabemos cómo es el mecanismo responsable de las duplicaciones, reordenamientos y remodelaciones de los genomas. Tenemos datos abundantes sobre su implicación en los fenómenos de transferencia horizontal de genes (Auxolabehere,92; García et al.,95; Kim Máximo Sandín 194 et al.,95; Oosumi et al.,95; Galitski y Roth,95). Pero, quizás, las más significativas actividades de las secuencias de origen viral sean las relacionadas con la regulación de la expresión génica (Patience et al.,97) y con la diferenciación y proliferación celular durante la embriogénesis (Brosius y Gould, 92, Dnig y Lipshitz, 94; Schulte et al.,98; Episkopou et al.,01). Si a esta información sobre la actividad normal de los virus le añadimos su capacidad de activación (y «malignización») como respuesta a estímulos (estrés) am.bientales (Gauntt y Tracy, 95, Ter-Grigorov et al., 97; Grandbastien, 98), fenómeno que está, sin duda, muy relacionado (y que podría explicar) con muchos de los problemas derivados de los xenotransplantes, los productos transgénicos, la terapia génica, el SIDA e, incluso, la investigación sobre el cáncer (Ver Sandín, 97; 98; 01) nos encontramos con una realidad muy diferente a la que nos ha inculcado el viejo paradigma: unos genomas caracterizados por una extremada conservación de los procesos fundamentales desde el mismo origen de la vida pero con una plasticidad, una capacidad de reacción a los estímulos ambientales que son totalmente incompatibles con la concepción tradicional de unos genomas rígida e irreversiblemente diferenciados mediante mutaciones aleatorias y aislados del ambiente. Esta nueva visión está íntimamente ligada a la explicación de otro hecho fundamental de la evolución cuyos mecanismos implicados «siguen siendo sorprendentemente esquivos» (S. C. Morris, 00) Sobre la «radiación» del Cámbrico y los genes homeóticos La explicación del origen de los metazoos constituye otro significativo ejemplo de cómo la «vieja Biología» es capaz de cerrar en falso los problemas clave de la evolución mediante argumentos o interpretaciones caracterizadas por un predominio absoluto de las convicciones sobre las observaciones. La aparición de todos los planes de organización animal existentes en la actualidad en un corto periodo de tiempo y en la misma base de su origen, es totalmente contradictoria con la concepción darwinista de la evolución (en palabras de S. J. Gould(85), lo que cabría esperar «...serían unos pocos diseños generales y gran variabilidad (distintas adaptaciones) dentro de ellos. Sin embargo^ encontramos exactamente lo contrario». A pesar de ello, el fenómeno también tiene cabida dentro de la elástica Teoría Sintética: se trataría de una «radiación adaptativa» (Liñán et al.,99), una supuesta explicación («radiación») que es, en realidad, una descripción (es decir: «un incremento en número y variedad dentro de un taxón, como consecuencia de un cambio ambiental,» etc.). Pero veamos los datos: «Una gran variedad de philla de organismos tripoblásticos (Protostomia como anélidos, moluscos y artrópodos, y los Deutetostomia, equinodermos y cordados) han surgido en un «Big-Bang» entre 530 y 520 m.a. en la base del Cámbrico (550-500 m.a.) con una impresionante explosión de la diversidad y disparidad morfológica (Erwin, 1991, 1993, Erwin et al, 1997, Valentine et al, 1996, 1999). El registro fósil del Cámbrico incluye miembros de más de treinta phylla (planes corporales) correspondientes a unos habitats bentónicos marinos de costa comparables a los actuales; unos habitats aparentemente constantes y estables» (García Bellido,99). Es decir, en un medio estable y homogéneo «aparecieron» prácticamente todos los mecanismos genéticos que controlan la morfogénesis de todos los grandes grupos animales existentes en la actualidad, sin la menor posibilidad de que la omnipresente y omnipotente selección natural tuviera la menor participación en ello: «la expansiva diversificación morfológica de la fauna en la base del Cámbrico ha ocurrido en animales viviendo en condiciones bióticas muy homogéneas, lo que indica que los determinantes externos han jugado un papel mínimo en esa disparidad (Valentine et al.,99.)» Un problema añadido para la perspectiva convencional es el representado por los posibles antecesores de la fauna del Cámbrico, un puñado de organismos multicelulares conocidos como la «fauna de Ediacara» (por su lugar de descubrimiento en el Sur de Australia), datados en 600 millones de años, en el Véndico. Paleontólogos como Gould (85) y Seilacher (89), afirman que esta fauna constituye un «experimento fallido» en la evolución de los animales multicelulares, que no dejó descendientes. De hecho, al comienzo de Cámbrico, hace 543 millones de años, la Tierra sufrió la mayor y más extensa Edad de hielo de toda su historia (Kirschvink et al.,00). Pero el problema puede ser aún mayor: el paleontólogo Gregory Retallack (94) de la Universidad de Oregon, ha llegado a la conclusión de que los fósiles de Ediacara no eran en absoluto animales, sino muy probablemente liqúenes: la forma en que han fosilizado, sin las deformaciones propias de cuerpos blandos, los patrones de crecimiento y su estructura microscópica los hace más compatibles con el hecho de que su gran tamaño (a veces más de un metro) y su forma de vida sésil se corresponda con organismos que obtienen su nutrición por simbiosis con organismos fotosintéticos. Una nutrición difícil de explicar en la «interpretación animal» de estas grandes formas sésiles. En definitiva, nos encontramos de nuevo con un súbito salto de complejidad a partir de formas necesariamente muy sencillas y aún por descubrir. En palabras de S.C. Morris (2000): «Para concluir: la explosión Cámbrica es real y sus consecuencias ponen en marcha un maremoto en Máximo Sandín 196 la historia evolutiva. Mientras el patrón de evolución es muy claro, los procesos implicados todavía permanecen sorprendentemente esquivos.» Desde el punto de vista de la genética del desarrollo, sabemos que en estos procesos están implicados unos complejos sistemas genéticos de genes/proteínas denominados homeoboxes que regulan a muchos otros genes y que coordinan el desarrollo embrionario de tejidos y órganos en todos los seres vivos. Lo que aún está por explicar, desde el punto de vista ortodoxo, es el origen de esos sistemas genéticos que, obviamente, no se han podido producir por mutaciones al azar de los conservados genes controladores de la replicación o del metabolismo. Pero quizá su descripción nos pueda dar alguna pista: los genes que los forman son secuencias repetidas en tandem, y ya sabemos que los responsables de las repeticiones génicas son los retrotransposones (y quedan pocas dudas razonables sobre el origen de los retrotransposones en los retrovirus). En general son secuencias de 180 pares de bases que codifican para un polipéptido básico de 60 aminoácidos al que se ha llamado homeodominio. Estas.secuencias están situadas en el mismo orden en los cromosomas de muy diferentes grupos animales, y en todos ellos cumplen misiones extrañamente similares en el desarrollo embrionario: las secuencias responsables del desarrollo de las patas, ojos, sistema urogenital... de invertebrados, anfibios, reptiles, aves y mamíferos sólo se diferencian en el número de repeticiones. En el modo de controlar este desarrollo, están involucrados un conjunto de genes/proteínas en el que los genes HOX son los «selectores» que controlan la expresión de otros genes «realizadores» y regulados por proteínas específicas, conjunto al que el genetista del desarrollo A. García Bellido, ha denominado «sintagma». Y una vez más «... en un número creciente de casos, sintagmas casi completos están conservados en evolución (Botas,93; Biggin and McGinnis,97; Graba et al,97).» El significado de estos datos (es decir, no especulaciones) merece un análisis especial: los genes homeóticos especifican el desarrollo de unos órganos de una forma que va más allá de su mecanismo bioquímico e, incluso, de su desarrollo embrionario: «los apéndices de vertebrados y artrópodos no son estrictamente órganos homólogos pero vemos que, en su morfogénesis, hacen uso de genes y sintagmas conservados Gynsen et al.,87; Carrol,95)». Y esto se ha podido comprobar experimentalmente introduciendo los genes Hox «ojo» de ratón en drosophila y activándolos en diversas partes de su cuerpo tales como patas, alas, antenas, etc. El resultado fué que aparecieron ojos ectópicos en todas esas estructuras (Morata, 99). Es decir, a pesar de que el ojo compuesto de Drosophila se forma bajo el control de un conjunto de varios cientos de genes/proteínas Hacia una nueva Biología 197 diferentes a los del ratón, la secuencia «ojo de mamífero» produce «ojo de invertebrado» dentro del desarrollo embrionario de una mosca. Todo esto quiere decir que en estas secuencias génicas está inscrito el significado (se podría decir: el concepto) «ojo», «patas», «alas», independientemente del tipo de ojo, patas o alas, de su control (regulación) genético o de su origen embrionario. Y este fenómeno (este hecho) es probablemente, el de más trascendencia y el de más profundo significado de todos los descubrimientos recientes en el campo de la biología. Desgraciadamente (pero comprensiblemente), el peso del viejo paradigma, del vocabulario de la forma «ortodoxa» de razonar, impide a los propios descubridores asumir el significado de sus propios hallazgos. Así Antonio García Bellido, cuyas aportaciones en el campo de los homeoboxes han sido fundamentales, en su magnífico artículo «Los genes del Cámbrico» (1999) atribuye las interacciones ADN-proteínas y sus resultados a un fenómeno de «selección» y aunque, evidentemente, no se refiere a la selección natural, dado que, según él mismo escribe, el ambiente no ha jugado ningún papel en la generación de morfologías nuevas, no puede evitar la siguiente conclusión: «Así se inició una competición morfológica y de comportamiento entre organismos, elaboraciones que han continuado y diversificado desde entonces». Sin embargo: «las mutaciones clásicas en las regiones que codifican para proteínas deben haber sido de escasa relevancia inmediata para la evolución morfológica... variantes genéticas nuevas que resultan de cambios de secuencias reguladoras debieron y deben estar sujetas a una selección negativa mínima, porque se mantiene la función primaria del gen que asegura una morfogénesis normal (Averofet al.,96)». Es decir, no importa que el ambiente no tenga el papel selectivo que le atribuye el darwinisme; no importa que las mutaciones «clásicas» tampoco... Pero tiene que existir una competencia y tiene que existir una selección. Aunque haya que buscarla infructuosamente. Sin embargo: «Si en los apéndices de tetrápodos y los de artrópodos se usan genes y aún sintagmas homólogos, ¿cuál era su expresión morfológica en los organismos precámbricos que no tenían apéndices visibles? (el subrayado es mío), ¿cómo eran los órganos incipientes (precursores), receptores de luz, de los ojos que se generan con genes homólogos en todas las formas derivadas?, ¿han precedido losjsintagmas específicos a las formas a las que dan lugar?» Esta pregunta/afirmación es la clave, dentro de nuestros argumentos, porque parece evidente que la coordinación del desarrollo embrionario ha de ser previa a la aparición del organismo, pero: «si es así, ¿sobre qué formas ha operado la selección para dar lugar a la explosión evolutiva observable?». A veces resulta desalentador observar cómo los científicos que aportan los datos más relevantes en el contexto de una nueva Biología, se esñierzan para introducirlos, mediante una retórica, muchas veces contradictoria, en el viejo paradigma. Es decir, no parece existir ningún interés por articular coherentemente, racionalmente, todos estos nuevos y significativos datos. Lo que se puede observar es un verdadero esfiíerzo para hacer posible su interpretación dentro de la ortodoxia dominante. Y así, cada especialista aporta su contribución. Por ejemplo, para los paleontólogos (Liñan et al., 99) la «explicación» de la repentina aparición de todos los tipos de organismos existentes en la actualidad se justificaría porque el fenómeno pudo no ser tan rápido como parece y las condiciones de fosilización darían una falsa impresión de aparición rápida, «...sería más propio hablar de la explosión cámbrica del registro fósil». Pero parece dudoso que una ampliación del tiempo explique el problema que planteaba Gould y más, teniendo en cuenta la ausencia de formas precedentes y «conectables». Desde el punto de vista bioquímico los datos tienen un sentido opuesto, pero los argumentos tienen características similares: En un artículo publicado en Nature, Rutherford y Lindquist (98), han encontrado una explicación para la rápida diversificación morfológica del Cámbrico. Las proteínas antiestrés, también conocidas como chaperonas, son otro ejemplo, este ya indiscutible, de proteínas con una finalidad muy especial. Se encuentran en las células de todos los organismos, y su misión es ayudar a las proteínas celulares que tienen distintas funciones esenciales, entre ellas el control de la proliferación celular y el desarrollo embrionario, a recuperar su estructura y, por tanto, su funcionalidad, en caso de que una agresión ambiental, como exceso de calor, falta de Oxígeno, sustancias químicas tóxicas o radicales libres, las desnaturalicen. Rutherford y Lindquist comprobaron que cuando aumentaban la temperatura de embriones de Drosophila o alimentaban a las moscas con un producto químico que bloquea la acción de la chaperona Hsp 90 nacían entre un 1% y un 3% de moscas con malformaciones en alas, patas y antenas. Esto les sugiere que «Hsp 90 sería el primero de estos mecanismos moleculares en ser la base del cambio morfológico drástico, más que los cambios pequeños y progresivos que se sabe ocurren en la evolución, y serviría para explicar la gran descarga de diversidad del periodo Cámbrico: Hsp 90 parece ser una vía rápida para la adaptación». Naturalmente, tampoco mencionan a partir de qué antecesores se pudieron producir las malformaciones llamadas «tubo digestivo», «ojos», «caparazones», etc.. Pero, una vez más, Antonio García Bellido nos a3mda (seguramente sin proponérselo) a rastrear el origen de esos programas embrionarios: Hacia una nueva Biología «Se puede afirmar que a lo largo de la evolución lo que ha aumentado asociado a la complejidad, son las regiones reguladoras de los genes. Esto conlleva a un aumento proporcional de genes reguladores sobre genes con funciones celulares básicas. Estos últimos son más del 90% en bacterias y menos del 40% del total en Drosophila o en el ratón». Sobre extinciones y radiaciones «La explosión del Cámbrico constituye uno de los hechos más inexplicables para la Biología evolutiva». Esta frase, repetida hasta la saciedad en textos sobre evolución, parece soslayar el hecho de que es, precisamente, el fenómeno fundamental de la evolución animal. Pero también puede dar la impresión de que los siguientes «hechos fundamentales de la evolución» (Crick,81) sí son explicables por la teoría convencional. Lo cierto, sin embargo, es que las súbitas renovaciones de fauna que han dado lugar a las denominaciones de los siguientes grandes períodos geológicos no cuentan con muchos mas argumentos explicativos salvo que, obviamente, ya existían antecesores. Los datos paleontológicos, cada día más abim.dantes y concluyentes, nos revelan una dinámica de grandes extinciones seguidas de súbitas «radiaciones» de nuevas formas de vida. Como observa T.S. Kemp (99), «Mveles muy altos de evolución morfológica, ocurren de forma característica a continuación de una extinción masiva». Las extinciones en masa mas drásticas, inician o finalizan los períodos Precámbrico, Cámbrico, Ordo vídeo. Devónico, Pérmico, Triásico y Cretácico. La que marca el final del Ordovícico acabó con gran cantidad de formas de braquiópodos y trilobites, pero aparecieron una gran variedad de peces y de plantas de ribera. El Devónico terminó con una gran extinción que afectó a todas las especies animales, que eran sólo marinas, especialmente a ammonites, trilobites, gasterópodos y peces, pero, inmediatamente, a principios del Carbonífero la tierra estaba poblada por una enorme variedad de invertebrados: arañas, escorpiones, caracoles y gusanos, y también los primeros anfibios y reptiles. Las plantas gimnospermas se diversificaron y aumentaron de tamaño. (Para una detallada revisión de la evolución de las plantas, véase «Botánica y evolución», en este monográfico). El Pérmico, y con él la era Paleozoica, terminó con una gran extinción que eliminó a más del 95% de las especies animales. Pero el Triásico comenzó con una espectacular «radiación» de los reptiles y la aparición de nuevas formas de vida marina, como los corales exacoralarios y las ostras, pero especialmente espectacular fue la aparición de las tortugas, con las que aparece un Orden nuevo Máximo Sandín 200 de reptiles, los Quelonios, como saben los especialistas, sin el menor rastro de formas intermedias. El final del Triásico contempló dos grandes extinciones separadas por unos 26 millones de años. La primera, aniquiló a la mayor parte de los reptiles terrestres, cuyos pocos supervivientes fiíeron el origen de la «radiación» de los dinosaurios. La segunda, que señala el inicio del Jurásico, afectó especialmente a la fauna marina, pero dio paso a los pequeños mamíferos. El Cretácico, que comenzó con una nueva extinción que afectó a algunas familias de dinosaurios, invertebrados marinos y plantas gimnospermas, y que también vio aparecer repentinamente a las angiospermas, finalizó con la, ya famosa extinción masiva (que, en términos absolutos, fue menor que muchas otras anteriores), que acabó con los dinosaurios y, con ellos, el Mesozoico. En un período no mayor de cinco millones de años (Kemp,99), aparecieron los diversos géneros y familias (y algunos más) de los mamíferos actuales. En conjunto, a gran escala, se puede observar, para los grandes taxones, un proceso que tiene muy poco que ver con la imagen arborescente tradicional. Pero este fenómeno también se manifiesta para los taxones de nivel inferior. Ya en 1983, Williamson realizó un magnífico estudio sobre moluscos fósiles en el lago Turkana, en África oriental. Es uno de los casos con archivos más completos que documentan ininterrumpidamente millones de años de evolución. El estudio de numerosas especies permitió comprobar la existencia de largos períodos de continuidad interrumpidos por apariciones repentinas de nuevas especies. Los fósiles se estratificaban ordenadamente, pero sin fases intermedias. Naturalmente, su trabajo fue duramente criticado por los defensores de la ortodoxia. Pero, mas recientemente, Kerr (95), intentó comprobar la especiación gradual en un registro fósil de briozoos que representaba, sin solución de continuidad, más de diez millones de años. Lo que encontró fue exactamente lo contrario: las nuevas especies surgían repentinamente y coexistían con sus predecesor as. En definitiva, los estudios que permiten una buena documentación fósil revelan fenómenos que se ajustan a la «Teoría de los equilibrios puntuados» propuesta, en 1972 por Eldredge y Gould. (Aquí, quizás sea conveniente «puntualizar» que no es en realidad una teoría sino, dentro de la ya larga tradición de la Biología, una descripción): Las especies aparecen en el registro fósil con una apariencia muy similar a cuando desaparecen. Tras períodos de estasis, que pueden durar desde uno a diez millones de años, son sustituidas por una o varias especies hijas que siguen el mismo patrón. Estas no surgen gradualmente, sino que aparecen de una vez y plenamente formadas. Y esto se ha podido constatar sistemáticamente en estudios a gran escala. Hacia una nueva Biología 201 La tradicional excusa de «la imperfección del registro fósil» para justificar la ausencia de formas transicionales (que, por otra parte, deberían ser mucho más numerosas que las teóricas «formas finales») se ha quedado sin fundamento. Dos recientes trabajos (Foote & Sepkoski,99; Benton et al.,00), en los que se analiza exhaustivamente el abundante registro fósil con el que contamos en la actualidad, han llegado a la conclusión de que, si bien no es (obviamente) completo, sí da una información adecuada. «La estabilidad de largos intervalos de tiempo, y grandes categorías taxonómicas reflejan un adecuado (si bien incompleto) registro fósil»... «Las más antiguas partes del registro fósil son claramente incompletas, pero pueden ser consideradas como adecuadas para ilustrar los amplios patrones de la historia de la vida». «Esas medidas son, no obstante, altamente correlacionadas, con significados bastante explicables, y encontramos que la completación del registro fósil es bastante alta para muchos grupos animales». (Foote & Sepkoski,99) En cuanto a las causas de las extinciones, ya hace tiempo que existen datos que permiten trabajar sobre hechos comprobables. En 1986, Sepkoski y Raup, en un amplio estudio sobre 567 familias de organismos marinos, comprobaron que en los últimos 250 millones de años se han producido extinciones de distintas magnitudes, aproximadamente, cada 26 millones de años. Rampino y Stotherd (84), habían estimado la periodicidad en 30 ± 1 millones de años. Estos fenómenos requieren de algún agente causal desencadenante de algún tipo de crisis ecológica. Pues bien; también existen datos sobre dicho desencadenante: caídas periódicas de meteoritos de tamaño variable. La datación de cráteres de impacto como el de Maniconagan en Canadá, de un diámetro de cerca de 70 km, correspondiente a un asteroide de no menos de 10 km de diámetro, caído hace unos 210 millones de años (final del Triásico), o el de Popigai, en Siberia, de más de 100 km de diámetro y datado en 40 millones de años, o el mas conocido, que marcó el final del Cretácico y que dejó su huella en el Golfo de Méjico, no serían mas que los indicios mas visibles de un fenómeno recurrente y periódico: lluvias de meteoritos de diferentes tamaños producidas por la desestabilización gravitacional de los asteroides situados en la llamada «Nube de Oort», en la periferia del sistema solar. El motivo de esta caídas es, para Rampino y Stoterd, el resultado del movimiento oscilatorio del sistema solar alrededor de la galaxia que, con una periodicidad de, aproximadamente, 67 millones de años, atraviesa el plano galáctico cada 33±3 millones de años. (Hipótesis compartida por Scwartz y James, (84). Para Raup y Sepkoski, la responsable sería una supuesta estrella enana asociada con el Sol en una órbita excéntrica que atravesaría la Nube de Oort, hipótesis apoyada por Whitmire y Jackson, La causa de la periodicidad todavía está en discusión, pero los resultados, es decir, las extinciones periódicas y las dataciones de las huellas de los asteroides ya no son discutibles. Naturalmente, los impactos no tendrían porqué ser siempre de la misma dimensión, y muchos tendrán sus huellas ocultas por la vegetación o la erosión. Lo que sí parece totalmente comprobado es que los casos de grandes caídas han tenido consecuencias catastróficas para los ecosistemas terrestres y marinos. A esto hay que añadir otro fenómeno, al parecer más irregular, pero también sistemático: las inversiones de los polos magnéticos terrestres, que se producen de modo irregular dos o tres veces cada millón de años, por causas, por el momento desconocidas. El campo magnético, que protege a la Tierra de las peligrosas radiaciones procedentes del Sol, pierde ese efecto protector durante la inversión, ya que la Magnetosfera (cinturones de Van Alien) se debilita o desaparece, con lo que la Tierra es sometida a un intenso bombardeo de radiaciones. No se ha comprobado si las inversiones han coincidido siempre con caídas de meteoritos, pero sí se sabe que ocurrió con la que marcó el final del Cretácico, y el origen de los géneros y familias actuales de mamíferos (Erickson,92). El escenario de ésta aparición excede nuestra capacidad de imaginación: A las catastróficas consecuencias ecológicas del impacto del enorme meteorito, se sumó un drástico descenso de temperatura y un violento bombardeo de radiaciones. El resultado lo describía así el famoso paleontólogo George Gaylord Simpson en 1957, mucho antes de que se conocieran estos datos: «El más asombroso acontecimiento en la historia de la vida sobre la Tierra (una vez más), es el cambio que ocurrió del Mesozoico, edad de los reptiles, a la edad de los mamíferos. Parece como si el telón hubiese caído repentinamente sobre un escenario en el que todos los papeles habían sido desempeñados por los reptiles, especialmente los dinosaurios, en un número enorme y con una variedad sorprendente, y se hubiese vuelto a levantar inmediatamente para poner demanifiesto idéntica escenografía, pero con un reparto enteramente distinto». La forma en que se tuvo que producir este brusco cambio en el escenario de la vida es tan difícil de «visualizar», que nuestra cultura carece de metáforas para describirla. Pero, desde luego, está claro que toda la gama de morfologías y de nichos ecológicos no se pudo completar, en cinco millones de años, mediante sucesivas especiaciones, y menos si éstas siguen la pauta del equilibrio puntuado (ver Sandín, 97), a partir de unos pequeños mamíferos «de tipo insectívoro» que, según está constatado (Archibald et al., 01), fueron los únicos que sobrevivieron a la extinción. Según estos últimos autores: «La subsecuente diversificación de Órdenes placentarios vivientes entre aquellos grupos superordinales placentarios del Cretácico tardío, no comenzó hasta hace sobre 65 millones de años, después de la extinción de los Dinosaurios». El problema se complica con el hecho de que esta enorme explosión de diversidad, desde murciélagos hasta ballenas, se produjo en un entorno prácticamente vacío, lo que para S.J. Gould (85), significa que: «Si la mayor parte del tiempo se consume en períodos de recuperación, los modelos competitivos se vienen abajo I...I «Sospecho que necesitamos una perspectiva vuelta del revés». Pero aún se puede complicar más mediante datos recientes: Dos estudios moleculares independientes (Madson et al.,01 y Murphy et al.,01) realizados sobre 64 especies de mamíferos, utilizando distintos segmentos cromosómicos arrojan unos idénticos y sorprendentes resultados que, según Henry Gee (Nature, 2001), «rompen los antiguos árboles filogenéticos»: Los resultados los agrupan en: Afrotheria (mamíferos de origen africano), Laurasiatheria (eurasiáticos), Xenartra (mamíferos de Centro y Sudamérica) y Euarchonta (primates ¡y roedores!). Según Madsen et al., «Han ocurrido radiaciones adaptativas parálatelas dentro de Laurasiatheria y Afrotheria. En cada grupo, hay formas acuáticas, unguladas y tipo insectívoro». (Si las llamadas «radiaciones adaptativas» resultan poco menos que un milagro desde la perspectiva del cambio gradual y al azar, la repetición del proceso en paralelo no tiene denominación. Pero dentro de nuestros argumentos, y según qué tipos de genes hayan usado en sus estudios, da mucho que pensar). No obstante, todo tiene explicación (desmentida por el trabajo antes citado): «Estimamos que Afrotheria y Laurasiatheria divergieron durante el Cretácico temprano, hace unos 111-118 millones de años». Este recurso a alargar la historia también lo necesitan los expertos en la evolución de tortugas, aves, murciélagos, ballenas... Lo cierto, es que debe de existir algún fenómeno biológico que justifique, tanto la rápida aparición, como estos «paralelismos» y «convergencias». De hecho, estos autores reconocen otro extraño (y difusamente explicado por la teoría convencional) fenómeno. «Placentarios y marsupiales sufrieron radiaciones adaptativas paralelas que resultaron en espectaculares casos de convergencia». En efecto, las morfologías «ardilla voladora marsupial», «jerbo marsupial», «lobo marsupial»... son «espectaculares», porque la distancia filogenética con sus correspondientes placentarios es mucho mayor que la que hay entre un murciélago y una ballena. Todos estos hechos requieren la existencia de algún fenómeno material, es decir, susceptible de ser comprobado, y que sea capaz de explicarlos. Y ya sabemos que esos fenómenos existen: Ronshaugen et al., (02), han comprobado que la transición morfológica producida hace 400 millones de años «cuando los insectos exápodos divergieron de antecesores artrópodos tipo crustáceo con múltiples patas», está producida por la supresión de extremidades torácicas durante la embriogénesis por medio de proteínas reguladoras Hox. «Estudios previos nos llevan a proponer que la ganancia o pérdida de activación transcripcional y funciones de represión en proteínas Hox, ha sido un mecanismo plausible de diversificación morfológica durante la evolución animal». Aunque este fenómeno es denominado por los autores «mutación», lo cierto es que se trata de una reorganización genómica con «ganancia o pérdida» de activación, con un resultado concreto y viable que, por cierto, seguramente no afectaría sólo al número de extremidades. Es decir, existen datos científicos que nos informan de que las remodelaciones bruscas se pueden producir (se tienen que producir) mediante cambios en la embriogénesis que afectan a un conjunto de órganos (Ver, además Kondo et al., 97 «On fingers toes and penises»). El problema que resta es: ¿En un solo individuo?. También tenemos datos materiales que permiten responder a esta pregunta: Sabemos que, tanto los elementos móviles como los virus endógenos se activan bajo condiciones de estrés ambiental, que pueden ser desde radiaciones ultravioleta hasta falta de nutrientes (Genome directory,00; Grandbastien,98; Gauntt y Tracy,95). También sabemos que, tanto los virus endógenos, como ciertos elementos móviles, pueden reconstruir su cápsida e infectar otros individuos 97; Kim et al.,94). Y también, que hay retrovirus cuyas proteínas (es decir, no «capturadas») están implicadas directamente en el control de la proliferación celular en el desarrollo embrionario de distintos tejidos y órganos (Dnig y Lipshitz,94; Boyer,99) y en la aparición de nuevas funciones interrelacionadas, de imposible adquisición a partir del material genético previamente existente (Sandín,95), como es la placentación (Sha Mi et al.,00). En definitiva, tenemos datos materiales, no especulaciones, asunciones o creencias, que nos permitirán, antes o después, comprender estos fenómenos que, para cada especialista son excepcionales. Pero, para ello, habrá que asumir que serán mas difíciles de «visualizar» que las variaciones de los animales domésticos. Porque también tenemos datos que indican que, necesariamente, estas grandes remodelaciones afectan simultáneamente a ecosistemas enteros, que es lo que nos indican esas misteriosas «radiaciones adaptativas paralelas», y lo que Niles Eldredge (97) encuentra realmente en el registro fósil: «Tanto las entidades ecológicas y genealógicas como los eventos y procesos están implicados en el proceso de la evolución. Todas las entidades parecen ser Hacia una nueva Biología individuos estables. Existen procesos intrínsecos a cada nivel que no son reducibles a niveles más bajos (o subsumidos por los niveles más altos)». Es decir, lo que nos muestra el registro fósil es que la propia complejidad y dinámica de los ecosistemas implica, necesariamente, un cambio en conjunto (lo que se conoce como un fenómeno ocasional: la coevolución). Y esto es así, tanto para las extinciones como para las recuperaciones (Scheffer et al.,01). En conclusión, disponemos de datos, estamos comenzando a disponer de modelos conceptuales susceptibles de acercarnos, cada vez más, a la inimaginable complejidad de los fenómenos biológicos, pero carecemos de metáforas para describirlos, porque quizás no se parezcan a nada que conozcamos. Sobre evolución y adaptación Llegados a este punto, quizás sea conveniente discutir otro legado del vocabulario de la vieja Biología: el concepto o, más bien, la confusión, de adaptación igual a evolución. El cambio de un medio al que una organización morfológica y fisiológica está perfectamente adaptada a otro al que no lo está, por ejemplo de medio acuático a medio terrestre, o de éste al vuelo, implica unas amplias y simultáneas remodelaciones en caracteres que son interdependientes (Sandín,95), es decir, la condición tetrápodo no es una adaptación progresiva y al azar al medio terrestre ( Véase Kondo et al.,97) al igual que el vuelo, que ha surgido en insectos, reptiles, aves y mamíferos, no es una «adaptación aleatoria al aire», porque igual que existe un complejo Hox que significa «extremidades de tetrápodo» existe otro que significa «alas». En este contexto las «mutaciones clásicas en las regiones que codifican para proteínas deben haber sido de escasa relevancia inmediata para la evolución morfológica» (García Bellido,99). La adaptación tiene un sentido real totalmente opuesto a la evolución (Young,73). En realidad, lo que significa es un aferramiento al medio, un ajuste (a veces tan sutil y tan perfecto que los mismos darwinistas usan con frecuencia terminología lamarckiana para describirlos), en todo caso posterior, tras la remodelación evolutiva. ¿Habremos encontrado un lugar (aunque sea secundario) para las «mutaciones al azar»? Desgraciadamente para los defensores del «chapucero» azar, parece que tampoco. Como saben los biólogos celulares, las proteínas funcionales no son combinaciones cualesquiera de aminoácidos, y no parece razonable pensar que sus propiedades, y sus interacciones en la célula sean el resultado de reacciones químicas establecidas al azar que 206 puedan ser cambiadas o sustituidas por otras proteínas surgidas por error. Pero sí existe otro mecanismo de adaptación (de repuesta al ambiente) inherente a la interacción ADN-ARN-proteínas: «En eucariotas, los eventos de procesamiento de ARN, incluyendo splicing alternativo y edición de ARN pueden generar muchos mensajes diferentes de un gen simple, y como consecuencia, el pool de ARN, al que nos referimos como el «ribotipo» tendrá diferente contenido de información del genotipo y puede variar según cambien las circunstancias» (Herbert y Rich,99). Posteriormente, mediante retrotranscripción por la transcriptasa inversa (cuyo origen ya nos puede resultar menos misterioso que a la Genética tradicional), esta nueva información es integrada en el genoma en forma de los llamados retrogenes y retropseudogenes, cuyas funciones reguladoras han sido constatadas (Brosius,99). Las «mutaciones epigenéticas» como fuente de variación genotípica de respuesta al ambiente, han sido ampliamente documentadas (Jablonka y Lamb, 95; Whitelaw y Martin, 01). Lo que no ha podido ser constatado experimentalmente es la forma en que estas «mutaciones» somáticas pueden llegar a la línea germinal. Pero ya hace tiempo (20 años) que Edward Steele («Somatic Selection and Adaptative Evolution», 1979) está proponiendo un mecanismo que explique la «herencia de la memoria inmunitaria»: El sistema inmunitario, cuyo mecanismo de producción de diferentes módulos de anticuerpos combinables para responder a nuevas y distintas moléculas ya es un claro indicio de una predisposición, de una capacidad de reacción ante algo nuevo, es explicado convencionalmente como una generación aleatoria en que la selección natural «decide» cual es el adecuado, lo que, teniendo en cuenta la clara especificidad antigénica, equivale a explicar, por medio de las queridas metáforas, que para la instalación del sistema de agua corriente en la construcción de una casa, la elección de un fontanero entre electricistas, carpinteros y albañiles la realiza la selección natural (¡naturalmente!). Lo cierto es que la constatable herencia de esta respuesta requiere de un «vehículo» capaz de transportar la información genética de la línea somática (linfocitos) a la germinal. Para Steele (98), los abundantes retrovirus endógenos producidos por los linfocitos, cuando son estimulados por contacto con antígenos, actuarían de «lanzaderas de genes» transportando las regiones V «mutadas» a las células germinales, opinión compartida por otros autores (Barth, Baltimor y Weissman, 94). Pero el proceso, seguramente, va más allá. Si tenemos en cuenta el origen dé los genomas y qué elementos están implicados en la retrotransposición, lo que transportarían los retrovirus no serían genes «capturados», sino su propia secuencia de genes ( Sandín,95,98,). Esto explicaría el porqué en ratones sometidos a estrés inmunitario, sus linfocitos «emi-Hacia una nueva Biología ten partículas retrovirales «like-AIDS» con capacidad de infección,. Evidentemente, los sucesos de transmisión de mutaciones epigenéticas desde la vía somática a la germinal como mecanismo de adaptación no deben ser muy habituales, pero el hecho de que existan en la segunda un considerable número de retrogenes y retropseudogenes activos (Brosius, 99), indica claramente que ha ocurrido. Y este proceso sería tanto más plausible si fueran retrotransposones con su capacidad de respuesta al ambiente los directamente implicados en las mutaciones epigenéticas (Whitelaw y Martin, 2001), en casos de disturbios ecológicos, o de una presión ambiental nueva, «... porque cualesquiera que puedan ser las circunstancias, no operan directamente sobre la forma y sobre la organización de los animales ninguna modificación. Pero grandes cambios en las circunstancias producen en los animales grandes cambios en sus necesidades, y tales cambios en ellos los producen necesariamente en las acciones. Luego, si las nuevas necesidades llegan a ser constantes o muy duraderas, los animales adquieren entonces nuevos hábitos, que son tan durables como las necesidades que los han hecho nacer» (Lamarck, J. B., 1809). Un largo camino por recorrer «La teoría de la evolución por selección natural es tan simple y, aparentemente, tan convincente que, una vez que la has asumido, te sientes en posesión de una verdad universal». Esta frase de B.Goodwin (99) en su libro «Las manchas del leopardo», una lúcida crítica a las simplificaciones del darwinisme, es una muy buena descripción del curioso mecanismo psicológico que hace que una supuesta explicación (en realidad una especulación) sobre cómo han tenido que ocurrir los hechos se haya convertido en un dogma. No importa que no sea coherente con los datos, es decir, no con algunos datos, sino con todos los datos ñindamentales que tenemos sobre la evolución (porque es contradictoria con lo que nos revela el registro fósil, la embriología, la genética molecular, la bioquímica...). «Sabemos» cómo ha tenido que ser, lo cual satisface nuestra vanidad intelectual (y, posiblemente, mitiga nuestros temores). La ventaja práctica de las creencias sobre las teorías científicas es que no son susceptibles (ni lo necesitan) a la contrastación. No son sucesos repetibles ni sometibles al «criterio de falsación». Y el darwinisme no es una teoría, porque es un relato de sucesos al azar. Una narración contingente en la que caben todos los datos o fenómenos, incluidos los ex-Máximo Sandín 208 cepcionales, porque es evidente que finalmente los individuos que sobreviven es porque son los «más aptos», es decir, los capaces de sobrevivir. Parece que los biólogos tenemos un largo camino por delante hasta que consigamos desprendernos del lastre que constituyen los viejos conceptos (o prejuicios) que conforman una visión de la vida basada en una competencia sin fin, donde no hay sitio para los perdedores. Pero no va a ser fácil, dado el profimdo arraigo de esta forma de pensamiento que se ha impuesto, prácticamente, en todos los ámbitos de la actividad humana de los países llamados «civilizados». El darwinisme se nos inculca en nuestra formación. Desde la escuela, los conceptos darwinistas forman parte del vocabulario de la Biología, y la evolución significa cambio al azar dirigido por la implacable selección natural. Los evolucionistas previos a Darwin, incluida la sólida escuela francesa, no existieron. Simplemente, evolución es darwinisme. Pero también está sustentado por unas profundas raíces culturales: tanto «El origen de las especies por Selección Natural o el mantenimiento de las razas favorecidas en la lucha por la existencia» como «El origen del hombre y su variación, en relación con el sexo» son un claro reflejo de la visión victoriana del mundo del siglo XIX (Sandín 00). B.Goodwin (99) en su crítica al darwinisme desde su propio contexto cultural, pone de manifiesto, de un modo difícilmente discutible, el marcado paralelismo entre sus conceptos centrales y los valores calvinistas, que por otra parte, como expuso Max Weber {«La ética protestante y el espíritu del capitalismo») están en las raíces del modelo económico y social del libre mercado y la libre competencia que se ha impuesto en el mundo. Como todos sabemos, sin competencia no hay «progreso». Con estos axiomas, se nos bombardea sistemáticamente desde los medios de comunicación, tanto en las informaciones-explicaciones sobre la evolución del mercado, como en las noticias y documentales científicos, en los que las autoridades científicas y los divulgadores «reconocidos», es decir, ortodoxos, y por tanto darwinistas, tienen un importante papel. Y las explicaciones darwinistas son, dentro de todo este contexto, muy fáciles de asumir. En el ámbito académico todos estos condicionantes se acentúan, porque a este entorno social, en el que los científicos forzosamente están inmersos, se añade un «adiestramiento» (Feyerabend,89) en la visión darwinista de la naturaleza y cualquier intento de crítica al darwinisme ( y no hablemos de propuestas alternativas) es acogido con auténtica indignación. El mandato de la UNESCO y el Consejo Internacional para la Ciencia (99) según el cual: «El pensamiento científico consiste, esencialmente, en saber examinar los problemas desde diferentes ángulos, y en investigar las explicaciones de los fenómenos naturales y esenciales, some-Hacia una nueva Biología tiéndalos constantemente a un análisis crítico», no resulta fácil de seguir, al menos por el momento, en las facultades de Biología. Por todo ello, los argumentos, y las conclusiones (naturalmente, provisionales) derivadas de ellos, que siguen a continuación no cuentan probablemente con un sustrato propenso a una acogida favorable. Precisamente por ello, esta falta de expectativas hace posible tomarse la libertad de someterlas a la valoración del lector, por si alguna de ellas, en algún momento, pudiera resultar digna de consideración. La rápida aparición de la vida sobre la Tierra en forma de bacterias con sus prodigiosas capacidades de supervivencia, en unas condiciones ambientales totalmente incompatibles con la vida tal como la conocemos, hace absurda la extrapolación de un supuesto mecanismo evolutivo basado en la observación de organismos y procesos biológicos actuales a unas condiciones en las que estos organismos y estos procesos no podrían existir. La supuesta evolución gradual, individual y al azar de la enorme complejidad y de las especiales y distintivas características de los «Reinos» Archaea y Eubacteria en un corto tiempo a partir de un supuesto «Último antecesor común universal» (LUCA) es una construcción artificial que responde a la necesidad de atribuir al origen de la vida un carácter único y aleatorio. Las capacidades de las bacterias, su clara disposición para vivir en condiciones muy extremas y muy concretas, y los complicados mecanismos biológicos necesarios para ello, hacen inverosímil la calificación de «procesos químicos aparecidos por mutaciones al azar». Primera conclusión: La vida es un fenómeno inherente al universo. No es un fenómeno aleatorio y único y es capaz de prosperar donde las condiciones sean adecuadas. En cuanto a la «aparición» del Reino Eucariota, cuyo origen, que se puede admitir como demostrado, es totalmente incompatible con el mecanismo evolutivo convencional, los datos de que disponemos nos informan de la extremada conservación de los procesos biológicos fundamentales. Si los cambios genéticos fueran aleatorios, los organismos actuales tendrían muy poco que ver genéticamente con los primeros seres vivos que habitaron la Tierra. Lo mismo se puede deducir de los procesos implicados en la «Explosión del Cámbrico». El hecho de que los sistemas genes/proteínas responsables de la generación de tejidos y órganos estén «conservados desde el origen» y que la misma secuencia genética que hace 550 millones de años era responsable del desarrollo de los ojos de artrópodos sea la que dirige la formación de nuestros ojos tan diferentes, implica que su significado va más allá de su traducción en términos biológicos. Implica que contienen el concepto ojo (o extremidades, o alas...). La responsabilidad de los transposones en las inserciones y delecciones y de los retrotransposones en las duplicaciones, éstas últimas causantes de las secuencias repetidas en tándem que constituyen las secuencias Hox, y su, ya evidente, origen viral, nos dirige, inevitablemente a los virus (también de origen desconocido) como el «cuarto dominio» capaz de aportar los genes coordinadores del desarrollo embrionario. Esta hipótesis (Sandín,95,97,98) cada día más reforzada por los descubrimientos de secuencias virales en distintos procesos embrionarios y fisiológicos normales, implica que la información genética contenida en los virus también tendría un contenido biológico concreto y específico, es decir, un significado. Segunda conclusión: El lenguaje de la vida es preciso y definido. Es decir, no es el resultado más o menos aleatorio de interacciones moleculares que pudieran tener otros componentes, sino que tienen unas propiedades concretas derivadas de las de sus especialísimas unidades constitutivas. En otras palabras: la vida sólo puede ser como es, tanto en sus limitaciones como en su creatividad. La forma en que ha evolucionado la vida (es decir, no los procesos microevolutivos o demográficos) deriva forzosamente de estas características. Las bruscas remodelaciones morfológicas que nos revela el registro fósil y las adquisiciones de nuevas morfologías o capacidades sólo pueden ser explicadas bajo el prisma de la actuación integrada de estos sistemas con contenido biológico concreto. Dada la extremada conservación del funcionamiento de todos los procesos biológicos, y su estrecha interdependencia en los organismos, resulta absurdo pensar que las mutaciones (desorganizaciones) «aleatorias» sean la fuente de estas complicadas remodelaciones que afectan a todo el organismo. Igualmente, las sofisticadas adaptaciones posteriores a las grandes remodelaciones, difícilmente se pueden atribuir a «errores» de la compleja maquinaria genética, sino a la plasticidad de los genomas y a la capacidad de la respuesta la ambiente, no aleatoria, de sus unidades constituyentes (ADN, ARN y proteínas). La evolución (el cambio de organización) pues, se produce por Integración de Sistemas Complejos (Sandín,97), que se organizan en sistemas de mayor complejidad. Es decir, es un fenómeno de cooperación entre distintas unidades, de modo que el todo es más que la suma de sus partes, característica que se puede aplicar a todos los fenómenos biológicos, desde la célula a los tejidos y órganos, desde los individuos a los ecosistemas, desde la Tierra al Universo. Tercera conclusión: La tendencia a una mayor complejidad es inherente a la vida. Su constitución en unidades que forman sistemas complejos con demostrada capacidad para integrarse en sistemas con Hacia una nueva Biología 211 nuevas propiedades, revela una tendencia (la denostada concepción teleológica) hacia una mayor complejidad, de la que el cerebro humano es (por el momento) su máximo exponente. Estas reorganizaciones, tanto genéticas, como orgánicas, como ecológicas, no son ni graduales ni aleatorias, como se deriva de la observación del registro fósil y de sus propiedades como sistemas determinados estructuralmente. Es decir, el cambio, producido necesariamente durante la morfogénesis, ha de ser brusco, lo que requiere que se produzca simultáneamente en un número suficiente de individuos para hacer posible su reproducción. Cuarta conclusión: Habría que replantearse, incluso, la aplicación del término «evolución» para designar este cambio. En efecto, el significado de «evolución» es «Acción de desarrollarse o de transformarse las cosas pasando gradualmente de un estado a otro». A la luz de los datos existentes, el término Transformación empleado por Lamarck describe mas adecuadamente el proceso de cambio orgánico. Es posible que tanto los argumentos como las conclusiones aquí expuestas puedan resultar interpretaciones parcial o totalmente erróneas (para muchos, seguro que descabelladas). Los fenómenos que conforman la vida son de tan abrumadora complejidad que desbordan nuestra capacidad de análisis, mediante los esquemas lineales y reduccionistas a que estamos acostumbrados los biólogos. Tal vez (como sugiere Philip Ball) tengamos que recurrir a conceptos desarrollados en otras disciplinas científicas; a teorías de sistemas, a procesos no lineales, redes de información... Pero sin perder de vista las especiales características de estos sistemas vivos capaces de reproducirse y de interactuar con otros, es decir, cuidando de que las interpretaciones no se conviertan, de nuevo, en metáforas. En cualquier caso, parece claro que a la nueva Biología le queda im. largo camino por recorrer. Los recientes descubrimientos han sacado a la luz nuestra enorme ignorancia sobre los procesos biológicos más básicos. Los avances en el estudio del Proteoma están poniendo de manifiesto fenómenos que desbordan las previsiones más pesimistas, porque ponen en evidencia lo lejos que estamos de entender los mecanismos de control de la mayoría de las funciones celulares. Dos nimaerosos equipos (Gavin,A. C. et al,02 y Ho,Y. et al. 02) están estudiando los patrones de interacción entre las proteínas celulares y han encontrado que alrededor del 85% de las proteínas se asocian con otras para realizar sus funciones, en un número de al menos 96 «asociadas». Cada combinación determina sus estructuras y funciones características (esta capacidad de combinación es seguramente la causa de la confusión en las estimaciones del número de proteínas célula-Máximo Sandín 212 res, que según las fuentes, pueden variar entre más de 30.000 y 250.000). Según los autores «La célula está organizada en una forma para la que no estamos preparados». El modo «tradicional» de trabajar consistía en la identificación de las proteínas y la determinación de sus interacciones una a una. El utilizado aquí consiste en el uso de marcadores que permiten aislar los complejos, e identificar a sus miembros por espectrometría de masas. «Pero el método todavía arroja falsas interacciones». Los investigadores intentan conseguir descifirar las reglas que gobiernan las interacciones entre proteínas (si las hay), pero reconocen que el proceso «desafía la imaginación» (H. Pearson, Nature Science Update 12-1-2002). Pero esto es solamente una parte del trabajo. Queda por descifirar completamente el genoma (incluida la función del llamado ADN «basura» y la identificación y caracterización de los elementos móviles y virus endógenos) y el transcriptoma (conjunto de ARNm que una célula produce en un momento dado), las interacciones entre todos ellos y, sobre todo, la influencia del ambiente en estas interacciones. Lo que sí resulta cada día más claro, a medida que mejoran los métodos de estudio es que la arraigada concepción reduccionista y lineal de los procesos y fenómenos biológicos, heredada de la suma de simplificaciones darwinista-mendeliana, no es sólo una visión parcial. Ni siquiera vacía (en terminología de H. Gee), sino una auténtica deformación constituida por medias verdades (que, a menudo, son más engañosas que las mentiras) e interpretaciones antropocentristas (para ser más exactos, etnocentristas), cuyo mismo vocabulario no es más que una proyección de unos determinados valores o prejuicios culturales y sociales sobre los procesos naturales, que, insisto, lleva a convertir fenómenos ocasionales o intrascendentes en fundamentales. En el primer aspecto, muchas de las observaciones (en realidad interpretaciones) indirectas de resultados finales o de pasos intermedios «detenidos» para su observación o realizadas en condiciones artificiales, han mostrado que ocultaban una complejidad y una plasticidad en sus condiciones naturales que «desafían la imiaginación», pero sobre todo nuestras más sólidas convicciones: El ADN no es autorreplicable_en sí mismo. Sólo lo puede hacer mediante las complejas interacciones de, a su vez, complejísimas y muy específicas proteínas. No existe una relación simple entre el «mensaje» codificado en el ADN y los productos derivados de él, porque el proceso de «edición de ARN» introduce un importante factor dependiente del contexto ambiental en el sentido más amplio. Tampoco contiene la capacidad de su propia interpretación, especialmente a la hora de construir un organismo, porque esta capacidad está integrada en el citoplasma del huevo fertilizado. En cuanto al segundo aspecto, la concepción individualista de los fenómenos biológicos, en la que todos compiten contra todos (las moléculas, los genes, los individuos, los grupos o las poblaciones) en una «carrera armamentística» sin fin, en la que el resultado es el triunfo de los «más aptos» seleccionados entre los perdedores por el implacable ambiente, se ha revelado como una pobre caricatura de un determinado modo de ver la sociedad humana. Tanto la vida como su historia, se desarrolla en un contexto ecológico, lo que implica que la supuesta «evolución» de una especie es, en realidad, «coevolución», porque hasta en el más elemental (que no simple) proceso de los sistemas vivientes, desde la actividad celular y la diferenciación de tejidos, hasta las relaciones entre los organismos, poblaciones o ecosistemas, están involucradas complejas redes de procesamiento y comunicación de información y una estrecha (e imprescindible) interdependencia, en el más estricto y material sentido, en el que están relacionados tanto factores bióticos como abióticos, que, en definitiva, disuelven la frontera organismo-entorno. Los nuevos datos están descubriendo una Naturaleza que resulta de unas características y un significado radicalmente opuestos a los de la vieja Biología: de cooperación frente a competencia, de comunidades (sistemas) frente a individuos, de integración en el ambiente frente a lucha contra él, de procesos explicables científicamente frente al absurdo azar sin sentido. Desde luego son, posiblemente, interpretaciones difíciles de compaginar con los valores dominantes (que parafraseando a Bertoldt Bretch, suelen ser los valores de los que dominan), y requieren unos métodos de análisis y unos conceptos más complejos íjue los heredados de la rancia e hipócrita visión malthusiana de «la lucha por la vida», concebida desde la óptica de los vencedores. Pero están basadas en observaciones y conceptos científicos, no en convicciones o metáforas, y cuentan, en la actualidad, con una creciente aportación de nuevos enfoques desde la perspectiva de la complejidad y fenómenos no lineales, provenientes de disciplinas cuyas bases teóricas han profundizado en la descripción y la comprensión de los fenómenos naturales hasta un extremo inconcebible para la mentalidad social (incluso científica) del siglo XIX, en las que permanece anclada la base de la Biología. Científicos como Ilya Prigogine, Stuart Kauffmann, Várela y Maturana, L. Margullis, M. Behe o B. Goodwin, están mostrando desde distintos campos de estudio, la manifiesta incompatibilidad de los procesos químicos, físicos, genéticos, matemáticos, bioquímicos o ecológicos, con la visión reduccionista y lineal de la vieja Biología. La puesta en común, la integración de estas diferentes perspectivas puede conseguir, finalmente, dotar a la Nueva Biología de una base teórica realmente científica. 214 sin duda, una ardua tarea, como lo será la necesaria revisión de tantas interpretaciones admitidas como «verdades científicas» que figuran en los textos científicos y didácticos y que están basadas en observaciones, experimentos o modelos con poca (o ninguna) relación con su verdadero fimcionamiento en la Naturaleza. En definitiva, se trata, nada menos, que de rehacer la Biología. Pero, en este largo camino, parece necesaria una profimda reflexión sobre la necesidad de eliminar del vocabulario científico, de una vez por todas, los términos que, lo que contienen en realidad, son valores o prejuicios que están tan ñiertemente arraigados en nuestro entorno social y cultural que resulta casi impensable otra posible explicación. Tal vez sea imposible desligar totalmente las interpretaciones de la realidad del sustrato histórico, cultural y social del que proceden. Pero, si esto es así, también hay que considerar que unos determinados valores culturales pueden ser los dominantes en una época, pero nunca son los únicos. Afortunadamente, en todas las sociedades siempre han existido diferencias en la interpretación de la realidad, caracterizadas por distintas dosis de agudeza o de sensibilidad. En una misma cultura han dominado los valores de Adam Smith o Thomas Malthus, pero también han existido Osear Wilde o Patrick Mathew. Han triunfado las tesis de Herbert Spencer, pero también han resistido pensadores como George Bernard Shaw: «El darwinismo proclamó que nuestra verdadera relación es de competidores y combatientes por la mera sobrevivencia, y que todo acto de compasión o lealtad al antiguo compañerismo es una vana y picara alternativa para amenguar la severidad de la lucha y preservar variedades inferiores frente a los esfuerzos de la Naturaleza para extirparlas/... /cuando se predicaba la doctrina neodarwiniana yo no intentaba ocultar mi desdén intelectual hacia su ciega tosquedad y su superficialidad lógica, ni mi natural aborrecimiento de lo que tiene de asqueantemente inhumana/.../porque la selección natural carece de significación moral: trata de la parte de la evolución que carece de propósito y de inteligencia y a la que mejor se le podría llamar selección accidental y, aún mejor, Selección No Natural, pues nada hay menos natural que un accidente. Si se pudiera demostrar que todo el Universo es producto de una selección asi, sólo los tontos y los granujas podrian soportar la vida». AGRADECIMIENTOS: A mi colega María Sandín, por su desinteresada (¡y tanto!) colaboración. A. Félix Martínez, por su apoyo «a distancia» y, muy especialmente, a Juan; un verdadero amigo.
BLANCA VILA Catedrática de Derecho Internacional Privado de la Universidad Autónoma de Barcelona y profesora de Derecho Europeo del College ofEurope, Brujas (1990Brujas ( -2000) ) y Varsovia (Natolin, 1997(Natolin, -2002)). Titular de la Cátedra Jean Monnet de Derecho comunitario y Responsable Académica del Polo de excelencia Jean Monnet de la Universidad Autónoma de Barcelona, en cuyo marco cabe inscribir el encargo de la edición del presente número monográfico de la Revista ARBOR, del C.S.I.C.
El ejercicio de la Presidencia del Consejo por cualquiera de los gobiernos de los quince Estados de la Unión Europea, y manifiesto esto sin excepciones más o menos selectivas, supone, ante todo, un "pasar". Quizá algo más, precisamente nada desdeñable: un ir a pasar (antes) y un haber pasado (después), con la troika ejerciente.En efecto, la rapidez del transcurso de los seis meses acordados para su ejercicio, unido al carácter aleatorio de los acontecimientos mundiales del momento, traicionan continuamente -y más ahora tras el último 11 de septiembre-proyectos y expectativas, pero nuestro mundo es precisamente así. En cualquier caso, una presidencia del Consejo de la Unión -no se trata de la presidencia de Europa, algo muy diferente y que cabrá decidir quién deberá, de entre sus instituciones rediseñadas, ejercerla -ejercida durante tan corto período de tiempo debería hacer de sus gestores momentáneos, todos y sin excepciones, más proclives a la humildad y al ejercicio compartido y prudente de competencias y prerrogativas, que a la exhibición de gestos omnipotentes que pocas veces significan verdadero carisma. Porque hay que tener en cuenta que presidir no es sólo un "pasar" sino, sobre todo, un "pulsar": y he ahí el desafío. Precisamente éste ha sido el objetivo de la presente edición del número monográfico que aquí se presenta. No hay que plantearse, en este ejercicio reflexivo, una valoración imprudente, rápida, periodística o política de objetivos y resultados, porque no es ella nuestra función desde el ámbito académico, y porque el tempo reflexivo es distinto del sesgadamente informativo. Este espacio que proponemos es un espacio de reflexión conjunta, realizada por autores muy diversos en sus opiniones, funciones y temas, con un hilo de preocupaciones común: Europa en sí, Europa en el mundo y Europa ante el futuro. Académicos, responsables comunitarios y periodistas han contribuido en este esfuerzo desapasionado, pero apasionante, a analizar las variables y a proponer, en su caso, vías abiertas para cada uno de los temas acuciantes incluidos en los tres ejes de la reflexión que les propusimos: a) las grandes cuestiones abiertas; b) una reflexión "ad extram", y c) una proyección futura. Así, para el primer grupo de temas seleccionados como cuestiones abiertas, y en relación al debate institucional y competencial, al diseño comunitario para esta Europa que saldrá de la próxima Conferencia íntergubernamental tras las propuestas de la Convención Europea convocada el pasado mes de febrero se solicitaron dos contribuciones complementarias y conjuntamente aún más valiosas. Desde el mundo académico, el Profesor Vlad Constantinesco contribuye una vez más al tema, sumando su presentación a la aportación del responsable comunitario y también Profesor Titular de universidad Francisco J.Fonseca, Director de Gabinete adjunto del Comisario Vitorino, miembro de la Convención en nombre de la Comisión. De hecho Francisco Fonseca, siempre a caballo entre academia e instituciones europeas, ha permanecido largo tiempo presente en los 'focos'' de ideas de mayor interés para el devenir institucional y operativo comunitario, como la famosa "célula de prospectiva'' de la Comisión en la que activamente participó. El segundo gran tema abierto lo constituye la moneda, la diversidad, la cohesión y la sostenibilidad: en otras palabras, el paradigma económicosocial posible para Europa, Dos excelentes académicos, Emilio Ontiveros, Catedrático de Economía Aplicada de la Universidad Autónoma de Madrid, persona de gran relevancia investigadora, presente en foros y medios; y Joan Clavera, Catedrático de Economía Aplicada de la Universidad Autónoma de Barcelona, y cofundador con antiguos colegas allá por lo años ochenta de nuestro Instituto Universitario de Estudios Europeos de la UAB, de larga trayectoria europeísta ambos, proyectan sus preocupaciones en torno a este eje con un vocabulario, además, comprensible y pleno de datos actuales. Hago constar, por otro lado, que en el trabajo del Profesor Clavera se ha hecho un seguimiento muy cercano de los aspectos más actuales de la Unión Económica y Monetaria y de circulación del Euro, llevado en estrecha colaboración con el equipo del Comisario Solbes, "pulsando" la realidad y trascendiendo los muros de una pura reflexión académica. Tras el pasado 11 de septiembre ciertas prioridades teóricas para Europa devinieron perentorias. En efecto: si la lucha contra el crimen organizado, si la cooperación en materia penal ocupaba ya desde tiempo un lugar importante en el quehacer comunitario -el denominado "tercer pilar" con toda la logística implícita y todo el camino ya recorrido (lucha contra el narcotráfico, Europol,,,)-el objetivo de la denominada "euroorden" en la lucha contra el terrorismo pasó, mundialmente, a un primer plano. De nuevo, y de repente, la palabra "cooperación" recobró toda su vigencia en el plano penal como en el plano civil, en relación a las eternas cuestiones de Derecho Internacional Privado que nos atañen tan de cerca: en particular, (c) Consejo Superior de Investigaciones Científicas Licencia Creative Commons 3.0 España (by-nc) http://arbor.revistas.csic.es Presentación XI en este último ámbito, la puesta en marcha con todas sus consecuencias de la nueva base jurídica del artículo 65 del Tratado de Amsterdam (en el marco del Título IV, un espacio de libertad, seguridad y justicia) ha generado, genera y generará un debate científico das competencias comunitarias, notablemente incrementadas, y sus límites) y práctico (la puesta en marcha de las iniciativas de "comunitarización" de Convenios u otros instrumentos propios anteriormente del tercer pilar) que se han mostrado de una eficacia trascendental y que tardarán años en agotar sus posibilidades para forzar la compenetración entre los distintos ordenamientos jurídicos y para normalizar las distintas actuaciones de las autoridades judiciales o parajudiciales en los ámbitos civil y mercantil; incluso haciendo penetrar -indirecta, pero incontestablemente-el principio de la libre circulación de decisiones dentro del ámbito del derecho de familia. Para la contribución esencial en el ámbito de la Cooperación en materia penal hemos tenido el honor de contar con Denise Sorasio, inicialmente académica y de larga y relevante trayectoria como responsable comunitaria, durante años considerada el "oráculo" del Servicio jurídico de la Comisión: actualmente es la Directora para la Cooperación en Materia Penal en la Dirección de Justicia y Asuntos de Interior de la Comisión, y es ella quien nos ofrece su pulso del momento, en el mes de abril de 2002. Para la aportación en el ámbito civil y mercantil, la profesora Alegría Borras, Catedrática de Derecho Internacional Privado de la Universidad de Barcelona, aunque académica en ejercicio permanente, está siendo desde ya tiempo el motor de los trabajos de la presidencia española en el seno del Consejo para cinco grupos de trabajo, por lo que hay que agradecerle que nos traslade el estado teórico-práctico del avance comunitario en este sector a lo largo de este período, y sus reflexiones al respecto. Un cuarto tema abierto a lo largo de esta presidencia -permanente, duro, acuciante, que afecta al modelo de sociedad que se pretende para la Unión -, la inmigración, nos lleva a reflexionar sobre los flujos migratorios hacia Europa. Una persona y un equipo de referencia, la demógrafa Anna Cabré y el investigador Andreu Domingo, del Centre d'Estudis Demográfics de Bellaterra, han realizado un ejercicio de rigor, histórico, actual y prospectivo. La historia, la geografía, la sociología y el derecho confluyen en la reflexión demográfica que llevan realizando desde años, aportando análisis e ideas que contribuyen al equilibrio de esta visión de Europa "pulsada" en unos momentos tan particulares como en los que transcurre esta presidencia. En fin, dentro de las cuestiones abiertas -y no fuera, porque no hay ajenidad ninguna en el tema -el Director General para la ampliación de la Comisión Europea, Eneko Landáburu, contribuye a nuestro número con todos los datos en la mano para reflexionar sobre esa Europa XII Presentación grande y reunida, que es un desafío más que una cuenta pendiente, que es un reto y que es, sobre todo y entiendo que hay que verla así, una gran oportunidad. El road map marcado ha ido transcurriendo y se ha ido realizando. Las opiniones públicas en los países candidatos, ante un mensaje occidental mal trazado (acceso a la Europa de las subvenciones agrícolas, a la Europa''que paga'') han bajado tasas enteras de europeísmo, aumentando distanciamientos y captando incomprensiones. Ese reto, que es esa oportunidad, debe vincularse al modelo de Europa que deseamos para todos: ¿por qué nadie menciona el posible aporte, o mejor el seguro aporte, de las sociedades cultas y pacientes de los países de la Europa central y oriental al conjunto de la Comunidad'? Porque la enorme cultura, la paciencia, la formación cualificada, la humildad tantas veces y la ilusión de siglos y de decenios de sus sociedades civiles pueden, y lo harán si les dejamos, aportar mucho al paradigma de sociedad que deseemos para todos. En cualquier caso, nadie mejor que Eneko Landáburu, por su personalidad, su alta responsabilidad y su buen quehacer para hacernos, una vez más, "pulsar " ese momento con todas las dificultades y contradicciones que en él se dan. El segundo bloque, por supuesto más homogéneo y más reducido, y al que voy a referirme como un todo, asume el reto siguiente: si la Unión Europea existe, deberá guardar unidad y coherencia en su acción internacional, mostrándose por su propia acción y compromiso. La historia reciente es, en este terreno, decepcionante. Sin embargo, veremos que tanto en el ámbito de la Política Europea de Seguridad y Defensa, como en las perspectivas relativas a dos macro-ámbitos geográficos profundamente vinculados a la Europa comunitaria (el Mediterráneo y América Latina) se abren nuevas preguntas ya mucho más concretas, y en consecuencia posibles horizontes. En efecto: el Mediterráneo: ¿propio o ajeno? Envenenado por crisis históricas y actuales, mundiales y locales, espacio de nuevos tránsitos migratorios que exigen acciones rotundas de compromiso estructural, ¿está ahora más cerca o más lejos de nosotros, en términos de resolución de conflictos y de gestión eficaz y sostenible de la zona desde la Europa comunitaria?¿Cabe un relance del diálogo y una mayor fecundidad de nuestras soluciones? América latina, cuyo cordón umbilical cultural, y en ocasiones político, con la Unión ha sido fundamentalmente España, ensaya fórmulas estructurales de relación en muy malos momentos de sus particulares sociedades y economías, ¿Qué actitudes se mantienen en esa dificil y no exclusiva relación con el mundo latinoamericano en momentos de grandes alteraciones mundiales e internas? Pulsaremos, de nuevo, resultados y perspectivas. Para estas tres contribuciones hemos solicitado la aportación académica de Esther Barbé, Catedrática de Relaciones Internado- nales en la Facultad de CC.PP. de la Universidad Autónoma de Barcelona, experta en asuntos de Seguridad y Defensa, quien dirige actualmente el I. UE,E. de Bellaterra y el Observatorio de Política Exterior en estrecha vinculación con el Ministerio de Asuntos Exteriores, en colaboración con el Profesor de la Universidad Rovira i Virgili Alfonso González Bondía, una aportación académica que lleva implícito un seguimiento "a ras de suelo" de experiencias y perspectivas. Para la difícil operación de "relanzamiento" del llamado "proceso euromediterráneo" de Barcelona, seriamente preparada, la voz de un relevante representante de un medio de comunicación, Xavier Vidal-Folch, de triple formación académica y que ejerció durante los años de referencia (1994)(1995)(1996)(1997)(1998)(1999)(2000) la corresponsalía del diario EL PAÍS en Bruselas nos va a plantear las francas coordenadas de un enfoque actualizado del tema, con todo el acopio de datos que desde los umbrales académicos no somos capaces de trascender. En fin: un testimonio académico "en vivo", el Catedrático de Economía Aplicada de la Universidad Autónoma de Barcelona y actual Co-Director, como parte europea, del Instituto de Estudios para la Integración Europea del LT,A,M, de México, D,F, hace balance de las intrincadas relaciones entre la Unión Europea y América Latina en una sólida aportación profusa en datos y reflexiones. El tercer bloque del número monográfico es de signo a la vez conclusivo y abierto: se pretende comprometer a Europa en una proyección futura, ¿Cómo está abordando la Unión Europea el reto de la formación ante el desarrollo de la Sociedad del Conocimiento'? ¿Cómo espera formar sus ciudadanos, manteniendo lo esencial de la universitas del conocimiento e incitando, impulsando a asumir el cambio tecnológico, estructural, organizativo, los laboratorios de ideas y los nuevos partenariados? Retomando las palabras de Edgar Morin recogidas en esta contribución conclusiva de lujo con que este número monográfico cuenta, "no se puede reformar la institución si no se han reformado previamente los espíritus, y no se pueden reformar los espíritus si previamente no se ha reformado la institución". He aquí la paradoja de la Europa que vive un momento constituyente. Hemos de reformar espíritus y actitudes, contrarrestar tendencias y asumir, de manera lúcida, cambios en nuestra inversión humana y social, Dos catedráticos de universidad que han tenido como misión conducir durante largos años la Universidad Politécnica de Cataluña, vivero de ideas y experiencias, y que se hallan al frente actualmente de instituciones que constituyen un referente, referentes no exentos de los riesgos que lleva implícito toda aventura institucional, han sido nuestros contribuidores para esa reflexión final, Gabriel Ferraté, más de veinte años rector de la UPC y actual rector de esa excelente experiencia universitaria que es la Universitat Oberta de Cataluña, ha sumado su reflexión a la de Jaume Pages, rector hasta momentos muy recientes de aquella universidad y actual Consejero Delegado del Forum 2004 de las Culturas, con la colaboración de Josep M" Duart, del equipo de la UOC La experiencia europea de todos ellos y el reto de de su continuada dedicación a proveer a nuestra sociedad de una alta formación en continuo cambio avalan sus reflexiones para una Europa sólida, humana, cultural y técnicamente, en un mundo global. En fin: volviendo a nuestro hilo conductor recordaremos simplemente que un turno de presidencia debería significar credibilidad y cercanía ante los ciudadanos europeos por parte del quien lleva el tren del Consejo. A diferencia de muchos, creo que es un signo excelente la normalización auténtica de estos turnos del gobierno de la Europa de los quince, considerándose una presidencia como algo que significa, ante todo, mucho trabajo; que además nos atañe muy de cerca -mucho más de lo que somos conscientes cada día...-; que nos ha tocado esta vez en tiempos de capítulos dificiles -que no todos determinantes-; y que, aunque el margen de maniobra, en los numerosos temas antes mencionados que examinaremos, sea relativamente discreto en estos momentos, es indudable que estos seis meses de 2002 transcurren en un contexto mundial muy particular y vienen marcados materialmente por acontecimientos que configuran estrategias en las que Europa deberá, ante todo, disponer de una voz propia y crear un paradigma propio. Primero, ante sí misma. Segundo, ante los demás. Tercero, ante el futuro de sus generaciones.
RESUMEN: La Bioestadística es hoy en día una componente científica fundamental de la investigación en Biomedicina, salud pública y servicios de salud. Las áreas tradicionales y emergentes de aplicación incluyen ensayos clínicos, estudios observacionales, fisología, imágenes, y genómica. Este artículo repasa la situación actual de la Bioestadística, considerando los métodos estadísticos usados tradicionalmente en investigación biomédica, así como los recientes desarrollos de nuevos métodos, para dar respuesta a los nuevos problemas que surgen en Medicina. Obviamente, la aplicación fructífera de la estadística en investigación biomédica exige una formación adecuada de los bioestadísticos, formación que debería tener en cuenta las áreas emergentes en estadística, cubriendo al mismo tiempo los fundamentos de la teoría estadística y su metodología. Es importante, además, que los estudiantes de bioestadística reciban formación en otras disciplinas biomédicas relevantes, como epidemiología, ensayos clínicos, biología molecular, genética y neurociencia.
Introducción: La complejidad del fenómeno monetario La transición a una sola moneda, sin problemas aparentes, de 12 países encierra un sinfín de nuevas cuestiones que tanto para los expertos, como para los no especialistas del tema, obliga a un nuevo enfoque que no es fácil de precisar. Una primera advertencia se impone: el hecho de que cerca de 300 millones de personas utilicen el euro a diario viene precedido de tres años de fimcionamiento mas que notable del euro financiero y que nos remite al verdadero meollo del problema: el hecho incuestionable que desde primeros de Enero de 1999 existe una sola autoridad monetaria para los países A menudo, nos olvidamos del verdadero por qué de una autoridad monetaria única. Sin duda es por pura coherencia con el afán de conseguir un verdadero mercado común, una vez el paraguas protector de Bretton Woods y el régimen de tipos cuasi fijo con el dólar saltó hecho pedazos en el año 1971 como consecuencia de los avatares políticos, económicos y militares de los Estados Unidos. En otras palabras, antes de 1971 las incidencias del régimen de cambios sobre el mercado común eran mínimas. Una vez los tipos flotantes se impusieron, cualquier devaluación de la moneda de A respecto de B se transformaba automáticamente en una barrera comercial asimétrica que favorecía la entrada de mercancías en A mientras la dificultaba hacia B. Este problema, explicado en cualquier manual inicial de economía, es exactamente lo que hemos vivido en los últimos meses en el Mercosur, mercado común que ha visto como su mercado interior y su arancel exterior eran insostenibles en presencia de una devaluación del real brasileño frente a un peso argentino ligado estrechamente al dólar y, por ende, incapaz de tener una política monetaria propia. Por eso el caso de la Comunidad Europea es tan diferente ya que con todas las dificultades que se quieran, evito, hace treinta años, este fenómeno por medio del ya citado Sistema Monetario Europeo y finalmente con la moneda única, garantía absoluta para preservar la unidad de mercado. No debe olvidarse que continúan existiendo mecanismos de regulación de cambios -de las respectivas monedas con el euro-para los países de la UE fuera de la eurozona para evitar un posible efecto indeseado sobre la unión aduanera al que se acogieron Dinamarca y Portugal (este último país ahora ya en el euro). Suecia y Inglaterra no han entrado en este mecanismo. En otras palabras parece que casi se ha conseguido un viejo sueño: «un solo mercado y una sola moneda» título de un bien conocido estudio de la Comisión Europea, dirigido por Michael Emerson (1990) ^ solo superado como referencia esencial por el famoso Informe Delors (1989)^, la apuesta definitiva por la moneda única formulada en 1989 tras años de estudios y toda la experiencia del Sistema Monetario Europeo. Un mundo globalizado con parámetros políticos, económicos y sociales de gran dinamicidad todavía ha hecho mas aparente la necesidad de una arquitectura completa como la que ahora empezamos a disfrutar en la eurozona. Si además pensamos en los retos de la ampliación a 27 países todavía se entenderá mejor como la moneda única constituye un tema capital para los próximos años. Ahora bien la aparente facilidad con que los ciudadanos europeos han adoptado el uso cotidiano del euro no deja de ser un fenómeno centradle-La unión monetaria: vía abierta a la. toriamente preocupante. Por una parte el Eurobarometro del mes de Abril de 2002 parece confirmar una transición hacia el euro realmente bien aceptada por parte de la inmensa mayoría de los ciudadanos de la eurozona Aceptar la moneda, sin embargo, también debería significar aceptar las consecuencias últimas de una política monetaria única y que implica cosas tan elementales (pero tan difíciles de interiorizar para las personas) como la consideración que solo la inflación media de la eurozona (y no la inflación de «nuestro país»), considerada a medio plazo, explica los tipos de interés a corto plazo o que nunca más se podrá contar con devaluaciones «nacionales» o que las finanzas publicas del país están sujetas -para no ser antitéticas con la política monetaria única-a los condicionantes del Pacto de Estabilidad y Crecimiento, fácil de aceptar con la cabeza iría pero posiblemente difícil de seguir cuando la coyuntura no es favorable. Incluso podríamos decir que determinadas reacciones políticas recientes en Europa juegan con los temores subconscientes que todo cambio -y la política monetaria única es uno muy importante-representa, ya sea en la realidad ya en el imaginario popular. Parece que el compromiso político, el salto en la integración, o las nuevas obligaciones y oportunidades que comporta, no puedan medirse solamente por la aparente facilidad de cambiar de moneda fiduciaria. Todo arranca de aquellos que a mediados de los años ochenta -justo cuando España y Portugal se integraban en la CE-tuvieron la visión y el coraje de fijarse una meta que fuera como el trampolín para una nueva etapa -más elevada-de integración económica, como ahora lo es haberse fijado el reto -insuficientemente discutido y percibido-de que aquí a 24 meses seguramente estaremos en la fase de integración -obviamente con los gradualismos necesarios-de los primeros países procedentes del este de Europa aspirantes a formar parte de nuestra comunidad y que algún día, después de pasar por las necesarias etapas de convergencia macroeconómica también se integrarán en la política monetaria única. Algunos apuntes sobre el fundamento «teórico» y el fundamento político de la Unión Monetaria De la misma manera que en su momento se discutió la oportunidad de crear una unión aduanera a la luz de la teoría económica existente, también existe un debate sobre la idoneidad teórica de una unión monetaria como la europea. En el primer caso la teoría se formuló en 1950 por J. Viner después que ya existiera el Benelux, y por J. E. Meade en 1956 y R. G. Lipsey en 1957, prácticamente a las puertas de la ñrma del Tratado de Roma. En el caso de las llamadas «áreas monetarias óptimas «la teoría -en su acepción moderna-la formuló el canadiense Robert Mundell (Mundell 1961) ^ seguido de aportaciones de Mckinon y Kenen que entre los tres forman el «corpus teórico» clásico de los primeros años de la década de los sesenta. Precisamente a Robert Mundell se le otorgó en el año 1999 el premio Nobel de Economía por su análisis de la política monetaria y fiscal bajo diferentes tipos de cambio y por su análisis sobre las áreas monetarias óptimas. Este último análisis lo formuló, como ya se ha indicado, hace mas de cuarenta años con una atractiva presentación reveladora de las inquietudes de su país de origen: suponiendo que tanto en Canadá como en Estados Unidos la región oeste se dedica a la industria de la madera y la región este se dedica a la industria automovilística ¿que seria mejor?: La existencia de un dólar canadiense (para las regiones del norte) y un dólar norteamericano (para las regiones del sur) o la existencia de un dólar para las regiones del este y otro para las del oeste (independientemente de las fronteras políticas convencionales).Eso es tanto como preguntarse cual es el área monetaria óptima para el conjunto de las regiones de los dos territorios. El lector se puede imaginar que tras esta estilización de la realidad se esconde una compleja maraña de factores a tener en cuenta para solventar la tan aparente simple cuestión: la movilidad de los factores de producción (especialmente el trabajo), las transferencias fiscales, el escoger tipos de cambio fijos o flotantes, el grado de rigidez de precios y salarios, la diversificación industrial, o el grado de apertura previa de la economía, entre otros. ¿Por qué Mundell todavía es una referencia obligada? Seguramente por la falta -durante años-de estudios empíricos que hicieran avanzar a la teoría. ¿Cuántas áreas monetarias se han constituido en el mundo en este último medio siglo que rompan los esquemas nacionales? La experiencia del euro es única y nada tiene que ver con los problemas, mas conocidos en otras latitudes, de dolarización de determinadas economías que solo consisten en la adopción -asimétrica por definición-por parte de unos países generalmente en vías de desarrollo de la moneda y la política monetaria de los EEUU. Así pues la «prueba» de la bondad de la unión monetaria de Europa solo la encontraremos en futuros análisis. Cuando en el citado estudio de M. Emerson se repasa la teoría de las áreas monetarias óptimas se concluye que pese a la utilidad de las reflexiones en ella contenidas no constituye un armazón suficientemente adecuado para analizar los costes y La unión monetaria: vía abierta a la. beneficios de lo que ha acabado siendo nuestra unión económica y monetaria (UEM). Seguramente, con la perspectiva que da el transcurso de un decenio, es la propia metodología de «One market, one money» la que marca un punto de inflexión -un nuevo renacer-de la teoría de las áreas monetaria óptimas al tenerse que enfirentar al caso concreto de la Comunidad Europea. Muy recientemente Mongelli, (2002) ^, repasando cuarenta años de literatura al respecto, señala el florecimiento en los últimos años al calor de la experiencia europea, de estudios parciales de gran interés ya sea partiendo de la unión aduanera hacia la unión monetaria ya sea al revés. Para el caso de Europa no debe olvidarse algo que examinaremos mas adelante y que Mongelli subraya sin titubeos: el hecho de que la voluntad política (el convencimiento, en este caso, de que una moneda única despertaría en los ciudadanos un sentimiento de pertenencia a un espacio común y al mismo tiempo se reforzaran las políticas comunes) se impuso a un análisis económico estricto, hecho -apuntamos nosotros-repetidamente olvidado para quienes ven en el euro la plasmación perversa de una Europa que solo observa la lógica del mercado. Hay que advertir que, por ñierza, estos nuevos intentos de analizar las áreas monetarias han de mirar al pasado y que obviamente no pueden referirse a la actual fase de la moneda única puesto que el análisis econométrico requiere series temporales largas que solo el transcurso del tiempo -y la continuidad de la UEM-podrán proporcionar. Mundell -todavía semi-activo entre su castillo en la Toscana y la Universidad de Columbia-se ha apuntado al carro de los norteamericanos optimistas que ven en el euro un factor de eficiencia, un modo de conseguir precios mas transparentes, una moneda de alcance mundial, y una forma de conseguir otra isla de estabilidad de precios -además de la norteamericana-en las que los inversores puedan colocar sus capitales. Citándolo textualmente afirma que «en mi opinión no existe ningún país en el mundo que pueda perder con el advenimiento del euro» (Mundell 2002) ^ No todos los economistas del otro lado del Atlántico se han mostrado tan comprensivos: antes de 1999 hasta cuatro premios Nobel (Buchanan, Becker, Friedman y Miller) se pronunciaron abiertamente en contra de la UEM con adjetivos durísimos y pronosticando el peor de los males para la moneda única. Eso nos lleva a la última parte de esta sección: hasta que punto la voluntad política explica el modelo adoptado. Cuando Tanto los pasos previos a la instauración del propio Banco (creación del Instituto Monetario Europeo como embrión del futuro BCE) como la preparación macroeconómica de los países participantes demuestra bien a las claras que el proceso parte de la política y se plasma en el mundo económico de forma totalmente voluntarista como lo demuestra la existencia de los programas de convergencia macroeconómica basados en la estabilidad y el nivel de los tipos de cambio dentro del SME, la estabilidad y el nivel de los precios, y la contención de los déficit y la deuda pública. En este último caso fue el famoso examen de convergencia de los países aspirantes el que proporcionó el impulso para el cambio de actitud definitivo de los países. De hecho antes de 1997 muy pocos países cumplían con el Pacto de Estabilidad y Crecimiento y en cambio a partir de 1998 casi todos lo ctmaplen. Hay que reconocer que el hecho de haber «entregado» la política monetaria y el haber condicionado la política fiscal al mencionado Pacto demuestra una voluntad de integración que nada tiene que ver con «tendencias naturales» ni con voluntades entusiastas generalizadas de los diferentes agentes económicos, amen de la incomprensión casi hasta el último momento de las fuerzas vivas de EEUU. Fue el producto de multitud de factores prolijamente ya estudiados en los libros de historia, pero mas que nunca fue la fuerza de una generación de políticos notables que basándose en una Comisión Europea magistralmente conducida por Jacques Delors encontró en la política monetaria la piedra angular que cerraba el edificio de la integración -ya conseguida en el terreno del mercado interior-y que preparaba a Europa para enfrentarse a los retos de la globalización que en los años ochenta solo empezó a atisbarse cuando en 1981 la casa IBM lanzó el primer ordenador personal -como bautismo simbólico de la actual era digital-y cuando en 1989 cayó el muro de Berlín. Todavía no había signos evidentes del otro componente esencial: los procesos de liberalización y desre- La unión monetaria: vía abierta a la. gulación y el «achicamiento» del Estado. Sin duda el proceso de integración económica y monetaria de los últimos quince años del siglo XX han posibilitado algo esencial: el hecho de que en el actual proceso de mundialización podamos distinguir un modelo económico y social propio de Europa pese a una participación ciudadana muy complicada en las instituciones básicas de la Comunidad Europea y pese a que la UEM encaje de forma poco ortodoxa en los manuales clásicos de la ciencia económica. Precios, tipos de interés, tipo de cambio y procedimiento de déficit excesivo: una percepción difícil La simplicidad del objetivo principal del BCE como pieza esencial del Sistema Europeo de Bancos Centrales y como actor protagonista de la política monetaria única es inequívoca: mantener los precios estables. Se le ha de añadir la coletilla de «y contribuir al resto de políticas económicas». Pero la misión del BCE difiere abiertamente de la del Sistema de la Reserva Federal norteamericana. Esta tiene como finalidad primordial maximizar el producto, conseguir el pleno empleo y mantener los precios estables. Cuando de forma reiterada los medios de comunicación preguntan al Presidente del BCE porque este no persigue los mismos objetivos que su contraparte de Washington D. C. la respuesta es también reiteradamente la misma: la mejor contribución al empleo y al incremento de la renta por parte del BCE es mantener los precios estables. Así pues si no asumimos este principio es imposible entender la estrategia de política monetaria de la eurozona, como el propio BCE (2001)^ explica en el que podríamos denominar el mejor y más asequible manual de referencia de la política monetaria única. Desde un punto de vista histórico alguien podría decir que se recoge así la herencia del Bundesbank que siempre consideró que para mantener la fortaleza del marco la mejor manera era blindarlo contra la pérdida de valor que representa la inflación. El BCE persigue directamente un objetivo concreto de estabilidad mediante la denominada estrategia de los dos pilares. Mediante el primero analiza las principales variables monetarias y extrae unas conclusiones que a veces no son las mismas que las que se derivan del segundo pilar; este recoge una abanico amplio de indicadores que van desde el mercado de trabajo, al comportamiento de las bolsas o a la evolución del tipo de cambio. El hecho de combinar matices diferentes procedentes de los dos pilares refleja la complejidad de la eurozona y obliga a una reflexión -y a una discusión-que no puede ser substituida por la aplicación mecáni-ca de un modelo econométrico, aunque sin duda este tipo de instrumento se utiliza como elemento esencial de análisis de las variables monetarias. ¿Por que esa obsesión por la estabilidad de los precios? Los economistas lo explicamos con argumentos que nos parecen contundentes: la inflación distorsiona los precios relativos, redistribuye perversamente la renta, liace pagar un precio (tipos de interés elevados) como prevención contra la perdida de valor adquisitivo de la moneda y desanima la inversión productiva que se enfrenta a la incertidumbre de un marco de precios inestables. El problema es determinar cuando los precios se consideran inestables. Solo una definición matemática de la cuestión parecería plenaraente satisfactoria: hay estabilidad cuando el índice de precios registra un crecimiento cero. Sin embargo la experiencia demuestra que fenómenos como la introducción de nuevos productos y el juego de los precios relativos hace imposible plantearse como objetivo un crecimiento nulo. La UE ha fijado un valor de referencia del 2 % para el conjunto de la Unión considerando el valor a medio plazo. Para conseguir este objetivo se utiliza -entre otras cosas-una variable instrumental que es representativa de la oferta monetaria (y a la que se atribuye una capacidad de «anticipar» la inflación) y que se conoce como M3 y a cuyo crecimiento se le ha asignado un valor de referencia del 4,5 % que se cree coherente con el objetivo de inflación señalado. No es nada fácil que los ciudadanos en general entiendan como actúa el BCE cuando, como consecuencia de esta metodología, mueve el tipo de interés a corto plazo (el tipo de interés a largo plazo es plenamente de mercado). Un ciudadano español podría ver perfectamente como disminuye algo el tipo de interés del BCE -y que en definitiva marcará su posición en el mercado crediticio-mientras la inflación española repunta hacia arriba, siempre y cuando la inflación conjunta de la eurozona se mueva en dirección opuesta a la española (caso que ya se ha dado en la realidad). Así pues el consumidor europeo para actuar racionalmente respecto al coste de una hipoteca no debería fijarse en su inflación nacional como elemento básico de sus decisiones a largo plazo. De hecho el aprendizaje de la nueva situación es tan complejo que algunas campañas publicitarias de determinadas entidades financieras intentan promocionar un tipo de interés fijo para los créditos basándose en la exageración de la dificultad de comprensión de la política monetaria del BCE para el ciudadano de a pié. De esta manera es esencial ver, detrás de la moneda única, el papel de la política monetaria única. Llevando el razonamiento al extremo La unión monetaria: vía abierta a la... podríamos decir que el euro es el instrumento definitivo mediante el cual puede existir una política común de estabilidad de precios en el conjunto de la eurozona y consolidar de una vez por todo un verdadero mercado común libre de diferentes velos monetarios y de los tipos de cambio. Precisamente estos últimos constituyen otra piedra de toque esencial para entender la nueva situación. La proyección internacional del euro es innegable por muchas razones. Hay una esencial: si combinamos la producción de riqueza con el comercio internacional nos encontraremos con una situación muy equilibrada entre Estados Unidos y la Eurozona (con ventaja comercial para la UE y con ventaja respecto a la renta para EEUU) y relativamente lejos (excepto para la renta per. capita) de Japón que pasa a un segundo plano. Si atendemos a la relación euro -dólar desde el comienzo de la UEMes verdad que se ha producido una depreciación continua del euro pasando de 1,17 dólares en Enero de 1999 a 0,83 dólares en Octubre del 2000 para finalmente oscilar en los actuales 0,9 dólares con tendencia al alza. Aquí también la simplificación del análisis vulgar impide ver el nuevo juego introducido por la política monetaria única. Si se le pregunta a un ciudadano de la eurozona por la fortaleza del euro es posible que la mayoría de las respuestas pasen por su comparación con el dólar. Un ciudadano de EEU ha estado tradicionalmente muy alejado de los avatares del dólar respecto a otras monedas pese a que casi todos los manuales de economía señalen al greenback como una de las divisas mas inestables del planeta. Con un mercado interior mayor que el norteamericano y con una sola moneda -para la eurozona-no podemos analizar los mercados de cambio como a finales del siglo XX. El comercio intracomunitario representa mas del setenta por ciento del comercio de la UE y el grado de apertura medido por la relación entre importaciones de bienes y servicios y el PIB se mueve en valores similares a los de los EEUU (un 18,7 %) mientras que si lo medimos por las exportaciones la eurozona con un 19,1 % casi dobla a EEUU. Esto significa que, alejados de la anécdota de las cuitas del turista de la UE en el Nuevo Mundo, Europa ha visto crecer sus exportaciones de forma considerable mientras que EUU ha aumentado todavía mas su importantísimo déficit exterior y mientras la actual Administración del Presidente Bush ha levantado barreras proteccionistas para productos del acero e indirectamente ha perjudicado la agricultura de terceros países al haber doblado las ayudas estatales a la agricultura. Para decirlo brutalmente no es que el euro «pierda valor» lo que sucede que el dólar esta sobreapreciado por fenómenos muy ligados al pa-pel hegemónico de Estados Unidos en el terreno político y militar y por las inmensas expectativas de crecimiento que se materializaron en una burbuja tecnológica que Greenspan, un 4 de Diciembre de 1996, calificó en frase harto conocida como «exhuberancia irracional» y que ahora ha sufrido una fuerte corrección. La actual relación dólar/euro no es el precio de equilibrio de lo que sucede en los mercados financieros internacionales en donde las emisiones de bonos en euros han superado -en los últimos años-a las norteamericanas. No sucede lo mismo con la emisión de acciones por lo señalado anteriormente. Mientras, el perfecto despliegue -procesos de convergencia incluidos-del BCE y de la moneda única no fue valorado suficientemente por los inversores internacionales. Estos argumentos parecen mas sólidos que aquellos que se basan en repetir machaconamente que Europa paga la ausencia de reformas estructurales y la falta de liderazgo político. Cuando,"a sensu contrario", se produzca una depreciación del dólar -hecho que se puede materializar en cualquier momento-¿significara ello que por fin hemos realizado las tan mencionadas reformas y logrado el tan deseado liderazgo mundial? Podemos, así, calibrar la endeblez de unos argumentos que reflejando una situación real no guardan una relación estricta de causalidad con lo que sucede en los mercados de cambios y en los mercados financieros. El ya mas que evidente papel internacional del euro potenciado por la ampliación y por el posible ingreso de los tres países de la UE aun fuera de la eurozona, no ha hecho mas que empezar y puede representar un paso de gigante hacia un mundo multipolar mas estable y alejado de las consecuencias negativas de tener una sola moneda de referencia -el dólar-cuya política monetaria responde exclusivamente a las necesidades de la sociedad norteamericana. Este último aspecto se podría predicar igualmente para el euro. Pero la existencia de dos monedas de referencia representa una posibilidad de alternativa extremamente interesante en este mundo cada vez más globalizado. La existencia del euro como divisa de reserva, como divisa vehicular, y como «ancla» o moneda de referencia para mas de cincuenta países aun antes de su encarnación material en 2002 demuestran bien a las claras el vuelco inmenso que han sufrido los mercados financieros y cambiarios internacionales (BCE 2001) s. Nos queda un tema en extremo polémico y que por otra parte centrará buena parte de las energías políticas y técnicas en los próximos años: las finanzas públicas en la UEM. A nivel internacional también es un asunto que ha centrado buena parte de los cambios inducidos por la globali-zación y por el «achicamiento» del Estado al que nos referíamos líneas mas arriba. No se entendería el afán del Presidente Clinton en alcanzar el déficit cero sin tener en cuenta las nuevas formas de ver las relaciones económicas entre generaciones, los procesos de desregulación y el «mot d' ordre» universal de la rebaja de impuestos en las economías desarrolladas, todo ello favorecido por una coyuntura que ya llegó a su fin. Nos hemos de preguntar si detrás del Pacto de Estabilidad y Crecimiento o el Reglamento 1466/97 sobre procedimiento concreto de tratar los déficit excesivos se encuentran las mismas razones de «contener» el déficit publico que las señaladas para EEUU. En el caso de la Unión Europea y mas concretamente de la eurozona pensamos que son una necesidad absoluta para poder garantizar la efectividad de la política monetaria única que -por razones obvias -no podría digerir unas finanzas publicas nacionales que trastocaran con sus déficit el control de los precios y arruinaran la efectividad de los instrumentos de la política monetaria del BCE. De hecho la relación entre la política monetaria única y una fiscalidad en manos de los diferentes estados ha sido visto como el talón de Aquiles de la UE. De manera harto esencial podríamos decir que quienes opinan de forma muy pesimista sobre nuestro futuro vienen a decir que en presencia de una UEM y en ausencia de una fiscalidad única y con unas transferencias fiscales actuales ridiculas (en comparación, por ejemplo, con lo que ocurre a nivel federal en los EEUU) debido al escaso nivel de comunitarización de las diferentes políticas económicas y sociales, se producirían asimetrías intolerables entre estados ya que la sola política fiscal sometida al pacto de estabilidad no podría estabilizar a ninguna economía sometida a una fuerte crisis. A partir de aquí se puede colegir la preocupante actitud de muchos gobiernos europeos que, sin pensar a fondo las ultimas consecuencias de la política monetaria única, continúan diseñando políticas fiscales que responden mejor a la cojmntura política que a las necesidades de una mayor coherencia a escala de la UE entre las dos principales políticas económicas -la monetaria y la fiscal-y que ya no se pueden combinar (policy mix) en la UEM como se hizo durante decenios en el siglo XX en el marco de los respectivos estados. Tampoco esta situación se debe confundir con aquellos que empiezan la casa por el tejado, es decir, aquellos que se quejan constantemente del volumen ridículo del presupuesto comunitario (1,27 % del PIB de la UE como máximo) ya que este es una consecuencia de la distribución de funciones entre estados y UE «simili modo» que en España se discute el vo-lumen respectivo de los presupuestos centrales, autonómicos y locales. Hablemos primero sobre que políticas deben comunitarizarse y después sabremos que recursos deben tener cada uno de los niveles señalados. En todo caso la insistente apelación a la reducción de impuestos como razón suprema de atracción electoral en Europa (cosa que ocurre igual en EEUU) prepara muy mal el camino para un nuevo salto en la integración, ahora en presencia de nuevos socios "al otro lado de la puerta". El eurogrupo, la Comisión Europea y la coordinación de la política económica Una de las contradicciones de la moneda única es que siendo la política monetaria uno de los logros mas espectaculares en cambio no puede «comunitarizarse» por la sencilla razón que hay tres países que no participan (UK y Dinamarca porque el Tratado de Maastricht los exceptuó y Suecia porque aun no ha querido incorporarse). Plásticamente ese fenómeno se plasma en el Eurogrupo es decir los 12 ministros de la eurozona del Consejo de Economía y Finanzas (ECOFIN) reunidos de manera informal, ya que el «eurogrupo» como tal no existe desde el punto de vista de los Tratados. Es interesante saber que el Presidente del BCE acude regularmente a dichas reuniones y en cambio, obviamente, no sucede lo contrario para, de este modo, no atentar contra la independencia de la autoridad monetaria. Eso no lleva directamente al tema de la coordinación de la política económica (y a saber el grado real de independencia de la política monetaria) y al papel de cada una de las instituciones europeas especialmente el Consejo, la Comisión y el BCE, mientras el Parlamento, en materia monetaria, se encuentra en otro plano ejerciendo exclusivamente tareas de control mediante, por ejemplo, las comparencias periódicas del Presidente del BCE. La Comisión Europea es la encargada de trazar las grandes orientaciones de la política económica previendo la evolución económica a nivel general y de cada uno de los países y señalando ciertas prioridades y recomendaciones que son finalmente sancionadas por el ECOFIN. Por otra parte la Comisión y el BCE elaboran sendos Informes de Convergencia para aquellos países (de momento tres pero debemos pensar en la ampliación) que aun no están en la zona euro, siempre y cuando lo deseen. UK y Dinamarca no han pedido todavía que se les examine ya que de momento no optan por el euro. Suecia ha sido examinada recientemente. La unión monetaria: vía abierta a la. La Comisión prepara, además, un infome anual sobre la finanzas públicas que sirve de análisis ñmdamental para las políticas fiscales de los estados miembros que por otra parte también se analizan en el ECOFIN y en el ya citado Eurogrupo. La buena coordinación entre política monetaria y fiscal es esencial para el correcto ñmcionamiento de la UEM. Pero esta coordinación puede verse de muchas maneras. ¿Hasta que punto las políticas fiscales de los estados miembros se «adaptan» a la política del BCE que a su vez ha de perseguir la estabilidad de los precios? ¿Hasta que punto la teórica independencia del BCE en la persecución de sus objetivos no se ve influida mas allá del control puro de la inflación por los factores (crecimiento y empleo) que mas inquietan teóricamente a los ministros de Economía y Finanzas? En unas recientes declaraciones el Presidente del BCE Win Duisenberg «veía con preocupación» a los que piden mas «policy mix» afirmando que «ello solo conduciría a minar la independencia garantizada al BCE en la persecución de sus objetivos « (Duisenberg 2002) ^. La Comisión Europea en su aportación a la Convención sobre el nitro de la UE pide «que se reñierce la coordinación de las políticas económicas y que se garantice una representación exterior unitaria de la zona del euro» (Comisión UE 2002) ^^. Precisamente el proceso de convención abierto sobre el ñituro de la UE puede contrabalancear la tendencia natural a no aceptar los cambios. Nos hemos despertado al siglo XXI con una nueva moneda para millones de ciudadanos europeos pero tras el signo monetario subyace el paso realmente importante: el haber aceptado la política monetaria única como un paso decisivo hacia una mayor integración económica. Sin nuevos avances en la integración política y en la renovación de las instituciones parecería poco probable mantener un modelo económico y social propio de Europa y menos aun en puertas de una ampliación inminente.
En el Consejo Europeo de Lisboa de marzo de 2000, se admitía una realidad y se formulaba un objetivo. La Unión Europea, en su contraste con EEUU, había quedado manifiestamente rezagada en la generación de ritmos de crecimiento de sus economías, con el resultado de un valor relativo de la producción de bienes y servicios por habitante (el PIB per capita) en declive desde los primeros años de la década de los noventa. Por primera vez en el último cuarto de siglo ese indicador, expresivo de los niveles de convergencia real, caía por debajo del 65% al que registraba EEUU ^. Ese contraste tan explícito tenía lugar a pesar de que la UE ofrecía «el mejor panorama económico en una generación», según el documento de conclusiones de aquella cumbre; ciertamente, los desequilibrios macroeconómicos de la región se mantenían en niveles históricamente reducidos, al tiempo que se constataban los efectos que ya había tenido la introducción del euro en el perfeccionamiento del mercado único, pero la divergencia real con la principal economía del mundo se había ampliado hasta niveles preocupantes en los últimos años. En esa diferenciación entre EEUU y la UE que en 2000 ofrecía el indicador más expresivo del bienestar económico subyacía como principal explicación el diferente grado de asimilación por los agentes económicos de ambos bloques de las transformaciones tecnológicas que habían tenido lugar durante el último lustro de los noventa y que habían deparado en EEUU tasas de crecimiento económico y de la productividad verdaderamente excepcionales: la utilización eficiente de aplicaciones de las tecnologías de la información y de las comunicaciones a los más diversos ámbitos de la actividad económica, configuradoras de lo que se dio en denominar «nueva economía» ^. Por eso, al mismo tiempo que se manifestaba con cierta complacencia la consecución en la UE de un entorno económico definido por la estabi- 270 lidad, en las conclusiones de ese consejo se reconocía la necesidad de «una transformación radical de la economía europea». La definición del objetivo: «convertirse en la economía basada en el conocimiento más competitiva y dinámica del mundo, capaz de mantener un crecimiento sostenido con mas y mejores empleos y una mayor cohesión», en el horizonte del 2010. El fortalecimiento del potencial de crecimiento económico de la UE se convertía en la prioridad a medio plazo más importante, estableciéndose a partir de la misma una estrategia, en gran media basada en el fomento de la capacidad empresarial: de la innovación. Propósitos no por tardíos menos necesarios, a juzgar por el manifiesto desfase que el conjunto de la UE presentaba en la asimilación de esas transformaciones económicas, determinantes de una nueva fase en esa suerte de metamorfosis del sistema económico, de su adaptación estructural a un entorno internacional más competitivo y complejo. Dos años después, en el Consejo de Barcelona, además de confirmarse esa estrategia, se concretaron cuantitativamente algunas metas consideradas expresivas de los mismos, como la muy sensible inversión en investigación, desarrollo e innovación. En las páginas que siguen se trata de identificar las causas de ese retraso europeo y deducir posibles cursos de acción para satisfacer esos dos objetivos que, anticipo, son susceptibles de complementariedad: el crecimiento estable y lo que en Europa entendemos por cohesión social. Ambos sintetizan ese amplio concepto de competitividad adoptado por la Comisión Europea (1996 y 1998): la capacidad de una economía para suministrar a su población elevadas y crecientes mejoras en su bienestar económico y elevadas tasas de empleo sobre una base sostenible. La revisión de ese patrón de crecimiento europeo va a tener en el contraste con la economía de EEUU (en la ampliación de la divergencia real) su principal referencia, y en las investigaciones recientes de los propios servicios de la Comisión Europea, sus principales apoyos documentales.!• La ampliación de la divergencia real Si la más primaria de las referencias para la evaluación de cualquier economía es su tasa de crecimiento, la conclusión es que Europa no lo está haciendo tan bien como la economía de EEUU. En particular en los últimos años, los coincidentes con el lanzamiento de su más ambicioso proyecto: la unificación monetaria. Más allá de esa coincidencia temporal, es difícil atribuir a la dinámica abierta por la decisión de integración La divergencia de Europa 271 monetaria, o por la exigencias de convergencia nominal asociadas a la misma, la responsabilidad de ese retraso económico europeo con relación a EEUU. Pero no es menos cierto que el necesario fortalecimiento de esa dinámica de integración ha podido restar atención a la exigencia no menos importante de adaptación estructural de la mayoría de las economías comunitarias y, con ella, a la consecución de ritmos de crecimiento de la renta por habitante más favorables. Aunque el contraste con EEUU se acentúa en la segunda mitad de los noventa, lo cierto es que el descenso de los ritmos de crecimiento de Europa se remonta a muchos años antes. Desde hace treinta años la tasa de crecimiento del valor de la producción de bienes y servicios en lo que hoy es la UE no ha dejado de descender. Una suerte de agotamiento incapaz de generar empleo a un ritmo suficiente, manteniendo una tasa de desempleo en niveles relativamente elevados, al tiempo que, como veremos más adelante, mostrando una muy limitada eficiencia en el uso de los factores. A pesar de que el crecimiento de la población ha sido inferior en la UE que en EEUU, las diferencias en renta por habitante, no han dejado de ensancharse a favor de la economía americana. En la segunda mitad de los noventa Europa recupera la senda de crecimiento económico, con una tasa media del 2.6%, significativamente superior a la de los ochenta. El empleo en ese periodo crece a una tasa del 1.3%, por encima de la población; el crecimiento de la población en edad de trabajar fue bajo, al tiempo que la participación en la población activa creció de forma significativa. Junto a las más favorables condiciones cíclicas, en ese aumento de la tasa de participación han debido influir las distintas reformas en los mercados de trabajo que se han llevado a cabo en algunos países, en la dirección de una mayor flexibilidad, y la moderación en el crecimiento de las rentas salariales. Ambas han podio frenar ese proceso de sustitución de capital por trabajo, ayudando a explicar la moderada expansión del stock neto de capital, inferior en todo caso al del crecimiento PIB, a partir de mediados los noventa. Una tendencia que, más allá de sus efectos saludables en el corto plazo, aporta razones para la inquietud en horizontes más dilatados, en la medida en que la convergencia real requiere de aumentos en la productividad y estos de inversión en capital, físico, humano y en conocimiento. Por otro lado, es importante observar que esa aparentemente fatal incompatibilidad entre crecimiento del empleo y de la productividad está lejos de verificarse en algunos países de la propia UE, durante el mismo periodo: Holanda, Irlanda, Finlandia y Luxemburgo son casos suficientemente representativos. En el año 2000 el PIB por habitante de la UE con relación al alcanzado por EEUU, estaba situado en su menor nivel del último cuarto de siglo. La estimación de los servicios de la Comisión Europea, reñejados en el «European Competitiveness Report 2001", lo situaban en el 65% en el año 2001, significativamente por debajo del alcanzado a principios de la década, tal como se refleja en el gráfico la. Es cierto que el deterioro de Japón ha sido más acusado que el de la UE: ha pasado del 85% a principios de los noventa al 71% en 2000 y 2001, según el mismo informe. Tras ese indicador del conjunto de la UE se amparan diferencias significativas en el seno de los quince, como las que se presentan en el gráfico Ib, que eliminan cualquier tentación de atribuir esa divergencia real a algún factor específicamente comunitario. Debe tenerse en cuenta en todo caso, que esos cinco últimos años del pasado siglo son significativamente mejores, en lo que a crecimiento se refiere, que los cinco precedentes, con la única y significativa excepción de Alemania; en realidad, el lustro final del siglo veinte es un periodo dé intensa creación de empleo en algunas economías, la española sin ir más lejos, aunque ese mayor grado de utilización de algunos factores productivos no se tradujo en un estrechamiento de la divergencia real con la economía que nos ha de servir de principal referencia. Se trata, en todo caso, de ritmos de crecimiento económico inferiores a los registrados en la segunda mitad de los La divergencia de Europa ochenta para la mayoría de las economías europeas; un periodo en el que la UE en su conjunto creció a la misma tasa media que EEUU. La explicación de esa adversa evolución en la convergencia real de la UE con EEUU (a pesar del descenso de la población europea) hay que localizarla mayoritariamente (dos tercios aproximadamente) en el menor ritmo de utilización del trabajo, y el resto en un uso menos enciente del mismo; esto último es lo que mide el crecimiento de la productividad: el valor de la producción por unidad de factor utilizada. Como señala el informe de la Comisión (2001), esa tasa refleja implícitamente el impacto sobre el crecimiento de la producción de variables distintas al crecimien- to del empleo, tales como la inversión en capital, el progreso tecnológico o los incrementos en el capital humano. La importancia del crecimiento de la productividad en la determinación del aumento de la renta por habitante es difícil de minimizar: cuanto mayor es el numero de horas trabajadas y mayor el nivel de la productividad, mayor será la renta por habitante. Europa ha registrado significativas mejoras en el crecimiento del empleo, pero no lo ha hecho en la misma medida en la tasa de crecimiento de la productividad. En EEUU, sin embargo, la aceleración de la productividad a partir de 1995 ha estado acompañada de aumentos en las horas trabajadas. Como se aprecia en el gráfico 2, la tasa de empleo (la proporción de personas en edad de trabajar que están empleadas) que se encontraba aproximadamente en el mismo nivel a finales de los setenta en ambos bloques, ha evolucionado de forma más favorable en EEUU que en Europa, hasta situarse en el 75% al término de 2001, frente al 66% en la UE; en ese mismo año España, con un 59%, exhibía la menor tasa de ocupación de la UE, junto a Grecia (56%). A esa menos favorable evolución del empleo en la UE (justificando el objetivo del Consejo de Lisboa de ampliarla en 9 puntos porcentuales para cerrar esa brecha con EEUU en el año 2010) se añadía un valor generado por el mismo (la productividad) también significativamente inferior, ampliando la correspondiente diferencia durante la segunda mitad de los noventa; al término de 2001, la productividad del trabajo en la UE era equivalente al 73% de la estadounidense; la de España se situaba en el 65% ^. El largo proceso de aproximación de la productividad del trabajo en la UE a la registrada por la economía estadounidense, explícita desde finales de la Segunda Guerra Mundial ^, se invierte a partir de mediada la década de los noventa (gráfico 3), desde niveles próximos al 80% en 1994 hasta caer al 73% en 2001. En realidad, es en ese periodo cuando se pone fin a ese largo cuarto de siglo en el que de forma continuada la productividad del trabajo en Europa creció a un ritmo superior a la de EEUU. A partir de 1995, la productividad de la UE reduce significativamente su ritmo de crecimiento al tiempo que la estadounidense lo intensifica de forma no menos destacable. Entre 1995 y 2001, únicamente Irlanda, Luxemburgo, Portugal, Finlandia y Grecia superan en crecimiento de la productividad a la economía de EEUU; España e Italia son las economías con más reducidas tasas de crecimiento, del 0.9% frente al 1.1% de promedio europeo. Los resultados de la más reciente investigación del Conference Board (2002) apuntan en la misma dirección, aunque aportan valores algo distintos. Lo destacable es que, en un año de marcada desaceleración en la La divergencia de Europa 275 GRÁFICO 2. Tasa de empleo m lap^n Fuente: Servicios de la Comisión economía estadounidense como fiíe 2001, la productividad del trabajo creció un 1.8%, mientras que en la UE lo hizo un 0.6%, la mitad que el promedio de los cinco años anteriores. Ese pronunciado descenso puede explicarse parcialmente por el aumento en el empleo, a diferencia de lo ocurrido en ese año en EEUU, ya que a pesar del menor numero de horas trabajadas por persona durante ese año, en la UE aumentó el total GRÁFICO 3. Productividad del trabajo m a Fuente: Servicios de la Comisión Emilio Ontiveros CUADRO 1. de las horas trabajadas en un 1.1%, debido al aumento en las tasas de participación ^. Aunque, según ese mismo estudio, la productividad media del trabajo en la UE se situaba en el 87% de la de EEUU en 2001, la renta per capita era del 67%, más próxima al aportado por el trabajo antes citado de los servicios de la Comisión Europea ^. El menor número de horas trabajadas por persona en la UE (resultado probablemente de la mayor incidencia del trabajo a tiempo parcial, de vacaciones más extensas y otras políticas reductoras del tiempo de trabajo) explicarían, según ese trabajo, más de la mitad de esa diferencia; el resto sería debido a la menor relación entre el empleo y la población total (a la tasa de participación) que se registra en la UE, tal como aparece en el cuadro 1 y en el gráfico 4. Inversión y progreso tecnológico La búsqueda de explicaciones a ese peor comportamiento de la productividad del trabajo en Europa frente a EEUU en los últimos años nos conduce a la evolución experimentada por los dos grandes factores determinantes de la misma: la profundidad del capital y el progreso tecnológico. La primera, expresa el crecimiento en el stock de capital por persona empleada, la segunda es medida por la productividad total de los factores (PTF); una y otra han tenido un comportamiento más adverso en la UE en el periodo al que nos estamos refiriendo. La aproximación de la UE a EEUU, durante la primera mitad de los noventa, en ese indicador de la profundidad del capital ha estado en mayor medida determinada por el descenso del empleo que por aumentos significativos en la inversión. A partir de la segunda mitad de la década, esa relación registra evoluciones contrarias en EEUU y la UE, tal como se aprecia en el gráfico 5; el crecimiento de ese ratio en EEUU durante ese periodo es destacable no sólo por su ritmo, sino por su mayoritaria concreción en bienes asociados con las tecnologías de la información y de las comunicaciones (TIC). pública e inversión privada, y su contraste con la evolución de esas categorías en EEUU durante la pasada década (Gráfico 6), refiíerza claramente esa evidencia de deterioro en el fortalecimiento de la base de capital en las principales economías europeas durante la década de los noventa. No sólo ñie la inversión en construcción, residencial y no residencial, la que experimentó un crecimiento más moderado que en EEUU durante esos últimos noventa, sino de forma más destacada la inversión en bienes de equipo. Entre 1993 y 2000 este tipo de inversión creció en EEUU a su tasa más elevada de los últimos treinta años, con una intensidad particular en las TIC, que registraron tasas de crecimiento del 25% durante los cinco últimos años de ese periodo ^. Es destacable, ya sea por la ampliamente extendida presunción del escaso protagonismo inversor de los gobiernos estadounidenses, el contraste entre lo ocurrido con la inversión pública en esa década. Así como en el conjunto de la UE esta inicia su declive a partir de 1991 desde tasas superiores al 3% del PIB hasta situarse en 2000 en torno al 2.5% del PIB, en EEUU la tendencia es ligeramente alcista desde algo por encima del 2.5% del PIB a principios de la década hasta concluirla con un nivel próximo al 3% ^. De forma simplificada, el crecimiento en la PTF viene dado por la diferencia entre el crecimiento de la producción y el crecimiento de los inputs (la media ponderada del trabajo y del capital); una medida, esta última, con mas poder explicativo, pero de más complicada medición en la práctica^. En la estimación de los servicios de la Comisión (gráfico 7), el crecimiento de la PTF del conjunto de lo que hoy es la UE supera al registrado por EEUU desde 1975 para comportarse peor (1%, frente al 1.5% de tasa media) en los últimos cinco años de los noventa. En el gráfico 8 se presenta la descomposición del crecimiento económico en el crecimiento del empleo, la profundidad del capital y el de la PTF, con estos dos últimos añadidos al crecimiento de la productividad del trabajo. A diferencia de lo ocurrido en EEUU, ni el crecimiento de la PTF, ni la profundidad del capital han experimentado elevaciones en la segunda mitad de los noventa ^^. Si se compara esa evolución tanto en EEUU como en la UE, con la experimentada por la profundidad del capital se aprecia que el crecimiento de la PTF ha sido más importante en la explicación del crecimiento de la productividad del trabajo, en ambos bloques económicos durante la segunda mitad de los noventa. Ya es suficiente la evidencia empírica que explica gran parte de esas diferencias en el crecimiento de la productividad entre EEUU y la UE, al igual que con relación a Japón, en las correspondientes a las condiciones para la difusión de las tecnologías de la información y de las comunica-La divergencia de Europa 281 clones ^^; las condiciones cíclicas han sido importantes en esas variaciones en la productividad conducentes al aumento de la renta por habitante, pero la naturaleza de esas transformaciones (en la intensidad del capital, en las mejoras en las practicas empresariales) se presentan suficientemente arraigadas como para anticipar la continuidad de su inñuencia a largo plazo ^^. Crecimiento de la productividad total de los factores en la Unión Europea, EE.UU. y Japón De la revisión que la OCDE (2001) realiza de los factores que han contribuido a esos patrones de crecimiento en los noventa, destaca en primer lugar la utilización de nuevo capital y, en particular de TIC. Y es en este punto donde el contraste entre lo ocurrido en EEU y en la UE durante los últimos cinco años de la pasada década en términos de productividad, y en renta por habitante, encuentra gran parte de su fundamento. En el gráfico 6 se pone de manifiesto el importante crecimiento de la inversión en esas tecnologías en EEUU a partir de mediados los noventa, hasta superar de forma continuada el 2.5% del PIB, y su acentuado contraste con lo ocurrido en el área euro; en términos nominales la inversión en TIC en EEUU supuso el 42% de la inversión privada en capital fijo, excluida la inversión no residencial, en el año 2000. Más allá de su efecto en la variación anual del crecimiento económico, el impacto de esa intensificación de la inversión en TIC, se ha puesto de manifiesto en la generación de efectos de red y en mejoras or- ganizacionales en las empresas. Cambios potenciadores de la productividad total de los factores, a través de sus diversas y ya suficientemente experimentadas aplicaciones, desde los sistemas electrónicos de contratación genéricamente agrupados en el denominado «e-commerce», hasta la extensión de la automatización de procesos empresariales («ebusiness»), que en Europa se presentan todavía a bastante distancia de los asimilados por la economía estadounidense. En la UE la contribución de las TIC al crecimiento económico ha sido reducida porque la producción del sector lo ha sido y porque los usuarios han invertido significativamente menos que sus homólogos en EEUU, como se aprecia en el gráfico 9. Reformas, inversión pública y cohesión Las empresas europeas, y sus gobiernos, han invertido menos que sus homólogos estadounidenses y, como hemos visto, ahí radica una de las más importantes causas de esa ampliación de la divergencia real entre ambas economías. Esa debilidad inversora ha sido suficientemente explícita en el área euro, donde se aprecia, sin embargo, un aumento de las preferencias por la inversión directa en el exterior (IDE) hasta alcanzar La divergencia de Europa los flujos netos más del 1% del PIB entre 1996 y 1999, tal como se refleja en el gráfico 10. Una primera explicación al observar ese crecimiento de los flujos de inversión directa (tanto en términos brutos como netos) de empresas del área euro es la percepción de tasas de rentabilidad bajas en el área euro en comparación con otras regiones donde se destinan las inversiones. Cuando se observa que el destino más importante de las mismas ha sido EEUU (36% de los flujos netos entre 1996 y 1999), la intención de adquirir esas ventajas a las que hemos hecho referencia en los apartados anteriores se presenta como bastante razonable, aunque una parte importante de esos flujos estén asociados a operaciones de fusiones y adquisiciones de algunas empresas multinacionales y, además, estén localizadas en sectores muy concretos ^^. Con independencia de las motivaciones específicas de esa intensificación de los flujos de capital hacia el exterior provenientes del área euro, es razonable asumir que las condiciones que conceden viabilidad a las decisiones de inversión en el seno de la eurozona no se han percibido como las mejores. Es en este sentido en el que puede ser relevante cuestionarse por las diferencias en esas condiciones de inversión entre Europa y EEUU, para deducir de ahí las posibles reformas o, cuando menos, su deseable dirección. La rentabilidad, en primer lugar, es lo que determina en última instancia las decisiones de inversión privada y, más importante que los registros históricos, las expectativas sobre la misma. La diferencia favorable a EEUU ha sido particularmente manifiesta en el sector de las tecnologías de la información, donde además se ha observado un mayor descenso en el precio de esos bienes de inversión, de gran significación en el estimulo inversor. El análisis de esas diferencias en las expectativas de beneficios a largo plazo ha sido objeto de un análisis específico del FMI (2001) concluyendo en una ampliación de las expectativas de rentabilidad entre EEUU y el área euro en todos los sectores, durante el periodo 1995-2000. Si el de los bienes de inversión y la rentabilidad esperada pudiera llegar a explicar, ya sea parcialmente, ese mejor comportamiento de la inversión en EEUU, las condiciones de financiación -el coste de capital y la adecuación de los mercados financieros a los proyectos de inversiónpueden contribuir a entender esas diferencias. Durante la segunda mitad de los noventa, y muy especialmente en los últimos años, en EEUU han regido unas condiciones de financiación significativamente más favorables que las vigentes en Europa, y de forma particular en el área euro. No sólo ha sido el coste de esa financiación más propicio a la expansión de la inversión empresarial, sino que también la propia estructura institucional de su sistema financiero ha definido una más activa complicidad con los procesos de innovación: con la asunción de nuevos riesgos, de forma particular en ese sector de TIC, responsable del dinamismo inversor en EEUU durante los últimos años ^^. Esto último nos introduce en el contraste institucional, en el análisis de las rigideces estructurales existentes en Europa y en sus posibles líneas de reforma. El desarrollo de los mercados de capitales, su tamaño y grado de liquidez, y la versatilidad operativa de los mismos, la capacidad apara adaptarse a las especificidades de los procesos de innovación, son condiciones necesarias para el aumento del potencial de crecimiento. La integración de los mercados financieros en Europa, todavía muy escasa cuando se contrasta con la existente en EEUU, la adopción de las propuestas del grupo de expertos presidido por A. Lamfalussy sobre regulación e integración de los mercados de valores de la UE y la potenciación en los mismos de modalidades de financiación de capital riesgo son direcciones que han mostrado suficientemente su contribución al crecimiento en EEUU i^. La intensificación de las reformas en otros mercados de factores, como el de trabajo, o en el de la energía, objeto de atención preferente en el pasado Consejo de Barcelona, contribuirían igualmente al fortalecimiento de esa confianza empresarial, base para que lo hagan las expectativas de rentabilidad de la inversión y con ellas la contribución al crecimiento potencial de ese componente. Si la necesidad de las reformas sobre los mercados de factores y de productos, enunciadas o en curso de aplicación, son prácticamente incuestionables, no lo es tanto el papel que ha de jugar la inversión pública en ese despegue del ritmo de crecimiento económico y la consiguiente consecución de mejoras en los niveles de renta por habitante en la UE. La evidencia acerca de la profundidad del capital y el aumento de la productividad del trabajo y de los salarios reales en EEUU es suficiente como para que, desde niveles relativamente reducidos, los gobiernos de Emilio Ontiveros la UE revisen seriamente la conveniencia de esa inhibición de la inversión pública en capital físico (irrfraestructuras) en capital humano (educación, formación profesional) y en conocimiento (investigación, desarrollo e innovación) durante los últimos años. Está igualmente admitido que, para la consecución en la UE de tasas de crecimiento económico en torno a ese 3% enunciadas por los gobiernos europeos, es indispensable un incremento significativo en la tasa de formación de capital físico, entre el 4% y el 6%, según los propios servicios de la Comisión ^"^j lo que significa una importante aceleración sobre los ritmos del pasado reciente. El papel de los gobiernos en esa deseable aceleración no debería limitarse a introducir las necesarias reformas en los mercados, sino igualmente a propiciar el relanzamiento de la dinámica inversora. Ello es particularmente aconsejable en aquellos países en los que el stock de capital mantiene niveles significativamente inferiores al promedio, no ya de EEUU, sino de la propia UE. Lo que es una constante en la práctica totalidad de los países de la UE es la escasa asignación al fortalecimiento del conocimiento -investigación, desarrollo e innovación-, de origen privado o publico, cuando se contrasta con EEUU. Como han destacado F. Guerrera y C. Cookson (2002), entre 1995 y 1999, último periodo con cifras disponibles, la diferencia de lo que asignaron EEUU y la UE a la inversión en I+D se triplicó; al final de esos años el conjunto del gasto publico y privado en Europa era de 76.000 millones de euros menos al año que el estadounidense, que asignaba un 2.5% de su PIB a esas inversiones. Un diagnostico compartido por el Comisario de Investigación, Philippe Busquin, al reconocer que Europa no puede pretender el liderazgo de la economía del conocimiento mientras siga produciendo conocimientos muy por debajo de sus competidores, y en un mercado todavía muy fragmentado y con escasa coordinación de los inversores en esos destinos; el propio Busquin ha estimado que un 20% del gasto europeo se desperdicia porque los proyectos se duplican en el seno de la UE. Afortunadamente, los máximos mandatarios europeos, en el Consejo de Barcelona aceptaron el incremento de esas asignaciones públicas y privadas a I+D en casi un 60%, desde el actual 1.9% del PIB al 3% en los próximos ocho años. Para más adelante queda la concreción de «un espacio europeo integrado de investigación e innovación», lo que a su vez exige una estrecha conexión con los sistemas de financiación, de creación de empresas, de regulación de patentes y propiedad intelectual; las dificultades para concretar un sistema comunitario de patentes son uno de los exponentes de esa lentitud con que se abordan aspectos ahora básicos del perfeccionamiento del mercado único para el arraigo de esa economía del conocimiento. En consecución de esas necesidades, el papel de los gobiernos no puede limitarse a definir enunciados. Oponer a las necesidades de inversión pública el objetivo de equilibrio presupuestario, con independencia de las carencias estructurales e incluso de la propia posición cíclica de las economías es, cuando menos, discutible. Preservar la disciplina presupuestaria como fundamento de un entorno económico marcado por la estabilidad y la existencia de adecuadas condiciones de financiación, es absolutamente compatible con la asignación a la inversión pública de un papel dinamizador en la dotación de capital tecnológico y de conocimiento. La particularización nacional de las restricciones en términos de estabilidad presupuestaria derivadas del Tratado de Maastricht no debería menoscabar el todavía necesario papel activo de la inversión pública, especialmente en aquellos países más distanciados de la convergencia real con el promedio de la UE. La tentación de garantizar los, en algunos casos muy estrictos, propósitos de estabilidad presupuestaria a costa del crecimiento de la inversión pública, dispone de evidencias suficientes. Como señala González-Páramo (2001), lo gastos públicos de inversión son candidatos naturales a los recortes por razones de visibilidad política y por tratarse de la categoría de gastos menos rígida. En los treinta últimos años, en cuatro de cado cinco casos analizados, los procesos de consolidación presupuestaria que han tenido lugar en la OCDE han venido acompañados de reducciones en la inversión pública. Economías como la española ilustran perfectamente esa tentación de la que advierte González-Páramo, de hacer de la inversión pública la válvula de escape de las tensiones presupuestarias. En la concreción de los planes de acción conducentes a ese propósito de anulación de la divergencia real con EEUU en el año 2010, Europa ha de anteponer la capitalización de su propia experiencia y la asimilación de los factores de éxito que han presidido esa larga fase de expansión en la creación de riqueza al otro lado del Atlántico, a la realización de radicales ejercicios de completa neutralización de la acción pública. La capacidad para afirontar los importantes cambios estructurales que exige el arraigo de la sociedad del conocimiento puede encontrar en la inversión pública eficiente y en los sistemas de extensión de la solidaridad, mecanismos de estabilización de esa dinámica de transformación a la que están llamadas la mayoría de las economías comunitarias. ^ El indicador más admitido para la evaluación del bienestar económico y, en consecuencia, de la convergencia real de las economías, es el PIB per capita, o lo que resulta Ontiveros equivalente, la renta per capita, homogeneizados con la paridad del poder de compra. De sus limitaciones para reñejar otros aspectos igualmente expresivos del bienestar (como la distribución de esa renta) han dejado constancia numerosas discusiones, a las que, en última instancia, se han sobrepuesto las limitaciones informativas y la necesaria homogeneidad estadística. Una discusión acerca de las variables relevantes en la medición del bienestar económico se encuentra en MARTÍN (1999) y en MARTÍN y VELAZQUEZ (2001). 2 En ONTIVEROS (2001) se da cuenta de la significación de esas transformaciones en la economía estadoimidense. ^ Comisión Europea (2001). ^ La intensidad de la inversión en el periodo de posguerra ha sido identificada como la principal causa de ese elevado crecimiento económico y de la productividad. En BOLT-HO (1982), CRAFTS y TONILO (1996) e EICHENGREEN (1996) se aborda el análisis del patrón de crecimiento de Europa en el periodo de posguerra. Todas las estimaciones basadas en dólares están expresadas en niveles de precios de 1996. ® En VAN ARK y MCGUCKIN (1999) se comparan las distintas estimaciones de las agencias estadísticas nacionales de los niveles y tasas de variación de la productividad del trabajo. "^ El capitulo 3 del número 73 de la revista European Economy (2001) se anaUza en detalle la evolución de la inversión en el área euro diu-ante los noventa. ® La interpretación de esta debilidad de la inversión pública en Europa, especialmente intensa a partir de finales de los noventa, hay que interpretarla, como sugiere European Economy (2001) con cautelas, dadas las modificaciones contables consecuentes con la tendencia más o menos genérica a la provisión de servicios públicos por el sector privado, en un contexto de obUgada reducción de los desequilibrios financieros del sector publico en las economías del área euro. ^ Por definición, el crecimiento de la PTF es idéntico al denominado residuo de Solow: esa parte del crecimiento económico que no es atribuible a la acumulación de factores, pero que refleja la importancia de fenómenos tales como el conocimiento, las ventajas de determinadas formas de organización o técnicas de gestión empresarial, u otras vías de mejora de la eficiencia empresarial y, en general, en la calidad de los factores, así como errores de medición. A este respecto pueden verse los trabajos de la Comisión Europea (2001) y DEROOSE y THIEL (2001), donde se refieren otras fuentes bibliográficas relevantes. ^° Nuevamente hay que destacar algunas excepciones dentro del agregado de países miembros de la UE; Suecia, Finlandia e Irlanda, de forma particular, registraron una aceleración en la PTP durante el conjunto de esa década. ^^ Una de las más recientes es la investigación de ROBERT H. MCGUCKIN y BART VAN ARK (2001). ^2 Una revisión de la discusión acerca del carácter de esas tecnologías y su impacto en el crecimiento de la productividad se encuentra en ONTIVEROS (2001) y en la reseñada investigación del Conference Board (2002). ^^ La última edición del Informe de evaluación comparativa de la acción eEurope, «eEurope 2002» es suficientemente expresivo al respecto. Servicios de la Comisión Inversión real en Construcción (% PIB) •EE.UU mo mi im tm m^ i9ss tm ím im tm mfá m^ Fuente: Servicios de la Comisión. (*) Area euro está exclM. Inversión Real en Bienes de Equipo (% PIB) Inversión Pública (% PIB) 1SS2 ím \m tm mo Fuente: Servicios de la Comisión. B. EE.UU %m mi sm \m m% 2000 Fuente: Servicios de la Comisión. Inversión en TIC (% PIB) Deflactores de la inversión en EE.UU. (1995 = 100) 1^ 1S^ |g9S Fuente: Servicios de la Comisión y REEDS. La divergencia de Europa La divergencia de Europa ^^ En (2001) se anaHza esa compHcidad diferencial entre ambos sistemas financieros y los procesos de creación de empresas a ambos lados del Atlántico. ^^ En Comisión europea (2001 b) se revisa la adecuación de los sistemas financieros europeos a la financiación empresarial, de acuerdo con los objetivos definidos en el Plan de Acción sobre capital riesgo.
Un espacio europeo de libertad, seguridad y justicia: la cooperación en el ámbito civil La creación de un espacio europeo de libertad, seguridad y justicia en el ámbito civil ha recibido un impulso decisivo con el Tratado de Amsterdam, pero no se trata de una materia absolutamente nueva. En efecto, el art. 220 TCE en su versión original de 1958 dispone que los Estados miembros «entablarán en tanto sea necesario, negociaciones entre sí a fin de asegurar a favor de sus nacionales», entre otras cosas, para «la simplificación de las formalidades a que están sometidos el reconocimiento y la ejecución recíprocos de las decisiones judiciales y de los laudos arbitrales». En aquel momento, el Derecho internacional privado ocupaba un lugar marginal en la integración europea y por eso se mantenía en el ámbito estrictamente intergubernamental ^. No obstante, es destacable la importancia de un instrumento concluido al amparo de esta disposición, el Convenio de Bruselas de 29 de septiembre de 1968 sobre competencia judicial y ejecución de decisiones en materia civil y mercantil^. Merece destacarse que el Protocolo de Luxemburgo de 1971 ha permitido que se haya creado un importante cuerpo de jurisprudencia del Tribunal de Justicia de las Comunidades Europeas interpretando el Convenio de Bruselas de 1968 ^. Un nuevo paso se dio con el Tratado de Maastricht de 1992. El Titulo VI del Tratado de la Unión Europea se refiere a la cooperación en los asuntos de justicia e interior, lo que demuestra un mayor interés hacia el Derecho internacional privado, que se corresponde con la evolución y ampliación de los objetivos de la Comunidad. Es así como pudo decirse que «resulta previsible que el último decenio del siglo XX sea, para el Derecho internacional privado de los países europeos, el del Derecho comunitario» ^^5 lo que adquiere una proyección impensable en el primer decenio del siglo XXI. El art. K.1, apartado 6, disponía que corresponde «desarrollar la cooperación estrecha en el ámbito de la justicia» y, a los efectos que aquí interesan, «la cooperación judicial en materia civil», facultando al Consejo a celebrar Convenios, recomendando su adopción a los Estados miembros según sus respectivas normas constitucionales. Se encuadra, pues, en el denominado «Tercer Pilar», utilizando un término, «cooperación judicial en materia civil» ^, que adolece de gran ambigüedad, que se incorpora después al Tratado de Amsterdam ^. Pese a mantenerse el art. 220, fue sobre la base del art. K.3 que se concluyeron dos Convenios, habiéndose dado como único argumento para ello que se trataba de una base jurídica más específica. Estos dos Convenios son el convenio sobre notificación o traslado en los Estados miembros de la Unión Europea de documentos judiciales y extrajudiciales en materia civil y mercantil, de 26 de mayo de 1997' ^, y el Convenio sobre competencia judicial, reconocimiento y ejecución de resoluciones en materia matrimonial y de responsabilidad parental sobre los hijos comunes, de 28 de mayo de 1998 ^, el denominado Convenio «Bruselas II», por su parentesco con el convenio de Bruselas de 1968. Aunque firmados por los quince Estados miembros, ninguno de los dos llegó a entrar en vigor por la incidencia del Tratado de Amsterdam. Pero hay que señalar que en este periodo, además, se firmó el 23 de noviembre de 1995 el Convenio relativo a los procedimientos de insolvencia, sobre la base del art. 220 TCE, sólo firmado por 14 Estados, después de un largo y complejo recorrido. Tampoco este Convenio llegó a entrar en vigor.!!• El presente 1. La nueva base jurídica: los arts, 61 c) y 65 TCE El presente arranca del Tratado de Amsterdam 9. El Título VI del TUE ha quedado reducido a las «disposiciones relativas a la cooperación policial y judicial en materia penal», que pasaron a ser los nuevos artículos 29 a 42 del TUE, mientras que en el TCE se ha introducido un nuevo Título IV, incluyendo los arts. 61 a 69, que se denomina «Visados, asilo, inmigración y otras políticas vinculadas a la libre circulación de personas», título poco Un espacio europeo de libertad, seguridad y justicia 293 adecuado pero que muestra el carácter instrumental de estas disposiciones. El nuevo Título IV hace efectivo el art. 2 del TUE, que prevé el mantenimiento y desarrollo de la Unión Europea «como un espacio de libertad, seguridad y justicia». Pero la diversidad de materias incluidas en el mismo condujo, \ina vez más, a que se prestara mucha más atención a los aspectos relativos a los visados, asilo e inmigración, en cuanto aspectos de Derecho público que afectan a la moviUdad de las personas que a las «otras políticas vinculadas a la libre circulación de personas». Dentro del Título IV, dice el art. 61 que «a fin de establecer progresivamente un espacio de libertad, de seguridad y de justicia, el Consejo adoptará», entre otras, «c) medidas en el ámbito de la cooperación judicial en materia civil, de conformidad con el art. 65». El art. 65 concreta la cooperación judicial en materia civil y, en su parte inicial, dice textualmente que «las medidas en el ámbito de la cooperación judicial en materia civil con repercusión transfronteriza que se adopten de conformidad con lo dispuesto en el art. 67 y en la medida necesaria para el correcto funcionamiento del mercado interior, incluirán...», pasando a enumerar después cuales son estas medidas. El examen del ámbito sustantivo del art. 65 pone de relieve su perspectiva finalista, pues se refiere a «mejorar y simplificar», a «fomentar la compatibilidad» y a «eliminar obstáculos». De ahí resulta que su alcance y, en consecuencia, la competencia atribuida al Consejo es muy amplia. La propia imprecisión de los términos de estas disposiciones propicia una interpretación extensiva de la competencia atribuida. En el apartado a) las medidas previstas se refieren a mejorar y simplificar las medidas relativas a traslado de comunicaciones y ejecución de decisiones, ambas cuestiones ya reguladas en el ámbito comunitario con anterioridad ^^ y con la peculiaridad en el segundo caso de que es una materia que también aparece en el art. 293 TCE ^^. Además, se incluye también la obtención de pruebas, que ha sido objeto del más reciente Reglamento comunitario. El apartado b) del art. 65 da un paso más, pues pretende «fomentar la compatibilidad» de las normas sobre «conflicto de leyes y de jurisdicciones», términos que aparecen por primera vez en el Tratado y sin que resulte claro el significado de «fomentar la compatibilidad», aunque, en la práctica, parezca estarse interpretando como una unificación de las normas de conflicto, como se verá más adelante al tratar de «Roma II» y de «Roma III», aspecto dudoso frente a la unanimidad en admitir la conveniencia de fomentar la compatibilidad de las normas de conflicto aplicables en los Estados miembros, algunas de cuyas discordancias vienen siendo causadas precisamente por la acción comunitaria precedente. Finalmente, en el apartado c) del art. 65 se reitera este fomento de la compatibilidad respecto a «las normas de procedimiento civil aplicables en los Estados miembros», aunque limitado al objetivo de «eliminar obstáculos al buen funcionamiento de los procedimientos civiles», expresión que plantea problemas en torno al alcance de la acción a emprender. Por una parte, «fomentar la compatibilidad» no se identifica con un objetivo de uniformidad normativa. Pero, por otra parte, «fomentar la compatibilidad» parecería implicar, en principio, que se pretende sólo eliminar desajustes normativos que puedan afectar al buen funcionamiento del mercado. Pero, como se acaba de señalar, el ámbito a que se refieren los tres apartados del art. 65 desborda ampliamente tal objetivo y más lo hacen todavía las acciones emprendidas. Pero hay que recordar las limitaciones en los objetivos que resultan del encabezamiento del propio art. 65: 1) Se limita a la cooperación judicial en materia civil «con repercusión transfi:-onteriza»; 2) Sólo se realizará esta actuación «en la medida necesaria para el correcto funcionamiento del mercado interior». Esta manifestación enlaza directamente con la vinculación de esta cuestión a la libre circulación de personas, ya que ésta sólo será plenamente eficaz si va acompañada de im espacio judicial único, en el que el ciudadano europeo pueda hacer valer sus derechos de forma rápida y eficaz. No resulta, no obstante, tan clara la vinculación de determinados instrumentos con la circulación de personas. En efecto, esta cuestión se planteó en relación al Reglamento «Bruselas II», ya que determinados criterios de competencia judicial internacional en materia de divorcio incluidos en su texto pueden afectar a ciudadanos no comimitarios y que, por tanto, no se benefician de la libre circxilación de personas. Además, la actuación en el marco del Título IV debiera implicar un límite, derivado del juicio de proporcionalidad, es decir, que la medida sea necesaria y apropiada para lograr tal objetivo, y otro límite derivado del principio de subsidiariedad ^^ Estos datos han de ser tomados en cuenta a la hora de enjuiciar la interpretación extensiva del Consejo y de la Comisión, más aún después del Consejo de Támpere. Estos límites generales, unidos a los límites particulares que se desprenden del art. 65 TCE dan una lectura distinta a la que proporciona la práctica. Las particularidades de los nuevos instrumentos Los textos adoptados en el periodo comprendido entre la entrada en vigor del Tratado de Amsterdam y el momento actual son los siguientes: 2001, relativo a la cooperación entre los órganos jurisdiccionales de los Estados miembros en el ámbito de la obtención de pruebas en materia civil y mercantil ^' ^. Como medida de acompañamiento pued §j: itarse la creación de la red judicial europea en materia civil y mercantil por decisión del Consejo de 28 de mayo de 2001, que se aplicará a partir de 1° de diciembre de 2002, con excepción de sus arts. 2 y 20 que serán aplicables a partir de la notificación de la decisión a los Estados miembros destinatarios ^^. En definitiva, se trata de instaurar en el orden civil un sistema similar al existente en materia penal y que ha tenido un efecto positivo. No es una materia directamente incluida en el ámbito que nos ocupa, pero que cumplirá, sin duda, un papel positivo en su correcto fimcionamiento, ya que se trata de facilitar la cooperación judicial entre los Estados miembros en materia civil y mercantil y ello tanto en los ámbitos cubiertos por los instrumentos en vigor como en aquellos en los que todavía no existe ningún instrumento aplicable. De los nuevos instrumentos merecen destacarse cuatro características. 1.^ En relación a la base jurídica se ha indicado ya que el Tratado de Amsterdam mantiene la dualidad de bases jurídicas, es decir, el art. 293 {ex art. 220), que sirve de base, como hasta ahora, para la elaboración de Convenios complementarios entre los Estados miembros, y el nuevo Título IV TCE. De hecho, en todos los textos hasta ahora aprobados se cita como base jurídica el art. 61, c) y el art. 67, apartado 1, diciéndose a continuación que la materia respectiva «entra dentro del ámbito del art. 65 del Tratado». En la práctica, no obstante, a partir de la entrada en vigor del Tratado de Amsterdam no se menciona el art. 293, sino únicamente el Título IV y, en particular, su art. 65. En definitiva, se quiere atribuir a los tratados complementarios entre los Estados miembros un papel subsidiario, que pretende derivarse del hecho de que el art. 293 dice que las negociaciones a los fines previstos en dicho artículo se entablarán «en tanto sea necesario», necesidad que en la práctica se excluye acudiendo sistemáticamente al art. 65 ^^. Relegado así el art. 293 a un segundo plano, puede quedar vacío de contenido. 2.^ Una segunda característica a destacar en que en todos los instrumentos hasta ahora adoptados se ha escogido el Reglamento, es decir, el instrumento de mayor obligatoriedad en el ámbito comunitario, lo cual implica que es «obligatorio en todos sus elementos y directamente aplicable en los Estados miembros de conformidad con el Tratado constitutivo de la Comunidad Europea», como se ocupa de precisar cada uno de ellos en su parte final. De hecho, nada se dice sobre la opción del instrumento de Derecho derivado a través del cual se vaya a poner en práctica el art. 65, concretamente, la opción entre reglamento y directiva, limitándose a decir que el Consejo podrá adoptar «medidas» en el ámbito de la cooperación judicial en materia civil. En la práctica se está prefiriendo la adopción de reglamentos, teniendo en cuenta la unificación que significan y la rápida entrada en vigor simultánea para todos los Estados miembros. Pero, por otra parte, en el Protocolo sobre la aplicación de los principios de subsidiariedad y de proporcionalidad se dice que, en igualdad de condiciones, son preferibles las directivas a los reglamentos. Un ejemplo es significativo en relación a la elección del instrumento comunitario a utilizar. Se trata del mencionado Convenio sobre notificaciones de 1997, que en la propuesta de la Comisión se convertía sólo en Directiva, alegando que hay una serie de actuaciones previstas para los Estados que hacen preferible este instrumento. No obstante, luia mayoría de Estados y y el dictamen del Parlamento Europeo se inclinaron por im Reglamento, que es como ha sido adoptado. Pero su entrada en vigor exige una serie de informaciones por parte de los Estados miembros, requeridas por el art. 23 del Reglamento en relación a los arts. 3, 4, 9, 10, 13, 14, 15 y 19 del propio Reglamento, informaciones que por el momento son incompletas en relación a los organismos receptores y que, por tanto, en la publicación correspondiente se cuidan de calificar de informaciones «excepcionales»^^. Si examinamos «Bruselas I» y «Bruselas II», veremos que igualmente se ha optado por el Reglamento y el argumento para ello es claro, deducible de la sentencia del Tribunal de Justicia que ha dicho que el principio de seguridad jurídica y los objetivos perseguidos por el Convenio de Un espacio europeo de libertad^ seguridad y justicia 297 Bruselas «requieren que se garantice la igualdad y la uniformidad de los derechos y obligaciones que del Convenio se derivan para los Estados contratantes y para las personas interesadas con independencia de las normas establecidas al respecto en dichos Estados» ^^, por lo que en materia de ejecución el Convenio establece «un sistema autónomo y completo» ^^. Tales características podrían destruirse por el margen de maniobra que una directiva permite. Mas curioso resulta aún el caso en relación al Reglamento sobre obtención de pruebas en el extranjero, ya que en el hay que distinguir entre entrada en vigor y fecha de aplicación, por lo que puede plantearse si no hubiera sido mejor una directiva. En efecto, según el art. 24, apartado 1, el Reglamento entrará en vigor el 1 de julio de 2001, pero (apartado 2) se aplicará desde 1° de enero de 2004, con excepción de los arts. 14 (denegación de la ejecución), 19 (normas de desarrollo), 21 (relación con los acuerdos o convenios existentes o futuros ente los Estados miembros) y 22 (comunicaciones a realizar por los Estados miembros antes de 1 de julio de 2003) que se aplicarán a partir de 1° de julio de 2001. Se demuestra, por tanto, que aunque un Reglamento no necesita de medidas de transposición, en este caso concreto deben adoptarse \ma serie de medidas para facilitar la aplicación del Reglamento en el orden interno, ya que constituye xmia novedad importante en el ámbito de la obtención de pruebas que requiere ciertas adaptaciones de los ordenamientos internos para hacer viable su aplicación. 3.^ La tercera característica a destacar se refiere a la interpretación por el Tribunal de Justicia de los instrumentos adoptados al amparo del art. 65. La comunitarización significa que puede intervenir el Tribunal de Justicia, de acuerdo con lo establecido en el art. 68, estrechamente vinculado al artículo 234 (antes, art. 177), para la interpretación o validez e interpretación de este título y de los actos comunitarios adoptados en su virtud, en relación a asuntos ante una jurisdicción nacional que no sea susceptible de recurso. Hay, no obstante, entre ambas disposiciones una diferencia que debe subrayarse y que tendrá, sin duda, consecuencias prácticas: mientras el art. 234 establece que dicho órgano jurisdiccional «está obligado a someter la cuestión al Tribunal de Justicia», el art. 68 se limita a decir que dicho órgano jurisdiccional pedirá al Tribunal que se pronuncie sobre la cuestión planteada «si estima necesaria una decisión al respecto para poder emitir su fallo» ^^, Otra cuestión distinta es la planteada por algunos autores ^^ sobre la cuestión de la interpretación «comunitaria» de Convenios no comunitarios, como, por ejemplo, de aquellos Convenios de La Haya en que son parte todos los Estados miembros de la Comunidad, entendiendo que ello es una exigencia de la integración. Esta idea es sugerente a primera vista, pero también podría ser considerada contraria al Convenio de Viena sobre Derecho de los tratados (art. 31), que tiene como elemento fundamental la expresión auténtica del consensus in idem de los Estados parte en el tratado, que se concreta en el texto del tratado que expresa la voluntad común ^^ y que, en cuanto tal, no puede ser objeto de interpretaciones particulares para un grupo de los Estados parte en tal Convenio. Otra cosa distinta es la posibilidad de celebrar acuerdos inter se dentro de ciertos límites, lo que, en el ámbito comunitario, se traduciría en la adopción de un acto de Derecho derivado que fuera más allá que el Convenio, siempre que no significara una violación de dicho Convenio y así, por ej., si todos los Estados miembros llegaran a ser parte en el Convenio de La Haya de 1996, nada impediría que se adoptara un acto de Derecho derivado, preferentemente un reglamento, en que en materia de protección de niños se estableciera un procedimiento de exequátur similar al contenido en «Bruselas II» y un sistema de cooperación de autoridades más estrecha. 4.^ Una última cuestión a resaltar se refiere al ámbito de aplicación del nuevo texto y a las consecuencias de los instrumentos adoptados, lo cual comporta, a su vez, referirse a la situación de Dinamarca y a los vínculos del sistema de «Bruselas I» con el Convenio de Lugano. Por lo que se refiere a la situación de Dinamarca, debe recordarse que aunque es miembro de la Comunidad Europea quedó absolutamente fuera del Título IV del Tratado, a diferencia de lo que ocurre con Irlanda y el Reino Unido que ejercieron el opting-in previsto y que les ha permitido, hasta la fecha, incorporarse a todos los instrumentos comunitarios adoptados sobre esta base jurídica. En esta situación se sigue aplicando el Convenio de Bruselas en relación a Dinamarca. Esta es la razón por la que deberá revisarse y ponerlo en línea con el Reglamento, incluyéndose en la negociación también la celebración de Convenios que reproduzcan los demás Reglamentos adoptados sobre esta base jurídica. Por lo que se refiere al Convenio de Lugano, debe recordarse su origen. El Convenio de Bruselas constituyó un éxito y de ahí que los Estados miembros de la Asociación Europea de Libre Cambio estuvieran interesados en tener un texto igual al concluido entre los Estados miembros de la Comunidad Europea, ya que siendo el Convenio de Bruselas un Convenio complementario entre los Estados miembros de la Comunidad, no era posible la adhesión de otros Estados y, por tanto, era necesario un nuevo texto. Este es el origen del Convenio de Lugano de 16 de septiembre de 1988, el denominado «Convenio paralelo», relativo a la competencia judicial y a la ejecución de resoluciones judiciales en mate-Un espacio europeo de libertad, seguridad y justicia ría civil y mercantil ^^, del que, además de los quince Estados miembros de la Comunidad, son parte Islandia, Noruega, Suiza y Polonia, Estado este último que se adhirió recientemente en virtud del proceso de adhesión previsto en el art. 62 del propio Convenio. Esta es la razón por la que, en 1998, se decidió abordar una revisión conjunta de los Convenios de Bruselas y Lugano, tratando de aproximar aquellas disposiciones que diferían en alguna medida ^' ^. Pero este ejercicio conjunto no pudo continuar en el momento de la entrada en vigor del Tratado de Amsterdam, que impedía tal tipo de actuación. No obstante, la modificación sustancial estaba prácticamente concluida y existía un acuerdo en no introducir cambios importantes. Adoptado el Reglamento «Bruselas I», debe ahora negociarse la revisión del Convenio de Lugano, que puede culminar en un plazo breve. El Programa de reconocimiento mutuo En el Consejo de Támpere (15 y 16 de octubre de 1999) se decidió que «la piedra angular» del camino para simplificar el reconocimiento y ejecución de sentencias en materia civil y mercantil la constituía el principio de reconocimiento mutuo, invitando al Consejo y a la Comisión a adoptar un programa de medidas para llevarlo a la práctica. Este proyecto recibió un impulso decisivo en el Consejo informal celebrado en Marsella, durante la presidencia firancesa (2° semestre de 2000) ^^. El objetivo final pretendido es la supresión del exequátur en Europa, de tal forma que una sentencia dictada en otro Estado miembro sea reconocida y ejecutada en los demás Estados miembros sin ser sometida a ningún trámite ni control (las denominadas medidas intermedias), lo cual constituye un cambio fundamental respecto a la situación general ^^ y que comporta hacer caer todas las barreras, incluida la del orden público, como última salvaguarda que los Estados siempre se reservan ^° y sobre la que se cumplimentó un cuestionario, del que resulta que es necesaria una cierta armonización de determinados aspectos del Derecho procesal interno, sin lo cual difícilmente podrá prescindirse de tal control ^^. De hecho, el Programa es fundamental para los próximos tiempos, pues marca el camino a seguir. Los datos esenciales a destacar serían dos: la forma en que se procederá y las etapas para conseguir la supresión del exequátur. En cuanto a la forma en que se procederá, se toma como punto de partida el estado actual de la situación, distinguiendo entre el primer grado, que sería el alcanzado en el Convenio de Bruselas de 1968 y en el Reglamento «Bruselas II» y el segundo grado alcanzado en el Reglamento «Bruselas I», en cuanto significa un paso más avanzado en este camino. En cada una de las diferentes materias ya incluidas en tales textos se partirá de ellos y en las materias no incluidas, se tratará de avanzar en la forma más rápida posible, sin que sea necesario pasar por el primer grado para alcanzar el segundo. Pero cada materia seguirá su propio ritmo, sin que sea preciso que todas avancen a la misma velocidad, lo que muestra un grado de realismo sobre las dificultades que sobre todo en determinadas materias pueden encontrarse. Como también constituye una muestra de realismo el que se prescinda de establecer fechas para la realización de los trabajos, puesto que «los plazos muy cortos resultan ilusorios y los demasiado largos paralizan a los Estados», estableciéndose únicamente la necesidad de que la Comisión presente un informe sobre los avances al Consejo y al Parlamento Europeo cada cinco años. Piénsese así que el programa puede durar muchos años. El programa determina cuatro ámbitos de acción: 1) los ámbitos del Derecho civil y mercantil; 2) los ámbitos de Derecho de familia cubiertos por el Reglamento Bruselas II y las situaciones familiares surgidas de relaciones distintas del matrimonio. 3) los regímenes matrimoniales y las consecuencias patrimoniales de la separación de parejas no casadas; 4) los testamentos y las sucesiones, con lo cual se opta decididamente por la inclusión del Derecho de familia y sucesiones en el ámbito del Derecho internacional privado comunitario, pese a las dificultades que el tema tiene y que condujeron, por ej., a la limitación del ámbito de aplicación material del Reglamento «Bruselas II». Veamos a continuación las propuestas que se contienen en el documento y qué es lo que, hasta la fecha, se está haciendo. La ejecución del Programa A partir del momento de la aprobación del Programa, se han iniciado una serie de trabajos, ninguno de los cuales parece pueda ser adoptado en un periodo breve de tiempo. En el ámbito del Derecho de familia, Francia realizó una propuesta para suprimir el exequátur en materia de derecho de visita ^^, texto que está teniendo numerosas dificultades. La primera, derivada de su vinculación a «Bruselas II» y, en consecuencia, limitarse a los hijos matrimoniales. La segunda, la presentación por la Comisión de una propuesta Un espacio europeo de libertad, seguridad y justicia que se ocupa de la protección de los niños en general («Bruselas II bis»), que creará problemas de relación tanto con el Convenio de La Haya de 1980 sobre sustracción de menores, el Convenio de la Haya que más éxito ha tenido hasta la fecha, como con el Convenio de La Haya de 19 de junio de 1996 sobre la competencia, la ley aplicable, el reconocimiento y la ejecución y la cooperación en materia de protección de niños, todavía no en vigor pero que existe la decidida voluntad de ratificar por parte de todos los Estados miembros. En otros ámbitos previstos, como alimentos o parejas de hecho, no hay todavía proyectos específicos, aunque cabe formular ciertas dudas respecto al futuro. Si se trata de alimentos, la proliferación ya existente de instrumentos en la materia, unida a que la Conferencia de La Haya también inicia nuevos trabajos en la materia, no es lo mejor para estos trabajos, si bien se comprende que sería bueno suprimir el exequátur en este ámbito y para el que ya hay dificultades en el orden interno. En cuanto a las parejas de hecho, la sensibilidad es muy grande en los Estados miembros, en que la legislación tanto difiere, tanto en relación al tipo de unión (registrada o consensual) como a la admisión de las uniones homosexuales y su calificación. En el ámbito patrimonial, la presidencia sueca, en su última reunión del Comité de D° civil presentó un primer docimiento sobre la supresión del exequátur para los créditos no impugnados, es decir para supuestos similares a lo previsto en el procedimiento monitorio ^^ y en la vía de implantar un Título Ejecutivo Europeo (TEE) en esta materia deberán iniciarse trabajos en fecha muy próxima. En principio, se dice que en nada afectará a los procedimientos internos, pero es obvio que va a implicar un cierto grado de armonización de legislaciones, ya que la base de la supresión del exequátur en esta materia es que conste realmente que el crédito no está impugnado y que un acto de la autoridad del Estado de origen así lo determine, por lo que, por ej., son necesarias ciertas garantías del plazo para la notificación. También en el ámbito patrimonial se desea trabajar en la supresión del exequátur en los casos de demandas de cuantía mínima (small claims), tema que aparece vinculado a la protección de los consumidores y a los métodos alternativos de arreglo de diferencias (ADR o alternative dispute resolution) y sobre el que algunos Estados miembros tienen notables reticencias. De forma mucho más imprecisa, se vislumbra la perspectiva de crear un tipo de ejecución provisional, de instaurar medidas cautelares de nivel europeo e, incluso de un embargo europeo de activos bancarios, incluyendo medidas complementarias para conocer la situación financiera del deudor. En el establecimiento del programa se observó que en muchas ocasiones sería imposible suprimir el exequátur si no se tomaban ciertas me-didas complementarias que puedan facilitar tal paso. En esta línea, en la que se sitúan los ya mencionados Reglamentos sobre notificaciones y obtención de pruebas, así como la mencionada Decisión por la que se crea la Red Judicial Europea. De forma inmediata, se han iniciado los trabajos en materia de asistencia judicial gratuita, sobre la base del Libre verde presentado por la Comisión en febrero de 2000 y las acciones allí previstas, tema del que no se ocultan las dificultades derivadas tanto de la admisión de la misma, como del diferente nivel económico de los Estados miembros y de ahí que se haya optado por preparar una Directiva y no un Reglamento. Fue precisamente a iniciativa española que entre las medidas complementarias se incluyeran las normas de conflicto de leyes, que incluso habían propuesto algunos su exclusión explícita, perdiendo de vista que la posibilidad indudable de forum shopping derivada del hecho de existir foros alternativos sólo se evita si los tribunales de todos los Estados miembros aplican las mismas normas de conflicto de leyes. Esta línea, que tendría su origen en el Convenio de Roma de 1980 sobre ley aplicable a las obligaciones contractuales («Roma I»), encontraría ahora su continuidad en dos textos. Uno sería un instrumento comunitario sobre ley aplicable a las obligaciones no contractuales («Roma II»), para el cual se han realizado algunos trabajos preliminares ^^, siendo las dificultades políticas las que han impedido que se avance en este camino. El otro sería un instrumento comunitario sobre ley aplicable al divorcio («Roma III»), para el cual únicamente se ha contestado a un cuestionario. Además, en su momento se tratará de transformar el Convenio de Roma de 1980 en un Reglamento, pero parece que ello es prematuro por dos razones: 1" porque sería bueno terminar «Roma II» y ver los avances que se realizan en el ámbito de las obligaciones no contractuales y su posible utilización para «Roma I». 2^ Sería bueno esperar a que existiera jurisprudencia del Tribunal de Luxemburgo sobre el Convenio para conocer los problemas y posibles respuestas. a Los efectos ad extra de la comunitarización Planteado ya en el momento actual, es un tema de insospechada proyección hacia el futuro. Se trata de saber si la comunitarización tiene una proyección exterior, es decir si existe una competencia externa implícita en el nuevo entorno que se está diseñando ^^. Ya en el Dictamen del Servicio Jurídico del Consejo de 5 de febrero de 1999 se decía que «una vez que la Comunidad haya ejercido sus competencias internas adoptando Un espacio europeo de libertad, seguridad y justicia 303 disposiciones por las que se fijen reglas comunes [al amparo del artículo 65], la competencia comunitaria pasa a ser exclusiva, en el sentido de que los Estados miembros pierden el derecho a contraer, individual o incluso colectivamente, obligaciones con terceros países que afecten a dichas reglas». Es aplicación de la doctrina sentada en el ámbito comunitario a través del denominado «efecto AETR». Pero esta doctrina, sentada en ámbitos puramente económicos, como el transporte o la pesca, ¿puede producir el mismo resultado en materia de Derecho internacional privado? ¿Puede extenderse la interpretación dada para cuestiones vinculadas a la integración económica a las cuestiones jurídicas? ^^. No puede olvidarse que es el propio Tribunal el que exige que la materia objeto del Convenio con terceros Estados se encuentre vinculada de forma inextricable o inseparable de las disposiciones adoptadas para el mercado interior, valoración que no es fácil en los temas aquí abordados. El punto de partida se encuentra en la distinción de las competencias externas de la Comunidad en explícitas e implícitas ^^. No se encuentran en las primeras las que aquí nos interesan ^^, por lo que hay que referirse a las denominadas «competencias implícitas» o lo que, en forma breve, se denomina «efecto AETR» por la célebre Sentencia del Tribunal de Justicia en que se inicia esta extensión ^^. Esta doctrina ha sido después seguida en mayor o menor medida en numerosos casos ^^. En el dictamen 1/76 ^^ el Tribunal dijo que «la facultad de contraer compromisos internacionales no sólo puede derivarse de una atribución expresa por el Tratado sino que también puede derivarse implícitamente de sus disposiciones». El Tribunal dejó claro, entre otras cosas, que «cuando el Derecho comunitario ha creado para las instituciones de la Comunidad poderes dentro de su sistema interno al objeto de alcanzar un objetivo específico, la Comunidad tiene poderes para contraer los compromisos internacionales necesarios para el logro del objetivo citado, aún cuando falta cualquier disposición explícita a tal fin. Esta circunstancia se da, en particular, en todos aquellos casos en que previamente se ha hecho uso de una facultad interna para adoptar medidas para lograr los fines de políticas comunes, aunque no sólo en este supuesto». Además, la competencia exterior implícita puede ser exclusiva de la Comunidad o concurrente con la de los Estados. Como ha dicho el propio Tribunal en su dictamen 1/78 ^^, la competencia exclusiva existe sólo cuando responde a una política común, en el caso concreto, la política comercial común en el sentido del art. 113 (hoy art. 133) e implica una obligación financiera que afecta al presupuesto comunitario. Para los demás casos ^^ no habrá competencia exterior exclusiva, pues no podrá deducirse implícitamente del art. 308 (ex art. 235). Esta es la doctrina que re-sulta más claramente del dictamen 1/94, es decir, el propio Tribunal de Justicia reconoce la existencia de una competencia compartida de la Comunidad y de los Estados miembros para participar en la conclusión de los acuerdos GATS y TRIP. El dictamen últimamente citado resulta particularmente relevante y se incluye, junto con el Dictamen 2/92, en la línea en que se pretende limitar un tanto la interpretación extensiva de las competencias exteriores pretendida por la Comisión. En el caso del Acuerdo de la OMC, el Tribunal se ocupa de precisar que no es suficiente que exista una medida interna para que nazca una competencia exclusiva, sino que es necesario además que dicha medida pudiera verse afectada por las obligaciones asumidas mediante un acuerdo externo. En el caso concreto, el Tribunal no aplica los principios del Dictamen 1/76 al GATS, ya que la realización de la libertad de establecimiento y de la libre prestación de servicios a favor de los nacionales de los Estados miembros no está indisolublemente vinculada a la situación en la Comunidad de los nacionales de Estados terceros o en los Estados terceros a los nacionales de los Estados miembros de la Comunidad ^^. A la misma conclusión llega en relación a los acuerdos TRIP. En el Dictamen 2/92 se dice expresamente que «los Estados miembros, ya actúen individual o colectivamente, no pierden el derecho a contraer obligaciones respecto a Estados terceros más que en la medida en que se hayan establecido reglas comunes susceptibles de verse afectadas por dichas obligaciones» ^^, limitando así notablemente la sentencia AETR, la cual ^ dice que «cada vez que, para la puesta en práctica de una política común prevista por el Tratado, la Comunidad ha adoptado disposiciones instaurando reglas comunes, los Estados miembros ya no tienen derecho, tanto si actúan individual como colectivamente, a contratar con Estados terceros obligaciones que afecten a dichas reglas». Parece, por tanto, que el Tribunal ha tomado en cuenta las críticas que desde diversos sectores se han formulado al «efecto AETR», en el sentido de que se altera la distribución de competencias, algo que enlaza directamente con la actitud de los Estados miembros, normalmente reticentes a aceptar las competencias implícitas de la Comunidad. Las más recientes decisiones del Tribunal parecen, pues, ir en la línea de respetar la competencia de los Estados para concluir tratados con terceros Estados siempre que no se solape la competencia internacional y la competencia interna ejercida. De ahí, pues, que sólo cuando se trate de cuestiones «indisolublemente ligadas» a la medida comunitaria cabe predicar la exclusividad de la competencia, lo que no se da en el caso del dictamen 1/94 entre la libre prestación de servicios a favor de los nacionales o empresas de los Estados miembros y el trato a los nacionales o empresas de Estados no miembros. Un espacio europeo de libertad, seguridad y justicia ¿En qué términos puede adaptarse esta doctrina al Título IV, en materia de cooperación civil? Tres son los elementos importantes a considerar en este ámbito: 1° Que la doctrina de las competencias externas implícitas ha sido elaborada en ámbitos económicos, muy distintos del Derecho internacional privado ^^. 2° Que la extensión de la competencia externa de la Comunidad dependerá de los términos de la medida interna. 3° Que el propio Tribunal se ha ocupado de acotar la posibilidad de una competencia exterior üimitada. De ahí resultaría que no existe una vinculación necesaria entre la adopción de un instrumento interno «necesario para el correcto funcionamiento del mercado interior» y la conclusión de acuerdos con terceros Estados y, en consecuencia, no puede hablarse de competencia exclusiva ad extra. Será necesario en cada caso ver los límites derivados del ámbito propio del Título IV, estudiar los términos exactos del instrumento extracomunitario y, en último extremo, es necesaria una buena cláusula de desconexión. En definitiva, se ve una decidida voluntad política de avanzar por el camino de la supresión del exequátiir, es decir, no tratar de forma discriminatoria a las sentencias dictadas por jueces de otros países europeos, de tal forma que prevalezca el principio de confianza mutua y para ello es preciso arbitrar una serie de medios que faciliten la libre circulación de decisiones en materia civil y mercantil. Pero dos consideraciones se imponen: 1.^ Si se examina la atención que a la cooperación penal se presta, se observará claramente que la cooperación civil no es objeto de la misma atención y ello se debe tanto a que políticamente resulta más lucida como a que es más fácil que alcance a la prensa. No obstante, debe tenerse en cuenta que en la vida cotidiana del ciudadano europeo es más trascendente la cooperación civil y de ahí la necesidad de avanzar con paso seguro por este camino. Pero es difícil imaginar que los políticos vayan a librar una batalla por la determinación de la fecha de la notificación o por la aceptación del forum non conveniens, por ejemplo, lo cual no es positivo, por las dificultades de carácter técnico que esta materia tiene. 2.^ Lo anterior no obsta a que quepa intuir una decidida voluntad política de avanzar en la vía de la cooperación judicial en materia civil. Y es que, sin duda, la cooperación en materia penal tiene una mayor repercusión en los medios de comunicación, pero es preciso tomar conciencia del hecho de que la cooperación judicial en materia civil afecta muy directamente a la vida cotidiana del ciudadano europeo que, quizá, no es consciente todavía de la incidencia que la integración comunitaria puede tener en los problemas que le afectan más directamente y sin estridencias. Se trata de un nuevo reto de la integración europea ante el cual las instituciones y los Estados miembros deben asumir sus respectivos papeles, lo cual no es fácil en el ámbito del Derecho internacional privado. Los Estados están entregando una serie de competencias y deben saber a quién y cómo las están cediendo. * Las opiniones expresadas en este trabajo no coinciden necesariamente con las mantenidas como representante de España en la Comunidad Europea para la cooperación judicial en materia civil. ^ Para un estudio amplio y detallado antes del Tratado de Amsterdam, P. de Miguel, «Integración europea y Derecho internacional privado», Revista de Derecho comunitario europeo, 1997, 2, pp. 413-445. 2 Este texto, como todos los otros textos mencionados que se encuentran en vigor en España o han sido ya publicados en el BOE o en el DOCE, según los casos, pueden encontrarse en A. Borras -N. Virgos, Legislación básica de Derecho internacional privado, IT ed, Madrid (Ed. ^ Sobre las características generales de estos Convenios, A. Borras, «Los Convenios complementarios entre los Estados miembros de la CEE», Noticias CEE, rf 12, 1986, pp. 115-118. Las 100 primeras sentencias del Tribunal en M. Virgos -E. Rodríguez Pineau, Competencia judicial internacional y reconocimiento de resoluciones judiciales extranjeras: jurisprudencia del Tribunal Europeo de Justicia, Madrid, 1999. Las sentencias más recientes pueden consultarse en http://europa.eu.int/jurisp/cgi-bin/form.pl? lang=es. ^ S. Alvarez, «Pasado, presente y futuro del Derecho internacional privado comunitario». Revista Xiuridica da Universidade de Santiago de Compostela, 1996, vol. 5, pp. 36-37. ^ Aunque lo haya podido calificar de «pariente pobre» de la cooperación judicial, en fijase que ha hecho fortuna y confirmada por la realidad en A. Borras, «La cooperación judicial en materia civil en el Tratado de Maastricht», Perspectivas jurídicas actuales. Homenaje a Alfredo Sánchez Carswell, Madrid, 1995, pp. 385-397; también ^ Examen más pormenorizado en A. Borras, «Tratado de Amsterdam y Derecho internacional privado», Revista Española de Derecho internacional», 1999, 2, pp. 383-426; Alegría Borras también se hace referencia al que podría denominarse «recurso en interés del Derecho comunitario» que resulta del apartado 3 del artículo 68. 2^ Concretamente lo dijo J. Pirrung en el Seminario de Avignon sobre «Bruselas II», «Perspectives d' évolution du droit européen: aspect institutionnel». Con anterioridad ya se había hablado de este tema en relación a determinados Convenios como, por ejemplo, con referencia al Convenio de Nueva York de 1958 en materia de arbitraje. ^^ J.D. González Campos -L.I. Sánchez Rodríguez -M.P. Andrés, Curso de Derecho internacional público, 2^ ed. revisada, Madrid, 2002, pp. 307-314. 2^ Su informe explicativo, redactado por los Sres. P. Jenard y G. MoUer puede consultarse en M. Virgos y F. Garcimartín, cit. ^"^ Sobre el inicio del proceso puede consultarse la introducción a La revisión de los Convenios de Bruselas de 1968 y de Lugano de 1988 sobre competencia judicial y ejecución de resoluciones judiciales: una reflexión preliminar española (A. Borras, éd.), Madrid, 1998. 28 Proyecto de medidas para la aplicación del principio de reconocimiento mutuo de las resoluciones judiciales en materia civil y mercantil, publicado en DOCE rf C 12, de 15 de enero de 2001, del que se resalta el cuadro-resumen que aparece en la última página y que resulta muy ilustrativo para comprender el alcance del plan propuesta. 2^ Piénsese en nuestro sistema general, en el que la concesión del exequátur compete al Tribunal Supremo, en clara reminiscencia histórica, muy alejada de la cooperación internacional actual en materia judicial. ^° Piénsese que en el proceso de transformación del Convenio de Bruselas en Reglamento, se trató de suprimir esta causa de no reconocimiento o ejecución (art. 27, 2) y los Estados no lo aceptaron y así ha pasado la excepción al art. 34,1. ^^ Un buen ejemplo lo ha constituido la Sentencia del Tribunal de Justicia de las Comunidades Europeas en el caso Krombach, que ha puesto de relieve las diferencias entre los ordenamientos alemán y francés en una cuestión fundamental, cual es el derecho de defensa. 812 y ss de la nueva LEC de 2000. ^ Tomando en cuenta, en parte, los trabajos del Grupo Europeo de Derecho internacional privado. 3^ Examen detallado de estas cuestiones y los problemas prácticos que se están planteando en A. Borras, «Efectos respecto a terceros del ejercicio de competencia por la Comimidad europea en el ámbito del derecho internacional privado». Estudios en Homenaje a Antonio Pérez Voituriez, La Laguna (en prensa); A. Borras, «La incidencia de la comunitarización del Derecho internacional privado en la elaboración de convenios internacionales», Mélanges Isabel de Magalhaes Collaço, Lisboa (en prensa). Asimismo, muy centrado en la proyección a aspectos económicos, Torrent, M., Derecho y práctica de las relaciones económicas exteriores en la Unión Europea, Barcelona, 1998. 3® Que quedan limitadas a ámbitos como los acuerdos comerciales (art. 133 TCE, es art. 113), acuerdos de asociación (art. 310 TCE, ex art. 238) o relaciones con Organiza-
El terrorismo constituye una de las amenazas mas serias para la democracia, para el libre ejercicio de los derechos del hombre y para el desarrollo económico y social. Los acontecimientos del 11 de septiembre mostraron que el terrorismo es una amenaza real a nivel miindial y que cualquier país podía ser afectado por ataques terroristas. Es un verdadero reto para el mundo y para Europa. La Unión Europea se fijó como objetivo en el tratado de la UE «ofi^ecer a los ciudadanos un alto grado de seguridad dentro de un espolio de libertad, seguridad y justicia elaborando una acción en común entre los Estados miembros en los ámbitos de la cooperación policial y judicial en materia penal,,,», Este objetivo ha de lograrse mediante la prevención y la lucha contra la delincuencia, organizada o no, en particular el terrorismo a través de una mayor cooperación entre las fuerzas policiales, las autoridades aduaneras y otras autoridades competentes de los Estados miembros, como entre les autoridades judiciales y, también, por la aproximación, cuando proceda, de las normas de los Estados miembro en materia penal. I. Cooperación judicial penal Es muy notable la reacción rápida a nivel de la Unión Europea depués del 11 de septiembre. Este resultado se debe mayormente a la estrecha 312 Denise Sorasio cooperación que se ha desarrollado entre las distintas instituciones europeas, Parlamento Europeo, Consejo y Comisión, facilitando la consecución de acuerdos en breves períodos de tiempo. Todo ello fue posible gracias a que tanto el Parlamento Europeo como la Comisión europea habían estado trabajando durante meses en las medidas para mejorar la lucha contra el terrorismo. El Parlamento Europeo adoptó el 5 de septiembre de 2001 una recomendación al Consejo ^ sobre la base de un informe de iniciativa, del que fue ponente el Sr.Watson, relativo al papel de la Unión Europea en la lucha contra el terrorismo. En esta recomendación se resaltaba el profundo cambio del tipo de terrorismo en la Unión Europea, el cual ponía en evidencia la insuficiencia de los métodos clásicos de cooperación judicial y policial para hacerles frente. Este nuevo terrorismo, recalcaba dicha recomendación, es el resultado de la actividad de redes organizadas a escala internacional, establecidas en varios países, que aprovechan los vacíos jurídicos de la territorialidad de la acción judicial y a veces gozan de importante apoyo logístico y financiero. Estas apreciaciones se confirmaron, desgraciadamente, con los acontecimientos del 11 de septiembre en Estados Unidos. En el Consejo JAI del 20 de septiembre de 2001 (donde la Comisión europea presentó sus propuestas de Decisión marco sobre la definición del delito de terrorismo ^ y sobre la orden de detención europea adoptadas el día antes ^) y en la reunión extraordinaria del Consejo Europeo el 21 de septiembre de 2001, se alcanzó un compromiso importante: en cuanto a la cooperación judicial, debería lograrse un acuerdo sobre ambos instrumentos y sobre el establecimiento de Eurojust, a más tardar, en el Consejo JAI de 6-7 de diciembre 2001. Se cumplió este compromiso y en el Consejo de Justicia e Interior del 6-7 de diciembre se alcanzó un acuerdo político, sujeto a algunas reservas parlamentarias y a la reconsulta del Parlamento europeo, sobre la Decisión marco sobre la lucha contra el terrorismo, la cual está destinada a implementar el Artículo 31(e) del Tratado de la Unión Europea, que prevé la adopción progresiva de medidas que establezcan normas mínimas relativas a los elementos constitutivos de los delitos y a las penas en el ámbito, entre otros, del terrorismo. La idea que subyace es que los elementos constitutivos del delito y las sanciones aplicables a una serie de conductas delictivas deben perseguirse con la misma intensidad en todo el territorio de la Unión Europea, ya sea bien por su dimensión transfronteriza o por su especial gravedad. A pesar de la dificultad derivada del hecho de que sólo siete Estados Miembros tengan regulado como delito específico el delito de terrorismo. 313 la Decisión marco contiene una definición de delito terrorista atendiendo a un doble elemento: subjetivo y objetivo. El elemento subjetivo está configurado por la motivación del terrorista, y para su realización se han tenido en cuenta los criterios establecidos en el Convenio de las Naciones Unidas para la Supresión de la Financiación del Terrorismo (1999) y en la legislación penal de los Estados Miembros. Para estar ante un delito terrorista la motivación debería caer dentro de una de estas tres categorías: o intimidar seriamente a la población, o obligar al Gobierno o a una organización internacional a hacer o a abstenerse de hacer algo, o desestabilizar seriamente o destruir las estructuras fimdamentales políticas, constitucionales, económicas o sociales de un país o una organización internacional. El elemento objetivo viene establecido por una lista de delitos comunes que, cometidos con la especial motivación terrorista, serán calificados como delito terrorista. La pena aplicable a estos será más grave que la establecida para los delitos comunes de la lista cometidos sin la motivación terrorista. Finalmente, tanto la dirección como la participación en grupos terroristas son también tipificados en esta Decisión marco, siendo castigados con una pena máxima de al menos 15 y 8 años, respectivamente. Como resultado directo, la Decisión marco facilitará la cooperación policial y judicial, puesto que las definiciones comunes de delitos se requieren para ciertas formas de auxilio judicial. Además, la existencia de un marco común en la lucha contra el terrorismo en la UE facilitará una más estrecha colaboración con terceros países y la puesta en práctica de instrumentos internacionales relacionados con la prevención y supresión del terrorismo, como el convenio de la ONU para la supresión de la financiación del terrorismo previamente mencionado y el futuro convenio sobre el terrorismo internacional. El Parlamento Europeo ha respondido positivamente a la reconsulta^, y una vez que se levanten algunas reservas parlamentarias subsistentes el instrumento será adoptado oficialmente, dejando a los Estados miembros un plazo limite bastante breve para la transposición en su legislación nacional (31 de diciembre 2002). En relación con la Decisión marco sobre la orden europea de detención, el acuerdo fue algo más difícil de alcanzar, y se logró en las vísperas del Consejo Europeo de Laeken del pasado mes de diciembre. Con este instrumento se mejora de manera muy importante la cooperación judicial entre los Estados Miembros, de tal modo que los procedimientos de extradición regulados en sus grandes líneas por el Convenio europeo de extradición de 1957, que sometía a la extradición a una serie 314 Denise Sorasio de requisitos tales como la necesidad de doble incriminación, la no extradición de nacionales y la exclusión de los delitos políticos y fiscales que en la práctica constituyen obstáculos insalvables para la extradición-, son definitivamente eliminados y sustituidos por este nuevo sistema. El nuevo instrumento se basa en una decisión judicial dictada en un Estado Miembro, y dirigida a la autoridad de otro Estado Miembro, con el propósito de búsqueda, captura y entrega de la persona, bien sea sospechoso de haber cometido un delito castigado con una pena privativa de libertad de al menos doce meses en el Estado Miembro que solicita la entrega, o bien haya sido condenado a una pena de al menos cuatro meses en el Estado requeriente. El mecanismo está basado en el reconocimiento mutuo de resoluciones judiciales, que según lo establecido en las conclusiones de Tampere, debe ser la piedra angular de la cooperación judicial tanto en materia civil como penal en el seno de la Unión Europea. El sistema será lo más simple posible: cuando la autoridad de un Estado Miembro solicite que una persona sea detenida, bien en base de una sentencia condenatoria o en el curso de un procedimiento criminal, esa decisión ha de ser reconocida y aplicada en todo el territorio de la Unión Europea. Por otra parte, los motivos para rechazar la ejecución de la petición del Estado requeriente son extremadamente limitados, sin que, por ejemplo, la nacionalidad sea causa que justifique tal rechazo. Cabe destacar la extraordinaria celeridad del proceso, que durará como máximo sesenta días, ampliables a noventa en casos excepcionales. Para una lista de 32 delitos que deberán estar castigados en el Estado requirente con una pena privativa de libertad de al menos tres años, la entrega de la persona no requerirá el previo control del principio de doble incriminación. Entre estos delitos están no sólo el terrorismo sino la trata de seres humanos, explotación sexual de menores, tráfico ilícito de drogas y de armas, corrupción y firaude, entre otros. El Parlamento Europeo respondió positivamente a la reconsulta ^ del Consejo, y una vez que se levanten algunas reservas parlamentarias subsistentes, el instrumento será adoptado oficialmente, dejando a los Estados miembros un plazo limite para la transposición que es el 31 de diciembre de 2003. Algunos Estados miembros han anunciado su voluntad de poner en obra dicha decision-marco en la primera mitad del año 2003. El Consejo JAI de 28 de febrero llegó a un acuerdo, supeditado a la retirada de diversas reservas de estudio parlamentario y a una nueva consulta al Parlamento Europeo, sobre la propuesta de Decisión marco relativa al reconocimiento mutuo en la Unión europea de las resoluciones de embargo preventivo de bienes y de aseguramiento de pruebas. El progra-Los nuevos escenarios para la cooperación. 315 ma de medidas destinado a poner en práctica el principio del reconocimiento mutuo en materia penal ^ adoptado por el Consejo el 29 de noviembre de 2000, fijaba como una de las primeras prioridades la adopción de un instrumento que aplicase el principio del reconocimiento mutuo al embargo preventivo de bienes y al aseguramiento de pruebas. El objetivo del citado instrimaento es la ejecución directa y automática por la autoridad competente del llamado «Estado de ejecución» de una resolución de embargo preventivo o de aseguramiento de pruebas transmitida por la autoridad competente del llamado «Estado de emisión», utilizando un formulario único y con arreglo a unas condiciones determinadas. Dicha resolución, que sería transmitida por la autoridad judicial que la haya dictado, directamente a la autoridad competente para su ejecución, sería ejecutada sin demora del mismo modo que lo sería una resolución de embargo preventivo o de aseguramiento de pruebas nacional. Por lo que se refiere al ámbito de aplicación de la Decisión marco, será equivalente al acordado para la Decisión marco relativa a la orden de detención europea, es decir, supresión de requisito de la doble incriminación para una lista de 32 delitos, siempre que dichos delitos estén castigados con una pena de al menos tres años. Las resoluciones de embargo preventivo deberán efectuarse respetando los principios de legalidad, subsidiariedad y proporcionalidad. Dentro de los avances en materia de cooperación judicial hay que referirse a un instrumento que será muy importante en la lucha contra el crimen organizado y el terrorismo, sobre el que hubo también acuerdo político en el Consejo JAI del 6 de diciembre último: y adopción formal el 28 de febrero de 2002, con entrada en vigor el 6 de marzo: Eurojust ^. Este organismo esta compuesto por fiscales, y magistrados de los Estados miembros y su misión consiste en facilitar la adecuada coordinación de las fiscalías nacionales, así como apoyar las investigaciones penales en los casos de delincuencia organizada y transfronteriza. La aplicación del principio de reconocimiento mutuo y en general la mejora de los mecanismos de asistencia judicial pasan por la aplicación de una serie de medidas de acompañamiento encaminadas a incrementar el entendimiento de los respectivos sistemas judiciales. En particular, cabe mencionar la Red Judicial Europea ^^, en funcionamiento desde hace más de tres años y que tiene como función facilitar el establecimiento de contactos adecuados entre autoridades judiciales con responsabilidades en el marco de la cooperación judicial internacional, de manera general y para ciertos delitos graves, entre los que se encuentra el terrorismo. En fin, la Unión Europea ha actuado en el ámbito del bloqueo de capitales de organizaciones terroristas ^\ Una Posición común del Consejo ^^ file adoptada el 27 de diciembre de 2001, sobre la aplicación de medidas específicas de lucha contra el terrorismo, para la aplicación de la Resolución 1373 (2001) del Consejo de Seguridad de la ONU sobre el combate al terrorismo. El objetivo de esta acción común era doble: afirmaba como un objetivo de la política exterior y de seguridad común que la Comunidad Europea actúe para asegurar que no se pongan a disposición de las personas, grupos y entidades relacionados en el anexo al texto, ningún fondo o recurso económico ^^. Por otra parte, establecía que los Estados miembros, mediante una cooperación policial y judicial en asuntos penales en el marco del título VI del Tratado de la Unión Europea, se prestarán mutuamente la asistencia más amplia posible para la prevención y la lucha contra actos terroristas. España ha presentado recientemente un proyecto de decisión relativa a la aplicación de medidas específicas de cooperación policial y judicial en la lucha contra el terrorismo de acuerdo con el Artículo 4 de la Posición Común del Consejo antes mencionada. El objetivo de esta iniciativa es el establecimiento en cada Estado miembro de puntos de contacto que tengan acceso y recopilen información relativa a investigaciones criminales respecto de delitos terroristas en que intervengan cualquiera de las personas, grupos o entidades que figuran en la lista de la Posición común. Según el texto del proyecto, estas informaciones se comunicarían a Europol y Eurojust y se haría pleno uso de los equipos conjuntos de investigación a los efectos de investigar y perseguir los delitos terroristas. De este modo se establecería también un vinculo estrecho entre los instrumentos de cooperación judicial penal y los de cooperación policial. La acción común en el ámbito de la cooperación policial incluye: a) La cooperación operativa entre las autoridades competentes, incluidos los servicios de policía, de aduanas y otros servicios especializados en los Estados miembros. b) La recogida, almacenamiento, tratamiento, análisis e intercambio de información pertinente, en particular mediante Europol. c) La cooperación y las iniciativas conjuntas en la formación, el intercambio de funcionarios de enlace, el uso de equipos y la investigación científica policial. d) La evaluación común de técnicas especiales de investigación relacionada con la detección de formas graves de delincuencia organizada. El Consejo Europeo de Tampere concluyó que: «6. Las personas tienen derecho a esperar que la Unión afronte la amenaza que para su libertad y sus derechos civiles constituye la gran delincuencia; Para contrarrestar esta amenaza se precisa un esfrierzo común que prevenga y combata la delincuencia y las organizaciones delictivas en toda la Unión, Es necesaria la movilización conjunta de los recursos policiales y judiciales para garantizar que en toda la Unión no exista lugar alguno donde puedan ocultarse los delincuentes.,.,» «43. Debe sacarse el máximo provecho de la cooperaxíión entre las autoridades de los Estados miembros al investigar la delincuencia transfronteriza en cualquier Estado miembro. El Consejo Europeo hace un llamamiento para que se creen sin demora equipos conjuntos de investigación tal como se contempla en el Tratado, como primer paso para luchar contra el tráfico de drogas y la trata de seres humanos, así como contra el terrorismo» «44. El Consejo Europeo pide que se establezca una Unidad operativa europea de jefes de policía con objeto de intercambiar, en cooperación con Europol, experiencia, mejores prácticas e información...» «45. Europol...su papel debe reforzarse mediante la recepción de datos operativos procedentes de los Estados miembros y la autorización para pedir a los Estados miembros que inicien, dirijan o coordinen investigaciones o creen equipos conjuntos de investigación en determinados ámbitos de la delincuencia...» Como se ha ya mencionado, el Consejo Europeo extraordinario de 21 de septiembre de 2001 estableció un plan de acción de la Unión Europea como respuesta a los atentados en Estados Unidos e impulsó una amplia gama de medidas legislativas y operativas destinadas a reforzar la cooperación policial y judicial, a contener la financiación del terrorismo, a reforzar la seguridad aérea y a responder a las amenazas de utilización de armas biológicas y químicas. Concretamente en lo que se refiere a la cooperación policial destacan las siguientes medidas: • Lista común de organizaciones terroristas internacionales. Dicha lista se elaboró en estrecha cooperación con los servicios operativos responsables de combatir el terrorismo, incluidos los servicios de Denise Sorasio 318 información, las fuerzas de policía y las autoridades judiciales. En relación con esta lista son de aplicación las medidas recogidas en el Reglamento 2580/2001 del Consejo mencionado anterioremente. • Identificación de los supuestos terroristas en Europa y de las organizaciones que los apoyan a fin de establecer una lista común de organizaciones terroristas autóctonas. Con relación a esta lista impuso la necesidad de una mejor cooperación y un mejor intercambio de información entre todos los servicios de información de la Unión (Art. 4 de la Posición Común 2001/931/PESC). • Necesidad de acelerar la creación de equipos conjuntos de investigación de la convención relativa a la asistencia judicial en materia penal entre los Estados miembros ^^. Según el convenio las autoridades competentes de dos Estados miembros pueden crear un equipo común de investigación, con un objetivo preciso y por una duración linútada para efectuar investigaciones penales en uno o varios Estados miembros. Un equipo común de investigación puede crearse cuando: a) en el contexto de un procedimiento de investigación realizado por un Estado miembro para detectar infi^acciones, hay que efectuar investigaciones difíciles que implican la movilización de medios importantes que afectan también a otros Estados; b) varios Estados miembros efectúan investigaciones relativas a infi: acciones que en razón a los hechos que han dado lugar a su iniciación, exigen una acción coordinada y concertada en los Estados miembros en cuestión. Respondiendo a los deseos el Consejo varios Estados miembros (Francia, España, Bélgica, Irlanda y el Reino Unido) presentaron una iniciativa para la adopción por el Consejo de una decisión-marco sobre la creación de dichos equipos ^^. La decisión marco publicada el 20.10.2001 estableció que tales equipos deberían crearse con prioridad para luchar contra las infi-acciones cometidas por los terroristas. Los Estados miembros deben adoptar todas las medidas necesarias para adecuarse a las disposiciones de la Decisión marco antes del 1 de julio de 2002. • Creación de un equipo de especialistas en antiterrorismo en el seno de Europol, Dicho equipo deberá colaborar estrechamente con sus homólogos estadounidenses. Además el equipo se encarga de mantener actualizado el análisis de la amenaza del terrorismo islámico en Europa. Para permitir la realización de su tarea los Estados miembros fueron exhortados a compartir con Europol, sin demora y sistemáticamente, todo dato útil en materia de terrorismo. Se decidió también otorgar créditos suplementarios, aumei tando el pre-Los nuevos escenarios para la cooperación... supuesto 2002 de Europol de 3,7 M Euro para la lucha contra el terrorismo. • Reñierzo de la cooperación entre los jefes de las unidades antiterroristas. Para ello se insistió en la necesidad de realizar reuniones periódicas del Grupo Operativo de jefes de Policía. El Grupo Operativo de jefes de policía realizó tras su reunión de 30/10/01 una serie de recomendaciones para reforzar la cooperación policial en el ámbito de la lucha contra el terrorismo entre las que destacan: -Sobre el tratamiento de la información: -Que en el ámbito nacional la evaluación de la amenaza terrorista sea realizada por el servicio competente de manera periódica y sobre la base de criterios comunes. -Que el colegio de policía CEPOL elabore módulos de formación en el ámbito de la información relativa a la lucha contra el terrorismo. -Se constituya en Europol un «Centro de Datos sobre artefactos explosivos (Bomb Data Center)». -Se aligere el procedimiento del Artículo 99 de la Convención de aplicación del Acuerdo Schengen. -Se busque un mejor equilibrio entre las reglas de protección de datos y las necesidades de las investigaciones concretamente en lo que se refiere a las telecomunicaciones y los datos electrónicos. -Sobre las medidas para garantizar un nivel elevado de seguridad: -Incentivar los trabajos para armonizar los aspectos técnicos de la fabricación y la concepción de documentos de identidad, de estancia y de viaje. -Establecer una mejor cooperación entre los servicios de policía, las compañías aéreas y los servicios de seguridad aérea. -Sobre la cooperación de las unidades operativas de intervención. -Creación de una red segura de información y de comunicación entre las unidades operativas antiterroristas. Mejor cooperación y mejor intercambio de información entre todos los servicios de información e inteligencia. Para ello deben fomentarse reuniones periódicas de los jefes de los servicios de información. Refuerzo de la cooperación entre servicios de policía, con inclusión de Europol y de los servicios de información. Este asunto es objeto de discusión para buscar las fórmulas y métodos adecuados de encauzar las relaciones y el intercambio de información entre estos servicios teniendo en cuenta ante todo las especificidades de Denise Sorasio 320 la organización, estructura, dependencias y competencias de los servicios de información en cada Estado miembro. Mejora de la coordinación entre Europol IEurojust y el Grupo Operativo de Jefes de Policía. El Consejo propuso tras la reimión del 29/10/2001 examinar la compatibilidad de los instrumentos jxirídicos de creación de Europol y Eurojust para evitar crear competencias concurrentes y garantizar la complementariedad de las tareas y de los objetivos. Se insistió en la necesidad de establecer mecanismos de información mutua así como favorecer la creación de equipos comunes de investigación como apoyo a la cooperación judicial. Actualización del repertorio de competencias de EuropoL El ámbito de responsabilidad y las competencias de Europol deben ampliarse a todas las formas de delincuencia citadas en el Convenio y deben ser actualizadas periódicamente para incluir cualquier potencial nueva forma de delincuencia. Evaluación de los dispositivos nacionales para luchar contra el terrorismo. Esta tarea será acometida por dos expertos nacionales en aspectos legislativos relacionados con la lucha contra el terrorismo que serán contratados por la Secretaría General del Consejo. Refuerzo de los controles en las fronteras exteriores y posibilidad de recurso coordinado al apartado 2 del artículo 2 del Convenio Schengen (restablecimiento de los controles en las fronteras) en el caso de amenazas terroristas de extrema gravedad. Se decidió que constituye una amenaza terrorista de extrema gravedad, a los efectos de aplicación del citado Artículo 2.2 del Convenio: a. Una amenaza inminente o la ejecución de diversos atentados terroristas simultáneos o sincronizados en varios Estados miembros; b. Un atentado terrorista de excepcional gravedad cuando existen indicaciones serias de que los autores o los cómplices pueden intentar escapar a otros Estados miembros; c. Una amenaza inminente de un atentado terrorista de excepcional gravedad en uno o varios Estados miembros cuando existen indicios serios de que los autores o los cómplices pueden proceder de otros Estados miembros. Refuerzo de las normas de seguridad en los aeropuertos y aviones. Se ha propuesto un reglamento ^^ que recoge las reglas comunes aplicables en el marco de la seguridad aérea y cuyo principal objetivo es asegurar un nivel elevado de seguridad a través de medidas que impidan los actos ilícitos en la aviación civil. Intensificación de la cooperación y armonización de las legislaciones en materia de armas y explosivos. Diversos trabajos se han acometido en la Comisión para reforzar las medidas de control y vigilancia de la adquisición, el transporte, la comercialización y el consimao de los explosivos de uso civil para evitar que puedan ser sustraídos o desviados para su utilización por organizaciones o elementos terroristas. Se ha demostrado que la Unión Exu-opea podía responder de una forma rápida y enérgica a la situación generada después del 11 de septiembre, pero al mismo tiempo que lo podía hacer de forma respetuosa con los derechos fundamentales y las libertades públicas. Aunque todavía quedan pasos que dar en la consecución de un verdadero espacio de libertad, de seguridad y de justicia, los niveles de cooperación judicial penal que se alcanzarán con la plena aplicación de estos nuevos instrumentos legales garantizarán una coordinación y una rapidez de actuación entre las autoridades judiciales de los Estados Miembros inimaginables hace unos años. Ninguno de estos instrumentos puede ser juzgado desde el punto de vista de la simple efectividad judicial y policial. Todos estos instrumentos constituyen una garantía de nuestro sistema de libertades común. El terrorismo es un atentado directo contra los derechos y libertades fundamentales reconocidos en los países de la Unión Europea. Por otra parte la lucha contra el terrorismo exige una acción rotunda y coordinada por parte de las fuerzas de seguridad. La cooperación fluida entre los servicios preventivos y represivos de todos los países afectados es la piedra angular de la eficacia en la lucha contra el terrorismo. Después del 11 de septiembre se han dado pasos importantes en el ámbito de la cooperación policial pero existen todavía aspectos de esta cooperación que deben ser mejorados. Los esfuerzos deben dirigirse a: -Hacer esfuerzos para que Europol sea reconocido por todos los servicios policiales como «lugar de encuentro» europeo de la cooperación policial y del intercambio de información. -La cooperación policial hasta ahora se ha basado en los acuerdos bilaterales. Es necesario ampliar este marco a la participación multinacional. Denise Sorasio -Es necesario progresar en la mejora de la relación permanente y el intercambio entre los servicios de policía y los de inteligencia de los Estados miembros. Por fin, hay que señalar la intensificación de la cooperación con los Estados Unidos en la lucha contra el terrorismo. El Consejo de Justicia y Asuntos de Interior (JAI) del 20 de septiembre adoptó una serie de medidas para mejorar la cooperación con los Estados Unidos (EUA) en la lucha contra el terrorismo. La mayor parte de estas medidas tienen que ver con la cooperación judicial y penal. En este ámbito, se identificaron tres áreas específicas de cooperación. Primero, se invitó a Europol a concluir un acuerdo formal de cooperación con los EUA lo más pronto posible. El 6 de diciembre de 2001 un acuerdo de cooperación estratégica ñie firmado por Europol y los EUA. Este acuerdo permite, entre otros, intercambios de información estratégica sobre análisis de tendencias criminales, articulación de mejores prácticas para enfi:'entar problemas criminales específicos, incluyendo el terrorismo y el intercambio de oficiales de enlace. Actualmente se está negociando un segundo acuerdo incluyendo la posibilidad de intercambiar datos personales. Para que dicho acuerdo pueda ser concluido, Europol necesita convencerse de que los EUA aseguran «un nivel adecuado de protección de datos» para los datos personales transmitidos desde la Unión Europea (UE). Por otro lado el Grupo operativo de jefes de policía recibió el mandato de la puesta en común con los servicios homólogos de los Estados Unidos de buenas prácticas en el ámbito de la lucha contra en terrorismo. Segundo, se concedió un papel importante a la nueva agencia Eurojust en el establecimiento de la cooperación judicial. A este fin, magistrados de Eurojust visitaron a sus interlocutores estadounidenses y viceversa, para establecer contacto e informarse unos a otros sobre investigaciones y casos en curso. Además, los EUA nombraron a un oficial de enlace en Eurojust y los Estados miembros de la UE identificaron expertos para facilitar los contactos. Un acuerdo formal de cooperación entre Eurojust y los EUA se negociará en el futuro cercano. Por último, el Consejo JAI acordó proponer a los EUA negociar un acuerdo de cooperación judicial en materia penal con la UE. En particular, este acuerdo cubriría tanto la extradición como la asistencia legal recíproca. Las primeras pláticas informales entre ambos lados sobre este tema empezaron en febrero de 2002 y continúan en la fecha. Se espera que el Consejo otorgue a su Presidencia, asistida por la Comisión, la autorización para que pueda iniciar formalmente las negociaciones antes del fin de la actual Presidencia española. ^ La autora agradece a sus colegas Yolanda Gallego-Casilda y Eduardo Cano Romera por la ayuda proporcionada en la redacción de este artículo. ^ Este artículo refleja exclusivamente las opiniones de su autor. ~ La incriminación especifica de la recolección de fondos para la realización de actos terroristas -La congelación de los fondos y bienes de los terroristas y de las personas o entidades que actúan en nombre o siguiendo instrucciones. -La represión del apoyo, el reclutamiento y el aprovisionamiento de armas para los grupos terroristas. -El rechazo del asilo para los miembros de organizaciones terroristas. -La asistencia mutua entre los Estados miembros y con los países terceros en las investigaciones contra los actos de terrorismo y de financiación de estas actividades. 1^ En el ámbito del tratado comunitario esto dio lugar a la adopción del Reglamento (CE)2580/2001 del Consejo de 27 de diciembre de 2001 sobre la adopción de medidas restrictivas especificas contra ciertas personas y entidades en el marco de la lucha contra el terrorismo que permite la congelación de fondos y bienes de los individuos, grupos y entidades recogidos en la lista de
Introducción: la construcción europea y la visibilidad estadística De los 376 millones de habitantes que en 2000 registraba Eurostat como residentes en los quince países de la Unión Europea, aproximadamente 18,5 tenían nacionalidad extranjera, lo que representaba el 5% del total, entre ellos 13 millones eran de nacionalidad de países extracomunitarios, ascendiendo el porcentaje al 3,5% del total, a esos datos se debería añadir una bolsa de inmigrantes no contabilizados de difícil estimación, pero que en todo caso en conjunto no rebasaría el 7% de la población residente en la Unión. Dicha población de nacionalidad extranjera se ha incrementado notablemente durante la década de los noventa a consecuencia de la aceleración de los flujos migratorios destinados a Europa, con alrededor de 700 mil de entradas anuales (Eurostat, 2000), aunque estos últimos datos deban interpretarse como una aproximación muy somera a los flujos reales, habiéndose señalado el aumento de los movimientos que escapan a cualquier registro estadístico. Aceleración, feminización e incremento de la clandestinidad han sido las tres características destacadas de los movimientos migratorios dirigidos a la tranjera residente en la Unión Europea son escasas, poco fiables y difícilmente comparables. Las principales causas para esas deficiencias hay que buscarlas tanto en las diferencias legislativas en la regulación de los flujos migratorios como en los dispares criterios de recuento y en la heterogeneidad en la calidad del mismo por lo que se refiere a las migraciones, a la que habrá que añadir la diversa definición tanto del estatuto de extranjero como el acceso a la nacionalidad en cada uno de los países para lo que se refiere al asentamiento de la población de nacionalidad extranjera. Todo ello contribuye a que nuestra imagen de los flujos migratorios dirigidos hacia la Unión Europea sea tan sólo una visión aproximativa y borrosa, estadísticamente hablando, que debería ser tratada con gran cautela, y a que las características de la población ya asentada, si bien mejor registrada, tenga que tener siempre en cuenta la distorsión del volumen que pueden representar aquellos que para la estadística siguen siendo invisibles: los no registrados. La estadística, en un tema tan crucial como el de la inmigración internacional nos recuerda sus orígenes como ciencia del estado: la visión de los flujos migratorios adolece tanto de su novedad en un continente tradicionalmente emigratorio hasta mediados del siglo XX, como del propio proceso de construcción europeo. Hoy por hoy las series estadísticas de los diferentes países europeos reflejan con más fidelidad los cambios legislativos de cada uno de estos países en materia de extranjería y migraciones internacionales que los movimientos reales que se han producido durante el período considerado, poniendo además de manifiesto la falta de una política unitaria sobre migraciones y asentamiento de la población de nacionalidad extranjera que tiene su traducción directa en la escasa comparabilidad entre los datos disponibles. Así pues, resulta del todo aventurado prever el volumen de los futuros flujos migratorios, siendo necesaria una mirada retrospectiva para arriesgarse a predecir sino los efectivos que van a componer esos flujos, sí parte de las características sociodemográficas de los mismos y el papel que van a jugar en la evolución demográfica del futuro europeo. La segunda mitad del siglo veinte certificó la conversión de la Europa Occidental en una zona de recepción de inmigración. Esa inversión en el sentido de los movimientos migratorios estuvo estrechamente relacionada con las transformaciones demográficas, económicas, y políticas de Flujos migratorios hacia Europa Europa. En 1950, los residentes de nacionalidad extranjera representaban un escaso 1,5% del total de la población, el aumento de los flujos y consiguientemente de la proporción de personas de nacionalidad extranjera conllevó un cambio en los orígenes de los migrantes así como en las características sociodemográñcas de los mismos. A grandes rasgos, desde entonces podemos distinguir cuatro períodos: a) 1950-1973, de la posguerra hasta la crisis económica, con el desarroUismo de los años sesenta como pieza central; b) 1973-1982, el período correspondiente a la crisis económica; c) 1982-1992, el período de la recuperación económica; y d) 1993-2000 marcado por la toma de conciencia de las migraciones como asunto prioritario en la agenda política de la Unión Europea. Durante estos años, la inmigración de trabajadores constituyó el flujo más importante a tener en cuenta: hombres jóvenes, en edad activa y principalmente ocupados en el sector industrial fueron los protagonistas de dichos movimientos migratorios. En general, durante los años sesenta, de existir una política migratoria, cuando no se dejaba en manos de la iniciativa privada, consistió en la incentivación tanto en los países de origen como en los de destino, siendo el modelo del Gestarbaiten alemán el más extendido. "El trabajador invitado", procedía principalmente de los países mediterráneos europeos: portugueses, españoles, italianos, griegos y yugoslavos, aunque junto con ellos podíamos encontrar a magrebís, turcos, o personas procedentes de algún país de la Commonwealth para el Reino Unido. Siempre siguiendo la concepción del trabajador invitado, de esos inmigrantes que llegaban prioritariamente a Alemania, Francia, Suiza, Bélgica o Gran Bretaña, se esperaba que una vez transcurrida parte o la totalidad de su vida activa volvieran a sus países de orígenes. La evolución de los saldos migratorios (la resta de inmigración y emigración) de los quinquenios correspondientes a los años sesenta (Tabla 1 y Gráfico 1), muestra una clara dicotomía entre emisores y receptores de inmigración. A los países receptores anteriormente citados habría que añadir Suecia y Luxemburgo, destacando como el carácter positivo de dichos saldos es determinante en la evolución del crecimiento total de la población, si exceptuamos el caso de Gran Bretaña, donde incluso los saldos llegaron a ser negativos a partir del quinquenio 1965-1969. Para Dinamarca, Austria y Holanda el balance entre emigración e inmaigración durante este período es ligeramente positivo a favor de la inmigración sin que en cambio pueda compararse con los niveles 32'i 328 Anna Cabré, Andreu Domingo alemanes o franceses. Por último, Irlanda presenta saldos negativos a consecuencia de la tradicional emigración transoceánica, mientras que en Finlandia la emigración a la vecina Suecia puede recordar los movimientos migratorios de los países mediterráneos a los países centrales de la Unión. Junto con las migraciones de trabajadores, para este período de los años sesenta, no debemos olvidar tampoco los movimientos humanos producto del proceso de descolonización así como los asilados y refugiados. En el primer apartado deberemos destacar el poco más de un millón de personas que emigró de Argelia a Francia entre 1962 y 1963, una vez firmado el tratado de Evián. Sino tan numerosos de idéntico carácter fueron los movimientos sucedidos con la descolonización de Indonesia en el caso de Holanda o la del Congo en el caso de Bélgica. Por último, la partición de Europa en dos bloques y las tensiones propias de la guerra fría fueron la fuente de las corrientes más cuantiosas de refugiados y asilados, así por ejemplo, en 1956-57, tras el cierre de la frontera entre Hungría y Austria, se calcula que llegaron a esta última república más de 194 mil refugiados húngaros, del mismo modo, la Primavera de Praga de 1968 y la posterior ocupación soviética, produjeron aproximadamente unos 162 mil refugiados checos y eslovacos en los países de la Europa Occidental (Munz, 1995). La crisis económica de los años setenta tuvo una especial repercusión en la ocupación en el sector industrial, y consecuentemente importantes consecuencias en los movimientos migratorios y en las políticas dirigidas tanto a la migración como a la población extranjera residente en cada uno de los países que habían destacado como receptores de inmigración. Una de las primeras medidas adoptadas para combatir el creciente desempleo fue orientada a la restricción de la llegada de nuevos flujos migratorios, a la vez que se incentivaba el retorno de los inmigrantes residentes. Las políticas de cariz claramente restrictivo se promovieron en nombre de la protección de la mano de obra autóctona. El resultado de tales medidas fue dispar: así, mientras para los países del sur de Europa el retorno de inmigrantes fue una realidad (observóse como para todos ellos los saldos migratorios indican una recuperación especialmente significativa durante el quinquenio 1974-79), y por ende las políticas pueden ser evaluadas como efectivas, para el resto de nacionalidades ese retorno no sólo no se produjo en el volumen deseado, sino que al final del Flujos migratorios hacia Europa 32Ê período el número de inmigrantes procedentes de países terceros a la Unión Europea había crecido (aunque los flujos como puede inducirse de la evolución del saldo migratorio hubieran disminuido en comparación al período anterior). Además de cambiar los orígenes de los flujos y la nacionalidad de la población extranjera, la estructura por sexo y edad se transformó radicalmente. El aumento de menores y mujeres puso de maniñesto la voluntad de asentamiento de la inmigración, acabando con el modelo del trabajador inmigrado identificado exclusivamente con jóvenes de sexo masculino. Para entender tan contradictorio resultado hay que tener en cuenta la realidad histórica y política de los países emisores de inmigración. Por un lado Italia, España, Portugal y Grecia ofrecían un espacio social de retorno inexistente en el resto de países. En los tres últimos países se había vivido la caída de sendas dictaduras, iniciándose un proceso de transición democrática, y en los cuatro los años sesenta habían representado un salto económico cualitativo que, junto con el retraso de la toma de conciencia de la crisis económica, son factores a tener en cuenta en el retorno acaecido. Paralelamente, la falta de ese TABLA 1. Saldo migratorío de los países de la Unión Europea, 1960-1999 Anna Cabré, Andreu Domingo espacio socioeconómico y político idóneo para el retorno en países terceros, se alió a los efectos contraproducentes de una política restrictiva retrasando los proyectos de retorno, adelantando los de migración en el país de origen, y promoviendo la reagrupación familiar en el país de destino. El resultado final fue un importante cambio en la composición por nacionalidad de los flujos migratorios, en la estructura por sexo y edad de dichos movimientos, y en una creciente desregularización de aquellos que los protagonizaban, dando como fruto un aumento de la migración clandestina. A las migraciones de trabajadores deberemos añadir los movimientos como fruto de las descolonizaciones tardías en el caso de Angola y Mozambique para Portugal, y los de refugiados que huían de las dictaduras instaladas en el Cono Sur latinoamericano, de especial relevancia en España, y más tardíamente los resultantes del inicio de la descomposición del bloque oriental, como fueron los más de 250 mil polacos emigrados entre 1980 y 1981. Crecimiento natural de la población de los países de la Unión Europea, 1960-1999 Si bien las expectativas de substitución de la mano de obra empleada debida a la revolución de la emergente economía informacional no se produjeron en la medida de lo esperado, la recuperación de la crisis económica puso de manifiesto importantes cambios en las migraciones internacionales en Europa y no menos flagrantes contradicciones en las políticas migratorias. Por un lado, la demanda de mano de obra se generaba no ya en el sector industrial sino en el sector servicios que es el que experimentará a partir de entonces un mayor crecimiento, por el otro, las políticas de cada uno de los países miembros de la Unión Europea siguieron estando marcadas por la negativa experiencia de la crisis y ancladas en una visión proteccionista avivada por los efectos negativos de la globalización económica. Durante este período no sólo se incrementó la inmigración en los antiguos países receptores, sino que además los países mediterráneos de la Unión Europea inviertieron el signo del saldo migratorio pasando de ser países eminentemente emigratorios a países de inmigración. También a partir de entonces, el fenómeno migratorio empezó a configurarse como una pieza relevante en la construcción europea, afectando a las políticas nacionales sobre inmigración. A este respecto sirva de ejemplo el caso español, de todos es conocido como la Ley de extranjería de 1985 se enmarcó en la entrada de España en la Comunidad Europea en 1986, o como la regularización de 1991 (lo mismo que la italiana de 1990), es incomprensible sin la referencia al tratado de Schengen sobre libre circulación de personas pertenecientes a los países firmantes, iniciado en 1985 y definitivamente firmado en junio de 1991. En la voluntad política de Schengen se insiste en favorecer la movilidad de los trabajadores de los países comunitarios, la de trabajadores cualificados de países terceros, y la migración de retorno de ciudadanos miembros de la comunidad o de colectivos étnicos considerados pertenecientes a estados miembros de la Comunidad (en clara alusión a Alemania y Grecia). Mientras que se recomiendan todos los esfuerzos dirigidos a frenar la migración de trabajadores no cualificados de países terceros si no se trata de ocupaciones estacionales (con mención explícita para España e Italia), a los demandantes de asilo (con el argumento de que son inmigrantes económicos) y por fin, se incita a la expulsión de los inmigrantes llamados sin papeles (ilegales, irregulares o indocumentados). Durante este período las migraciones de refugiados crecieron espectacularmente debido en su mayor parte por los efectos del colapso de los regímenes comunistas en los países del Este. Con la caída del muro de Berlín y el proceso de unificación alemana, Alemania inició una política de retorno étnico, con la nacionalización inmediata de los ciudadanos soviéticos de ascendencia germánica, los llamados ausslieder (alemanes del Volga y prusianos principalmente), caso parecido al de Grecia, registrándose tan sólo en 1990 más de 100 mil entradas, y en 1991 flujos de una media alrededor de 20 mil personas mensuales para Alemania. También durante este período es necesario tener presente los refiígiados del conflicto de los Balcanes, si bien la mayoría de los más de cinco millones de personas desplazadas lo hicieron dentro de las fronteras de la antigua República de Yugoslavia, siendo Alemania el país de la Unión Europea que más refugiados acogió. Episódicamente deberemos tener en cuenta además las oleadas procedentes del éxodo albanés, que en el verano de 1990 alcanzó su punto álgido y del que Italia ha sido el principal receptor. A excepción de Gran Bretaña y Holanda la década de los noventa inaugura una drástica restricción en la concesión de permisos para refugiados en todos los países europeos, registrándose descensos del 80% a Austria, del 78% en Suecia, del 81% en Alemania, y del 52% en Dinamarca tan sólo para el año 1992. Como ya se ha señalado en la introducción la década de los noventa ha destacado por la aceleración de los movimientos migratorios, la feminización propiciada tanto por el reagrupamiento familiar como por la demanda del sector servicios, y la creciente clandestinidad. Observando el Gráfico 1, veremos como todos los países de la Unión Europa sin excepción registran saldos migratorios positivos, sobrepasando o recuperando para el primer quinquenio niveles semejantes a los de los años sesenta en países que habían sido tradicionalmente receptores de inmigración como Alemania o Bélgica, y confirmando el cambio de tendencia apuntado en el período anterior para los países mediterráneos que sin embargo siguen registrando efectivos relativamente inferiores. Por otro lado, es característico también al conjunto de los países de la Unión el protagonismo que el saldo migratorio adquiere en el cómputo global del crecimiento de la población. La creciente llegada de flujos migratorios juntamente con el papel esencial que juegan en el crecimiento total de la población de cada uno de los países que componen la Unión Europea, ha hecho que la década de los Flujos migratorios hacia Europa noventa plantee de forma acuciante el diseño de una política migratoria conjunta. El tratado de Amsterdam y la reiuiión del Consejo de Europa celebrada en Tampere en 1999, marcan sin duda un cambio en la sensibilidad europea frente a la política migratoria, expresando la necesidad de acercar las diferentes legislaciones nacionales en materia de extranjería y desarrollar una política común tanto en lo que se refiere a los flujos de migrantes económicos como al derecho de asilo. Migraciones internacionales y población de nacionalidad extranjera en la Unión Europea a las puertas del siglo XXI Si observamos en la Tabla 3 y el Gráfico 2, los componentes de la tasa de crecimiento de la población de los quince países de la Unión Europea para 1999, vemos cómo el saldo migratorio se confirma como un elemento determinante del crecimiento total, llegando a contrarrestar el crecimiento natural negativo de países como Alemania (-0,9 por mil), Suecia (-0,7 por mil), Italia (-0,6 por mil), Grecia (-0,1 por mil), o Austria (-0,0 por mil). Para el resto de países, exceptuando Francia y Finlandia, el saldo migratorio ha significado más de la mitad del crecimiento total de la población, destacando España, donde el crecimiento debido al saldo migratorio representa un 83% de total, el Reino Unido con un 69%, o Bélgica con un 64%. En conjunto, el saldo migratorio positivo de 711.400 personas registrado en 1999 representó un 73% del crecimiento de la población experimentado por la Unión Europea con un total de 989.200 habitantes más que el año anterior. Si de la observación de los flujos pasamos a la observación de los stocks de población (ver Tabla 4, y Gráficos 3 y 4), es decir, si cambiamos la óptica de las migraciones a la población extranjera ya asentada veremos como persiste una clara dicotomía entre los países que tradicionalmente fíieron receptores de migración y los países anteriormente emigratorios, especialmente en términos relativos (Gráfico 4), comparando el porcentaje que las personas de nacionalidad extranjera representan sobre el total de la población. En cifiras absolutas, y a mucha distancia los más de 7 millones de extranjeros residentes en Alemania se significan sobre el resto de países, incluso sobre los 3 millones censados en Francia o los 2 millones estimados para el Reino Unido. A este propósito debemos insistir en cómo, a parte de la lógica diferencia en el tamaño de la población de cada uno de los países, la legislación sobre el acceso a la nacionalidad es determinante en la presencia de la población extranjera. En cintas relativas, por en-336 Anna Cabré, Andreu Domingo GRÁFICO 2. Componentes de la tasa de crecimiento de la población de la Unión Europea, 1999 La dicotomía entre el norte y el sur de la Unión Europea respecto a las migraciones internacionales y el asentamiento de la población de nacionalidad extranjera no se limita a los efectivos relativamente reducidos que aparecen en los países meridionales, sino que también se ha destacado tanto el diferente origen de las corrientes migratorias, y consecuentemente de la nacionalidad de los residentes asentados, como en el modo de integración de dicha población. La diferencia en los volúmenes y el origen de los migrantes ha llevado a algunos autores a considerar la existencia de un subsistema mediterráneo dentro del sistema migratorio europeo (Massey y otros, 1998) otros señalan razones geopolíticas, económicas y demográficas como explicación de dicha especificidad (Baldwin-Edwards y Arango, 2000). Por lo que se refiere al origen de la población extranjera en cada uno de los países de la Unión, observando el gráfico 5, para los 13 países de los que disponemos información desagregada, vemos como efectivamente la distribución continental es muy desigual. Por un lado en países como Alemania, Bélgica, Luxemburgo, o la propia Suecia, lapoblax^ión extranjera de nacionalidad europea representa más de la mitad de todos los efectivos, siendo la inmigración de los países del Este especialmente significativa en Alemania, Dinamarca, Finlandia o Suecia, mientras que en Irlanda y Luxemburgo es la inmigración procedente del resto de los países de la Unión la que explica por si sola ese peso aplastante del continente europeo. Por otro lado encontramos aquellos países como España o Portugal, donde la población de la Unión Europea con tener una representación importante, casi el 40% en España, y una cuarta parte en Portugal, los ciudadanos de algún país africano en primer lugar y americano en el segundo han ido aumentando su representación, hasta situarse en porcentajes iguales o superiores a los del conjunto del continente Europeo, Grecia e Italia por razones estrictamente geográficas conjugan una creciente población de personas procedentes de los países del Este con la presencia de población americana y africana. En conjunto podemos resumir diciendo que la diferencia en los orígenes depende tanto de la historia de cada uno de los países receptores que mantienen vínculos especiales con los emisores como por la proximidad geográfica, sin que a nuestro entender sean la razón substantiva que permita hablar de un subsistema mediterráneo. Junto con la especificidad diferencial de los orígenes de los inmigrantes y el tamaño relativamente reducido de los flujos, también se ha señalado como en el sur de Europa la irregularidad ha sido desde el principio una constante asociada a la importancia del trabajo sumergido, en comparación con los países del septentrionales de la Unión Europea. Por último, la especificidad de los países mediterráneos, a parte de la situación geográfica, destacan características de tipo económico y demográfico. Entre las características económicas, se subraya el desarrollo tardío entre los años sesenta y los ochenta, el peso de los sectores económicos abiertos al exterior como el turismo, el transporte marítimo y la pesca, o la aludida importancia de la economía informal. En el capítulo demográfico, que es el que nos interesa, se ha señalado el rasgo común de una baja fecundidad y el envejecimiento acelerado de la población como conjunción de la baja fecundidad y el alargamiento de la esperanza de vida (Baldwin-Edwards y Arango, 1999). Pero si bien es cierto que comparten estos rasgos no constituyen la causa de la especificidad de las migraciones internacionales que reciben. La especificidad de los flujos migratorios en los países del Sur de la Unión Europea, a nuestro parecer, debe comprenderse dentro de la especificidad de su evolución demográfica reciente, marcada por la intensidad de los cambios registrados en una coyuntura de reestructuración económica. De este modo, el descenso de la fecundidad, el retraso en la emancipación de los jóvenes y el alargamiento de la esperanza de vida, se dieron el los países mediterráneos con un particular retraso cronológico y una espectacular intensidad, siendo en sus inicios esa evolución por lo que se refiere a los primeros dos fenómenos una respuesta demográfica adaptativa a la crisis económica. Es dentro de ese entramado demográfico donde debemos situar la peculiar situación de la inmigración internacional y su incremento progresivo. Durante las últimas décadas del siglo XX, el aumento de la población de la Unión Europea se ha debido no tanto a la conjunción de la dinámi-Flujos migratorios hacia Europa ca demográfica, cuanto a la ampliación política de la Unión. Demográficamente hablando, el ñituro próximo estará marcado por la creciente contribución de la migración en el crecimiento de la población europea, tanto es así que la consideramos el eje central de lo que hemos llamado Sistema Complejo de Reproducción (Cabré, Domingo y Menacho, 2002). Sin embargo, el motor de esos movimientos migratorios no hay que buscarlo en la evolución demográfica de los países de la Unión Europea (caracterizados por la baja fecundidad, el alargamiento de la esperanza de vida y su consecuente envejecimiento), ni en el contraste con unos vecinos que si bien están reduciendo de forma significativa su fecundidad presentan estructuras de edad jóvenes y muy jóvenes. Las razones de los movimientos migratorios hay que buscarlas en el campo de lo económico, en el desarrollo desigual y el abismo de condiciones de vida que se dan entre países emisores y países receptores de la migración. A partir de los años setenta hemos asistido a la difusión, con diversa cronología e intensidad para cada uno de los países que componen la Unión, del proceso que algunos autores han llamado Segunda transición demográfica (Van de Kaa, 1987Kaa,, y 1999)). Una vez concluida la transición demográfica en todos y cada uno de estos países, y tras una época dora-Anna Cabré, Andreu Domingo da para la nupcialidad y la fecundidad que dio lugar al baby boom de los sesenta, se asistió a un descenso continuado e intenso de la fecundidad, así como a una transformación de las formas familiares estrechamente relacionada con la igualación de los roles entre hombres y mujeres, paralelamente se asistió a un importante alargamiento en la esperanza de vida, que ha influido definitivamente en la redefinición de la construcción social de las edades. En los países del sur de la Unión Europea esos cambios se iniciaron en la década de los setenta coincidiendo con la reestructuración económica. Más tarde, pero con mucha más intensidad. Del mismo modo, la conversión tardía de los países mediterráneos en países inmigratorios, anuncia una creciente aceleración de la intensidad de la inmigración en los mismos, con el telón de fondo de la convergencia demográfica europea. En estos momentos, en estos países están entrando en el mercado de irabajo los jóvenes pertenecientes a las generaciones relativamente vacías nacidas a partir del descenso de la fecundidad, esos mismo jóvenes que retrasaron su emancipación y que han protagonizado un espectacular avance en los niveles de instrucción, especialmente por lo que se refiere a las generaciones femeninas. Las expectativas de ocupación de estos jóvenes y de sus famiUas abren la puerta a la complementariedad en la integración de jóvenes inmigrantes en un mercado de trabajo segmentado. Al mismo tiempo, el potencial de integración de la mujer en el mercado de trabajo, junto con la generalización de las familias de doble ingreso genera una oferta creciente de empleo en el sector de servicios dedicado al trabajo doméstico y al cuidado de personas mayores o menores, que ya ahora está siendo ocupado por mujeres inmigradas de nacionalidad extranjera cuando no son las propias madres de los jóvenes padres y madres las que facilitan la conciliación de un proyecto reproductivo y el proyecto laboral de sus descendientes. Con todo, esa situación especialmente aguda en los países del Sur, donde la ayuda familiar sigue siendo primordial, a corto y medio plazo será insostenible, debido al envejecimiento de esas mismas generaciones femeninas que hoy en día cuidan de sus propias madres y nietos, aumentando aún más la demanda de externalización de esos servicios. Si a ello añadimos el fuerte potencial de reagrupación familiar de la población de nacionalidad extranjera asentada en estos países, y al mantenimiento de las desigualdades económicas entre los países desarrollados y los países en vías de desarrollo, entenderemos porqué los flujos migratorios seguirán creciendo de forma importante. La inmigración se configura como complemento demográfico a la inversión intensiva en el capital humano efectuada por los europeos: el alargamiento de la esperanza de vida ha permitido alargar también el peno-do que llamamos juventud, intensificando la instrucción, posponiendo la formación de nuevas familias y por ende reduciendo la fecundidad, al mismo tiempo que se efectuaba una verdadera revolución generacional en el papel de la mujer. Aunque, a corto plazo, si las expectativas de crecimiento económico son buenas es lógico augurar una recuperación de la fecxmdidad en países como España o Italia que actualmente siguen ostentando los niveles más bajos de la Unión Europea, esa recuperación no alcanzará los niveles extremadamente altos de los años sesenta y, lo que es más importante, será paralela al incremento de la inmigración. El elemento clave del futuro de las migraciones en Europa, sigue siendo la legislación: de ella depende el modo de integración de esos nuevos europeos que se incorporarán en el futuro a nuestro mercado de trabajo, a nuestra dinámica demográfica y, en definitiva, a nuestra sociedad. Como hemos visto, al periodificar la evolución de las migraciones en Europa, las políticas restrictivas de los años setenta, no sólo no consiguieron reducir el número de los flujos, sino que los acrecentaron. Las políticas restrictivas que actualmente están en vigor, actúan a nivel individual en el deterioro de las condiciones de vida de las personas inmigradas, y a nivel colectivo profundizan en un proceso de dualización que tiende a la estratificación étnica de la estructura social, con graves consecuencias para la cohesión social de la Unión Europea. Flujos migratorios hacia Europa
I. Introducción: Una ampliación sin precedentes La ampliación es el gran desafío de la Unión Europea para los próximos años, el asunto más importante que debe tratarse durante los mandatos de la Comisión Prodi y del actual Parlamento Europeo. Porque esta ampliación no se asemeja a ninguna otra ampliación anterior y ninguna volverá a tener el peso real y simbólico de ésta. Se trata de reunir Europa, de reconciliar la geografía con la historia y con la evolución política que la ha transformado en el último decenio, de extender la zona de paz y estabilidad política, de democracia, de respeto de los derechos humanos y de desarrollo económico que representa la Unión Europea. Ninguna ampliación hasta ahora ha tenido que tratar un número tan elevado de nuevas candidaturas: doce países, sin contar Turquía ^, con una población total de 120 millones de personas. Ninguna ampliación se ha encontrado con países que en el momento de la aceptación de su candidatura, en 1993, tuvieran tan poco en común con las sociedades y las economías de los países miembros de la Unión Europea. Es una tarea ingente para todas las partes. Para los países candidatos, para quienes la adaptación necesaria para cumplir los criterios políticos y económicos de adhesión y la adopción de las normas comunitarias existentes representan un esfuerzo considerable. Para la Unión, que, por una parte, realiza una inversión importantísima para contribuir a la preparación de los países candidatos y, por otra, debe prepararse por su parte a acoger un gran número de nuevos miembros. Por consiguiente, ninguna ampliación previa ha conocido una asignación de medios tan importante. Por primera vez, una ampliación se apoya en una estrategia de preadhesión iniciada hace aproximadamente 346 Eneko Landaburu diez años, que combina la incorporación de la normativa comunitaria, la apertura progresiva de los mercados y el apoyo financiero. El método de la estrategia de ampliación es a la vez riguroso y ambicioso, y ha demostrado hasta ahora ser el instrumento adecuado para hacer avanzar rápidamente este proyecto histórico. A continuación se explica cómo se inició este proceso, de qué manera se desarrolla y cómo la Unión, y los países candidatos, lo llevarán a término. El principio de la ampliación de la Unión a nuevos miembros y las condiciones básicas para lograrlo figuran en el Tratado de la Unión Europea, que estipula ^ que cualquier Estado europeo podrá puede solicitar el ingreso como miembro de la Unión siempre que respete los principios de libertad y democracia, los derechos humanos y las libertades ñmdamentales. Esta solicitud se debe dirigir al Consejo, que se pronuncia por unanimidad después de haber consultado a la Comisión y previo dictamen conforme del Parlamento Europeo, el cual se pronunciará por mayoría absoluta de los miembros que lo componen. El Consejo Europeo de Copenhague de 1993 dio un paso decisivo hacia la ampliación actual al acordar que «los países asociados de Europa Central y Oriental que lo deseen podrán convertirse en miembros de la Unión Europea». A partir de ese momento, la cuestión de la ampliación ya no ñie «si» sino «cuando» y el Consejo Europeo definió los principios que se han de respetar para conseguirlo. Los candidatos deben cumplir una serie de criterios políticos y económicos, y asumir las obligaciones propias de los Estados miembros de la Unión ^. El Consejo Europeo de Madrid de 1995 precisó esta obligación señalando que corresponde a los candidatos crear las condiciones para la aplicación efectiva del conjunto de las disposiciones y normas del Derecho comunitario, condición esencial para establecer un marco de confianza mutua entre los Estados miembros actuales y los que aspiran a serlo. Inicio de las negociaciones Una vez establecidas las decisiones básicas, a finales de 1994 el Consejo Europeo de Essen decidió lanzar la estrategia de preadhesión, desti-Ampliación de la Unión Europea: estado de la cuestión nada a preparar el camino de la futura ampliación. Más tarde, a finales de 1997, se inició en Luxemburgo el proceso de adhesión global, seguido de la primera conferencia europea celebrada el 30 de marzo de 1998 con los 10 países de Europa Central y Oriental, Malta, Chipre y Turquía. En esa línea, se iniciaron las negociaciones de adhesión con seis países que cumplían los criterios políticos y económicos (Estonia, Polonia, la República Checa, Hungría, Eslovenia y Chipre). Dos años más tarde entraban en negociaciones otros seis países (Letonia, Lituania, Eslovaquia, Bulgaria, Rumania y Malta). Como veremos más adelante, también entonces la Unión tomó medidas para garantizar la cobertura financiera de esta importante empresa. Por último, el Consejo Europeo de Niza de diciembre de 2000 supuso un paso fundamental con el establecimiento del calendario de la ampliación. La cuestión de la ampliación ya no era «cuando» puesto que la Unión se comprometía a celebrar las negociaciones con los países candidatos dispuestos a hacerlo a finales de 2002 y a acogerlos como miembros de pleno derecho en 2004, año de las próximas elecciones del PE. La cuestión seguía siendo «cómo», y la respuesta también la dio el Consejo de Niza, adoptando decisiones fundamentales encaminadas a iniciar los ajustes institucionales necesarios para acoger a un gran número de nuevos miembros en la Unión, así como a respaldar la nueva estrategia de negociación propuesta por la Comisión con vistas a acelerar el proceso. Un año más tarde los objetivos se mantienen: en 2001 el Consejo Europeo de Gotemburgo (en junio) y después el de Laeken (en diciembre) confirmaban el planteamiento y el método adoptados y, tomando nota de los progresos realizados por los países candidatos, reiteraban el objetivo de la adhesión de diez de ellos en 2004 (la República Checa, la República Eslovaca, Polonia, Hungría, Eslovenia, Estonia, Letonia, Lituania, Chipre, y Malta). Está en marcha un proceso irreversible: la Unión avanza con determinación hacia una de sus más más importantes realizaciones que, mucho más allá de los beneficios económicos y políticos previstos, marcará el curso de la historia de Europa y la vida de sus pueblos. Medios para lograr la ampliación Preparar la ampliación: la estrategia de preadhesión La primera fase de esta estrategia se remonta a los acuerdos europeos celebrados con los diez países de Europa Central y Oriental y a los acuerdos de asociación con Chipre, Malta y Turquía. Los primeros contemplan la creación de una zona de libre comercio, los segundos llegan hasta el establecimiento de una unión aduanera. A continuación, a raíz de la llegada y la aceptación de las candidaturas, se crearon asociaciones para la adhesión, que indican, con respecto a cada país candidato, las prioridades a corto y medio plazo para el cumplimiento de los criterios políticos y económicos de adhesión. Esto permite la elaboración de un marco de programación financiera de preadhesión de la Unión, de forma que la Comisión establece sus prioridades sobre la base de los progresos constatados. Por otra parte, cada país candidato establece un programa nacional para la adopción del acervo comunitario en el que figura el calendario de adopción y aplicación de la normativa comunitaria, así como los medios humanos y financieros destinados a lograrlo. Instrumentos financieros para apoyar la preparación La dotación financiera que destina la Unión Europea a la preparación de la ampliación está a la altura de la empresa. La ayuda financiera a la estrategia de preadhesión se duplicó a partir de 2000 ^, pasando de 1,5 millardos de euros a 3 millardos de eiu'os, con tres instrumentos, PHA-RE, SAPARD e ISPA. PHARE, con un presupuesto de 1,5 millardos de euros, se concentra en las inversiones para la aplicación del acervo y el «Institution Building», es decir, el refuerzo de la capacidad, principalmente administrativa, de los países que deben aplicar el acervo. ISPA (1 millardo de euros) está dirigido a la financiación de grandes proyectos de infraestructura de transportes y medio ambiente, siguiendo el modelo de los fondos de cohesión. SAPARD (0,5 millardos de euros) es un instrumento de ayuda para la adaptación de la agricultura y para el desarrollo rural. A estos tres fondos hay que añadir las ayudas de importantes instituciones financieras internacionales, en particular el BEI, con el que PHARE e ISPA cofinancian numerosos proyectos de infraestructura. Ampliación de la Unión Europea: estado de la cuestión Chipre, Malta y Turquía no son beneficiarios del programa PHARE; Chipre y Malta reciben apoyo de preadhesión por valor de 95 millones de euros en el marco de un Reglamento financiero único para 2000-2004. El apoyo a Turquía se recoge en un Reglamento que agrupa las distintas líneas presupuestarias disponibles, y su valor anual es de aproximadamente 180 millones de euros. Hay que señalar que a pesar de haberse duplicado, el apoyo de preadhesión comunitario sólo cubre una pequeña parte de las grandes inversiones necesarias para la preparación de los países candidatos a la adhesión. La financiación pública no es suficiente para cubrir estas necesidades; por consiguiente, la financiación privada debe desempeñar un importante papel, por ejemplo en sectores, como el del medio ambiente, en que puede recurrirse a las concesiones. Programas de asistencia innovadores: hermanamiento entre administraciones La incorporación del acervo comunitario no es un ejercicio de mera transposición. Ajustarse al «tercer criterio» de adhesión supone que los países candidatos han de demostrar su capacidad de asumir compromisos creíbles y de mantenerlos. En otras palabras, aplicar a través de estructuras adecuadas (administrativas, judiciales, de seguridad o de control de la gestión financiera) la compleja y variada normativa de la Unión. Y a este respecto hay que tener en cuenta que el desafío es mayor para los actuales países candidatos de lo que lo ñie para los países que se adhirieron con anterioridad. No sólo debido al retraso acumulado bajo los regímenes económicos y políticos existentes hasta hace apenas un decenio, sino también porque, al compás de los progresos de la Unión, el acervo comunitario no ha cesado de enriquecerse durante estos últimos años. Para apoyar el desarrollo de la capacidad administrativa de estos países («institutions building»), desde 1998 se organiza el desplazamiento de expertos de las Administraciones nacionales de los Estados miembros a las de los países candidatos a través de un programa de hermanamiento. Estos intercambios tienen objetivos precisos, como la instauración de estructuras administrativas modernas y eficaces, con competencias y recursos adecuados para aplicar todos los componentes del acervo, tal como se hace en los Estados miembros. El Consejo Europeo de Laeken aprobó un plan de acción específico, recomendado por la Comisión, para apoyar los esñierzos de los países candidatos en este ámbito. En su calidad de guardiana de los Tratados, la Comisión desempeña un papel extremadamente importante a este respecto; por voluntad de los Estados miembros, ha de efectuar el seguimiento metódico y constante de la observancia de los compromisos asimaidos. Los Informes periódicos presentados anualmente por la Comisión tienen por objeto, entre otras cosas, evaluar si se dan las condiciones necesarias para avanzar hacia la adhesión. Negociar la ampliación: estrategia En la actualidad están en curso negociaciones de adhesión con diez países de Exiropa Central y Oriental, así como con Malta y Chipre. Las negociaciones con Turquía todavía no se han iniciado, debido a que se necesitan avances más importantes para cumplir el criterio político de la adhesión, de manera que los esfuerzos se concentran en la creación de los instrumentos de preadhesión todavía inexistentes. Principios de la negociación Las negociaciones de adhesión se basan en el principio de que los candidatos deben adoptar la totalidad del acervo comunitario. En el marco de las negociaciones, el acervo se ha dividido en 31 capítulos (tales como la agricultura, la competencia o los transportes) denominados «abiertos» o «temporalmente cerrados», dependiendo de que las negociaciones con cada país estén en curso o hayan finalizado ^. Como el acervo comunitario propiamente dicho no es negociable, se tratan principalmente las condiciones en que se aplica, es decir, si es posible aplazar su adopción y aplicación, mediante medidas transitorias, y en qué condiciones, sin poner en peligro el mercado interior ni la competencia, que son los objetivos que deben suscribir todos los candidatos. Otro principio subyacente de las negociaciones es el concepto de diferenciación: la rapidez de las negociaciones depende del grado de preparación de cada país candidato y de la complejidad de los problemas que deben solucionarse, examinados individualmente. De ello se desprende que existe la posibilidad de que los países que hayan iniciado más tarde las negociaciones recuperen el atraso, para que cada candidato es juzgado en función de sus propios méritos. La estrategia de ampliación después de Niza El Consejo Europeo de Niza adoptó un elemento suplementario del proceso de negociación: el del «itinerario» o plan de trabajo propuesto por la Comisión para el desarrollo de las negociaciones hasta mediados de 2002. La Unión Europea se compromete a definir en un calendario preciso su posición sobre los «capítulos» (o ámbitos políticos) del acervo comunitario que deben negociarse con cada uno de los países candidatos. Los capítulos se han agrupado en tres series que se tratarán, sucesivamente, durante los tres semestres que van hasta mediados de 2002. En junio y diciembre de 2001, el Consejo Europeo ratificó este método, y el calendario anejo, como marco de la celebración satisfactoria de las negociaciones de adhesión. Está comprobado que las cosas avanzan: algunos países candidatos ya están muy cerca del objetivo. Si se estudian los «capítulos» del acervo, se ve que en enero se habían abierto 29 capítulos con todos los países en negociación (excepto Bulgaria y Rumania). Algunos capítulos están ya temporalmente cerrados con todos los países, por ejemplo los relativos al derecho de sociedades, las PYME, la ciencia y la investigación, las estadísticas, la educación y la formación, la protección de los consumidores, las relaciones exteriores y la política exterior y de seguridad común. Eslovenia, Polonia, Chipre y la República Checa han «cerrado» más de dos tercios. Algunos capítulos complejos, como la libre circulación de bienes y personas, la industria y la pesca, están prácticamente concluidos con casi todos los candidatos. Por otro lado, algunos capítulos todavía no se han cerrado con ningún país, por ejemplo la agricultura, la política regional y los presupuestos. Por supuesto, esto no significa que no se haya conseguido nada: entretanto se han llevado a cabo todos los trabajos preparatorios a fin de solucionar los apartados menos problemáticos e identificar las cuestiones más complejas. La Comisión, que deberá pronunciarse sobre estos capítulos antes de finales de año, presentó a los Estados miembros a finales de noviembre propuestas sobre la política regional y a finales de enero un documento sobre el capítulo agrícola, que contempla los mecanismos de gestión. Para los capítulos aún abiertos, las negociaciones continúan de acuerdo con el calendario fijado por el «itinerario» en el marco de la estrategia 35] (c) Consejo Superior de Investigaciones Científicas Licencia Creative Commons 3.0 España (by-nc) http://arbor.revistas.csic.es Eneko Landaburu 352 de ampliación. En particular, para los países con los que las negociaciones se han abierto más recientemente, el método de apertura de los capítulos se basa en el estado de su preparación por parte de los países en cuestión y en la capacidad de estos últimos de presentar propuestas de negociación. A partir de ese momento, se registra un movimiento de aceleración constante del proceso. Adaptaciones institucionales: el Convenio sobre el futuro de la Unión Con la celebración de la Conferencia Intergubernamental sobre la reforma de las instituciones, en Niza se suprimió el obstáculo institucional a la ampliación. Las características de las instituciones de la Unión ampliada están ahora claras (número de Comisarios, de Parlamentarios europeos, de votos en el Consejo para cada uno de los candidatos con los cuales se negocia). El Consejo Europeo de Laeken de diciembre pasado presentó el Convenio sobre el Futuro de Europa, para definir los límites y el funcionamiento de la Unión de mañana, en el horizonte de 2004. Los países candidatos participan en este ejercicio, ya que está claro que la Unión de mañana será sobre todo una Unión más extensa. Abrir la cuestión a los ciudadanos La próxima fase tras las negociaciones será la celebración de los Tratados de adhesión y más tarde su ratificación. Será un momento crucial, puesto que es cuando los esfuerzos realizados por los países candidatos y la Unión para preparar cuidadosamente esta etapa histórica serán sancionados por sus habitantes. Sin excluir la celebración de consultas populares en los países miembros, están previstos referendums en varios países candidatos. Si bien la ampliación aportará ventajas políticas, geopolíticas y socioeconómicas a todas las partes, y aunque estas ventajas ya son perceptibles en términos de empleo, de ampliación del mercado y de aumento de los intercambios, hay que reconocer que por ahora las opiniones públicas no están muy impresionadas. Seguramente es porque el proceso, sus implicaciones, lo que está enjuego y su cuidadosa preparación no se comprenden bien. Sin duda se debe a que esta fase la preparación de la ampliación es el coto de los especialistas, los expertos y los inspectores, ya que los aspectos técnicos no son fáciles de comimicar. Al menos, se debería poder calmar los temores expresados en algunos sectores, a los que habría que recordar que la negociación de la ampliación tiene en cuenta los intereses de cada una de las partes. Pero no debemos contentarnos con esta constatación ya que en última instancia, la ampliación sólo podrá hacerse si los ciudadanos la desean. Y ello sólo será posible si la ampliación deja de ser un asunto exclusivo del Estado y de los responsables políticos. El debate no debe seguir confinado a un estrecho círculo de interesados sin que la sociedad civil y los ciudadanos estén informados del increíble esfuerzo de preparación, de la amplitud de las reformas emprendidas por los países candidatos, de la inversión realizada y, sobre todo, de los cambios que se perfilan en un horizonte ya muy cercano. La Comisión Europea y las demás instituciones, en particular el Parlamento Europeo, han tomado conciencia de este deber de información y elaboran actualmente una estrategia de comunicación para explicar lo que hay que explicar en los países miembros y los países candidatos. Ahora bien, la información sólo llega si se transmite y se discute; a este respecto, la responsabilidad de los que «saben» es hablar a los que escuchan. Asimismo, es necesario ampliar el contenido del debate, que debe superar las consideraciones técnicas y la presentación de las ventajas macroeconómicas y políticas a medio y largo plazo para concentrarse más en las cuestiones importantes para los ciudadanos. Reducir la ampliación a su preparación política, financiera, técnica o incluso a las ventajas individuales que acarreará, sería reductor, ya que la ampliación de la Unión no es un cálculo de gestores, ni una apuesta por el futuro político de nuestro continente. La ampliación es un proyecto para el futuro de Europa, para la vida de todos los ciudadanos de los Estados miembros actuales y de los de mañana. Ciudadanos que tienen en común Europa, una comunidad de patrimonio histórico, cultural y geográfico enriquecida por la diversidad de los matices que la constituyen. Ampliar la Unión es crear un nuevo espacio para que los hombres y las mujeres, nuestros conciudadanos, se la apropien, para que haya un intercambio recíproco, se conozcan y crezcan. Es recrear Europa para, unidos, hacerla revivir. Información complementaria y actualizaciones diarias disponibles en el sitióla página web siguiente: 354 Eneko Landaburu ^ Los países candidatos son 13: Bulgaria, Chipre, la República Checa, la República Eslovaca, Eslovenia, Estonia, Letonia, Lituania, Malta, Polonia, Hungría, Rumania y Turqma. Las negociaciones están en curso con 12 de ellos; Turquía, en efecto, no cumple aún el primer criterio de adhesión (el criterio poHtico: la existencia de un Estado democrático, de derecho, que garantice el respeto de los derechos humanos y la protección de las minorías). 2 Artículo 49 del Tratado de la Unión Europea, modificado por el Tratado de Amsterdam. ^ Los criterios de adhesión, frecuentemente denominados «criterios de Copenhague», son los siguientes: -la existencia de instituciones estables que garanticen la democracia, el Estado de Derecho, el respeto de los derechos humanos y la protección de las minorías («criterio político»); -la existencia de una economía de mercado en funcionamiento, así como la capacidad para hacer frente a la presión competitiva y a las fuerzas del mercado dentro de la Unión («criterio económico»); -la capacidad de asumir las obligaciones de la adhesión, incluida la observancia de los fines de la Unión Política, Económica y Monetaria («tercer criterio»). ^ En marzo de 1999, el Consejo Europeo de Berlín definió el marco financiero de la estrategia de preadhesión para el período 2000-2006(«Agenda 2000 ») »). Cabe señalar que el Consejo Europeo de Laeken de finales de 2001 confirmó estas perspectivas financieras por corresponder a las necesidades de la ampUación a 10 nuevos miembros. ^ Los capítulos se considerarán definitivamente «cerrados» cuando se cierren todos los capítulos para un país dado.
El papel de la Unión Europea en la sociedad internacional actual depende en gran medida de la calidad y eficacia de los instrumentos que tiene a su alcance. En este sentido, las previsiones contenidas en el Tratado de la Unión Europea y en los Tratados constitutivos de las Comunidades Europeas, y que han sido perfeccionadas por los tratados de Amsterdam y de Niza, pretenden dotar a la Unión de los instrumentos en los ámbitos económico, político y militar, necesarios para desarrollar su acción exterior. Desde esta perspectiva, la política europea de seguridad y defensa se considera un componente fundamental del conjunto de la acción exterior de la Unión Europea. Existe una visión generalizada en torno al hecho de que sin instrumentos militares no es posible esperar una defensa eficaz de los intereses de la Unión Europea en el mundo. A este respecto hay que decir, sin embargo, que existe una opinión discordante con esta idea, aquella que defiende que la auténtica baza de los europeos es justamente su perfil no militar, su calidad de potencia civil (actor destacado en campos como el comercio, la cooperación al desarrollo, la rehabilitación post-conflicto, etc.) ^. Ahí es donde la UE se ha ganado su prestigio en el mundo. Esta observación de partida sirve para recordarnos que estamos frente a una política europea no exenta de polémica. Este artículo, sin desconocer ese debate fundamental para la definición del papel de la Unión en el mundo, se va a centrar en el análisis del reciente desarrollo de la política europea de seguridad y de defensa. Para Esther Barbé, Alfonso González Bondia poder realizar un análisis certero de lo que cabe esperar de la política europea de seguridad y defensa es necesario conocer con exactitud el marco jurídico-institucional que han establecido los Estados miembros a la luz del Tratado de la Unión Europea. A pesar del esfuerzo realizado en los últimos años para establecer unas reglas de juego mínimamente eficaces, que permitan desarrollar una política europea de seguridad y defensa en el marco de la Unión Europea, el diseño jurídico-institucional resultante plantea algunos interrogantes, en forma de desafíos internos y externos, a los que es necesario dar respuesta. Sin ello, será prácticamente imposible que la UE consiga asumir un papel protagonista en la escena internacional actual. El papel de la UE en dicha escena y los instrumentos para actuar en la misma se han convertido en un tema de primer orden para la opinión pública europea. Ahí están Afganistán y el Próximo Oriente para recordárnoslo. Una vez más, el sistema internacional marca la agenda de la UE, incluso en momentos en los que la vida interna parecería marcar la agenda política de la UE (ampliación, Convención). Así, en las siguientes páginas se procede, de entrada, al estudio de las normas que establecen los limites materiales de la acción de la Unión Europea, así como de la estructura orgánica y de los instrumentos normativos con los que cuenta para desarrollar sus actividades en este ámbito. A continuación, se identifican y analizan tres cuestiones sobre el desarrollo interno de la Unión que, a nuestro juicio, condicionan sobremanera la eficacia de la política europea de seguridad y defensa; a saber, la cohesión de la Unión en este ámbito, la capacidad europea para desarrollar operaciones de gestión de crisis y la independencia técnica e industrial de los europeos en el sector de la defensa. Finalmente, se repasaran tres temas pendientes en el marco de las relaciones exteriores de la Unión Europea que también pueden influir en el devenir de la PESD; a saber, las relaciones con Estados Unidos, la participación de terceros Estados en las actividades de la Unión Europea en este ámbito y las relaciones con la OTAN. I. La definición de la PESD La celebración del Tratado de la Unión Europea ha permitido avanzar hacia el tratamiento integral de los temas relativos a la seguridad, la cual cosa se ha visto posteriormente confirmada y consolidada con las modificaciones que el Tratado de Amsterdam y el Tratado de Niza han introducido en el TUE ^. En la actualidad, el alcance material de la PESC se encuentra definido en el artículo 17.1 del TUE donde se afirma que «abarcará todas las cuestiones relativas a la seguridad europea», aunque a continuación realiza una aproximación gradual en dos etapas a las cuestiones relativas a la defensa: en la primera se procederá a una definición progresiva de la política de defensa común, mientras que la segunda supondría el eventual establecimiento de «una defensa común». A su vez, se ha previsto que el Consejo Europeo se encargará de decidir el momento en el que se llegue a establecer una defensa común, para lo que será necesaria además la ratificación posterior de los Estados miembros de acuerdo con sus respectivas normas constitucionales. Sin embargo, la aplicación efectiva de esta previsión ha estado limitada desde el principio por otras disposiciones del propio TUE. En primer lugar, los miembros de la Unión Europea se han comprometido a mantener íntegramente el acervo comunitario, por lo que se debería evitar cualquier intromisión de la PESC en el marco competencial de las Comunidades Europeas. Por otra parte, la política de la Unión no puede contravenir las obHgaciones contraídas en el marco de la OTAN por los miembros que consideren que su defensa común se realiza dentro de la organización transatlántica y además ha de ser compatible con la política común de seguridad y de defensa que se establezca en dicho marco. Finalmente, se estableció que la PESC tampoco puede afectar a la singularidad de la política de seguridad y de defensa de determinados Estados miembros, en clara referencia a los países neutrales (Irlanda, Austria, Suecia, Finlandia). La indefinición inicial del propio tratado y la falta de consenso entre sus Estados miembros ha condicionado sobremanera la delimitación material de lo que la Unión Europea incluye en el marco de la política europea de seguridad y defensa. Por ello, una de las novedades más significativas que se pudo apreciar en la nueva regulación establecida por el Tratado de Amsterdam sobre los aspectos relativos a la seguridad y defensa de la PESC fue sin duda la concreción expresa de algunas de las actividades que se inscriben en el marco de la política de defensa de la Unión Europea, habitualmente conocidas como misiones Petersberg. En este sentido, el artíciilo 17.2 del TUE establece que se podrá acordar la realización de «misiones humanitarias y de rescate, misiones de mantenimiento de la paz y misiones en las que intervengan fuerzas de combate para la gestión de crisis, incluidas las misiones de restablecimiento de la paz» ^, mientras que el párrafo final del apartado primero del artículo 17 permite incluir también la cooperación entre los Estados miembros en el sector del armamento. No obstante, conviene señalar que la introducción de estas nuevas previsiones no significa que con la versión anterior del Esther Barbé, Alfonso González Bondia TUE no ñiese posible la realización de este tipo de actividades, aunque no cabe duda que la nueva redacción supone una clarificación digna de mención, que muestra el nivel de acuerdo alcanzado entre los miembros de la Unión Europea sobre la dimensión de defensa de la PESC ^. Al respecto, el Parlamento Europeo, tras señalar la necesidad de trabajar con conceptos precisos, afirmó que en el marco de la PESD la noción de seguridad tiene carácter global e indivisible y que la seguridad de unos contribuye a la de los demás, mientras que a su juicio la defensa estaba constituida por un conjunto de medios militares al servicio de la seguridad ^. El mero análisis de las diversas disposiciones contenidas en el TUE sobre la política de seguridad y defensa permite avanzar que su desarrollo será lento y tortuoso (toma de decisiones, ausencia de cooperación reforzada) ^. Esta percepción se acrecienta aun más con la posibilidad, ya prevista en la versión original del TUE y que se mantiene en la actualidad, de que dos o más Estados miembros cooperen de manera más intensa, bilateralmente o en el marco de la OTAN o de la UEO, siempre que ello no contravenga u obstaculice la PESO. Esta previsión abre la puerta a que se profundice en determinados ámbitos de manera restringida, a la espera de que en el marco de la Unión Europea se produjese un consenso suficiente que permita incorporarlos a la política de defensa común' ^. Desde esta perspectiva se debe analizar la creación de diferentes brigadas multinacionales, de las que fue pionero el Eurocuerpo, o la constitución en 1996 de la Organización Conjunta de Cooperación en materia de Armamento (OCCAR) ^. Aunque desde la entrada en vigor del TUE ya era jurídicamente posible la elaboración por parte de la Unión Europea de una política de defensa común, las discrepancias existentes entre sus miembros, ejemplificada en la divergencia fi: anco-británica, apenas permitieron la adopción de decisiones con repercusiones militares. Así, para que la Unión Europea pudiese realmente desarrollar un papel más activo en este ámbito era necesario superar las diferencias existentes en su seno entre los Estados proatlantistas, los tradicionalmente neutrales y los más europeístas ^. El paso definitivo en este sentido se dio con la Declaración sobre la defensa europea emitida tras la cumbre franco-británica celebrada en Saint-Malo el 4 de diciembre de 1998, donde se reconoció por primera vez la posibilidad de desarrollar una capacidad militar autónoma en el seno de la Unión Europea. Este acuerdo entre los dos miembros más significativos de las posiciones europeístas y proatlantistas ha posibilitado la aprobación de diversas declaraciones e informes en el seno de la Unión Europea que fijan las bases de la política europea común de seguridad y defensa. Hay que apuntar, al mismo tiempo, que el desbloqueo británico La política europea de seguridad y defensa... a la política de seguridad y defensa hacía precisamente de este país un líder natural, sino el líder natural, de dicha política en el marco de la UE. Hasta cierto punto, con esta decisión, el gobierno de Blair perseguía una clara potenciación de su papel en la Unión, sobre todo en momentos en los que se quedaba al margen del avance más importante de la misma (el euro). En otras palabras, todo hacía suponer en 1998 que la militarización de la agenda europea reforzaría el papel de Gran Bretaña. Los hechos del 11 de septiembre, y sus consecuencias posteriores, así lo han confirmado. En términos institucionales, los cimientos de la futura política europea común de seguridad y defensa se pusieron en la «Declaración del Consejo Europeo sobre el refuerzo de la política europea común de seguridad y de defensa» (Colonia, 3 de junio de 1999), donde se establecieron los criterios básicos que regirán la actuación de la Unión en este ámbito, y que se han visto consolidados y desarrollados en diversos documentos y decisiones adoptadas posteriormente por el Consejo Europeo y el Consejo. En la Declaración del Consejo Europeo de Colonia se definen dos de los temas que pasan a ser prioritarios en este ámbito. Por una parte, se acuerdan las líneas básicas para dotar a la Unión Europea de los medios y capacidades que le permitan adoptar y ejecutar autónomamente decisiones en todas las tareas de prevención de conflictos y gestión de crisis definidas por el TUE. Si bien, hay que decir que en materia de prevención de conflictos y de gestión de crisis existe una falta total de clarificación en cuanto a alcances, contenidos, etc. Esta es una de las grandes debilidades de la Unión, que ha dado lugar en los últimos años, tanto a documentos de la Unión con voluntad clarificadora ^^ como a una importante literatura al respecto ^^. En segundo lugar, la Declaración de Colonia reconoce la necesidad de fortalecer la base industrial y técnica de la defensa para que sea más competitiva y dinámica. Por lo que se refiere al primer ámbito de actuación, conviene subrayar que, como ha afirmado el Consejo Europeo, el uso de recursos militares por parte de la Unión Europea no incluye la organización de la defensa colectiva de los Estados miembros, que sigue bajo la responsabilidad de la OTAN. A su vez, el hecho de que la Unión Europea haya reconocido expresamente, no sólo que actuará de conformidad con los principios de la Carta de las Naciones Unidas, sino también que el Consejo de Seguridad es el primer responsable del mantenimiento de la paz y la seguridad internacionales, podría indicar su disposición a evitar acciones militares seriamente cuestionables desde el punto de vista de su legalidad internacional, como algunas de las realizadas por la OTAN durante el con-Esther Barbé, Alfonso González Bondia nieto en Kosovo. Aun así, no debe olvidarse que en aquellas operaciones estuvieron directamente involucrados la mayor parte de los miembros de la Unión Europea, por lo que no cabe ser muy optimista sobre el alcance real de este compromiso. Una de las consecuencias del desarrollo de la PESD ha sido la adopción de nuevos procedimientos y la creación de un conjunto de órganos que han de permitir a la UE preparar y adoptar decisiones en los casos en los que se tenga que enfirentar a la gestión de crisis internacionales ^^. Con este objetivo, se ha acordado la necesidad de convocar periódicamente, y cuando sea necesario, reuniones del Consejo de Asuntos Generales con la presencia de los ministros de Defensa. La voluntad expresada por algunos países, entre ellos España, de contar con reuniones del Consejo a nivel exclusivamente de Ministros de Defensa se encontró con la oposición de otros socios. De cara al desarrollo de sus funciones en materia de gestión de crisis, el Consejo cuenta, desde principios de 2001, con la asistencia de los siguientes órganos: el Comité Político y de Seguridad (COPS), que prepara las decisiones del Consejo y ejerce, bajo la autoridad del Consejo, el control político y la dirección estratégica de las operaciones de gestión de crisis; el Comité militar (CMUE), que asesora en temas militares y elabora recomendaciones para el COPS; el Estado Mayor (EMUE) ^^, que realiza tareas de asistencia eminentemente técnicas; y la Unidad de Planificación Política y Alerta Rápida (UPPAR), que cuenta con un Centro de situación para abastecer de información fidedigna a los órganos de decisión sobre la situación en diferentes puntos del planeta ^^. A todos estos órganos se les ha de sumar también el Centro de Satélites y el Instituto de Estudios sobre la Seguridad que han sido transferidos por la UEO como agencias autónomas de la Unión Europea. Para la ejecución de las operaciones militares, la Unión Europea pretende seguir el modelo que se había previsto en el marco de la UEO, en virtud del cual se distingue entre las misiones dirigidas por la UE que utilicen medios y recursos de la OTAN y las misiones dirigidas por la UE que usen medios y recursos nacionales o multinacionales europeos previamente identificados. Para la implementación del primer supuesto será necesario el establecimiento de relaciones estables con la OTAN, mientras que para poder hacer efectiva la segunda posibilidad los Estados miembros se han comprometido a mejorar su capacidad militar con el objetivo de que en el año 2003, como muy tarde, se esté en condiciones de desplegar en el plazo de sesenta días y de mantener durante un mínimo de un año fuerzas militares de hasta 60.000 personas capaces de realizar cualquiera de las misiones previstas en el artículo 17.2 del TUE. De he-La política europea de seguridad y defensa... cho dichas Fuerzas de Reacción Rápida, declaradas operativas desde el Consejo Europeo de Niza, han de llevar a cabo sus primeros ejercicios durante la presidencia española. A pesar de las limitaciones de este instrumento militar de la UE, su simple existencia va a permitir evidenciar mejor si el problema de la indecisión europea, que tanto afectó a la imagen de la UE en el caso de Bosnia, se debía tan sólo a la falta de instrumentos comunes o, contrariamente, el auténtico problema ha sido y es la falta de voluntad política para actuar con firmeza en situaciones de conflicto. Dónde, cuándo y por qué actuar con firmeza en el sistema internacional son preguntas fundamentales que la UE aún no ha afrontado, careciendo de una concepción estratégica clara ^^. El desarrollo de las capacidades militares de la PESD ha ido acompañado, en paralelo, de la creación de instrumentos en el ámbito de la gestión civil de crisis. Una vez más han sido los miembros neutrales y nórdicos de la UE los que han jugado un papel más destacado. Así, la presidencia finlandesa dio un impulso notable al mandato recibido del Consejo Europeo de Colonia para mejorar y utilizar mecanismos de gestión civil de crisis, poniendo especial énfasis en la idea de respuesta rápida y de coordinación en la respuesta (coherencia interpilares), tal y como recogía el Informe presentado al Consejo Europeo de Helsinki, el 10 y 11 de diciembre de 1999. La presidencia sueca, por su parte, ha impulsado el fortalecimiento de la dimensión civil, y durante la misma se creó un Comité para la gestión civil de crisis que asiste al Consejo y un Mecanismo de reacción rápida ^^. Además, se establecieron también los objetivos de capacidades de policía y se acordaron las finalidades de la gestión civil de crisis que incluye las operaciones de policía, el fortalecimiento del Estado de Derecho, el fortalecimiento de la administración civil del Estado y las operaciones de protección civil. La Unión Europea se enfrenta a un conjunto de desafíos internos que condicionan de manera importante su papel en la escena internacional. El primero de ellos está relacionado con la cohesión y coherencia de la política europea de seguridad y defensa, el segundo tiene que ver con la disponibilidad de capacidades militares y civiles que permitan a la UE desarrollar operaciones de gestión de crisis, y el tercero se centra en el establecimiento de una base industrial y técnica europea de la defensa que le permitiría a la Unión un abastecimiento autónomo y adecuado a sus necesidades. Uno de los retos a los que se ha de enfrentar la Unión Europea es el de la búsqueda de la cohesión política entre sus miembros a la hora de definir la Política Europea de Seguridad y Defensa ^^. For una parte, la coexistencia de atlantistas, europeistas y neutrales en el seno de la Unión Europea, así como las diversas alianzas estratégicas de algunos miembros en diferentes partes del planeta o las diferentes visiones sobre como enfrentarse a las crisis internacionales son problemas que dificultan la coherencia y desarrollo de una PESD eficaz. Por otra parte, el diseño resultante en el que coexisten la lógica comunitaria y la de cooperación intergubernamental para desarrollar la acción exterior de la Unión Europea, con el consiguiente peligro de incoherencia entre el primer y el segundo pilar, y la ambigüedad con la que se han definido algunas de las funciones de los diferentes órganos e instituciones en el marco de la Política Exterior y de Seguridad Común son dos factores más que se suman a las dificultades que se pueden plantear a la hora de dotar de cierta cohesión a la política europea de seguridad y defensa. Las disposiciones del TUE muestran claramente el difícil compromiso al que se llegó entre neutrales, europeistas y atlantistas. Por una parte, los limites impuestos a la PESD respecto a la actividad de la OTAN es un ejemplo de lo que se acaba de exponer. Por otra parte, algunos Estados miembros de la Unión Europea pretenden mantener un alto grado de autonomía para poder decidir su participación en el proceso de adopción y ejecución de decisiones con repercusiones en el ámbito de la defensa. Esta última posibilidad ya había sido garantizada expresamente en el antiguo artículo J.4.4 del TUE, al establecer que se debería respetar el «carácter específico de la política de seguridad y de defensa de determinados Estados miembros». Esta disposición, que se incluyó inicialmente para solucionar la tradicional neutralidad irlandesa, sirvió en aquel momento para resolver el problema derivado de las dificultades planteadas durante el proceso de ratificación danesa del TUE, que se desbloqueó definitivamente con la Declaración de los Jefes de Estado y de gobierno, reunidos en el seno del Consejo Europeo, que reconocía que «Dinamarca no participa en la elaboración y aplicación de las decisiones y acciones de la Unión que tengan repercusiones en el ámbito de la defensa, aunque no impedirá el desarrollo de una cooperación más estrecha entre los Estados miembros en este ámbito» ^®. La situación danesa se ha convertido, de hecho, en el marco de la Europa de los Quince en un fenómeno único, que está provocando malestar entre las mismas fuerzas políticas danesas, tal y como demostró la negociación de Niza ^^. Así, aunque el nuevo artículo 17.1 párrafo tercero del TUE mantiene la previsión del antiguo artículo J.4.4, cabe señalar que la posición de los La política europea de seguridad y defensa. Estados neutrales ha evolucionado notablemente, como ya hemos visto, respecto a la posibilidad de participar activamente en acciones desarrolladas por organizaciones de cooperación militar. En este sentido, baste recordar que Austria, Finlandia y Suecia, desde su adhesión a la Unión Europea, han participado en todas las operaciones de la UEO, e incluso que Irlanda ha participado en la SFOR, en Bosnia, y la KFOR, en Kosovo. Por este motivo, actualmente es evidente que, aún disponiendo de la posibilidad de mantenerse puntualmente al margen, dichos Estados participan cada vez de manera más activa en la elaboración de la Política Europea de Seguridad y Defensa de la Unión Europea, tal y como ya se ha visto en el mismo momento de reformar el Tratado en relación con las funciones de la PESD. A pesar de todo, conviene señalar que el precario acuerdo entre los tradicionalmente llamados atlantistas, los europeístas y los neutrales, que ha dado lugar, en primer lugar, a una acuerdo sobre las disposiciones del TUE que regulan el marco básico de actuación de la Unión Europea en materia de seguridad y defensa, y en segundo lugar, al incipiente desarrollo de una política europea de seguridad y defensa que fundamenta el establecimiento de una estructura que le permita realizar operaciones civiles y militares de gestión de crisis, no debe esconder las claras diferencias existentes entre los miembros de la Unión sobre el papel que esta última debe desempeñar en esta materia. Es decir, se han desarrollado los instrumentos necesarios sin haber trabajado seriamente en el establecimiento de una doctrina común que sirva para saber cuándo, dónde y para qué se utilizarán. Tal y como se ha apuntado con anterioridad, falta una concepción estratégica de la UE en este terreno ^°. En este sentido, la crisis del 11 de septiembre ^^ ha mostrado claramente la falta de cohesión política, visualizada en los intentos de establecer directorios o triunviratos, tal y como ocurrió con las reuniones restringidas de Gante entre los tres Grandes, antes de la celebración del Consejo Europeo, o de Downing Street, en las que se abordó el tema de las acciones militares contra Afganistán. Sin embargo, haciendo de la necesidad virtud, algunos analistas ya vinculan eficacia de la UE en el terreno de la gestión de crisis con mecanismos de directorio o de grupos reducidos ^^. Conviene también señalar los problemas que se plantean con el actual diseño orgánico de la PESC y su coexistencia con la acción exterior de las Comunidades Europeas. Así, la coexistencia de diversos órganos con funciones conexas puede plantear problemas de coherencia que acaben dañando la credibilidad de la PESD. Este es un problema vital, que todo el mundo parece apreciar, y, de ahí, que sea necesario redéfinir la estructura institucional que presenta la actual y difícil coexistencia en-Esther Barbé, Alfonso González Bondia tre la Presidencia de la Unión Europea, el Alto Representante de la PESC y el Comisario de Relaciones Exteriores. Las ideas sobre el modelo a seguir son múltiples. Desde el Parlamento Europeo se ha propuesto integrar las funciones del Alto Representante en la Comisión, mientras que algunos expertos hacen propuestas bien diferentes. Así, por ejemplo, EVERTS ^^ propone abolir el papel de la presidencia en la PESC, mientras que DASSU y MISSIROLI proponen reforzar la posición del Alto representante de la PESC concediéndole la exclusiva representación de la Unión en materia PESC, así como el derecho de iniciativa y un aumento de los recursos económicos y materiales a su servicio. Asimismo, proponen que este «gran jefe» de la PESC presida el Consejo de ministros de Asuntos Exteriores y todo el sistema de la PESC, para lo cual estaría apoyado por dos adjuntos, el Comisario de Relaciones Exteriores y un representante itinerante de la PESC/PESD encargado del lado operational de la gestión de crisis y de presidir el Comité Político y de Seguridad ^^. Lo que es evidente, en estos momentos, y aún más tras la presentación del informe de Javier Solana al Consejo Europeo de Barcelona sobre las reformas del funcionamiento del Consejo ^^, que afectaría al mecanismo de la presidencia, es que el diseño orgánico de la PESC tiene que cambiar. Por otra parte, la implementación real y efectiva de la Política Europea de Seguridad y Defensa pasa ineludiblemente por la obtención de unos recursos y capacidades al servicio de la Unión que le sirva para desarrollar operaciones militares y civiles de gestión de crisis. Desde esta doble perspectiva se ha estado trabajando intensamente en los últimos años. En el terreno militar, la Unión Europea ha elaborado un objetivo general y un objetivo de capacidades militares, para establecer un requisito pormenorizado que permita conocer las contribuciones nacionales necesarias para que la Unión Europea pueda dirigir operaciones militares. El catálogo de fuerzas está conformado por personas y por medios (aviones, barcos u otros) de catorce miembros de la UE, Dinamarca al margen, más de otros países europeos (Noruega) o de futuros miembros (Turquía, Hungría, República Checa, Eslovaquia, Chipre) ^^. Este trabajo en el m^rco de la Unión se completa con un mecanismo de evaluación que ha de garantizar el refuerzo europeo de capacidades, mediante un seguimiento e impulso de los avances en el cumplimiento de los compromisos asumidos con vista a lograr el objetivo global. En el marco de la gestión civil de crisis, la Unión Europea ha elaborado dos auditorías: la primera sobre los recursos de la Unión y la segunda sobre los de los Estados miembros para poder así garantizar la co-La política europea de seguridad y defensa.. ordinación entre ambos. El resultado final fiíe altamente satisfactorio al demostrar su preparación y experiencia para desarrollar un amplio abanico de operaciones. Aun así, el Consejo Europeo de Feira estableció el objetivo de pasar de los 3300 agentes policiales de los Estados miembros preparados para desplegarse en operaciones de la UE a poder suministrar 5000 policías para desarrollar misiones de toda la gama de operaciones de prevención y gestión de crisis. Además, se decidió que los Estados miembros debían comprometerse a determinar y desplegar en un plazo de treinta días fíierzas de policía que pudiesen realizar operaciones y misiones de asesoramiento, formación y supervisión policial, así como de policía operativa. En tercer lugar, conviene señalar que la industria europea en materia de defensa se encuentra actualmente en una posición de clara desventaja respecto la norteamericana, que es más competitiva desde el punto de vista tecnológico y comercial. Aún más desde el 11 de septiembre. La decisión del presidente Bush de aumentar en un 14,5 % el presupuesto de defensa de cara al 2003 sitúa a los europeos en una posición de gran asimetría respecto a los Estados Unidos (en el año 2000, el presupuesto de defensa de los Estados Unidos equivalía a 1.029 euros por habitante frente a 323 euros por habitante en la Europa de los Quince). Es evidente que es necesario trabajar en esta materia si no se quiere depender tecnológicamente de EE.UU. El principal problema para avanzar en el terreno del armamento se encuentra en las dificultades que tiene la Unión Europea para actuar seriamente en la consecución de este objetivo. En este sentido, algunas disposiciones del Tratado de la Comunidad Europea limitan la capacidad de acción de la Comunidad, desde su creación, en materias relacionadas con la defensa. Los artículos 296 a 298 del TCE establecen un régimen de reservas para la aplicación del tratado, justificado por exigencias de seguridad nacional ^^. El primero de estos preceptos autoriza a los Estados miembros a no aplicar las disposiciones del tratado a «la producción o el comercio de armas, municiones y material de guerra», siempre que sea necesario «para la protección de los intereses esenciales de su seguridad» y no alteren «las condiciones de competencia en el mercado común respecto de los productos que no estén destinados a fines específicamente militares». Este artículo se aplica únicamente a los productos recogidos en una lista aprobada por el Consejo el 15 de abril de 1958 que conforman el denominado hard defence material 2^, que sólo puede tener fines militares, en contraposición al soft defence material ^^, que puede ser usado indistintamente con fines civiles o militares y que no estaría sujeto a esta reserva ^^. Por su parte, el artí-Esther Barbey Alfonso González Bondia culo 297 TCE permite a los Estados miembros adoptar excepcionalmente medidas contrarias al Tratado o al derecho derivado en caso de graves disturbios internos, de guerra o de grave tensión internacional con amenaza de guerra, o de cumplimiento de las obligaciones contraídas para el mantenimiento de la paz y la seguridad internacional. Este régimen de reservas se completa con un sistema de control en su aplicación establecido por el artículo 298 TCE, en el que participa la Comisión y eventualmente el Tribunal de Justicia. Por otra parte, los compromisos adoptados por la Declaración adoptada en el Consejo Europeo de Colonia los días 3 y 4 de junio de 199 en el ámbito industrial y técnico de la defensa son menos concretos, puesto que los Estados miembros de la Unión Europea se declaran únicamente dispuestos a continuar los procesos existentes de reestructuración industrial y a avanzar, «según estimen adecuado los Estados miembros, en la armonización de los requisitos de carácter militar y en la planificación y adquisición de armas.» Esta aproximación a las cuestiones relativas a la industria y el mercado de la defensa está todavía muy lejos de las propuestas realizadas por la Comisión europea en dos comunicaciones sobre este tema presentadas en 1996 y 1997 ^^. Por su parte, algunos Estados miembros y ciertas empresas europeas han iniciado un proceso de acercamiento en materia de armamento, que completa precariamente los lentos avances que se han producido en el marco de la Unión Europea. En primer lugar, conviene recordar que los Estados miembros de la UEO cooperan en materia de armamento en el seno del GAEO (Groupe armement de l'Europe Occidentale) y de la OAEO (Organisation de l 'armement de l' Europe Occidentale). Ambas instituciones han conseguido lanzar los programas EUCLID y THALES de investigación y tecnología, que han permitido la firma de contratos con diversas industrias europeas. Por su parte, la iniciativa franco-alemana, a la que se sumó Reino Unido e Italia, de crear el Organización Conjunta de Cooperación en materia de Armamento (OCCAR) también ha facilitado la cooperación en este ámbito. Su objetivo es «la gestión centralizada de grandes programas para el aprovechamiento de las economías de escala y el equilibrio en las relaciones entre suministradores y suministrados». En la actualidad, España, Países Bajos, Bélgica han solicitado su entrada a la organización y Suecia ya ha mostrado un gran interés por la iniciativa. Por otra parte, los ministros de defensa de Alemania, Reino Unido, España, Italia y Suecia firmaron en 1998 una Carta de intenciones para facilitar la reestructuración de sus industrias de defensa. Finalmente, destaca también la creación, a principios del año 2000, de la Compañía Europea de Aeronáutica, Defensa y Espacio La política europea de seguridad y defensa... (EADS) cuyos socios fundadores eran DASA, AMS y CASA^^. A pesar de que los avances en este terreno ya se habían visto afectados por decisiones nacionales -la decisión española de vender la empresa Santa Bárbara, fabricante del carro de combate Leopard a una empresa americana frente a la existencia de una oferta alemana; el anuncio alemán de reducir su presupuesto de defensa por motivos de déficit público-lo cierto es que el 11 de septiembre ha situado a los europeos frente a un hecho consumado: el despegue estadounidense en materia tecnológica derivado de la voluntad de ese país de poner en marcha programas de gran envergadura, como el programa antimisiles que supondrá una nueva era en materia tecnológica. En suma, la situación no es nueva. Recuerda la situación de los primeros sesenta, en plena guerra fría, momento en el que Gran Bretaña, tuvo que optar por subirse al carro de la tecnología estadounidense (Polaris) o apostar por una inversión europea (franco-británica) en materia de armas nucleares. Hoy en día, el número de actores ha aumentado (ya son más de tres) y el sistema internacional se ha transformado, pero una cosa sigue igual en el terreno militar: la voluntad clara y decidida de Estados Unidos en materia armamentística frente a las dudas y a las diferencias de los europeos (dudas en torno a la eficiencia de la opción armamentística en el actual sistema internacional, temor a perder el tren de la carrera tecnológico-industrial, etc.). Es evidente que éste es un tema que combina concepciones diplomático-militares con intereses industriales. Todo ello genera un escenario mucho más complejo del que pueden abordar estas páginas ^^. III, Los desafíos extemos La consecución de la Política Europea de Seguridad y Defensa está sujeta además a un conjunto de desafíos externos íntimamente relacionados a los que conviene dar respuesta a corto plazo. En este sentido, las relaciones con Estados Unidos, con los miembros europeos de la OTAN que no forman parte de la Unión Europea y con la OTAN son claves para el futuro de la Unión Europea en este ámbito. La Administración, el Congreso y la opinión pública norteamericana, tras la finalización del periodo de guerra fría se han mostrado abiertamente a favor de que los europeos aumentasen su contribución a la seguridad del viejo continente ^^. Ello se debería implementar mediante el refuerzo del pilar europeo de la Alianza Atlántica, por lo que cualquier iniciativa europea no podía suponer un menoscabo del papel de la OTAN. Desde esta perspectiva, la Administración norteamericana ha apoyado el desarrollo de la política europea de seguridad y defensa siempre que se eviten las denominadas tres D's: decoupling, duplication and discrimination ^^. Todo ello implicaba entre otras cosas el establecimiento de relaciones con la OTAN y la participación en la PESD de los aliados europeos que no sean miembros de la UE. Sin embargo, las primeras decisiones adoptadas por la Unión Europea en relación con el refuerzo de la política europea de seguridad y defensa durante el Consejo Europeo de Helsinki, en diciembre de 1999, despertaron cierta desconfianza entre los norteamericanos. La formulación de dichas decisiones merece un análisis detallado, ya que en las mismas se basa la desconfianza estadounidense ^^. En primer lugar, a diferencia de la UEO, cuyo desarrollo en los años noventa, había intentado dejar bien claro que se llevaba a cabo evitando duplicaciones con la OTAN, el Consejo Europeo afirmaba en Helsinki que la capacidad militar de la Unión Europea «evitará duplicaciones innecesarias». De ello se podría derivar, según se interprete el texto, que la UE podría producir duplicaciones con las capacidades norteamericanas si se considerará necesario para dotar a la Unión de una verdadera capacidad militar autónoma, independiente de ayudas externas. Es evidente que con esa formulación, la UE se está dejando una «puerta abierta». ¿Qué voluntad existe para cruzarla, política y presupuestariamente? Esa es otra cuestión. En segundo lugar, los norteamericanos siempre han sido partidarios de que la OTAN sea la que tenga el derecho a ser la primera en rechazar la posibilidad de actuar en una crisis y que posteriormente sea la Unión Europea la que decida si realizará una determinada acción. En cambio, el Consejo Europeo de Helsinki, lejos de someterse explícitamente a esta condición, se limitó a afirmar su voluntad de desarrollar la capacidad de iniciar y llevar a cabo operaciones militares cuando «no participe la OTAN en su conjunto», sin realizar ninguna matización complementaria, por lo que también se ha creado una cierta polémica sobre el significado real de esta afirmación. Esta ambigüedad calculada de los europeos -muy propia de lenguajes de consenso entre quince voluntades políticas diferentes-abunda en el aspecto anterior. ¿Cuál es el escenario imaginable en el que los europeos actuarían, por encima de la voluntad contraria de los Estados Unidos? En tercer lugar, las relaciones transatlánticas se enfrentan al problema tradicional del reparto de las cargas presupuestarias de la defensa (burden sharing). Este problema ha dificultado las relaciones entre los Estados Unidos y sus socios europeos de la OTAN desde los años sesen-La política europea de seguridad y defensa. ta. Los norteamericanos pretenden que los europeos aumenten su presupuesto dedicado a la defensa (EE.UU. dedica un 2,8% del PIB frente al 1,41% de la media de los países de la UE), asumiendo una parte importante de la mejora de capacidades necesarias para hacer frente a los desafíos militares que se le plantean a la OTAN, para lo cual se diseñó la Iniciativa de Capacidades de Defensa. Por su parte, los europeos han iniciado un proceso similar, pero desde la perspectiva de las necesidades que se le plantean a la Unión Europea para aumentar su capacidad militar de gestión de crisis. Todo ello ha provocado nuevas tensiones sobre lo que parece una duplicación de esfuerzos. En cuarto lugar, otro foco de divergencias se encuentra en las prioridades establecidas para garantizar la seguridad. Así la iniciativa de defensa antimisiles defendida por EE.UU. con la llegada de la Administración Bush ha provocado el escepticismo de los europeos sobre si ése era el camino acertado, puesto que desde Europa se han alzado voces a favor de la utilización de otros instrumentos en la lucha contra las armas de destrucción masiva como los políticos, económicos y el control multilateral de armamento. El ejemplo más claro en este terreno, como veremos a continuación, son las diferencias que han aparecido entre la administración Bush y la Comisión, Patten en particular, en relación con el tratamiento a dar al Irak de Sadam Hussein. La política del «eje del mal» de la administración Bush choca de pleno con las preocupaciones existentes en la Comisión Europea en torno a los Estados en descomposición en el mundo, focos de conflictividad. Mientras Washington piensa en como destruir algunos Estados, Bruselas piensa en cómo evitar el fracaso de la lógica estatal en buena parte del mundo (Africa Subsahariana, ex glacis soviético). Finalmente, llegamos, de modo concreto, a la situación creada tras los atentados terroristas del 11 de septiembre. Tras un primer momento en el que los europeos mostraron su solidaridad tanto individual como colectivamente en la OTAN con la activación del artículo 5 del TAN ^^, se ha entrado en una fase de discrepancia sobre el camino a seguir tras la finalización de la campaña militar en Afganistán. La voluntad de la Administración norteamericana de continuar la guerra contra el terrorismo con operaciones militares en otros puntos del planeta, empezando por Irak, ha contado con la crítica abierta de la Comisión Europea, la Presidencia española de la Unión Europea y de los gobiernos francés y alemán, que se muestran reticentes con el unilateralismo de EE.UU. En el fondo el problema que se plantea no es otro que el de la diferente percepción que se tiene en las dos orillas del Atlántico sobre como enfrentarse a las crisis internacionales. En efecto, tras la constitución de la Esther Barbé, Alfonso González Bondia más lejos, el desarrollo de las estrategias comunes de la PESC ya se han visto enfrentadas al debate entre eficacia (vinculada a confidencialidad) y transparencia ^^. Desde esta perspectiva, la OTAN manifestó reiteradamente que nada se aprobaría hasta que todo estuviese aprobado ^' *, por lo que la consecución de acuerdos definitivos sobre el intercambio de información, el acceso a las capacidades de planificación de la OTAN, la presunción de disponibilidad de los medios y capacidades de la OTAN para operaciones de la Unión Europea, la identificación de una cadena de mando europea en la estructura de la OTAN para operaciones de la Unión Europea y la adaptación del proceso de planificación de la defensa de la OTAN para incluir las necesidades de la Unión Europea, ha estado a la espera del cierre de un acuerdo satisfactorio sobre la participación de los aliados europeos en las actividades de la Unión Europea. clones dirigidas por la Unión Europea, una vez se haya decidido su inicio; aunque en el caso de que la operación se desarrolle con medios y capacidades de la OTAN, los miembros europeos de esta organización no pertenecientes a la Unión podrán solicitar libremente su participación sin que sea necesaria una invitación previa por parte del Consejo ^°. La implementación de las operaciones dirigidas por la Unión con fuerzas militares de terceros Estados requerirá de la creación de un Comité de contribuyentes encargado de la conducción diaria de la operación, a cuyas reuniones podrán asistir todos los miembros de la Unión y los terceros Estados participantes en la operación, aunque únicamente los Estados contribuyentes participarán en la gestión diaria. No obstante, conviene señalar que se mantiene la autonomía de la Unión, ya que la decisión sobre el final de la operación corresponderá únicamente al Comité Político y de Seguridad y al Consejo, que tendrán en cuenta los puntos de vista expresados por el Comité de contribuyentes ^^. Sin embargo, Turquía no está satisfecha con las decisiones adoptadas por la Unión Europea en Feira y Niza al considerar que, como uno de los pilares de la seguridad en el interior de la OTAN, tiene algo que decir respecto a la PESD ^^. Por tanto, se opone a que la Unión Europea pueda acceder automáticamente al proceso de planificación de la OTAN y a la presunción de disponibilidad de sus medios y capacidades para la gestión de crisis, si la cuestión de su asociación a la PESD no se resuelve de manera satisfactoria para Turquía. Desde esta perspectiva, Turquía reclama estar asociada a todos los aspectos del proceso de reflexión y de decisión que lleven a la Unión Europea a intervenir en una crisis, aún respetando su derecho a decidir autónomamente. Por otra parte, el gobierno turco considera que la PESD puede comprometer el papel de la OTAN en materia de defensa. En este sentido, considera que una operación de la Unión podría degenerar en una misión del artículo 5 del TAN, por lo que todos los aliados deberían tener derecho a aceptar la utilización de los medios y capacidades de la OTAN por parte de la Unión. En la primavera del 2001, gracias a los esfuerzos diplomáticos del Reino Unido y EE.UU., se llegó a un acuerdo con el gobierno turco, que finalmente no llegó a ponerse en práctica como consecuencia del rechazo del Estado mayor general turco generado por la inquietud que provocaban el acceso garantizado de la Unión a las capacidades de planificación de la OTAN y los compromisos en materia de seguridad que se aplicaría a Chipre ^^. Asimismo, hay que apuntar que el gobierno griego mostró su malestar en relación con el método seguido para la negociación del mismo, mostrando su voluntad de rechazarlo en el marco de la UE. Las dificultades en lograr una solución satisfactoria para todas las partes han puesto, de nuevo, en alerta a Estados Unidos. En este sentido, el embajador norteamericano ante la OTAN alertó del peligro de que, si no se llega rápidamente a un acuerdo, en el seno de la Unión Europea, ésta se plantee la necesidad de dotarse de capacidades de planificación, sin recurrir a las de la OTAN y por lo tanto duplicándolas. Es evidente que la posibilidad existe, pero, ¿hasta qué punto los europeos están dispuestos a asumir sus consecuencias?. Esto es, el sentimiento de sentirse relegados tanto de Turquía como de Estados Unidos ^. El tercer desafío para la PESD viene determinado por sus relaciones con la OTAN. Durante el periodo en el que la UEO se erigió en el brazo armado de la Unión Europea, las relaciones de esta última con la OTAN eran prácticamente testimoniales, limitándose a la celebración de reuniones informales de trabajo en las que participaban representantes de ambas instituciones para tratar temas de interés común. Esta situación empezó a cambiar substancialmente a partir del momento en el que la Unión Europea decidió desarrollar su capacidad operativa para la gestión militar de crisis. En la Cumbre de la OTAN, celebrada en Washington en 1999 tras la campaña militar contra Serbia, los aliados mostraron su satisfacción con la decisión de la Unión Europea de fortalecer la política europea común en materia de seguridad y defensa y acordaron «definir y adoptar las disposiciones necesarias para que la Unión Europea pueda acceder fácilmente a los medios y capacidades colectivos de la Alianza para llevar a cabo operaciones en que la OTAN como conjunto no se vea implicada militarmente como Alianza» ^^. En este mismo sentido, el Concepto Estratégico de la Alianza, adoptado también en esa reunión de la OTAN, contemplaba la compatibilidad entre la OTAN y la política de defensa común a desarrollar en el seno de la UE, tal y como se recoge en el Tratado de Amsterdam, y reconocía la necesidad de ima cooperación estrecha entre ambas instituciones para construir una identidad europea de seguridad y defensa en el seno de la OTAN con el objeto, entre otras cosas, de «ajmdar a los aliados europeos a actuar por si mismos según convenga mediante la disposición de la Alianza a poner sus medios y capacidades, caso por caso y por consenso, a disposición de operaciones en las que la Alianza no se vea implicada militarmente (...), teniendo en cuenta la plena participación de todos los Aliados europeos si así lo decidiesen.» ^^ Desde esta perspectiva, ambas instituciones decidieron el establecimiento de consultas mutuas, de relaciones de cooperación y de transparencia entre ellas; para lo cual se empezó a trabajar en el establecimiento de mecanismos que facilitarían el cumplimiento de dichos objetivos "^^. Para ello, se adaptarían las relaciones preexistentes entre la OTAN y la UEO, teniendo en cuenta la distinta naturaleza de la OTAN y la Unión Europea. Así, se acordó que las relaciones se materializarían en un primer momento a través de contactos informales entre el Secretario General del Consejo de la Unión Europea y el Secretario General de la OTAN. Algunos de estos objetivos se concretaron durante el primer semestre de 2000, cuando en el marco del desarrollo de los objetivos generales y de las capacidades colectivas que ha de permitir a la Unión Europea la realización de operaciones militares, esta última decidió solicitar asesoramiento técnico a la OTAN ^^. Por su parte, la Unión europea acordó en la reunión del Consejo Europeo celebrada en Santa Maria de Feira el 19 y 20 de junio de 2000, los principios que deberían regir sus relaciones con la OTAN, proponiendo a esta última una agenda de temas y modalidades de trabajo durante un periodo provisional. Así, se decidió proponer a la OTAN la creación de cuatro grupos de trabajo ad hoc compuestos por representantes de ambas instituciones que empezarían a trabajar conjuntamente en la definición de objetivos de capacidad, disposiciones para permitir a la UE acceder a los medios y capacidades de la OTAN y la definición del régimen permanente que regulará las relaciones entre ambas instituciones ^^. Esta propuesta ñie seguidamente implementada, por lo que los trabajos en estas materias avanzaron rápidamente. En la reunión del Consejo Europeo celebrada en Niza, la Unión Europea acordó que la consulta y cooperación entre ambas instituciones se desarrollaría «en cuestiones de seguridad, defensa y gestión de crisis, de interés común, con vistas a permitir la respuesta militar más apropiada a una crisis y garantizar una gestión de crisis eficaz» ^^. Lo que para la OTAN suponía el establecimiento de «una verdadera asociación estratégica en la gestión de crisis entre la OTAN y la Unión Europea» ^^. Unos pocos días más tarde, ambas instituciones acordaron un dispositivo permanente de consulta y cooperación consistente en la celebración, durante cada presidencia de la Unión Europea, de no menos de tres reuniones del Consejo del Atlántico Norte con el Comité Político y de Seguridad, y al menos una reunión ministerial UE-OTAN^^. Otro ejemplo de avances en las relaciones entre la OTAN y la UEO se encuentra en el acuerdo provisional sobre la seguridad de la información firmado entre ambas instituciones, para facilitar la transparencia mediante el intercambio de información. Es evidente que estas cuestiones plantean dificultades en el marco de la UE, donde algunos países luchan por crear una cultura de transparencia. El carácter secreto que comporta la puesta en marcha de una defensa común choca, sin duda, con la voluntad de algunos países de hacer más transparente todo el proceso de construcción europea. Sin ir Esther Barbé, Alfonso González Bondia más lejos, el desarrollo de las estrategias comunes de la PESC ya se han visto enfrentadas al debate entre eficacia (vinculada a confidencialidad) y transparencia ^^. Desde esta perspectiva, la OTAN manifestó reiteradamente que nada se aprobaría hasta que todo estuviese aprobado ^^, por lo que la consecución de acuerdos definitivos sobre el intercambio de información, el acceso a las capacidades de planificación de la OTAN, la presunción de disponibilidad de los medios y capacidades de la OTAN para operaciones de la Unión Europea, la identificación de una cadena de mando europea en la estructura de la OTAN para operaciones de la Unión Europea y la adaptación del proceso de planificación de la defensa de la OTAN para incluir las necesidades de la Unión Europea, ha estado a la espera del cierre de un acuerdo satisfactorio sobre la participación de los aliados europeos en las actividades de la Unión Europea. Ante la posibilidad de desplegar ñierzas militares de la UE en Macedonia para sustituir a la OTAN -tema discutido en un encuentro informal del Consejo, en Cáceres, bajo presidencia española-el Secretario de Defensa británico, Geoff Hoon, simplemente apuntó que existe «un riesgo muy alto de fracaso» ^^, ante las deficiencias de la UE en áreas vitales para la acción militar (transporte aéreo, logística y comunicaciones). De dichas deficiencias técnicas se deriva una constatación política: la dependencia de los europeos con respecto a la OTAN. Lo que sitúa el papel de la UE en el mundo en materia de gestión militar de crisis, si se quiere poner en estos términos, en manos de Washington y/o de Ankara. Es cierto, pero excesivo. No permitamos que los árboles no nos dejen ver el bosque. Antes de concluir que el papel de la UE en el mundo en materia de gestión militar de crisis se ve imposibilitado por sus carencias técnicas y por la falta de acuerdo UE/OTAN, hay que recordar una serie de deficiencias internas, ajenas a los imponderables externos. Así, se puede hablar de la falta de un concepto estratégico basado en unas prioridades claramente definidas por la UE y necesario para cualquier política de defensa (¿porqué Macedonia?), de la falta de sinergias e incluso incoherencias entre pilares o entre la Unión y sus Estados miembros (¿porqué no vincular claramente la ayuda al desarrollo con los objetivos de prevención de conflictos o de gestión de crisis de la PESC/PESD?) o de los problemas institucionales derivados de una falta de confianza en el desarrollo de la PESC que ha llevado al establecimiento de una triple representación exterior de la Unión Europea personificada en el Comisario de Relaciones Exteriores, el Alto Representante de la PESC y la Presidencia (¿porqué no se simplifica la representación exterior y se le dota de poderes específicos para ejercer un claro liderazgo que dé credibilidad a la Urdón?). Es más, conectando con el punto de partida de estas páginas, no está de más preguntarse hasta qué punto están convencidos los europeos de la necesidad de contar con instrumentos militares para defender su papel en el mundo. Ahí se halla el tema central del debate: primero, preguntarnos qué queremos hacer y, segundo, cómo hacerlo. La PESD, por tanto, viene en segundo lugar. Primero, hay que ver el bosque. ^ El tema se plantea en el momento actual, muy vinculado, a los acontecimientos de los últimos años que han situado a los europeos frente a la opción de «actuar» con medios Esther Barbé, Alfonso González Bondia militares (Bosnia, Kosovo, Afganistán). Sin embargo, el debate en torno a sí la voluntad de la CE de convertirse en potencia mimdial era posible sin instrumentos militares viene de lejos. Véase, en ese sentido, el texto de BULL, Hedley (1983) 2001): «Los acuerdos de Niza, la PESC y la arquitectura europea de seguridad y defensa». Boletín Europeo de la Universidad de La Rioja, suplemento, núm. 9, diciembre, pp. 11-28; MARRERO ROCHA, Inmaculada C. ( 2001): «Avances en el ámbito de la seguridad y la defensa europea». Tiempo de Paz, núm. 62, otoño. ^ Se trata de las conocidas como misiones Petersberg, ya que fueron definidas por primera vez en la sesión ministerial del Consejo de la UEO que se celebró en el Castillo de Petersberg, cerca de Bonn, el 19 de junio de 1992. Así, en virtud de la Declaración de Petersberg, la UEO identificó un conjunto de misiones tipo que servirían de referencia para definir su desarrollo operativo. "^ La introducción de las misiones Petersberg en Amsterdam se explica, en buena medida, por el deseo de los nuevos miembros de la UE, fundamentalmente Suecia y Finlandia, de definir un marco conceptual acorde con sus propias políticas de seguridad. Se puede apuntar, de modo eufemístico, que la reforma de Amsterdam acercó la PESC a la sensibilidad nórdica en materia internacional. Véase, en ese sentido, BARBÉ, E. y JO-HANSSON, E. ( 2001): «De Niza a Goteborg. La UE en manos nórdicas». Al mismo tiempo, esta clarificación alejaba los objetivos expresados por otros Estados miembros, especialmente Grecia, de plantear la PESD como una política de defensa colectiva de los Quince. ^ UE, Parlamento Europeo, Informe sobre la elaboración de una política europea común en materia de seguridad y defensa después de Colonia y Helsinki -Comisión de Asuntos Exteriores, Derechos Humanos, Seguridad Común y Política de Defensa, Ponente: Catherine LALUMIERE, A5-0339/2000, pp.27-28. ^ El artículo 23.2 m fine del TUE ha previsto que les decisiones que repercutan en el ámbito militar o de la defensa no se podrán adoptar por mayoría cualificada. Por su parte, la reforma de Niza ha introducido el mecanismo de la cooperación reforzada en el segundo pilar, pero dejando al margen «las cuestiones que tengan repercusiones militares o repercusiones en el ámbito de la defensa» (art. 27 B). "^ En este sentido, véase el ejemplo ofrecido en materia de cooperación franco-británica por VAN HAM, P. (2000): «Franco British Defence Cooperation and Compatibility of La política europea de seguridad y defensa. ^ La fractura entre atlantistas y europeistas recubría una doble dimensión de la política de los estados europeos (su visión de la defensa europea y, a través de ella, el mayor o menor papel a desempeñar por los Estados Unidos en la misma). Sobre el particxilar, véase BARBE, Esther (1995): La seguridad en la nueva Europa, Madrid, Libros de la Catarata. Sin que se puede hablar hoy en día de la completa desaparición de tal fractura, sí que se puede afirmar que la misma se ha mitigado tras el fin de la guerra fría, dándose lugar a situaciones (como el conflicto de Kosovo) en las que la posición británica está más cercana a la francesa que a la de los Estados Unidos. ^° Véase, en ese sentido, la comunicación de la Comisión sobre prevención de conflictos [COM (2001) ^"^ La existencia de intereses nacionales diferentes ha sido una de las dificultades básicas de la construcción de una política europea y de seguridad y defensa.
Europa redescubrió el Mediterráneo en 1995, en la Conferencia de Barcelona. Lanzó un ambicioso proyecto de «región euromediterránea» articulada entre los Quince del Norte y doce países de la ribera del Sur ^. Económicamente, debía desembocar en una zona de libre cambio para el año 2010; políticamente, en un paraíso de paz, seguridad, democracia, derechos humanos; socialmente, aproximaría los niveles de bienestar y cultura de ambas riberas. El interés por el área no era nuevo. Desde los años sesenta, la Europa comunitaria había ido firmando una serie de acuerdos bilaterales y protocolos financieros, diseñados según parámetros de cooperación clásica, con los países ribereños extracomunitarios. Con ocasión de la guerra del golfo y tras la caída del muro de Berlín, se dio un salto cualitativo. Esos acuerdos se incardinaron en una «política mediterránea renovada», por iniciativa del comisario europeo Abel Matutes. Esta ampliaba el alcance cuantitativo de las iniciativas anteriores, al duplicar para el periodo 1992-1996 las cifras de cooperación al desarrollo hasta entonces ofrecidas. Y sobre todo, al incorporar una dimensión regional, puesto que estableció los programas Med (Urbs, entre ciudades; Campus, entre universidades; Invest, entre centros de investigación; y Media, entre medios de comunicación...), que beneficiaban simultáneamente, según reglas comunes, a los distintos vecinos. Tampoco era nuevo el impulso español del nuevo proyecto euromediterráneo, de la mano del comisario Manuel Marín ^, aunque se conoce menos que los padres de la idea de una zona mediterránea de libre cambio habían sido, en 1991, los marroquíes ^. Las cumbres de Lisboa, Corfú y Es- Xavier Vidal-Folch sen sirvieron para evidenciar la necesidad de un paralelismo entre la aproximación al Sur respecto a la del Este. Los datos utilizados por los europeos mediterráneos para convencer de su necesidad e interés a sus socios norteños apelaban a que la ribera sur suponía un mercado de 304 millones de consimiidores (frente a 116 del Este); un PIB de más de 240 millones de euros (frente a 150 millones del Este); un superávit comercial doble; una dependencia del Sur del 24% (frente al 1%) y una inmigración de 4,6 millones de ciudadanos surmediterráneos (contra 700.000). La continuidad del impulso político español daba cuenta de un doble fenómeno: la aportación de España al patrimonio comunitario (dimensiones mediterránea y latinoamericana), y la evidencia de que una política exterior de un Estado miembro de la Unión sólo alcanza masa crítica operativa si es absorbida por el conjunto, como política exterior de la Unión. Por alumbrar el proyecto y su dotación pugnaron, junto a Marín, Jacques Delors y Felipe González, en tensa connivencia presupuestaria con Helmut Kohl durante la cumbre de Cannes (junio de 1995), que acabó estableciendo un vínculo matemático (de 70 a 30) para las ayudas directas -esto es, aparte de los créditos del BEI-al Este europeo (6.692 millones de euros) y al Sur norteafricano (4.685 millones) para los siguientes ciiico años. Javier Solana, en su calidad de miembro de la presidencia de turno de la Unión Europea (UE), acabó logrando que cristalizase ese paralelismo con la estrategia de aproximación ya enhebrada para el Este europeo, al consagrar en la cumbre de Barcelona (27 y 28 de noviembre de 1995) un tratamiento de región a región. La superioridad teórica de la arquitectura de la Euromed respecto a otras regiones económicas en ciernes era abrumadora. En comparación con la más reciente, la fraguada por el Tratado de Libre Comercio para América del Norte (TLC, entre EE UU, Canadá y México de 1994) estribaba no sólo en el amplio abanico de países destinatarios, sino también en su articulación sobre un triple pilar, político y de seguridad, económico, y humano-social, en vez del económico en solitario. En el capítulo económico, el proceso de Barcelona incorporaba la filosofía de la solidaridad o cohesión social y territorial propia de la UE, aunque con menor intensidad. Aportaba al Sur, en efecto, notables transferencias presupuestarias entendidas como contrapartidas a los costes de transición al mercado, como compensaciones a los sacrificios sociales que entraña el inicio de la liberalización, y como catalizadores del desarrollo endógeno de los vecinos y estabilizadores de su frágil estructura social en momentos de cambio. Si el modelo anglosajón del TLC El Mediterráneo, más cerca y más lejos (como el de la fenecida EFTA) tomaba cuerpo sobre la idea «trade, not aid», el proyecto europeo cabalgaba sobre el doble lomo «del trade and aid». Una ilustración, al cabo, de que las políticas exteriores ^denen a cristalizar hacia fuera los modelos internos. Además, el mecanismo de asociación inventado exhibe bastante sofisticación. Por un lado es bilateral, vincula a cada uno de los doce sureños con la Unión, mediante tratados de «asociación euromediterránea» individualmente negociados; por otro, es relativamente multilateral, porque aunque esos tratados incluyen cláusulas específicas nacionales, responden a una plantilla común, incorporan un mismo sistema armonizador de normas técnicas, sanitarias y comerciales que debieran abocar a un desarme arancelario con la UE bastante simultáneo. Es vertical, porque enlaza Norte y Sur, pero también horizontal, porque posibilita acuerdos Sur/Sur que no contradigan el diseño global. Plantea objetivos comunes -como la zona de libre comercio para 2010-pero no impide velocidades distintas. Resulta así un marco bastante flexible -aunque complejoadaptable a países muy diferenciados y a situaciones multiformes. Pero entre el plano del arquitecto y la realidad del edificio media un trecho. A lo largo de toda su historia, el proceso de construcción euromediterránea se ha visto contaminado, incluso secuestrado, por el conflicto del Oriente Próximo, más concretamente entre Israel y Palestina. Ni una sola de las conferencias-cumbre de ministros de Asuntos Exteriores (ha habido otras muchas de ministros sectoriales), primero a ritmo Manual y desde 2000 con frecuencia anual, ha logrado zafarse del conflicto. Los sirios querían añadir al párrafo que reconocía, enunciativamente, el derecho de autodeterminación de los pueblos, el «derecho de los pueblos bajo dominación ajena, colonial u otras», a «emprender acciones legítimas» contra ella; a Israel le disgustaba la referencia al respeto a la «integridad territorial de los Estados», por la cuestión del Líbano-sur y se enfrentaba a Egipto eludiendo compromisos de no proliferación nuclear si no se extendían a las -ausentes-Irán e Irak... Un ordago de la presidencia, lanzado en la madrugada de la última jornada, salvó in extremis la conferencia, y la carta magna del proceso o Declaración de Barcelona. La conferencia de Malta (15 y 16 de abril de 1997) se celebró con malos augurios, el mandato duro de Benjamin Netanyahu había reeempla- Xavier Vidal-Folch zado en junio de 1996 al flexible de Simón Peres y la Liga Arabe acababa de decretar un boicoteo comercial y diplomático a Tel Aviv. En esas desfavorables circunstancias lo mejor del encuentro fue su propia realización -prolongada en un contacto bilateral entre el rais palestino, Yasir Arafat, y el ministro de Exteriores Israeli David Levy-que, sin embargo, se clausuró sin redactarse siquiera una declaración final. La tercera conferencia, en Stuttgart (16 y 17 de abril de 1999), concluyó consagrando el borrador, aplazado desde Malta, de una Carta para la Paz y Estabilidad en la región, pero sólo a título de «documento de trabajo». Hubo conclusiones -y la inédita presencia de un representante libio con estatuto de observador-, pero no hubo conferencia de prensa de clausura, por la pretensión del ministro Israeli, Ariel Sharon, de coprotagonizarla para equilibrar la presencia de su colega sirio, contra lo oficialmente previsto. La cuarta convocatoria, en Marsella el 15 y 16 de noviembre de 2000, (que representaría el relanzamiento del proyecto, como veremos) venía prologada por una nueva fase de violencia en los territorios palestinos (200 muertos en dos meses), lo que fue utilizado por Siria y su satélite Líbano como coartada para negarse a asistir. Los ministros Israeli y palestino -esta vez Shlomo Ben Ami y Nabil Shaath-protagonizaron algún rifirrafe dialéctico, pero esta vez las conclusiones fueron más prácticas. La quinta conferencia se celebró en Bruselas el 5 y 6 de noviembre de 2001, en plena intifada, y con varias ciudades palestinas ocupadas por tanques isarelies en venganza por el asesinato del ministro de Turismo, Rehavam Zeevi. Lógicamente se volvió a registrar alta tensión cuando el isrrelí Simón Peres acusó a Damasco de dificultar el proceso de paz dando cobijo a terroristas y el sirio Faruk al Shara le llamó mentiroso y distinguió entre combatientes por la libertad y terroristas. Pero esta vez no hubo deserciones. La convocatoria de la sexta conferencia (Valencia, 22 y 23 de abril de 2002) llegó con el momento más caliente del conflicto, que produjo centenares de muertes, la ocupación y destrucción de ciudades palestinas y el asedio Israeli a la sede oficial de la Autoridad Palestina, en Ramala. Sirva este descriptor detallado para constatar la continua interferencia del drama de Oriente Medio en la vertebración de la región. Los más optimistas suelen destacar que -con vaivenes de distinto signo-esa asechanza no ha impedido erigir el foro euromediterráneo en el único escenario multilateral donde se reúnen todos los protagonistas de la zona, incluso los más enfrentados. Pero ello no es óbice para subrayar las consecuencias de ralentización, generación de recelos y establecimiento de obstáculos que ha supuesto para el proceso euromediterráneo. El Mediterráneo, más cerca y más lejos Sin embargo, el panorama diplomático y técnico que se ha ido tejiendo quedaría incompleto sin mencionar algunas conferencias de ministros sectoriales como la del agua, en Turin, que diseñó algunos programas multilaterales (1999); o la del medio ambiente, en Helsinki (1997), que lanzó el programa de saneamiento SMAP, y sirvió para interesar más a los socios escandinavos de la UE en el Euromed. O un documento importante, la comunicación de la Comisión Europea «Sobre la Asociación Euromediterránea y el Mercado Único» ^, que precisaba el horizonte de la zona de libre cambio prevista por la Declaración de Barcelona desde la experiencia de que el mercado único «es mucho más que una zona de libre comercio» y esbozaba un programa para suprimir las barreras al comercio en ámbitos como las aduanas, la fiscalidad, la contratación pública, la competencia y los derechos de propiedad intelectual. También fue destacable la reunión de Agadir (7 de mayo de 2001) en la que los Ministros de Exteriores de Marruecos, Egipto, Túnez y Jordania firmaron un acuerdo de libre cambio abierto a otros socios del Sur. Aunque -contra lo comprometido-no concretó sus resultados durante el año de su celebración, abrió la espita a la expectativa de una aceleración de las relaciones horizontales Sur-Sur ^. Pese a su contaminación a cuenta del conñicto del Próximo Oriente, el proceso euromediterráneo se mantuvo vivo. Aunque cinco años es un suspiro en la dinámica comunitaria -que suele registrar arranques muy lentos, firecuentemente generadores de una aceleración posterior-, no lo son tanto en la vida de los pueblos. Por eso, al doblar el cabo del primer quinquenio, se multiplicaron los análisis, reñexiones y debates sobre el balance y los resultados obtenidos. Y todos coincidieron en evaluarlos como muy mediocres. Lentitud de los acuerdos bilaterales El proceso de negociación y ratificación de los Acuerdos de Asociación fiíe «más lento de lo esperado» ^, tanto por culpa del Norte, especialmente en la discusión de los ritmos de liberalización agrícola -como se analizará más adelante-y por la complejidad de los procedimientos parlamentarios nacionales, cuanto por las reticencias de algunos sureños a «acelerar el ritmo de la transición económica» y de efectuar las reformas 388 Xavier Vidal-Folch exigidas por la asociación», así como por la gravedad de algunos de sus déficit democráticos. De manera que de los nueve países con que se debían culminar esos acuerdos -pues de los doce, Chipre, Malta y Turquía ya tenían tratados en vigor que contemplan uniones aduaneras-, cinco años después de Barcelona menos de la mitad estaban en vigor: Túnez, Marruecos, Israel y la Autoridad Palestina. El de Jordania (1997) esperaba la ratificación; el de Egipto se había negociado y esperaba la firma, y los de Líbano, Siria y Argelia seguían en la mesa de discusión. Esa lentitud gravaba todo el proceso de constitución en región, porque el objetivo de libre comercio multilateral no puede alcanzarse hasta que no rijan todos los acuerdos bilaterales, piezas de aquél. Dificultaba en concreto el avance hacia la liberalización comercial multilateral mediante la «acumulación diagonal de origen», a través de la cual un producto que incorpora elementos procedentes de varios países socios goza de las preferencias comerciales previstas. E impedía ulteriores pasos en la conversión de una zona de libre cambio en un área articulada con normas económicas e industriales armonizadas que faciliten la atracción de capitales, de modo que un inversor pueda desarrollar planes regionales y no país por país, lo que le genera costes adicionales, más aún tratándose de mercados de dimensión modesta. ^ Seguridad y dimensión humana El objetivo estrella, la elaboración de una Carta para la Paz y la Estabilidad en la región que desarrollase los objetivos de seguridad consensuados en Barcelona, obtuvo un notable impulso en la cumbre de Stuttgart de 1999, donde los ministros de Exteriores de los 27 acordaron las cuestiones de principio para la elaboración de un texto. El obstáculo de Oriente Próximo implicó que, no sólo en los primeros cinco años sino hasta el momento presente, haya resultado extemporánea la redacción de esta Carta. Como mal menor, se mantuvieron las reuniones ad-hoc de altos funcionarios, en la perspectiva de transformarlas en un foro institucional de diálogo sobre cuestiones como el terrorismo, la prevención de conflictos y la gestión de crisis. La cooperación multilateral empezó a plasmarse en distintos programas relacionados con el agua y el medio ambiente, la sociedad de la información, la herencia cultural y las infrastructuras, aunque todos ellos de alcance relativamente modesto y visibilidad limitada. Y de los foros ci-El Mediterráneo, más cerca y más lejos viles que acompañaron a las distintas cumbres puede concluirse lo mismo. La relación económica existente en el punto de partida entre las dos riberas era el acentuado desequilibrio típico de la relación Norte-Sur. El progreso más destacado se detecta en el cuadro macroeconómico global, más que en la economía real. Los países del Sur avanzaron en el saneamiento de sus cuentas públicas y en la estabilización de sus principales variables macroeconómicas, merced a sus -tímidas y desigualesreformas económicas y al apoyo europeo a las mismas, dotado con 600 millones de euros comprometidos, -que no significa ejecutados-(casi el 20% del programa Meda) para Marruecos, Argelia, Túnez, Jordania y Líbano. Los resultados de esta política se recogen en el cuadro número 1: Pero la diferencia de riqueza relativa, medida en paridades de poder de compra ajustadas -el baremo más exacto y a la vez menos escandaloso-era abismal, establecía una relación de cinco a uno entre Norte y Sur del Mediterráneo. Los dos instrumentos contemplados para combatir ese desequilibrio, comercio e inversión, arrojaron resultados menores. El déficit del Sur era menos acusado en el ámbito agrícola en términos absolutos (3.553 millones de euros contra 4.394 millones) ^, pero también el más grave en términos relativos, dado el peso del sector primario en las economías norteafricanas. Este panorama no ha cambiado sustancialmente. Tampoco se modificó la relación horizontal comercial Xavier Vidal-Folch 390 Sur-Sur: el comercio entre los vecinos del Magreb y del Mashraq apenas alcsmzaba el 5% de sus transacciones exteriores; los mercados árabes permanecían y permanecen cerrados entre sí, desincentivando así la afluencia de inversión extranjera. La inversión -privada y pública-tampoco desencalló el escaso desarrollo del Sur. El punto de partida era bajo. Según cálculo del experto Bichara Khader, profesor en Lovaina ^, las inversiones europeas eran «ocho veces menores que las norteamericanas en México». El punto de llegada siguió siendo bajo: del total de inversiones directas de la UE en el conjunto de los países de economía emergente, la zona mediterránea absorbía a final de los noventa sólo el 5%. Una ilustración -aunque en espacio temporal distinto-: en los últimos diez años las empresas españolas han invertido más de 60.000 millones de etaros (diez billones de pesetas) en Argentina, por menos 3.000 millones de euros (medio billón de pesetas) en Marruecos. Coherentemente, las inversiones privadas mundiales en la ribera sur no sólo no aumentaron en términos relativos, sino que decrecieron medio punto entre 1995 y 1998 respecto al quinquenio anterior, situándose por debajo del 1% del total mundial, como indica el cuadro número 2. Esa cifra de carácter residual contrastaba con el hecho de que el peso del área supone aproximadamente el 4% del comercio mundial y casi el 4% de la población. Expresado de otra manera, la ya escasa capacidad de atraer capitales disminuyó seriamente, casi un 40%, mientras aumentaban las de Latinoamérica y Europa central y Oriental. Es decir, mientras la inversión en Latinoamérica multiplicaba la realizada en el Sur mediterráneo por casi nueve veces (8,75) a mitad de decenio, a finales de los noventa se multiplicaba por 17,4 veces. Y mientras la inversión en Europa central y oriental duplicaba la mediterránea a mitad de decenio, la quintuplicaba a final de decenio. Nótese que ambas constituyen zonas prioritarias de expansión de la UE. La inversión pública no pudo cumplir su papel de catalizador de la inversión privada. Las transferencias públicas europeas reales -sin contar la ayuda bilateral, sólo la comunitaria-ascendieron a 890 millones de euros, la cuarta parte de lo previsto, como se analizará en detalle. En consecuencia, el nivel absoluto de bienestar no experimentó cambios cualitativos, especialmente teniendo en cuenta la evolución poblacional. En efecto, el crecimiento demográfico en el área era y es exponencial, y aún más lo es el crecimiento de la población activa. Según previsiones del Banco Mundial, la población de los ocho países más poblados y menos ricos del Sur (Marruecos, Túnez, Argelia, Egipto, Siria, Jordania, Líbano y Turquía) pasará de 213 millones de habitantes en 1997 a 283 millones en 2015, y la fuerza laboral, de 133 millones, a 209 millones. El Mediterráneo, más cerca y más lejos Si se tiene en cuenta que el crecimiento de la población y el de la población activa aumentaron a un ritmo del 2,3% y del 2,9%, respectivamente, entre 1980 y 1997, todo indica -expresado sea con cautelas, dada la falta de armonización temporal de las cifras oficiales citadas-que el aumento demográfico absorbió la mayor parte del crecimiento de la riqueza global, cifi:*ado en el 4,1 para el segundo quinquenio de los noventa. Más armonizada temporalmente es la cuantificación del cuadro número 3. Por consiguiente, en torno a un punto y medio del crecimiento del PIB (del 4,1% anual en el cuatrienio 1996-1999), quedó absorbido por la explosión demográfica. Es decir, todo indica que en el mejor de los casos la riqueza per capita aumentó sólo muy levemente en términos absolutos. Fuente: Banco Mundial y FMI (*) índice de ingresos per capita medido en paridades de poder de compra ajustadas. (**) Estimación (***) Países contabilizados: Marruecos, Túnez, Argelia, Egipto, Jordania, Siria, Líbano y Turquía las inversiones privadas se redujeron a menos de la cuarta parte sobre el nivel de 1993; y el desempleo se duplicó, desde el 20% al 42% de la población activa. «La principal causa» del fiasco, concluía la Comisión, eran «las medidas adoptadas por Israel para aislar a los territorios»: sólo los cierres de fironteras produjeron unas pérdidas anuales equivalentes al 7,4% del PIB palestino. Los únicos dividendos sensibles arrojados por la cooperación europea en Gaza y Cisjordania, aparte de una importante mejora de las infiraestructuras -puerto y aeropuerto-, se situaban en el terreno político: «ha evitado el hundimiento de la Autoridad Palestina» y «ha mantenido vivo el proceso de paz». Las causas del fiasco Por supuesto que la causa principal de esos magros logros radicaba en el agravamiento del conflicto de Oriente Próximo. En 1995, con Rabin y Peres, parecía apuntar a su encauzamiento y desde entonces casi todo han sido malas noticias. Este conflicto contaminó y secuestró el proceso euromediterráneo, pero no fue el único responsable de sus desiguales logros. Otra causa, firecuentemente olvidada, procede de la dispersión y la lentitud reformista en el Sur. «Da Oriente a Occidente in ogni punto è divisione», decía Leonardo Da Vinci del Mediterráneo, un retrato que rige hoy para los sureños: divisiones políticas entre dictaduras férreas, democracias imperfectas y sistemas en transición; dispersión ideológica entre fundamentalistas y regímenes moderados; distancia entre países aptos para incorporarse de inmediato a la moneda única europea (Chipre) y otros subdesarroUados y aplastados (Palestina). La lentitud en las reformas económico-administrativas, especialmente si se compara su ritmo con otra zona emergente, Latinoamérica, en lo Xavier Vidal-Folch 394 que se refiere a las privatizaciones, la creación de un marco de seguridad jurídica, y el estímulo técnico al proceso de integración regional -a lo que se une la persistencia de unas economías ñ'ecuentemente oligopolizadas en torno a un escaso número de familias estrechamente vinculadas al poder político-, constituyen un paisaje que perjudica la atracción de capitales y ralentiza el desarrroUo. El problema radica, según la Comisión Europea, en «la diversidad de normas, la ausencia de acumulación de normas de origen, una infraestructura física y administrativa insuficiente y la falta de un marco jurídico y económico transparente para la actividad empresarial» y en que en algunos países «las empresas públicas se han opuesto a la reestructuración necesaria para competir en mercados más abiertos, y otros grupos de interés han hecho que se estancaran reformas económicas más amplias» ^^. Un tercer factor explicativo del desigual resultado del proceso es el escaso nivel de la solidaridad real exhibida por los socios del Norte. Las transferencias financieras directas de Europa a la ribera sur han sido inferiores no sólo a lo necesario sino también a lo programado, como veremos. Y se corre el peligro de que esta distancia aumente en el futuro inmediato. El paquete de perspectivas financieras plurianuales aprobado por los Quince en la cumbre de Berlín (1999) para el primer septenio del siglo XXI redujo sensiblemente la línea presupuestaria dedicada a financiar la política exterior, desde los 5.908 millones de euros a 4.580 millones, perdiendo así casi una cuarta parte (el 22,4%) de sus recursos. Si bien hay que matizar que esta pérdida se compensa, al menos parcialmente, porque el apoyo financiero a los candidatos de la Europa central y del Este dejará de ser durante el período «ayuda exterior» para convertirse en política interna, estructural y agrícola; y porque se han registrado posteriores correcciones durante los procedimientos presupuestarios anuales. En cualquier caso, el paralelismo fundacional -cifrado al céntimo en la cumbre de Cannes-entre el Este y el Sur no ha podido mantenerse en la práctica. El surgimiento súbito de otras prioridades, como la rehabilitación de Kosovo y otras acciones en los Balcanes, con su correlato de regateo de fondos comunitarios, y el mantenimiento de una cierta distancia política entre los Estados miembros más distantes geográficamente del Mediterráneo, han contribuido a la caída del Sur de la lista de primeras prioridades a la que había sido trabajosamente aupado. Así, la intensidad de la ayuda per capita de la UE al área euromediterránea es la más baja de cuantas se dispensan a las regiones vecinas con las que mantiene vínculos preferenciales, incluso después de las me-El Mediterráneo, más cerca y más lejos joras que -como veremos-se registraron en este capítulo desde el año 2000. No alcanza siquiera a la cuarta parte de la vehiculada a los países de la Europa central y oriental, como indica el cuadro número 5: CUADRO 5. Ayuda financiera de la UE A esta baja intensidad de la ayuda contribuyen sin duda los problemas de ejecución de los presupuestos comprometidos, que situaron el gasto real en una porción mínima del previsto, como indica el cuadro número 6: A final del ejercicio 1999, por tanto, la divergencia acumulada entre el total de recursos comprometidos y el total realmente hecho efectivo ascendía a 2.545 millones de euros. O lo que es lo mismo, el nivel de ejecución sobre el techo de gasto teóricamente disponible fue sólo del 26%, en promedio para todo el período. O sea, prácticamente tres cuartas partes de los recursos previstos quedaron sin movilizar. ¿Motivos de esta ineficacia? Por un lado, el atraso de las administraciones sureñas, incapaces en algunos casos de absorber las ajrudas, como lo demuestra que en el primer quinquenio países tan significativos como Turquía (o Siria, aunque ésta no había firmado aún la asociación) fuesen incapaces de presentar un solo proyecto. Por otro, los cuellos de botella europeos. El comisario Chris Patten resumía así los dos tipos de problemas existentes: «Por un lado están los largos procedimientos burocráticos para la autorización de los gastos, pero por otro el gran problema es que el Consejo de ministros autoriza partidas de gasto, pero luego no respalda los medios presupuestarios para que la Comisión pueda gestionar ese gasto» ^^, es decir, que la maquinaria burocrática estaba infradotada, el personal era escaso y no al- En millones de euros. Este cuadro recoge únicamente la ayuda presupuestaria directa, a la que habría que añadir la asistencia financiera a través de los préstamos del Banco Exu'opeo de Inversiones, cuyo monto total previsto para el período ascendía a 4.672 millones de euros. Fuente: Comisión Europea canzaba a vehicular, con las garantías requeridas, los techos autorizados de gasto. De manera que al ritmo de aquel momento, alertaba, la ajruda total comprometida con los países mediterráneos después de 1996 tardaría 8,75 años en completarse, por siete años en el caso de Asia y 6,5 en el de Latinoamérica. Los Balcanes constituían la excepción, 2,52 años. Una incapacidad de severo impacto, puesto que tiene como efecto difuminar el relevante hecho de que la UE concede el 55% de toda la ayuda internacional al desarrollo y un 66% de toda la a5mda general (incluyendo la ajruda humanitaria de urgencia). La puesta en marcha de los programas de cooperación fue difícil. El reglamento Meda-1, que vehiculaba la a5aida financiera, se atrasó hasta julio de 1996, ocho meses, con lo que durante la fase de arranque no se podían efectuar pagos por falta de base jurídica. La Unión vivió enseguida el drama de las «vacas locas», que provocó una parálisis política y una búsqueda de recursos con que financiarla. Y la recién nacida Comisión Santer se vio abocada a la crisis que desembocaría en su dimisión, desencadenada precisamente por la gestión de los programas Med, los precedentes del Meda. Las irregularidades descubiertas por el Tribunal de Cuentas eran relativamente menores (2,2 millones de euros) y la Comisión los paralizó inmediatamente. Pero sirvieron para enhebrar el acoso al Ejecutivo comunitario, situar al horizonte marenostrum bajo sospecha de derechistas y calvinistas interesados, inhibir a los funcionarios y ralentizar el nuevo proceso euromediterráneo. El verdadero escándalo radicaba en la asimetría: un cúmulo de irregularidades de muy superior calado, cifradas por el mismo tribunal en 610 millones de euros (en el programa TACIS, de ayuda a Rusia) apenas tuvieron consecuencias... Pero es que Rusia es Este, no Sur. Junto a estos obstáculos de intendencia figuraron otros más de fondo, derivados de la propensión al proteccionismo agrícola de los Estados miembros de la UE ^^, que dificultó y fi:-enó la negociación de casi todos los Acuerdos de Asociación, por la cortoplacista defensa del tomate nacional (España contra Marruecos), de la flor cortada (Holanda) o del arroz (frente a Egipto). En todos ellos los Gobiernos tendieron a erigirse en correas de transmisión de los respectivos lobbies agrícolas -sustentados en un porcentaje mínimo de sus poblaciones, -pero dotados de una gran capacidad de movilización pública y de influencia mediática-para emprender forcejeos numantinos. La gravedad de esta miopía europea bien merece ejemplos y detalle de responsabilidades. Así, en el caso del acuerdo con Marruecos, el sector tomatero dio la batalla en el último bimestre de 1995 contra un aumento de las exportaciones alauitas cifrado en 15.000 toneladas anuales. La nimiedad de la concesión se constata al recordar que en los anteriores cuatro años las exportaciones españolas de ese producto a la Comunidad se habían duplicado, hasta alcanzar las 700.000 toneladas. De manera que, en el peor de los casos, los agricultores españoles se veían abocados a sacrificar en beneficio de sus colegas del otro lado del estrecho ¡el 0,042% de sus progresos comercialesj. La última resistencia vino de la tripleta Holanda-Alemania-Bélgica, que se negaba a unas concesiones para la exportación de flor cortada marroquí, cifradas en menos de 20 millones de euros, ignorando que Rabat había dado ya entrada a cereales, leche y otras producciones propias del Norte europeo. ¡Todo ello en un marco en el que las exportaciones agrícolas de la UE al Sur superan a las de sentido inverso¡. Por lo demás, la afluencia de oleadas migratorias, desde el Magreb a España, desde los Balcanes y Turquía hacia Italia y Alemania, han consolidado los recelos ancestrales de los europeos y la percepción hegemónicamente securitaria de las relaciones Norte-Sur. «El telón de acero, institucional y militar, ha dejado paso a otro telón de acero, mental y político. El primero, que ahora ha caído, se encontraba en el Este, ¡y el segundo se erige acto seguido frente al Sur¡», escribía hace diez años Bichara Khader ^^. «De hecho, el racismo antimagrebí, antimusulmán, antiárabe, ha venido a reemplazar al anticomunismo, al antisovietismo, en términos de reorientación de los proyectos conservadores. La noción de extranjero se ha modificado. El hombre del Este, que durante mucho tiempo había sido considerado extranjero y estigmatizado por media humanidad, es redescubierto ahora como alguien cercano, como un hermano. El extranjero ha pasado a ser el hombre 398 Xavier Vidal-Folch del Sur», concluía. Nada sustancial modificó en positivo esa percepción. Y el resultado es que proyectos como el del Estatuto del Residente, empujado por el comisario Antonio Vitorino para homogeneizar al menos el estatuto legal de los cerca de 16 millones de inmigrantes instalados en los distintos Estados miembros de la UE, sufría retraso tras retraso. Examen de conciencia: desde Marsella De modo que cinco años después de iniciado, el proceso euromediterráneo exhibía notables déficits en sus procedimientos y en sus resultados. La celebración del primer quinquenio sirvió para efectuar examen de conciencia y propósito de la enmienda. Desde, sobre todo, la cumbre de Marsella (15 y 16 de noviembre de 2000) los Quince trataron de revitalizarlo, con nuevos programas y diversos ajustes administrativos y procesales de la maquinaria comunitaria. Este impulso político -del que Francia se erigió en principal protagonista, por delante de España, y con Italia en los márgenes-logró en poco menos de dos años algunos resultados tangibles. Así, de los cinco acuerdos de asociación pendientes, desde Marsella se avanzó en tres, al firmarse el de Egipto y concluir las negociaciones con Argelia y Líbano (final de 2001). Pero la ratificación de la asociación con Jordania seguía pendiente y la negociación con Siria, empantanada. Pese a ello, la trama de acuerdos establecidos -y la posibilidad de la entrada en vigor provisional y anticipada de algunas de sus cláusulas-diseñaban ya una «masa crítica» suficiente. También, a raíz de la modificación del reglamento Meda en 2000, se descentralizó la gestión del gasto público y se concentró la maquinaria administrativa de Bruselas, lo que redundó en mejoras en las transferencias financieras, duplicándose en 2001 la ratio de ejecución del gasto público, como se aprecia en el cuadro número 7. Porque se eliminaron los compromisos antiguos, anteriores a 1995 no ejecutados y los compromisos «en hibernación» (aquellos por los que no se ha hecho ningún pago en dos ejercicios consecutivos), con lo que se redujeron 310 millones de euros al final de 2001. Es decir, se gestionó mejor y aumentó la coopera-El Mediterráneo, más cerca y más lejos ción efectiva, pero se aparcó la ambición de mantener las previsiones del paralelismo entre el Sur y el Este. Hubo mejoras también en la financiación del desarrollo, con la creación de un nuevo instrumento de capitalriesgo gestionado por el BEL Y se registraron avances en distintos ámbitos de la colaboración civil: la Comisión lanzó más de 400 proyectos regionales sobre asuntos como la conservación del patrimonio, el sector audiovisual y la juventud. Mejoró la disposición de los países extracomunitarios a incrementar la apertura recíproca de sus mercados, como apuntó el compromiso de establecer una subzona de libre comercio Sur-Sur, adoptado en Agadir en 2001. Y aumentó la densidad de los planteamientos para acelerar la liberalización de los intercambios, especialmente en las reuniones de los ministros de Comercio. Así, los Quince acordaron reexaminar el ritmo de la liberalización agrícola, factor crucial para el reequilibrio de las relaciones comerciales, como respuesta a las demandas del Sur y a las evidencias ofrecidas por nuevos estudios económicos. Según uno de éstos, en el supuesto de apertura de los mercados agrícolas europeos, las exportaciones agrícolas del Sur aumentarían en un 27% en cinco años, flujo que equivaldría a la entrada de un volumen de productos equivalente al 11% de los actuales intercambios intracomunitarios, aunque alcanzarían el 75% en el caso de las frutas ^^. También se abrió paso el compromiso para incorporar a los sureños al sistema paneuropeo de acumulación de origen, cuya aplicación debería multiplicar el nivel de comercio efectivo. «La evidencia indica», según un estudio académico, «que el comercio agregado entre países carentes de 400 Xavier Vidal-Folch acumulación es de aproximadamente el 40% de lo que sería en caso contrario» ^^. Otras iniciativas, maduradas en vísperas de la convocatoria de la cumbre de Valencia, debían complementar las anteriores iniciativas. Así, la extensión del programa TEMPUS de intercambios entre universitarios -ya existente con los Balcanes y los países de la antigua URSS, extensión financiada con más de veinte millones de euros anuales. Así, la propuesta de crear una Fundación euromediterránea para fomentar el diálogo entre culturas, que se dotaría con un millón de euros aportado por cada uno de los Quince y por la Comisión, y contribuciones voluntarias de los socios sureños. Así, la creación de una línea especial dentro del BEI, como sucedáneo del Banco Euromediterráneo sobre el que los Quince no alcanzaron consenso durante el Consejo Europeo de Barcelona (marzo de 2002), que debía compensar el escaso desarrollo de la intermediación financiera en el Sur y su falta de eficiencia y competencia. El balance del primer septenio del proceso, por tanto, sin cubrir ni de lejos las expectativas suscitadas en su inicio, mejoró respecto al del primer quinquenio. Quizá convenga ahora establecer alguna comparación. Si la arquitectura de la región euromediterránea era de mejor y más completa factura que la norteamericana del TLC (1993/1994), quizá no pueda decirse lo mismo de su puesta en práctica. Es verdad que el TLC contemplaba formas mínimas de integración, al prever sólo la libre circulación de bienes y servicios (no de los factores de producción) y la unión aduanera (al conservar cada socio su propia política comercial). Y también lo es que la ausencia de una estrategia de cohesión ex ante mediante ayndas al desarrollo del socio menos próspero no evitó que cuando -por la crisis social de Chiapas y el asesinato del candidato presidencial Ernesto Colosio, pero, no se olvide, simultáneamente a la entrada en vigor del TLC-en 1994/1995 México atravesó la gran crisis financiera conocida como «el tequilazo», EEUU tuviera que acudir, esta vez ex post, aportando ingente ayuda financiera: 20.000 millones de dólares. Pero, a cambio, el compromiso de recíproca liberalización comercial alcanzaba todos los sectores. En el ámbito agrícola, el acuerdo implicaba eliminar tarifas, cuotas de importación y licencias, si bien de forma gradual, en 15 años, con carácter absoluto. Las rebajas arancelarias han sido continuadas (en 1997, 1998, 2000 y enero de 2002) y el intercambio comercial de México con EEUU se ha triplicado por tres, hasta superar los 200.000 millones de dólares, lo que deshancó a Japón como segundo El Mediterráneo, más cerca y más lejos socio comercial de EEUU, detrás de Canadá. De esta forma el Sur-México ha empezado a lograr un mejor acceso a los mercados norteamericanos, ha espoleado su producción -también en sus «maquiladoras» fronterizas, transformadoras o ensambladoras de producciones semielaboradas importadas-y ha atraído capitales, incrementando su empleo, lo que no ha reducido los flujos de emigración al Norte, pero los ha hecho más manejables. Ultima, pero no menor, consideración. Como todo acuerdo regional implica un efecto de desviación de comercio, la participación de la UE en el comercio exterior de México se redujo del 11% en 1990, al 6% en 1999, factor que aceleró los trabajos para un nuevo Tratado México-UE, con la declarada intención de esta última de recuperar el terreno perdido. Cierto que no es lo mismo negociar y aplicar un acuerdo entre tres países (EEUU, Canadá y México) que entre un bloque semiintegrado de 15 y una retahfla desintegrada de 12.Y que es mucho más complejo un acuerdo de asociación que otro de mera liberalización comercial. Pero esa realidad no oscurece la diferencia de balances. De modo que, con todas sus limitaciones, Europa y sus socios sureños lograron relanzar desde el año 2000 su proyecto común. Pero no es tan seguro que hayan extraído todas las consecuencias que para éste supone el nuevo escenario mundial dibujado tras los atentados terroristas del 11 de septiembre de 2001. En efecto, han surgido nuevos datos aún pendientes de elaboración política. Como el hecho de que la asfixia del pueblo palestino haya sido manipulada, tratando de convertirla en coartada ideológica, por el terrorismo ultraislamista (Bin Laden). Como la evidencia de la labor preparatoria desarrollada en Europa -de Alicante a Hamburgo-de aquellas acciones, a través de densas y sutiles redes. Como el hecho de que de la lista de los 22 terroristas más buscados por el FBI hecha pública el 10 de octubre de 2001 por el presidente norteamericano, George W. Bush, once, esto es, exactamente la mitad, sean originarios de distintos países ribereños. O como la reverdecida y creciente sensibilidad de las opiniones públicas del Norte de Africa ante la evolución de la política israelí sobre la cuestión palestina, especialmente desde la guerra desencadenada contra Yasir Arafat en la pasada Semana Santa. Novedades de distinta factura como las reseñadas podrían resituar al Mediterráneo como escenario de una de las principales líneas de fractu-Xavier Vidal-Folch 402 ra del pretendido «choque de civilizaciones» que auguró Samuel Huntington. Las críticas al exceso de culturalismo que atrajo su planteamiento y la evidencia de que la dialéctica Norte/Sur sigue mostrando su vigor incluso en el interior del nuevo mapamundi que propone, ¿autorizan a obviar que el diálogo entre civilizaciones se ha erigido en una de las principales prioridades para los distintos actores del entorno mediterráneo? Desde septiembre de 2001 algunas de las cosas sabidas pero que provocaban mdradas huidizas cobran nueva importancia. En la zona mediterránea existe una innombrada potencia nuclear y un par de potencias armamentísticas, químicas o bacteriológicas, lo que complica el capítulo de seguridad del proceso de agrupación regional. La técnica utilizada hasta ahora, consistente en obviar fenómenos tan fundamentales, ha llegado probablemente a su límite de eficacia, y convendrá abordar estos asuntos de manera frontal. Además, el traspaso del terrorismo internacional desde la agenda exterior de los EEUU a la de la seguridad interior ha servido como acicate para realinear los intereses nacionales de los distintos Estados en función de ese fenómeno, y como excusa ocasional para estrategias políticas que hace un decenio hubieran resultado impresentables. Así sucede, desde luego, con el conflicto checheno, para Rusia; pero también con el del Polisario, para Marruecos; el kurdo, para Turquía; o la Kabilia y la minoría beréber para Argelia. Pese a todo, es difícil hallar en el mundo otras tan extensas zonas de frontera que hayan puesto en marcha, aún con las limitaciones del caso, procesos de integración como el abierto por la Declaración de Barcelona. A punto de amortizarse la línea del telón de acero que dividió al viejo continente durante medio siglo -gracias al proyecto de ampliación de la UE-, seguramente solo queda ésa. Europa es protagonista esencial del proceso. Y sólo si juega con decisión todas sus cartas será capaz de extraer todas las posibilidades del diseño euromediterráneo. Pero jugar todas las cartas exige eso, que sean todas, no sólo la administrativa, la económica o la comercial, sino también la de política exterior y en su caso, la defensa. Y si, aunque sean escenarios diferentes, los del Euromed y del Próximo Oriente se superponen, hasta el punto que una de las principales causas de los magros resultados de aquél hay que encontrarlas en éste, habrá que concluir en que la acción exterior de la UE sobre el conflicto israelo-palestino ha sido hasta el momento insuficiente. Es cierto que en los últimos años la Unión ha incrementado su protagonismo en el área. Constituyen jalones de esa dinámica el nombra-El Mediterráneo, más cerca y más lejos miento (1999) de un enviado especial permanente, Miguel Ángel Moratinos, a Jerusalén; la actividad desplegada por el Alto Representante para la Política Exterior y de Seguridad Común, Javier Solana (con su presencia en la cumbre de Sharm el Sheik o su participación en el Comité Mitchell); o la continua influencia sobre la política exterior norteamericana, principal potencia y la única capaz, como generalmente se reconoce, para liderar la reconducción del proceso de paz. Estos esfuerzos han desembocado en un resultado, la pervivencia -cada vez más amenazada-de una Autoridad Palestina, que sin la cobertura de la Unión -y el lábil apoyo de la Liga Arabe-hace tiempo habría dejado de existir. Pero cada vez son más las voces que reclaman una actuación más enérgica de la Unión. Tanto hacia la Autoridad Palestina -cuyo funcionamiento democrático y cuyos compromisos de pacificación han exhibido importantes déficit-como, sobre todo, sobre Israel. Es cierto que la fragua de una posición común entre los Quince topa con algunas herencias nacionales difíciles de cohonestar. Y que por distintos motivos, tres Estados miembros suelen ser renuentes a enervar posturas de exigencia: Alemania, a causa de su mala conciencia histórica por el holocausto judío perpetrado en época nazi; Holanda, por la influencia de su lobby proisraelí; y el Reino Unido, por su estrecha alianza estratégica con Washington. El resultado ha sido una política de muy mínimo común denominador. Y sus consecuencias, dramáticas para la UE no ya en términos de poder sino incluso de prestigio. Así lo evidenciaron las negativas del Gobierno Sharon, el pasado abril, a permitir al presidente de turno del Consejo Europeo, José María Aznar, o a la delegación compuesta por Javier Solana y el ministro de Exteriores español, Josep Piqué, visitar al rais asediado en Ramala, mientras pudo hacerlo el enviado del presidente norteamericano. En consecuencia, pese a las diferentes ópticas existentes entre los Quince, parecía ineludible a ojos de muchos una actuación más exigente sobre Tel Aviv. Sin implicar necesariamente una estrategia de ruptura diplomática ^^, la panoplia de medidas eficaces a disposición es amplia: desde la más dura de una suspensión del acuerdo científico vigente ^' ^, al adelantamiento de la convocatoria del Consejo de Asociación ^^, o a la simple exigencia de cumplimiento del Tratado de Asociación Euromediterráneo ^^ en lo relativo al fin de los abusos en la exportación de productos palestinos como originarios propios. Sólo si Europa se respeta a sí misma, esto, sólo si actúa coherentemente con su declarada voluntad de influencia, logrará el respeto pro- Xavier Vidal-Folch fundo de los otros protagonistas. Sólo así logrará que los vecinos del Sur la contemplen no únicamente como su primer socio económico sino también como su principal aliado estratégico. Todo ello sin contar con que el relanzamiento de la ribera sur mediterránea resultará imprescindible cabeza de puente para la rehabilitación del continente añicano en su conjunto. ^ Marruecos, Argelia, Túnez, Egipto, Siria, Jordania, Líbano, Israel, Palestina, Turquía, Chipre y Malta, con Libia de observador). 2 Comunicación de la Comisión «Reforzar la política mediterránea de la UE mediante una asociación euromediterránea», 19/10/1994) ^ «Le pari euro-mediterraneen», Eberhard Rhein en el libro colectivo «Euromediterranée, une région à construire», Publisud, Paris, 1995) 4 COM 1998-538 final, 23/09/1998) ^ Los países que se apuntarían posteriormente serían Argelia, Libia, Mauritania, Siria y Palestina. Un antecedente de esta zona de libre mercado fiíe la Unión del Magreb Arabe, UMA, lanzada en los primeros años noventa, que no logró cristalizar a causa del enfi^entamiento argelino-marroquí, la guerra civil argelina y el embargo internacional a Libia. ^ Comunicación de la Comisión «Sobre la Asociación Euromediterránea y el mercado único, 1998). 12 Hablamos específicamente de proteccionismo agrícola y no de otro. Es falsa la percepción, difixndida sobre todo por EEUU al menos desde el Acta Única de 1995 que dio paso al Mercado Interior, según la cual Europa es la potencia más cerrada del mundo. Al revés, es de las más abiertas. Y ciñéndonos a la UE, excluidas las importaciones intracomunitarias, EEUU supuso el 23,9%; la UE, el 18,3%; y Japón, el 7,2%. Ocurre que el proteccionismo europeo se concentra en un sector muy sensible para los países en desarrollo, la producción agrícola. También practica ese proteccionismo EEUU, aunque aparece formalmente más diluido al plasmarse en la subvención de las rentas a los agricultores, más que en el subsidio público a los precios. Las sucesivas reformas de la Política Agrícola Común, también empujadas por la filosofía de la OMC, tienden a reducir la política de precios en favor de las ayudas directas al agricultor y al desarrollo rural). 1^ Bichara Khader, «Europa y el Gran Magreb», Fundación Paulino Torras Doménech, Barcelona (1992). El Mediterráneo, más cerca y más lejos 405 ^' ^ «El impacto de la liberalización comercial euromediterránea en los intercambios agrícolas», resumen ejecutivo del estudio elaborado para FEMISE, A. Lorca y J. Vicens (UAM, 2000). ^^ «Estudio sobre el impacto económico de la extensión del sistema paneuropeo de acumulación de origen a los socios mediterráneos del proceso de Barcelona», Informe intermedio, Instituto Europeo de la Universidad de Sussex (Patricia Augier, David Evans y otros). ^® Una medida inmediatamente menos dura sería el envío de una comisión europea para investigar las eventuales violaciones de los derechos humanos, algo que permite la cláusula democrática del «Acuerdo Euromediterráneo por el que se crea una asociación entre las Comunidades Europeas y sus Estados miembros, por una parte, y el Estado de Israel, por otra» (Diario Oficial 21/06/2000), que en su artículo 2 establece: «Las relaciones entre las Partes, así como todas las disposiciones del presente Acuerdo, se fundamentan en el respeto de los principios democráticos y de los derechos humanos, que inspira sus políticas interiores y exteriores y constituyen un elemento esencial del presente Acuerdo». Una medida más contundente sería la exigencia en los foros internacionales, por los Estados miembros, de reparaciones por los daños causados por el Ejército Israeli a los proyectos financiados por los Quince. La medida más dura sería la denuncia del Acuerdo en todos sus aspectos, de diálogo político, comerciales y sociales, según su artículo 82: «El presente Acuerdo se celebra por tiempo indefinido. Cualquiera de las Partes podrá denunciar el presente Acuerdo mediante notificación a la otra Parte. El presente Acuerdo dejará detener efecto seis meses después de la fecha de dicha notificación». ^^ Suspensión o cancelación del «Acuerdo de Cooperación científica y técnica entre la Comunidad Europea y el Estado de Israel», Diario Oficial 27/03/1999. Otorga a Israel un estatuto prácticamente equivalente al de los Estados miembros como copartícipe del quinto programa marco de investigación. Toma parte en su Consejo, contribuye con su cuota y es beneficiario, junto a los miembros de la UE y del Espacio Económico Europeo, de sus programas. En general, los países que obtienen más «retorno» nacional de la política científica son los tecnológicamente más avanzados. El interés de Israel es doble: extrae buen rendimiento de su propia capacidad tecnológica (aplicaciones civiles de tecnología de Defensa), y calibra la evolución de sus socios. El artículo 12 del acuerdo reza: «Cualquiera de las Partes contratantes podrá poner término al presente Acuerdo en cualquier momento, con un preaviso de doce meses». ^^ Convocatoria del Consejo de Asociación. Este Consejo es el organismo encargado de la gestión del Acuerdo de asociación. De composición bilateral, se reúne anualmente «y cada vez que sea necesario» (artículo 67 y siguientes), adoptando sus decisiones mediante consenso. En caso de conflicto, cada Parte nombra un arbitro y los dos arbitros, a un tercero; la junta de los tres árbitrros adopta sus decisiones por mayoría. «Si una de las Partes considera que la otra Parte no ha cumplido alguna de las obligaciones derivadas del presente Acuerdo, podrá tomar las medidas apropiadas», que comunicará al Consejo y sobre las que se abrirán consultas bilaterales si la otra parte lo solicita (artículo 79). ^^ El Acuerdo de Asociación establece la liberalización comercial de los productos originarios de Israel y posibilita la «acumulación bilateral» de su origen (productos elaborados en Israel que incorporan algún elemento o material procedente de la Unión), pero «no permite todavía la acumulación diagonal», es decir, la incorporación a los productos israelíes de elementos originarios de otros socios (Comxmicación de la Comisión «Aplicación del acuerdo provisional de comercio y asuntos comerciales entre la Comunidad Europea e Israel» (12/05/1998). Según esta comunicación, Israel viola los términos comerciales Xavier Vidal-Folch 406 pactados del Acuerdo de Asociación (que entraron en vigor en fecha adelantada a la oficial del 1 de junio de 2001) al exportar como propios los productos provenientes de los asentamientos ilegales en los territorios autónomos y ocupados (anexionados en 1967 y que no forman parte del territorio de Israel, de acuerdo con las resoluciones de NNUU), así como productos elaborados por palestinos de la fi-anja de Gaza y Cisjordania. La Comisión denunció violaciones en el comercio de flores cortadas, zumo de naranja, fresas, berenjenas, cítricos, zapatos y otros productos del cuero, que suponen ingresos fiscales indebidos a la Hacienda Israeli -en algunos casos desviados de su destino correcto, la palestina-, dado el trato preferencial que los Quince otorgan a los productos auténticamente originarios. El entonces vicepresidente Manuel Marín denunció estas violaciones en términos muy contundentes. El expediente se empantanó, hasta la reunión del comité de cooperación aduanera celebrada en Jerusalén el 23 y 24 de julio de 2001, en la que Israel defendió su actuación, los Quince sostuvieron su postura, y ambos acordaron celebrar una reunión técnica informal antes de final de octubre de 2001. También previeron que en caso de no encontrar una solución, el asunto pasaría a «la instancia competente prevista por el acuerdo de asociación» (el Consejo de Asociación). Desde entonces el asunto está enterrado.
El fin del mundo bipolar y la inevitabilidad de un mundo multipolar, incorpora actores en las relaciones internacionales que hasta hace un cierto tiempo -por razones económicas o políticas-tenían escasas posibilidades de acción. Tanto los Estados con economías emergentes, como las organizaciones no gubernamentales (ONG) son los nuevos actores a considerar. Las relaciones de la Unión Europea (UE) con América Latina (AL) se sitúan en este marco de nuevos actores internacionales. Con todas las dificultades inherentes a una diversidad latinoamericana, política y económica, con un tropismo de Latinoamérica hacia los Estados Unidos, hay que añadir la realidad de las transiciones democráticas en los Estados latinoamericanos lastradas por crisis económicas recurrentes y políticas macroeconómicas, con dificultades para sustentarse en apoyos sociales y políticos amplios. En la UE se produce un dilema respecto Latinoamérica como consecuencia del fin del mundo bipolar. Por una parte, ello implica la certificación del fin de las doctrinas tercermundistas al uso en otros momentos y permite un acercamiento mayor de Europa hacia Latinoamérica. Por otra, la UE debe concentrar sus esfiíerzos en la Ampliación hacia los países del Este, lo que hace que el «momentum» de las relaciones con Latinoamérica no sea el más adecuado para un avance rápido en las relaciones. En este contexto, una de las iniciativas de institucionalización política más importantes derivadas de la relación y acercamiento entre la Unión Europea y América Latina, es la Cumbre de Jefes de Estado y de Gobierno Jordi Bacaria 408 de la Unión Europea, América Latina y Caribe, celebrada en Río de Janeiro en 1999 y su segunda edición en Madrid en mayo de 2002 ^. Mientras en 1992, se suscribe el Tratado de Libre Comercio de América del Norte (TLCAN), entre Estados Unidos, Canadá y México, que entra en vigor el 1 de enero de 1994. También en 1990 Estados Unidos lanza su iniciativa para las Americas y en 1994 inicia la estrategia del Área de Libre Comercio de las Americas (ALCA). Así la integración económica norteamericana se expande hacia Latinoamérica, con un modelo de eminente base económica y regionalista. Por el contrario, el acercamiento de la Unión Europea hacia América Latina, tiene un marcado carácter político, a pesar de su componente económica. El objetivo de este artículo es reflejar las relaciones actuales de la Unión con América Latina, sus posibilidades futuras en el marco de un escenario normativo de cooperación política y económica. Por parte de América Latina, existe el interés y la necesidad de diversificar sus relaciones exteriores y disminuir el tropismo norteamericano. Por parte de Europa existe el interés y la necesidad de fortalecer sus relaciones con el continente que comparte más que con cualquier otro, un conjunto de valores e historia común. La cuestión está en si las relaciones de la Unión Europea con América Latina, deben verse como una carrera con Estados Unidos sobre la primacía en la región, o bien, desde lo que debería ser la nueva lógica del multilateralismo, Latinoamérica debería alcanzar una relación equilibrada, en la que se pueda decir «todo con Estados Unidos nada sin Europa» ^. En este caso, se trataría de una nueva lógica en la que Europa comparta con Estados Unidos el devenir económico y político de Latinoamérica. Por esta razón, en el artículo se analiza con más detalle el caso de México, ya que por una parte representa un cambio radical de las relaciones de Estados Unidos con América Latina, cuyo inicio coincide con el fin de la bipolaridad. Por otra parte y hasta hoy, para la Unión Europea también México representa la firma del acuerdo más importante con un país de América Latina. En este sentido es quizás, la realidad más tangible en la perspectiva del tipo de relaciones que los Estados latinoamericanos van a emprender tanto con Europa como con Estados Unidos, en los próximos años en una marco de libre comercio y relaciones políticas. Un marco normativo de «realpolitik», que Europa debe considerar en sus relaciones con América Latina. En cualquier caso no hay que olvidar, que las relaciones de la Unión Europea con el sur del continente, por una parte se concentran en los países de Centroamérica y por otra con Mercosur y Chile, con los que hay iniciados negociaciones para acuerdos de libre comercio. En especial el de La Unión Europea y América Latina Mercosur representaría el primer acuerdo del mundo entre dos bloques regionales. Sin embargo, la propia situación de los países de Mercosur y en especial de Argentina desde finales de 2001, no permiten imaginar resultados alentadores a corto plazo. El artículo se divide en las siguientes secciones: en la segunda se presenta un panorama general de las relaciones entre América Latina y la Unión Europea, en la tercera el caso de México en su relación con Estados Unidos y la Unión Europea, y en la cuarta se concluye con la realidad de la integración latinoamericana y el proceso hacia un área de libre comercio de las américas firente al desarrollo de los acuerdos de asociación por parte de la Unión Europea. Las relaciones entre la Unión Europea y América Latina La diversidad político económico latinoamericana en las relaciones con la Unión Europea Puesto que América Latina se caracteriza por su diversidad política y económica, la Unión Europea, ha establecido relaciones diferenciadas en la región. Estas relaciones se han establecido en ñmción de objetivos concretos y especialmente en Centroamérica, motivadas por el apoyo a procesos de paz y defensa de los derechos humanos y la democracia. Los mismos procesos de integración de los países de América Latina y sus diferencias económicas, también han influido el tratamiento diverso y específico de la Unión Europea en sus relaciones con la región. Los distintos acuerdos subregionales de la Unión se han debido a esta diversidad política y económica y se pueden agrupar en los siguientes grupos: 1) los de Centro América iniciados con el Grupo de San José; 2) los de Sudamérica y México iniciados con el Grupo de Río; 3) los de los países de la Comunidad Andina de Naciones (CAN) ^; 4) los de los países del Caribe en parte por su relación con los países de ACP (África, Caribe y Pacífico) aunque el nuevo concepto regional introducido en Río permite la integración regional del Caribe, Centro América y los países del norte del subcontinente; y 5) por razones distintas se da un tratamiento diferencial con Cuba. A pesar de la heterogeneidad de América Latina, a partir de la Cumbre de Río la Comisión Europea reconoce la necesidad de adaptar el diálogo y la cooperación a estas distintas realidades, e integrar mejor la dimensión regional en ámbitos de interés común donde un enfoque global está más justificado o es más adecuado ^. Desde los años sesenta, la Unión Europea ha venido estableciendo relaciones comerciales, políticas y acuerdos de cooperación con América Latina. A pesar de las fuertes relaciones económicas de Europa con América Latina en los años sesenta y la pérdida de peso en las últimas décadas, la Unión Europea se acerca a América Latina, con un carácter eminentemente político. En los años setenta debido a los regímenes autoritarios, se establece una corriente solidaria desde Europa hacia América Latina. La primera plataforma política es la del Diálogo Interparlamentario en 1974, que permanece hasta 1984 como el único canal de diálogo político institucionalizado. Se trata de las Conferencias Parlamentarias entre el Parlamento Europeo y el Parlamento Latino, que no está vinculado a un esquema de integración. En 1984 el Grupo de San José se creó como reunión ministerial de la Unión Europea y Centroamérica con el fin de dar apoyo al proceso de paz y del establecimiento de la democracia. Con los Diálogos políticos de San José se estableció una línea de cooperación política, con alcance en proyectos de defensa de los derechos humanos, lucha contra la droga, educación, cultura y tecnología. A finales de 1986 se crea en América Latina un «Mecanismo Permanente de Consulta y Concertación Política» conocido como el Grupo de los Ocho o Grupo de Río ^, con un objetivo de concertación regional, intentando recoger la experiencia por Contadora y su Grupo de Apoyo ^. El Grupo de Río, tiene serias dificultades en su tarea de concertación, por las diferencias significativas alrededor de temas como el equilibrio entre «solidaridad y promoción democrática», la crisis de Panamá en 1988 es una de estas dificultades' ^. Sin embargo a pesar de ello, desde 1987 se han llevado a cabo reuniones ministeriales con la Unión Europea, llegándose a acuerdos de tipo comercial y político. En 1990 con la Declaración de Roma de 20 de diciembre, se institucionaliza la Conferencia Ministerial del Grupo de Río y de la Unión Europea. La cooperación biregional se incrementó a partir del Consejo Europeo de Madrid en 1995. Durante este Consejo se adoptó la propuesta de la Comisión Europea que planteaba la necesidad de una nueva estrategia para las relaciones entre la UE y América Latina, «basada en un enfoque diferenciado y adaptado a las características y necesidades propias de cada subregión y de cada país» ^. El progresivo diálogo político, permitió llegar a la Cumbre de Río en 1999 ^, con el objetivo de ir hacia una asociación estratégica. En la Cumbre se reunieron por primera vez 48 países de la Unión Europea y América Latina donde firmaron el acuerdo de Río de Janeiro, mediante el cual se comprometían a fortalecer las relaciones entre ambas regiones en La Unión Europea y América Latina materia política, económica, cultural, educativa, social y humana •^^. La cumbre de Río es el resultado del proceso histórico de cooperación entre los Estados de la UE y los de América Latina. España y Portugal, han jugado un papel importante en la dimensión Latinoamericana de la Unión Europea y esto se observa en distintas iniciativas desde la presidencia española de 1995, con la propuesta de la Comisión Europea planteando la necesidad de una nueva estrategia para América Latina. Existe una relación especial con América Latina y hasta punto privilegiada respecto los demás Estados de la Unión en la participación en las Cumbres Iberoamericanas, que anualmente reúnen a los Jefes de Estado y Gobierno de América Latina, España y Portugal ^^. Con motivo de la presidencia portuguesa del Consejo Europeo durante el primer semestre de 2000, Portugal dio una atención especial a América Latina y en la reunión de 24 de febrero en Vilamoura, se congregaron las distintas instancias del diálogo político entre la Unión Europea y América Latina: el Grupo de Río, el Grupo de San José, la Comunidad Andina, Mercosur, Chile, Bolivia y México. En este contexto tuvo lugar la IX Reunión Ministerial Institucionalizada entre la UE y el Grupo de Río. En el ámbito del Parlamento Europeo en el año 2001 se aprobó la propuesta de Resolución del Parlamento Europeo sobre una Asociación global y una Estrategia Común para las relaciones entre la Unión Europea y América Latina •^^, que en el ámbito económico propone: «la redefinición y creación de una Zona euro-latinoamericana de Libre Comercio en el horizonte del 2010 mediante la celebración del citado Acuerdo de Asociación Global Interregional que, sin obviar los acuerdos bilaterales o regionales ya concluidos o en curso de negociación, añada un soporte institucional y una cobertura geográfica completa al contenido de la Asociación Estratégica Biregional decidida en Río» ^^. La cooperación para el desarrollo y las relaciones comerciales: las distintas generaciones de acuerdos Al referirnos a la cooperación para el desarrollo de la Unión Europea, hay que distinguir entre la que tiene su origen en la competencia exclusiva comunitaria y la que llevan a cabo los Estados miembros de la UE. Los objetivos de la cooperación al desarrollo de la Comunidad Europea están descritos en el artículo 177 del Tratado CE. Este artículo hace referencia al carácter complementario de la cooperación al desarrollo de la Comunidad, con la realizada por los Estados miembros. Es por este carácter complementario, que hay que referirse a la cooperación al desa-Jordi Bacaria 412 rroUo de la Unión Europea en su conjunto, sin embargo en el artículo no se entra en el detalle de los programas de cooperación de los Estados miembros hacia América Latina. Como resultado del progresivo acercamiento de la Unión Europea con los países de América Latina, los acuerdos de cooperación y comerciales, han ido adquiriendo una mayor entidad y se puede hablar de distintas generaciones de acuerdos. En las relaciones entre la Unión Europea y América Latina se distinguen cuatro tipos de acuerdos: Son acuerdos muy sectoriales y se basan en la competencia exclusiva de la Comunidad Europea en materia comercial. 2) Los acuerdos de segunda generación, en el período entre 1980 y 1985 representan un paso hacia adelante en la concertación poHtica. La crisis centroamericana de principios de los ochenta genera un gran interés por parte de los socios comunitarios quienes apoyan la idea de cooperación intra-regional centroamericana como un mecanismo de resolución de conflictos. Se busca en estos acuerdos un apoyo a los procesos de paz y promoción de la democracia. Se apoya el marco de Contadora y Estipulas en Centro América. 3) Los acuerdos de tercera generación, se negocian a partir de los años noventa y se producen en el marco de las reformas llevadas a cabo en los Estados de América Latina. Estos acuerdos incluyen temas como la protección medioambiental y cooperación científica y técnica. En 1991, México y las Comunidades Europeas suscribieron el «Acuerdo Marco de Tercera Generación», en el momento en que México estaba negociando el TLCAN. 4) Los acuerdos de cuarta generación, son los más recientes y tienen una dimensión comercial de tratado de libre comercio y una dimensión política. Se incluye la llamada cláusula democrática. El «Acuerdo Global» firmado con México y el que se está negociando con Mercosur, son acuerdos de estas características. Desde los años sesenta la Comunidad Europea ha ido perfeccionando los acuerdos en los ámbitos comercial y político, y se ha incrementado la cooperación para el desarrollo hacia los países de América Latina. Los acuerdos bilaterales de «primera» y «segunda» generación con los países de América Latina fueron menos favorables que los de asistencia ofrecidos a los países ACP. Sin embargo, los acuerdos de cooperación de «tercera» generación a partir de los años noventa han ampliado y profundizado las relaciones de la Unión Europea con América Latina ^^. La Unión Europea y América Latina El tipo de cooperación que ofirece la Comunidad Europea depende del nivel de desarrollo de los países a los que va dirigida. A los países más pobres de Centroamérica y la región Andina se les oft-ece ajruda concesional y preferencias comerciales no recíprocas, en cambio a los países con un mayor nivel de desarrollo, la cooperación se concentra en el fomento de los vínculos comerciales e inversiones. En la IX Reunión Ministerial Institucionalizada entre la UE y el Grupo de Río, se destacó la necesidad del fomento de las inversiones como un objetivo esencial de las relaciones biregionales y alentaron la celebración de acuerdos bilaterales de promoción y protección recíproca de las inversiones ^^. Desde 1995 se ha puesto el énfasis en los proyectos de educación y formación y de desarrollo rural para algunos países. En cuanto a programas descentralizados se ha puesto el énfasis en los programas de intercambio universitario (ALFA), promoción de la inversión y contactos entre empresas (AL-Invest), cooperación entre ciudades y regiones a nivel administrativo (URB-AL), y políticas de energía y reestructuración del sector (ALURE). En resumen, la cooperación de la Unión Europea con América Latina, se establece a tres distintos niveles ^^: 1) En el nivel regional, la Comunidad Europea ha conducido un diálogo político formal con el Grupo de Río (América del Sur y México) desde 1990. 2) En el nivel subregional, el Diálogo de San José ha venido funcionando desde 1984 con los países de Centroamérica. 3) En el nivel bilateral, ha concluido los acuerdos de «tercera generación» con varios países o grupos de países, incluyendo la Comunidad Andina que se beneficia de los niveles más elevados de ayuda y también de las ventajas del Sistema Generalizado de Preferencias. En materia de cooperación con América Latina, la Unión Europea y sus Estados miembros, aportan en su conjunto la mitad del total de flujos de asistencia oficial al desarrollo (AOD) que recibe la región ^' ^. La cooperación técnica y financiera de la Comunidad Europea, en el período 1996-98, representó el 39% de la ayuda total a la región, y el 12% de la cooperación económica ^^. Dado el nivel relativamente alto de desarrollo de América Latina en comparación a África y Asia, los recursos recibidos en concepto de AOD son mucho menores. A pesar de ello, la Unión Europea en América Latina adelanta a Japón y Estados Unidos, los principales donantes mundiales ^^. Los Estados miembros de la UE, más la Comisión Europea, aportaron en 1998 el 49,3% del total de la AOD bilateral recibida por América Latina. También hay que considerar que la UE es Jordi Bacaria 414 el mayor contribuyente per capita de ayuda al desarrollo, con una ratio AOD/PNB del 0,34%, comparado con el promedio total de 0,24% del Comité de Ayuda al Desarrollo de la OCDE ^^. En especial, algunos países europeos ^^ rebasan la ratio del 0,7% del PIB propuesta por la ONU y nuevamente instado en la Conferencia de las Naciones Unidas sobre la Financiación para el Desarrollo, del 21-22 de marzo de 2000 en Monterrey ^^. Los procesos de integración latinoamericanos y los acuerdos subregionales de la Unión Europea A finales del siglo XX han surgido diversos intentos de integración global de la región ^^, permaneciendo al final con distintos niveles de avance, algunos procesos de integración subregional. La Unión Europea ha establecido distintos esquemas de cooperación con cada uno de ellos en fianción de su propio nivel de integración. Así nos podemos referir a las relaciones interregionales o bilaterales en función de que tipo de acuerdo se haya establecido y de la importancia de las relaciones de cada uno de los países latinoamericanos con los Estados miembros de la Unión Europea. Actualmente América Latina en su conjunto, es un socio comercial poco importante para la UE ya que solo un 2% de las exportaciones se dirigen a esta región. Lo mismo puede decirse de América Latina respecto la UE. Sin embargo, casi la mitad de las exportaciones de América Latina se dirigen a Estados Unidos (un 47% de promedio en 1995-2000), de donde proceden también la mayor parte de importaciones de la región (45%). Todo ello no significa que América Latina tenga poco interés económico para la Unión Europea y sus Estados miembros pues depende de cada uno de los países, como sucede con Mercosur y Chile, con los que se está negociando un acuerdo de asociación. Las relaciones con Centroamérica, la Comunidad Andina, el Caribe y Cuba, hay que situarlas en otro orden, no estrictamente comercial. Por ello hay que insistir, que las relaciones comerciales no son el objetivo primordial de las relaciones de la Unión Europea con el conjunto de América Latina, como está demostrado por los acuerdos vigentes de cooperación y de concertación política con las distintas subregiones que llevan a cabo procesos de integración regional en América Latina. La integración centroamericana, se constituye en torno el Mercado Común Centroamericano (MCC) ^^, que es el proceso más antiguo, aunque escasamente desarrollado. Estados Unidos es el principal socio comercial con Centroamérica, aunque desde la entrada en vigor del TL-La Unión Europea y América Latina 415 CAN, México ha desplazado una parte del volumen de comercio de Estados Unidos con Centroamérica. La Unión Europea otorga a los países centroamericanos, un tratamiento preferencial y cooperación bajo la forma de asistencia técnica. La UE ha contribuido a los procesos de paz y democratización, por ello la política hacia Centroamérica ha estado muy motivada por las crisis y conflictos que ha sufiido la región. Sin embargo, Centroamérica es el primer receptor mundial per capita de ajmda de la UE, y los flujos procedentes de la UE han superado desde 1993 a los de los Estados Unidos ^^. Por lo que se refiere a la Comunidad Andina (CAN) ^^, a pesar de la ambición en su creación para llegar a un Mercado común, el proyecto se ha visto erosionado por las disputas entre los Estados miembros, llegándose a retirar Chile en 1973. Desde enero de 1995, hay un arancel externo común para Colombia, Ecuador y Venezuela. Las relaciones con la UE se remontan al momento de su ñmdación en 1969, sin embargo el primer acuerdo de cooperación se suscribió en 1983, que se amplió en Acuerdo Marco de Cooperación de 1993 ^' ^, siendo la UE el cooperante más importante de la región andina. En 1996 se institucionalizó un diálogo político UE-CAN. La cooperación europeo-andina en la lucha en contra de la producción y tráfico de drogas, ocupa un lugar destacado en las relaciones EU-CAN y se basa en el principio de «corresponsabilidad», es decir que solo puede ser enfirentado por los países productores y consumidores en común. Una parte importante de la cooperación de la UE se ha concentrado en áreas como el desarrollo integral y fomento de cultivos alternativos, control aduanero y lucha contra el lavado de dinero ^^. La Comunidad del Caribe (CARICOM) ^^, se relacionan con la Unión Europea mediante el Convenio de Lomé para los países ACP (Áfirica, Caribe y Pacífico), que están completados desde el punto de vista financiero por el correspondiente protocolo financiero FED (Fondo Europeo de Desarrollo) lo que le otorga una diferencia esencial, respecto el trato que la UE concede a otros países de América Latina. El caso de Cuba es distinto a todos los demás por ser el único país latinoamericano que no ha firmado un acuerdo de cooperación con la Unión Europea, a pesar de los numerosos acuerdos bilaterales firmados con la UE y por ser desde diciembre de 2000, un país miembro de ACP y el único socio que no forma parte del acuerdo Cotonou ^^. La relación UE-Cuba, se ha visto sin duda muy sesgada por el conflicto de Cuba con Estados Unidos y la posición de los distintos Estados miembros de la UE en relación Cuba y Estados Unidos. A pesar del panorama de conjunto descrito, la integración Latinoamérica está en marcha y podría seguir tres direcciones que afectarían las relaciones con la UE: Una dirección significa una mayor vinculación intra-latinoamericana como lo pone de evidencia la proliferación de acuerdos e intensificación del intercambio. Otra dirección es la conformación del ALCA, como un área de libre comercio, con excepciones a los sectores sensibles (automotriz, agricultura, textil). Finalmente, la dirección menos probable es la ampliación hacia el sur del TLCAN ^^, aunque una derivación más probable podría ser una mayor profundización de la agenda bilateral de Estados Unidos y México en particular en materia de migración, lo que permitiría a México seguir manteniendo una relación privilegiada con Estados Unidos a la vez que se amplia el TLCAN hacia el sur El ALCA como área de libre comercio de las Americas es un proyecto de integración de gran envergadura, está integrada por 34 países del continente americano (excepto Cuba) y que por lo tanto va más allá de una integración estrictamente latinoamericana dado el liderazgo de Estados Unidos. Tiene como antecedente la Iniciativa para las Americas que lanzó en 1990 el presidente Bush. Este área de libre comercio concentraría un tercio del PIB mundial y un 22% del comercio y comprendería una población de 790 millones de habitantes. Las negociaciones para su creación deberían concluir en el 2005. La consolidación del ALCA dependerá del interés de Estados Unidos en el proceso, hasta hora con escaso entusiasmo ya que el presidente George W. Bush no ha podido obtener del Congreso, la vía rápida o «fast track» que le permitiría efectuar las negociaciones con los países del hemisferio ^^. Sin embargo, la ausencia de «fast track», no es un impedimento para avanzar en las negociaciones, aunque si lo es para aquellas negociaciones que interesan a América Latina (mejor acceso al mercado de Estados Unidos, paridad con el TLCAN) ^^. Así pues, como iniciativa de integración hemisférica, el ALCA se contempla en Europa como una amenaza. Lo cierto es hasta ahora hay una gran coincidencia en los momentos en que la Unión Europea y los Estados Unidos lanzan sus iniciativas de libre comercio con el continente latinoamericano. En el capítulo del proceso de integración Latinoamericana, Mercosur merece una mención aparte. Argentina, Brasil, Paraguay y Uruguay, son La Unión Europea y América Latina los miembros de Mercosur desde la firma del Tratado de Asunción el 26 de marzo de 1991. Mercosur es el más reciente y el más dinámico de los procesos de integración subregional. Desde 1995 ha formado una unión aduanera con un arancel externo común. Tiene como objetivos la creación de un mercado común para la libre circulación de bienes, servicios y factores productivos. También aspira a la coordinación de las políticas macroeconómicas y a la armonización de las legislaciones. A pesar de los objetivos concretos y las instituciones comunes, las crisis económicas de Brasil en 1998 y la más reciente de Argentina, han puesto de evidencia la debilidad del proceso integrador de un conjunto de economías que representan el 53% del PIB regional. La voluntad de Mercosur y la Unión Europea para articular una estrecha relación común es evidente. A los tres días de la firma del Tratado de Asunción, los cancilleres de los Estados de Mercosur hicieron la primera presentación internacional del Tratado. Un año después, la presidencia Portuguesa de la Unión invitó a los cancilleres de Mercosur a reunirse con sus homólogos, con el fin de iniciar negociaciones para un tratado de libre comercio. El proceso de integración de Mercosur inspirado en la Unión Europea, es seguido de cerca por la Comisión Europea, ya que la ambición de convertirse en un mercado común real es un elemento positivo en la creación de una asociación entre las dos regiones. Parte del trabajo entre la UE y Mercosur, pero parte también de las negociaciones, están dirigidas a reforzar y completar el programa del mercado interior de Mercosur que debería completarse el primero de enero de 2006 ^^. En este proceso de acercamiento, el 29 de mayo de 1992, con el fin de adaptar las relaciones a nivel de bloques, el Consejo de Mercosur y la Comisión Europea firmaron un acuerdo interinstitucional. En junio de 1994 en la Cumbre de Corfú (Grecia) del Consejo Europeo, los Estados miembros formalmente decidieron fortalecer los vínculos con el Mercosur y en octubre la Comisión anunció la firma por parte de ambos bloques de un Acuerdo Marco Interregional de Comercio y Cooperación como un primer paso hacia la negociación del libre comercio después de 2001, que se firmó en Madrid el 15 de diciembre de 1995. Hay que señalar en este contexto que, después de la Cumbre de Corfú, se realizó en Miami la Cumbre de las Americas, en la que se acordó el inicio del diálogo para la formación de un Área de Libre Comercio de las Americas (ALCA) para concluirse en el 2005. En la práctica las negociaciones de la UE con Mercosur se iniciaron en noviembre de 1999 en Bruselas, cuando los negociadores de ambos lados presentaron a sus ministros un documento sobre la estructura, metodología y calendario de las negociaciones. Hasta el momento han pro-Jordi Bacaria 418 seguido las negociaciones en Seis Rondas, la primera fue el 6-7 de abril en Buenos Aires y la última fue en Bruselas el 29-31 de octubre de 2001, habiéndose planeado la Séptima Ronda en Argentina para abril de 2002, con el fin de llevar resultados a la Cumbre de Madrid de 17 de mayo de 2002. La crisis Argentina, ha interferido una vez más en el lento proceso de alcanzar un acuerdo de asociación. Las dificultades en el capítulo agrícola, dado el coste para la Unión Europea, son el argumento recurrente para el aparente lento avance de las negociaciones ^^. Sin embargo, paralelamente se ha dado un rápido proceso inversor de Europa hacia América Latina, que provoca un conflicto de intereses entre grupos de presión europeos. España en la Cumbre de Madrid, se encuentra en una situación difícil, pues por una parte debe defender los intereses de los agricultores nacionales, al mismo tiempo que la inversión española está altamente comprometida en Brasil y Argentina. La crisis Argentina con costes elevados para las inversiones españolas y el relanzamiento del ALCA por parte de Estados Unidos, son dos elementos coincidentes en el tiempo y muy significativos para la toma de posiciones estratégicas por parte de la Unión Europea. El caso de México y sus relaciones con Estados Unidos y la Unión Europea El caso de México en su relación con la Unión Europea, hay que analizarlo con más detalle. Primero porque el Acuerdo Global que incluye un Tratado de libre comercio, es un acuerdo pionero de «cuarta generación» entre la Unión Europea y Latinoamérica. Segundo y no menos importante, por las relaciones especiales y a veces complejas, de México con Estados Unidos, sobre todo a partir de la entrada en vigor del Tratado de Libre Comercio con América del Norte (TLCAN). El caso de México representa para Europa un doble paradigma que nos servirá para explicar sobre un hecho concreto, las relaciones de Europa con Latinoamérica. Es por consiguiente, el caso de éxito en la institucionalización de las relaciones de la Unión Europea con los países de Latinoamérica con acuerdos de libre comercio y de concertación política de cuarta generación, en particular de un país estrechamente vinculado a Estados Unidos. La mirada hacia el norte La interpretación del Acuerdo Global entre la Unión Europea y México, se puede interpretar en primer lugar desde el lado europeo, como el objetivo de recuperar en el espacio económico perdido, debido la integración económica de México en Norteamérica, y una puerta de acceso a este mercado. En segundo lugar, la nueva relación de México con su vecino del norte, es clave para explicar también la nueva estrategia de Estados Unidos en su relación con América latina, de gran importancia para la estrategia europea. Hay que considerar también, que en la relación de Estados Unidos con México se produce una excepción y un retraso respecto América Latina, en la exigencia de cumplimiento de valores democráticos y respeto de los derechos humanos. México es un caso único en América Latina, según Kathryn Sikkink, por la poca atención que había recibido en materia de derechos humanos y la respuesta tan rápida que dio una vez éste se convirtió en un tema sobresaliente en el contexto de las negociaciones del TLCAN ^^. Lo mismo sucedió con la respuesta del gobierno Zedillo en las negociaciones con la Unión Europea, que aunque fue más conñisa que la del TLCAN, en última instancia fue igualmente eficaz para la firma del Acuerdo Global ^^, Hay que analizar con más detalle el cambio de las relaciones exteriores de México con su vecino del norte (ahora socio) y de éste hacia México, para comparar la actuación estratégica de la Unión Europea y sus Estados miembros en el continente Latino Americano, a partir del momento del cambio en las relaciones internacionales en la década de los noventa. Durante el período de mandato de los presidentes Carlos Salinas en México y George Bush en Estados Unidos (1989)(1990)(1991)(1992), la relación entre ambos gobiernos experimentó un cambio radical, pasando de la relación de «sana distancia» de los períodos anteriores, a la «cooperación pragmática» ^^ que daría como frutos una agenda bilateral importante sobre la base de una cooperación institucionalizada. El inicio de periodo en que coinciden ambas presidencias, también coincide con el fin del bipolarismo por el colapso de los regímenes autoritarios del Este de Europa. Aunque el fin de la guerra fría influyó decisivamente las relaciones entre Estados Unidos y México, el inicio del mandato de ambos presidentes, previo a la crisis de los Estados del centro y este de Europa, ya significó un cambio radical en la relación ^^ de importantes consecuencias económicas y a la larga, de trascendencia política ^^. Por parte de México durante el sexenio de Salinas, Estados Unidos representó una opción de liberalización de la economía. Para ello se supeditó la política exterior, a la estrategia de apertura económica mediante cambios institucionales *^, que facilitaron el tránsito de una opción nacionalista y latinoamericana en lo político-económico, hacia una opción claramente liberal y norteamericana. Por parte de Estados Unidos, México dejó de ocupar un lugar relegado en su agenda, ya que hasta el mo-Jordi Bacaria 420 mentó las prioridades de Washington hacia México solo lo eran en momentos de crisis, relacionados con hechos como el movimiento estudiantil de 1968, la segunda crisis petrolera de 1979, la crisis de la deuda externa en 1982 y el asesinato en 1985 del agente de la Oficina para el Control de Drogas de Estados Unidos'^^. Quizás la paradoja si se compara con la situación después del «11 de Septiembre», es que mientras en 1989 la agenda bilateral de las administraciones Salinas-Bush era incipiente y sin gran calado, ésta se vio enormemente favorecida por el cambio en las relaciones internacionales por el fin de la guerra fina y el colapso del bloque del Este. Actualmente las administraciones de Fox y Bush (en que vuelven a coincidir el inicio de las presidencias en ambos países) se parte de una agenda bilateral ambiciosa, firuto de los resultados del período de cooperación anterior y de la integración derivada del TLCAN. Sin embargo esta agenda queda en un punto muerto a raíz de los ataques terroristas del 11 de Septiembre, justo durante el primer año de mandato de ambos presidentes. Una vez más, las prioridades de Estados Unidos respecto a México y por extensión hacia América Latina, han vuelto a cambiar. La Unión Europea y América Latina 421 CÍO del Norte, y también de buscar una salida a las posiciones críticas del nacionalismo mexicano contra un excesivo acercamiento hacia Estados Unidos. Son bien conocidos los tradicionales puntos de desacuerdo con Estados Unidos marcados por una relación de vecindad asimétrica, que a pesar de todo permitió una buena estrategia de negociación del TLCAN basada en el «aislamiento, compartamentalización y no contaminación», con el fin de avanzar en las negociaciones y desarrollar el tratado ^^. Como afirma Fernández de Castro, «por primera vez en la historia de la relación bilateral, los gobiernos de Carlos Salinas y George Bush coincidieron en su interés por mejorar el manejo de la relación» ^^. En este contexto de apertura, el interés de México para la firma del Acuerdo con la Unión Europea es evidente. A pesar de las dificultades surgidas en la negociación, por la exigencia de la Unión Europea de la inclusión de la llamada «cláusula democrática» ^^, de carácter esencial y respeto de los derechos humanos por condicionalidad. Aunque el gobierno mexicano se negó inicialmente a reconocer dicha cláusula, posteriormente justificó las negociaciones con la UE, al afirmar que la defensa de la democracia y los derechos humanos son un objetivo compartido por México y la UE ^^. En este período de negociación las presiones a favor de los derechos humanos en México, por parte de organizaciones internacionales fueron muy fuertes. En el caso de México, las ONG se configuraron como un nuevo actor en las relaciones internacionales cuyo protagonismo en el mundo ha ido en aumento en los últimos años. Así, a raíz de algunos incidentes con observadores internacionales ^^, los representantes de las ONG francesas advirtieron que impedirían la firma del acuerdo de libre comercio entre la Unión Europea y México si el país no cambiaba radicalmente su posición en cuanto el respeto de las garantías individuales ^^. La visita de la Secretaria de Relaciones Exteriores Rosario Green, al Parlamento Europeo en marzo de 1998, se convirtió en la prueba definitiva para el reconocimiento de la cláusula democrática, abriendo un camino en las futuras posibilidades de concertación política y cooperación entre México y la Unión Europea. En el plano económico, para México, con el Acuerdo con la Unión Europea se amplían las posibilidades de diversificación de las relaciones económicas, a pesar de las dificultades que pueda tener con una industria claramente orientada hacia el sistema de «maquila», que difícilmente se podrá reconvertir a corto plazo en una industria exportadora hacia Europa. Por supuesto, las inversiones directas de los Estados de la Unión Europea, en el sector industrial y de servicios, pueden constituir la base en el marco del Tratado de Libre Coraercio de las nuevas relaciones Jordi Bacaria 422 económicas entre la Unión Europea y México. Además, con la ñitura ampliación de la Unión Europea, México obtendrá el beneficio de establecer automáticamente relaciones con los nuevos Estados de la UE. No hay que olvidar, que la diversificación en las relaciones comerciales de México no acaban en Europa, ya que México tiene firmados diez tratados de libre comercio. Si observamos la necesidad del Acuerdo por parte de la Unión Europea, encontramos un punto de partida en la concreción del objetivo de la asociación estratégica entre la Unión Europea y Latinoamérica. Objetivo que se estableció en la Primera Cumbre entre la Unión Europea, América Latina y Caribe, en Río en 1999, y que se ratifica y profimdiza en la II Cumbre de Madrid en mayo del 2002. Más allá de los puros límites de las relaciones económicas, la asociación estratégica se basa en una comunidad de valores e intereses, entre los cuales el valor de la democracia como medio de concertación política y social, se refiaerza con el apoyo mutuo y constituye una base sólida para conformar las relaciones económicas internas de los países y externas con sus socios. Esta base es indispensable para crear un marco de seguridad en dichas relaciones, que acabarán apoyando un crecimiento y desarrollo económico sostenido y más equitativo. En este contexto, el acuerdo de la Unión Europea con México, permite progresar en el objetivo de compartir valores y prosperidad, e incluso compartir soberanía, en un mundo que actualmente se debate entre el fin de bipolarismo y el inicio de multipolarismo. México, gracias a su integración económica con América del Norte, el manejo sano de la política económica y la alternancia política, se destaca cada vez más en las relaciones internacionales como actor en la comunidad de naciones. En el plano económico se configura como una economía emergente, sólida y con fiíturo, atractiva para las inversiones directas extranjeras. En el plano económico, para la Unión Europea y sus Estados miembros, el Acuerdo con México significa reforzar las tradicionales relaciones entre los Estados miembros de la Unión Europea con México, en un nuevo marco institucional, que disminuye los riesgos y los costes de transacción en las relaciones económicas de sus agentes y confirma la validez de la iniciativa de la asociación estratégica con Latino América. Las diferencias esenciales entre el Acuerdo de México y la Unión Europea y el de libre comercio con Estados Unidos, son muy destacables. El acuerdo con la Unión Europea, es algo más que un acuerdo de libre comercio, es también un acuerdo de concertación política y cooperación. Sin embargo hay un aspecto del tratado de libre comercio de México con Estados Unidos, que le da una cierta ventaja respecto al de la UE en el ámbito de la cooperación. La ventaja, derivada seguramente de la vecindad, La Unión Europea y América Latina es que la cooperación pragmática que se produce por la vía de los hechos y de las relaciones diarias entre ambos países, llega a tejer una tupida red de colaboración al nivel de los funcionarios encargados de las relaciones, cuyo origen está en el viraje que se produce en el sexenio de Salinas en la relación bilateral de México con Estados Unidos. Este quehacer, Fernández de Castro la analiza en términos de lo que llama cooperación institucionalizada, que consiste en la institucionalización intergubernamental a partir del fortalecimiento de los mecanismos de consulta existentes: entrevistas presidenciales. Comisión Binacional, reuniones interparlamentarias, conferencias de gobernadores fronterizos y reuniones de procuradores fronterizos. En el caso de la Comisión Binacional cada grupo de trabajo representa una «junta cumbre» para cada uno de los temas de la agenda y representa una oportunidad para funcionarios de ambos países de interactuar personalmente para percatarse de la complejidad e intensidad de la relación ^^. También en las relaciones comerciales derivadas del TLCAN, se han establecido comités de trabajo conjunto, prácticamente para todos los capítulos del acuerdo y se creó la Comisión de Libre Comercio, compuesta por los secretarios de Comercio ^^. Esta cooperación institucionalizada ha producido un efecto acercamiento no solamente entre las administraciones respectivas, sino que también ha sido positiva para un cambio en la valoración de México desde Estados Unidos. Con la gran dedicación y especialización de funcionarios y cabildeadores mexicanos en los comités de trabajo de la cooperación institucionalizada norteamericana, se ha producido un sesgo inevitable hacia la relación con Estados Unidos. Hasta cierto punto, se podría hablar de un «efecto blindaje o desplazamiento» ante otras posibles y potenciales relaciones exteriores. Ciertamente, la Unión Europea y sus Estados miembros, ahora lo tienen más difícil para alcanzar este tipo de relación, ya que además de no disfrutar del efecto de vecindad (muy importante para las reuniones conjuntas), el gobierno multiiiivel en la Unión Europea por su complejidad, no favorece este tipo de estructura de cooperación. A la competencia exclusiva en política comercial de la Comunidad Europea derivadas del artículo 133 del Tratado de la CE, hay que añadir las competencias compartidas y los intereses de los Estados Miembros, en medidas de promoción y fomento de las actividades económicas. Ello produce una dispersión en las actividades de promoción de las relaciones económicas de los quince Estados de la Unión. Sin embargo, a pesar de las dificultades para la Unión Europea, el modelo de cooperación institucionalizada del TLCAN, debería ser un punto de referencia para reforzar el desarrollo de las relaciones económicas de México con Jordi Bacaria 424 la UE, con la ventaja añadida de no tener de dedicar recursos escasos a los temas conñictivos propios de toda agenda bilateral entre Estados fi: onterizos, entre ellos el de la migración ^^. El Acuerdo de Asociación Económica, Concertación Política y Cooperación La labor negociadora del acuerdo se inició el 2 de mayo de 1995 con la suscripción de la Declaración Conjunta Solemne, en la que se expresó la voluntad de ambas partes de intensificar el diálogo político bilateral de alto nivel. El acuerdo firmado por México y la Unión Europea el 8 de diciembre de 1997, es un ejemplo de cómo superar las dificultades debidas a la división de competencias en la Unión Europea entre el ámbito de la Comunidad Europea y los Estados Miembros. Este acuerdo, conocido como Acuerdo Global, está conformado por tres capítulos: i) el capítulo político, ii) el de cooperación, y iii) el comercial. Es un acuerdo de tipo «mixto» porque comprende tanto temas de competencia comunitaria como temas en los que los Estados miembros de la UE conservan su soberanía. Debido a ello, el acuerdo ha entrado en vigor en distintos momentos según los capítulos y ha tenido que ser ratificado por el Senado mexicano y el Parlamento Europeo, así como por los parlamentos nacionales de los 15 Estados miembros de la UE. Como conclusión de este proceso, el Acuerdo Global entró en vigor el día 1 de octubre de 2000 ^^. Sin embargo debido a la existencia de las distintas partes, la aplicación de los dos títulos relativos al diálogo político y a la cooperación (títulos II y VI), quedó suspendida por efecto de la disposición del Acuerdo Global (Art. 60.2 ^^), en la cual las partes reenviaban a la adopción por parte del Consejo Conjunto ^' ^, de la Decisión Relativa a Servicios, Inversión y Propiedad Intelectual, con el fin de permitir la entrada en vigor simultánea de estos capítulos. Para poder dar inicio a las negociaciones comerciales antes de terminar el proceso de ratificación del Acuerdo Global, la Unión Europea y México acordaron un mecanismo especial de vía rápida denominado, «Acuerdo Interino sobre Comercio y Cuestiones Relacionadas con el Comercio». Este acuerdo comprende los temas de competencia exclusiva comunitaria para los que, de acuerdo con el artículo 133 del Tratado de la CE, no era necesaria la ratificación de los parlamentos de los Estados miembros de la UE. De esta manera el Acuerdo Interino pudo entrar en vigor el 1 de julio de 1998. Sin embargo, las negociaciones comerciales del conjunto conocido como Tratado de Libre Comercio México-UE, retenían temas de compe-La Unión Europea y América Latina tencia exclusiva de las instituciones comunitarias y también capítulos de competencia de los Estados miembros, con dos procedimientos internos de aprobación en la Unión. Mediante este complejo proceso de Acuerdo Interino y Acuerdo Global, se pudo negociar y poner en vigor el Acuerdo, compatibilizando la competencia exclusiva comunitaria, con la competencia exclusiva de los Estados miembros. El proceso de gestación del acuerdo de México con la Unión Europea, invita a reflexionar sobre las dificultades que podrían surgir con la negociación de un Acuerdo de Asociación Global Interregional en América Latina y Caribe, en el ámbito económico, financiero y comercial, como establece la propuesta de resolución del Parlamento Europeo ^^. Conclusiones: la carrera por América Latina. El ALCA frente a la Asociación Estratégica de la Unión Europea con América Latina Se puede pensar que la carrera por América Latina entre Estados Unidos con el ALCA y la Unión Europea con sus acuerdos globales, está actualmente abierta en el firente de Mercosur, ya que un ALCA sin uno o más de los países importantes latinoamericanos, en especial Brasil, es indeseable desde una perspectiva norteamericana ^^. En realidad, los acuerdos de libre comercio no debe verse en términos concurrentes, sino más bien de complementariedad y en beneficio de los países que forman parte de los esquemas de libre comercio compatibles con las normas de la Organización Mundial del Comercio (CMC). Sin embargo, a pesar que el ALCA y los Acuerdos globales con la Unión Europea sean compatibles entre sí y con las normas de la CMC, no significa que las empresas europeas o norteamericanas concurrentes, no puedan sacar ventaja en sus posiciones estratégicas, según que la Unión Europea alcance con Mercosur Jordi Bacaria 426 un acuerdo antes de que el ALCA se ponga en marcha en 2005. La crisis Argentina por otra parte, ha impactado negativamente en las empresas europeas con inversiones directas estratégicas a largo plazo, es decir con un gran volumen de inversión y lenta tasa de retorno. Este es el caso de las empresas españolas, frente a las de Alemania, Francia y Holanda ^^. La crisis Argentina no augura una rápida conclusión del acuerdo de la Unión Europea con Mercosur. Es evidente que el marco de concertación política que se produce entre la Unión Europea y América Latina, es muy distinto del que se produce en el ámbito del hemisferio americano. En este caso, sí podría hablarse de «políticas concurrentes». La orientación Europea se basa en el diálogo político, la orientación norteamericana es más exclusiva en lo político y comercial. ¿Cuál puede ser el escenario de las relaciones de los países de América Latina hacia Europa o Estados Unidos, en el supuesto que fuesen mutuamente excluyentes? Algunos expertos se inclinan por la opinión de que el proceso de integración hemisférica dependerá de la actitud que asuma los Estados Unidos, como principal social comercial de los países latinoamericanos. Si este proceso se debilita o se estanca, los países latinoamericanos tratarán de firmar acuerdos con otras áreas o regiones, pero estos serán complementarios, pues la tendencia dominante es la intensificación de las relaciones hemisféricas ^^. En este supuesto pues, la relación con Europa dependerá de la fortaleza de las relaciones hemisféricas. Ante este posible escenario, hay que preguntarse ¿hasta que punto las relaciones hemisféricas pueden ser fuertes?. Ello dependerá una vez más de Estados Unidos y de la Unión Europea, pero también de México y Brasil. De momento el diseño del ALCA como hemos visto puede seguir distintos esquemas de libre comercio, de los más limitados a los más extensos. Difícilmente se puede entender como una extensión del TLCAN hacia el sur. No parece que este sea el modelo de los Estados Unidos, pero tampoco México tiene interés en permitir que su relación privilegiada con Norteamérica cambie a favor de nuevos socios en el sur y en especial con Brasil, la primera economía del hemisferio sur. En este caso, difícilmente el TLCAN se puede ampliar al sur. ¿Estaría Brasil más interesado en el ALCA o en un Tratado de Libre Comercio de Mercosur con la Unión Europea?. Evidentemente los dos son compatibles y no excluyentes, sin embargo lo importante es la primera apuesta. Brasil como los países de Mercosur, desean tener acceso a los mercados, en especial de los productos agropecuarios. Hasta el momento, vistas las posibilidades del ALCA y del tratado de Mercosur con la Unión Europea, La Unión Europea y América Latina parece que el ALCA resuelve mejor este particular acceso a los mercados. Por esto, una vez más, el primer movimiento depende de la Unión Europea y en su capacidad para resolver el acceso de Mercosur a los mercados europeos. Si efectivamente nos encontramos en una carrera, en que el ganador es el primero que alcanza el acuerdo, la Unión Europea, a pesar de las dificultades actuales de Mercosur, debería tener una respuesta rápida y adecuada a esta relación necesaria con América Latina. ^ Este artículo se concluyó antes de la celebración de la Cumbre de Madrid y por lo tanto no hay referencias a las conclusiones de la misma. ^ Frase atribuida al Canciller alemán Helmuth Kolh con la que se refirió a las relaciones de Alemania con Estados Unidos y Europa. ^ El Grupo de Contadora formado en 1985 por Colombia, México, Panamá y Venezuela, tiene como motivo la crisis centroamericana y la preocupación por la dirección que tomaba la política Norteamericana en Centroamérica (Carlos Rico (2000 p.
El conocimiento se está transformando en un elemento fundamental para el desarrollo económico y social. Se habla ya de la Sociedad del Conocimiento como una evolución de la sociedad industrial. En este contexto, la generación y la transmisión de conocimientos adquieren una relevancia inusitada. Es razonable pensar que la importancia que estas funciones puedan adquirir supere con mucho la que se les ha asignado en otros estadios del desarrollo social. En consecuencia, las instituciones que tradicionalmente han asumido estas funciones pueden ver, con razón, una gran oportunidad en la Sociedad del conocimiento. Sin embargo, la importancia del conocimiento puede también representar un reto. Con la importancia, puede aumentar la exigencia y puede aparecer la competencia. No es evidente que algunas instituciones tradicionales sean capaces de adaptarse a un incremento sustancial de exigencia, y en este caso podrían ser simplemente sustituidas. La información, en tanto que vehículo de transmisión de conocimiento, es la pieza clave que transforma y dinamiza la sociedad de hoy. «La red es el ínensaje» ^ afirma el profesor Manuel Castells cuando expone 436 Jaume Pages, Gabriel Ferrate, Josep M^ Duart que lo que él llama «la Galaxia Internet» crea un nuevo mundo de comunicación, diferente al generado en la época de la difusión masiva de la prensa escrita en Occidente que MacLuhan denominó «Galaxia Gutenberg». Europa vio nacer, crecer y desarrollar las universidades como instituciones especializadas en la generación y transmisión del conocimiento. Es sin duda la región del mundo con la tradición universitaria de mayor solera. La irrupción de la sociedad del conocimiento -y de las tecnologías de la información-representa un reto para todas las sociedades, pero este reto tiene características singulares en el caso europeo, precisamente por el peso de la tradición. El impacto de la Sociedad del Conocimiento en la formación de las personas La educación debe adaptarse constantemente a los cambios de la sociedad, sin dejar de transmitir las adquisiciones, los fundamentos y los frutos de la experiencia humana. Informe Jacques Delors (1996) (La educación encierra un tesoro) Los cambios generados por la Sociedad del Conocimiento provocan en las personas una demanda de formación que de respuestas a las necesidades de un mundo en constante proceso de adaptación. Ya no sirven para satisfacer la formación de los ciudadanos de hoy las instituciones de antaño, basadas en la simple transmisión de conocimiento y en ancladas metodologías, que otorgaban al profesor el papel predominante del proceso educativo. Los que forman la Sociedad del Conocimiento deben exigir a las instituciones educativas flexibilidad y calidad en los sistemas de formación para poder ejercer como ciudadanos de una sociedad en la que el aprendizaje es la base para afrontar los constantes procesos de cambio. Avanzamos hacia una forma de aprendizaje basado en la red. El aprendizaje en red va más allá de la simple reproducción de los modelos tradicionales de formación que usan la tecnología para hacer lo mismo de siempre pero con cierto barniz de modernidad. Para aprender en red necesitamos formar nuevas habilidades en las personas y capacitarlas para aprender, desaprender y reaprender; necesitamos profesores y profesionales expertos en contenidos, con capacidad para difundir y compartir el conocimiento; y, sobre todo necesitamos instituciones flexibles con capa-El reto de la formación ante el desarrollo. cidad de organizarse para dar respuestas rápidas a las múltiples necesidades formativas de las personas en una sociedad en cambio. Necesitamos una nueva formación para un mundo en red. Para ello debemos comunicar, informar y formar superando las barreras del tiempo y del espacio en un contexto global y con accesibilidad total. Nuestro objetivo debe ser el de poder transmitir más conocimientos a más personas y ser a la vez conscientes de que los conocimientos adquiridos son susceptibles de quedar obsoletos en poco tiempo. De ahí la necesidad de aprender a desaprender y a reaprender. Para ello las universidades y las instituciones de formación deben organizarse de tal forma que permitan a las personas acceder a la formación en cualquier momento y desde cualquier lugar ofreciendo asimismo la posibilidad de aprender al ritmo de las necesidades formativas de cada cual, de forma personalizada. El papel de las Tecnologías de la Información y de la Comunicación en la formación Citado por James C. Taylor Universtiy of Southern Queensland, Australia La respuesta a la necesidad de una formación personalizada se basa crecientemente en la tecnología, y pasa por el uso adecuado de su potencial. Las tecnologías de la información y de la comunicación nos brindan la oportunidad de repensar y reformular los objetivos docentes para extraer de ellas el máximo partido. Pero no debemos caer en el error de pensar que el objetivo es el canal por el que vehiculamos la información o el conocimiento, ni la herramienta que usamos o el medio en el que nos situamos; el objetivo es la función que da sentido a lo que pretendemos hacer, que es formar. La tecnología, en todo caso, debe ser el medio y la formación el objetivo, es decir la función que pretendemos desarrollar. Las Tecnologías de la Información y de la Comunicación pueden usarse en los procesos de formación como herramientas complementarias para facilitar la asimilación de los conocimientos o como soporte para su transmisión y desarrollo. El uso complementario de las TIC en la formación debe de ser el reto de todas las instituciones educativas, en especial el de las universidades. La irrupción de las tecnologías en las aulas uni-Jaume Pages, Gabriel Ferrate, Josep M" Duart versitarias debe ir acompañado del rediseño de los programas de formación para aprovechar al máximo su potencial. El error de visión de muchos docentes universitarios reside en desestimar el valor resultante de la complementariedad de los modelos formativos que usan la tecnología -como por ejemplo internet-con el del modelo tradicional de la presencialidad. Pero ese error se agrava si no se comprende que el resultado óptimo de la complementariedad de los dos modelos reside en el diseño de una programación docente acorde con los medios tecnológicos que usamos y los objetivos formativos que pretendemos alcanzar. El uso de las TIC como soporte en los procesos educativos tiene por resultado la formación virtual. Los actuales sistemas de formación virtual muestran los beneficios de la superación de las barreras del tiempo y del espacio. La virtualidad genera entornos reales que se pueden considerar reales en tanto que los efectos, las percepciones y las emociones que provocan, son reales en las personas-^. La formación virtual facilita la flexibilidad en los procesos de comunicación, y conlleva la interactividad, la inmediatez y la personalización. El valor de la virtualidad radica también en su capacidad de provocar el replanteo de lo ya existente a partir de la recreación de la realidad. Al igual que en el uso complementario de las TIC en la formación, su uso como soporte necesita también de un rediseño de los programas docentes que sitúen la tecnología como medio y la formación como objetivo. Los dos modelos expuestos anteriormente responden a diferentes retos de la educación ante la Sociedad del Conocimiento. Nos encontramos, por una parte, ante el reto de educar para la Sociedad del Conocimiento y por otra el de educar mediante la Sociedad del Conocimiento. La educación para la Sociedad del Conocimiento es la formación necesaria para asimilar y adaptarse a un mundo en cambio. Se trata de educar para abrir la mente de las personas y de las organizaciones, para flexibilizar las certidumbres y para apartar los miedos infundados sobre el posible caos generado por la constante evolución del mundo actual. Educar para la Sociedad del Conocimiento es también educar sobre las Tecnologías de la Información y de la Comunicación, no contra ellas o sin ellas, de ahí que los modelos de formación no puedan ser completamente ajenos al uso de las tecnologías. Educar mediante la Sociedad del Conocimiento consiste en educar a través de un mundo en red. El futuro está en construir -por medio del impulso de la Sociedad del Conocimiento-universidades que trabajen en red en la consecución de sus objetivos; en personas que aprendan mediante el potencial de la red de conocimiento y que desarrollen nuevas aptitudes y capacidades para relacionarse, compartir y colaborar; y el El reto de la formación ante el desarrollo. reto de la pedagogía debe ser encontrar y aplicar aquellas metodologías de aprendizaje que aprovechen todo el potencial del mundo en red y ayuden a la creación de conocimiento mediante la red. Europa, un caso singular: algunos retos específicos Siempre hay un sueño en toda iniciativa, pero, si el sueño dura, un día se hace realidad Jean Monnet La singularidad de Europa, en cuanto a su papel en la Sociedad del Conocimiento reside en una realidad aparentemente paradójica: su ciudadanía, que es una de las de mayor nivel educativo del mundo, sufre debilidades y retrasos importantes en el uso de las tecnologías de la información y de la comunicación. Los niveles de penetración de internet en los hogares europeos o de uso del comercio electrónico no son los que cabria esperar de una sociedad avanzada como la europea. De ahí que el Consejo Europeo reunido en Lisboa en marzo de 2000, consciente de los retos a los que se enfrenta como resultado de la mundialización y de los desafíos de la nueva economía basada en el conocimiento, decide dotarse de la iniciativa eEurope ^ que, en palabras de Romano Prodi, presidente de la Comisión Europea, es «la guía para modernizar nuestra economía» La iniciativa eEurope se marca un ambicioso objetivo estratégico: «convertir Europa en la economía basada en el conocimiento más competitiva y dinámica del mundo, capaz de crecer económicamente de manera sostenible con más y mejores empleos y con mayor cohesión social» Todo objetivo debe ser ambicioso y, a la vez, debe marcar la ruta hacia una finalidad de mejora que sea mesurable. En este sentido y en el ámbito de la formación, el plan de acción preparado para el Consejo Europeo de Feria de junio de 2000, establece, como segundo objetivo de la iniciativa eEurope, «invertir en las personas y en la formación» ^ de acuerdo con la comunicación de la Comisión de mayo del 2000 denominada «eLearning, concebir la educación del futuro» ^ que pretende estimular la evolución de los sistemas de educación y de formación hacia la sociedad del conocimiento a través de la movilización de las comunidades educativas y de los agentes económicos y sociales. Iniciativas como eEurope y Elearning ponen de manifiesto la voluntad de nuestros gobernantes de habilitar los mecanismos y cauces nece-Jaume Pages, Gabriel Ferrate, Josep ilf Duart sarios para que el conocimiento fluya en nuestra sociedad y la convierta en competitiva a la vez que sostenible. El reto, como siempre, está en hacer realidad los objetivos marcados. Y especialmente en nuestro caso en facilitar que la tradición europea en la formación de calidad sea el motor de cambio que facilite los procesos de adaptación y mejora de nuestro sistema educativo. Aparte de las iniciativas expuestas debemos citar la más relevante en el ámbito de la formación superior: la Declaración de Bolonia de junio de 1999 de los ministros de educación y de los rectores de las universidades de Europa. Dicha declaración manifiesta que «la Europa del Conocimiento se considera, cada vez más, como un factor indisoluble del crecimiento social y humano, así como un complemento indispensable para consolidar y enriquecer la ciudadanía europea, siendo capaz de ofrecer a los ciudadanos las competencias necesarias para afrontar los retos del nuevo milenio». La Declaración de Bolonia es, sin duda, un hito en el proceso de construcción de un espacio europeo de formación superior. Los que la firman establecen cuatro ámbitos clave de actuación: -La adopción de un sistema de titulaciones, comprensible y comparable, capaz de crear oportunidades de trabajo y de ser competitivo internacionalmente -La creación de un sistema de dos ciclos principales: un no graduado y un graduado dirigido al mercado laboral -El establecimiento de un sistema de créditos común -El fomento de la movilidad de estudiantes, de profesores, de investigadores y de equipos administrativos, para favorecer la cooperación y la creación de aspectos específicamente europeos en los estudios superiores. Europa tiene muchos retos que debe convertir en oportunidades para avanzar en la creación de la Europa del Conocimiento. Seguidamente proponemos algunos que afectan especialmente a la formación superior. El proceso de construcción de un espacio europeo de formación superior Europa puede y debe enorgullecerse de sus instituciones educativas. Los ciudadanos europeos gozamos de un alto nivel cultural y científico fruto de la labor desarrollada por las escuelas y las universidades a lo largo de siglos de historia. Hoy, inmersos cada vez más en un proceso consciente y palpable de construcción europea, debemos asumir el reto de El reto de la formación ante el desarrollo... avanzar hacia un espacio europeo de formación superior de acuerdo con las directrices marcadas en la Declaración de Bolonia. La riqueza y la tradición de las instituciones universitarias europeas debe ser la palanca en la que apoyarse para poder conseguir el movimiento necesario para la adaptación a la nueva realidad de la Sociedad del Conocimiento. La creación del espacio europeo de estudios superiores no debe observarse únicamente como el mecanismo para conseguir un modelo normativo común (títulos, créditos, etc) de las universidades europeas. El espacio europeo de estudios superiores va más allá y se construye de forma simultánea al establecimiento de las normas de base para el entendimiento. Debemos ser capaces de articular un nuevo modelo de universidad y de cooperación universitaria que nos conduzca a liderar en el mundo la capacidad de ayudar a aprender a nuestros alumnos, estén donde estén, y a investigar para innovar ayudando a los ciudadanos y a las empresas a mejorar sus niveles de competitividad. La Declaración de Bolonia ha puesto las bases. Ahora les toca a las universidades y a sus equipos profesionales avanzar en la consecución de los objetivos. Nuestra experiencia como rectores nos ha mostrado la importancia de considerar los retos como oportunidades para mejorar y avanzar en nuestras instituciones. La construcción de un espacio de estudios superiores común en Europa no puede verse de otra forma que no sea un reto, un reto necesario para satisfacer las necesidades de nuestra Europa del Conocimiento. La calidad de la formación en Europa Los europeos debemos exigir calidad a nuestras instituciones formativas. Desde la escuela hasta la universidad la preocupación por la calidad debe ser la base para la mejora constante. La calidad en la educación superior es el resultado de la adaptación constante de las instituciones universitarias con la intención de satisfacer las necesidades formativas de una sociedad en cambio. Las universidades europeas debemos afrontar el reto de garantizar la calidad de nuestros procesos de formación y de sus resultados potenciando tres aspectos básicos: -La generación de dinámicas para la confección de planes estratégicos institucionales capaces de dinamizar la universidad y adaptarla a las necesidades de la sociedad de información -El establecimiento de indicadores claros y fiables de valoración de la calidad en las universidades, fruto del trabajo compartido entre Jaume Pages, Gabriel Ferrate, Josep M^ Duart universidades, diferentes instituciones supragubernamentales y agendas de calidad. -El estímulo de la comunicación y el trabajo cooperativo entre los agentes que forman parte de la comunidad universitaria europea -incluidos los diferentes sectores empresariales-, con la finalidad de detectar sus necesidades y establecer planes conjuntos de actuación. Se trata en definitiva de ser capaces de mirar más allá de nuestras aulas y de nuestros claustros y situarnos en un ámbito europeo, en una sociedad en cambio, que nos demanda la creación de la Europa del Conocimiento. Para ello debemos actuar con rigor en el establecimiento de planes y de indicadores de valoración. Sólo el rigor en la consecución de niveles altos de calidad nos puede permitir avanzar en la consolidación de un modelo universitario europeo de referencia mundial y atraer así a estudiantes e investigadores de cualquier parte del planeta para aprender, enseñar e investigar en nuestras universidades. La movilidad de estudiantes y de profesores como creación de espacio de formación europeo Las universidades europeas disponen en la actualidad de gran experiencia en la aceptación y reconocimiento de la movilidad de estudiantes y de profesores. El reto de hoy es convertir la experiencia de la movilidad no en algo circunstancial fruto de convenios bilaterales sino en la forma de trabajar habitual en el marco del espacio europeo de formación superior. Los claustros de las universidades europeas y sus clases deben estar formados por profesores y alumnos de diferentes países europeos. No tiene sentido un espacio formative de educación superior en Europa si no compartimos nuestro conocimiento, ya sea como profesores, como investigadores, como administradores o como estudiantes. Y la movilidad o la presencia en las universidades no debe entenderse tan sólo de forma presencial; debemos aprovechar, una vez más, el potencial de las TIC y usar al máximo cualquier forma que favorezca el intercambio o movilidad, aunque ésta se realice sin moverse del país de residencia habitual. La movilidad en el espacio de formación europeo, sea presencial o sea virtual, debe todavía superar algunos escollos, fruto muchas veces de mentalidades poco innovadoras o de administraciones demasiado cerradas en sí mismas. Sobre todo debe vencer los obstáculos de la hiperregulación a la que los títulos académicos están sometidos en Europa. Así El reto de la formación ante el desarrollo... mismo, elementos como el reconocimiento de las garantías de seguridad social para las personas que se desplazan, los derechos de residencia por el hecho de formar parte de la comunidad universitaria, o el reconocimiento de las calificaciones obtenidas, entre otros, son realidades que debemos superar para garantizar la movilidad efectiva. Las universidades europeas debemos observar la movilidad no sólo en nuestro ámbito geográfico, sino que debemos trabajar para ser focos de atracción de estudiantes y de investigadores de otras partes del mundo. Tenemos el potencial investigador, tenemos empresas multinacionales líderes, tenemos universidades de prestigio, pero quizás nos falta flexibilidad para generar los cambios que necesitamos y ser atractivos para cualquier investigador, profesor o estudiante de cualquier parte del mundo. La investigación como motor de creación de conocimiento compartido La investigación exitosa es el resultado del trabajo en equipo. Existen en Europa ejemplos de reconocimiento mundial en investigación, pero el reto para nuestro continente sigue siendo el de ser polo de atracción de investigadores. La relación entre las universidades y las empresas debe ser el factor clave de éxito para conseguir y mantener el prestigio en investigación. Algunas empresas europeas como las del sector de la aeronáutica están dando un claro ejemplo de desarrollo conjunto entre empresas de diferentes países de productos líderes en el mercado mundial. La universidad europea no puede quedar al margen de la I+D que se desarrolla en las empresas. Europa dispone de las más potentes empresas del sector de las comunicaciones móviles y de la televisión digital del mundo, pero la mayoría de las universidades europeas no se benefician directamente de ello. Algunas están entrando recientemente en estos campos pero aún de forma insuficiente. El distanciamiento mantenido durante años entre universidad y empresa no puede continuar. Las empresas europeas inician paulatinamente el camino hacia las universidades corporativas que tanto éxito tienen en otras partes del planeta. Ciertamente las grandes empresas multinacionales del sector de la tecnología tienen un elevado potencial investigador, más elevado que el de cualquier universidad debido a su gran nivel de especificidad y también a los recursos que para ello destinan. La relación entre universidad y empresa para el desarrollo de programas de investigación no sólo es necesaria sino que de ella depende el futuro de Europa en el campo de la in-Jaume Pages, Gabriel Ferrate, Josep M°' Duart vestigación internacional, así como el futuro de competitividad de sus empresas multinacionales. La iniciativa europea eLearning, así como la Declaración de Bolonia, remarcan la importancia del fomento y del apoyo a la investigación en Europa. Más concretamente la iniciativa eEurope, propone la mejora de la infraestructura actual de internet así como la creación de campus virtuales en red entre diferentes universidades y países. También se potencia la creación del «espacio Europeo de la Investigación» Europa no puede potenciar la investigación si antes no soluciona sus problemas de infraestructura en internet. Pero una vez más necesitamos un cambio de mentalidad en las instituciones educativas que de como resultado políticas abiertas de intercambio de personas, de movilidad de investigadores y de capacidad de crear proyectos compartidos de creación de conocimiento. Y especialmente necesitamos aprender a tomar decisiones con eficacia venciendo los intereses partidistas, ya sea de colectivos o organizaciones concretas como de gobiernos o países; sólo siendo rápidos y eficaces en las decisiones podremos avanzar en la construcción de un modelo de investigación competitivo en el mundo. La formación a lo largo de la vida Al contrario de lo que podíamos pensar, el reto de la formación a lo largo de la vida es un reto más para las instituciones de formación que para las personas. Las universidades debemos avanzarnos en la detección de necesidades formativas para dar respuestas en forma de programas formativos a los nuevos campos profesionales que se abren en el futuro. La crisis provocada por la falta de profesionales en el ámbito de la informática en Europa es un ejemplo de la poca visión de las universidades. No podemos permitirnos errores de estas características en el futuro y debemos trabajar detectando con tiempo aquellos campos en los que será necesaria una formación para la adecuación a nuevas necesidades profesionales, a nuevos servicios. Los programas de formación también deben adaptarse a la nueva realidad de la formación a lo largo de la vida. La formación inicial ha de garantizar las capacidades mínimas para el desarrollo de una tarea profesional en un determinado campo, pero las universidades deben diseñar ofertas de posgraduado concretas, específicas, acordes con las necesidades de las empresas y capaces de solucionar los déficits de formación existentes. Muchos de esos programas deberán diseñarse pensando en que deben ser impartidos a gran número de personas; de ahí que el uso de El reto de la formación ante el desarrollo.. tecnología en la formación pueda ser una buena forma de dar respuesta a esa realidad. En la formación a lo largo de la vida debemos orientarnos no sólo al desarrollo del conocimiento en las personas, sino especialmente al desarrollo de las competencias. La formación centrada en las competencias se basa en el conocimiento explícito, en el fomento de la experiencia y en el desarrollo de las aptitudes a través de las redes de relación social. Las competencias es lo que necesitamos adquirir las personas a lo largo de la vida. El reto de las universidades europeas consiste en detectar las competencias profesionales a desarrollar y ofrecerlas, conjuntamente con las empresas, a las personas. La flexibilidad en la organización del sistema de formación europeo La declaración de Bolonia pone también de manifiesto la necesidad de fomentar la flexibilidad en la organización del sistema europeo de formación. A pesar de ello sabemos que la flexibilidad sólo la conseguimos con instituciones universitarias capaces de conjugar su autonomía y tradición universitaria con la adaptación a las nuevas realidades organizativas de la Sociedad del Conocimiento. La universidad en Europa debe explotar al máximo el potencial de creatividad organizativa que suscita el desarrollo de modelos de formación con uso de tecnología digital. No podemos educar para y mediante la sociedad del conocimiento con modelos organizativos del pasado. Las universidades deben modificar viejos hábitos y prácticas que han dado buenos resultados en otros tiempos pero que son un freno para el avance en la actualidad. Los responsables del gobierno en las universidades y sus equipos han de conducir el proceso de cambio hacia una organización flexible, basada en el diálogo, en la interacción entre todos los miembros de la comunidad universitaria, en la adopción de nuevos modelos de aprendizaje y de docencia, y en políticas activas de difusión del conocimiento. Los cambios deben empezar en el interior de cada universidad para pasar posteriormente a establecer relaciones flexibles en red con otras universidades. Un sistema europeo de formación flexible debe permitir la movilidad, garantizar la calidad de la formación y especialmente reconocer las titulaciones y las asignaturas cursadas en cualquier otra universidad europea, luchando contra la hiperregulación académica existente. Debe además ser un sistema competitivo que forme para el desarrollo de una profesión y trabaje las competencias; debe ser un sistema que capte es-Jaume Pages, Gabriel Ferrate, Josep M"" Duart tudiantes y profesores de otros sistemas del mundo; y, especialmente, debe ser un sistema a la medida de las personas que aprenden. Para ello deberá centrarse en la metodología de aprendizaje y en el uso adecuado de la tecnología que permita cumplir sus objetivos. Enseñar y aprender en Europa: un cambio de paradigma No se puede reformar la institución si no se han reformado previamente los espíritus, y no se pueden reformar los espíritus si previamente no se ha reformado a institución. La frase de Edgar Morin con la que iniciamos este apartado representa una paradoja atribuible a cualquier proceso de reforma institucional. Ante la imposibilidad lógica de resolver la paradoja Morin plantea que, en el caso de las instituciones formativas como las universidades, para resolver la situación «es necesario que los educadores se autoeduquen, y se educan escuchando las evidentes necesidades del siglo, de las que son portadores también sus estudiantes» Tenemos las respuestas a las preguntas en el interior de la propia institución. Únicamente debemos ser capaces de escuchar, de atender las necesidades de quienes se sientan en nuestras aulas, de nuestros compañeros de claustro y de nuestros administradores desde el gobierno de la universidad. Europa y sus instituciones también deben escuchar a sus ciudadanos para asumir los retos de la satisfacción de sus necesidades. Y las universidades deben aprender y escuchar para construir nuevos modelos de formación. Las universidades europeas tienen ante sí la posibilidad de avanzar en la implementación de modelos de formación superior capaces de dar las respuestas necesarias a la construcción de la Sociedad del Conocimiento. Las universidades europeas deberían asimismo ser pioneras en la implementación de modelos de formación en los que las tecnologías de la telefonía móvil, de la televisión digital y de los sistemas de banda ancha fueran usadas para la consecución de los objetivos de aprendizaje. Para ello las universidades europeas, así como los gobiernos de los diiferentes países, han de unir esfuerzos en la formación de los profesores, en el desarrollo de las infraestructuras tecnológicas y en el control de los operadores de telecomunicaciones para que hagan realmente accesible estos sistemas a la población en general. Escuchando las evidentes necesidades seremos capaces de generar respuestas. El reto de la formación ante el desarrollo... Podemos y debemos avanzar en la construcción de un nuevo paradigma en educación que estimule el desarrollo de dos actitudes básicas en las personas: la del aprendizaje a lo largo de la vida y la del aprendizaje en red. En una sociedad basada en el intercambio de información y en la creación de conocimiento, los hombres y las mujeres que la formamos debemos estar capacitados para el desarrollo de actitudes autónomas de aprendizaje. En palabras del sociólogo Castells debemos formar personas «autoprogramables", capaces de liderar su formación, de programar sus aprendizajes en función de sus necesidades personales y de compartir su información y su conocimiento en la red.
En la imaginería colectiva, tanto entre el público lego como incluso entre el resto de los científicos, la matemática ha estado teñida desde antiguo -y sigue estándolo todavía-con los tintes de una ciencia abstrusa, austera y solitaria. Esta imagen surge principalmente del eficaz combinado que forman, por una parte, lo encriptado de su expresión y, por otra, la entrega inerme del espectador ante la veracidad, humildemente aceptada, de su contenido -la misma combinación a la que alude Ramón María del Valle-Inclán cuando habla del "áureo y religioso prestigio [del] latín ignoto de las divinas palabras"-. También ha contribuido a labrar esta imagen una galería de retratos de matemáticos que van desde el sabio absentminded -"lost in thought and unaware of one 's surroundings or actions"-hasta aquel que raya la pérdida de la razón. Así vemos a Arquímedes en plena concentración "inclinado sobre unos dibujos que había trazado en el suelo" 1 mientras muere a manos de un soldado de las legiones del cónsul Marcelo durante la conquista de Siracusa; o la vejez de Georg Cantor visitando recurrentemente las clínicas mentales; o a Kurt Gödel preso de sus obsesiones, hasta llegar a la muerte por inanición. A este respecto, la física ha tenido, en cambio, más suerte, en parte por la bula que le supone la atención al mundo sensible -dedicación que cualquier matemático hace también suya-. Véase a Sir Isaac Newton -tan matemático como físico, pero físico para el gran público-abstraído, pero capaz de impresionarse por una manzana que cae; o la vitalista imagen de Albert Einstein. La matemática, por desgracia, ha carecido de figuras con un impacto social tan atrayente. Un recorrido por los International Congress of Mathematicians (abreviadamente ICM) nos permitirá descubrir en el corazón de la matemática una profunda pulsión por la comunicación y un intenso sentimiento de comunidad, que contrastan vivamente con esta imagen de actividad instalada en, casi necesitada de, la incomunicación. Los congresos científicos internacionales surgieron en el siglo XIX, y fueron uno de los últimos pasos de la profesionalización que a lo largo del siglo vivió la ciencia. Comenzó aquélla a la vez que el siglo con la creación de las nuevas universidades que sustituyeron a las anquilosadas universidades medievales y se orientaron hacia la Se acabó así con el modelo dieciochesco de sabios que, ligados a un mecenas, trabajaban retirados en una academia científica -como fue el caso de Leonhard Euler, apoyado por Catalina de Rusia y Federico el Grande de Prusia, en las Academias de Ciencias de San Petersburgo y de Berlín-. La ciencia se trasladó a las universidades y su desarrollo se anudó con la docencia de alto nivel. En el primer tercio del siglo surgieron las revistas de investigación matemática: los Annals de Mathématiques Pures et Appliquées, fundada por Joseph Gergonne en 1810; el Journal für die reine und angewandte Mathematik, fundada por August Crelle en 1826; y el Journal de Mathématiques Pures et Appliquées fundada en 1836 por Joseph Liouville 2. Unos años después surgieron las sociedades matemáticas nacionales, la primera la Sociedad Matemática de Moscú en 1864, a la que siguieron la London Mathematical Society en 1865, la Societé Mathématique de France en 1872, el Circolo Matematico di Palermo en 1884, la New York Mathematical Society en 1888, y en 1890 la Deutsche Mathematiker-Vereinigung. Se completó el panorama profesional con la creación de las primeras revistas dedicadas a la recensión de publicaciones matemáticas: el Jahrbuch über die Fortschritte der Mathematik en 1871, y en 1885 el Repertoire bibliographique des sciences mathématiques. En este contexto de progresiva estructuración de la actividad científica, se reunieron del 9 al 11 de agosto de 1897 doscientos ocho matemáticos en el Eidgenössiches Polytechnikum (Politécnico Federal) de Zurich para celebrar der erste Internationale Mathematiker-Kongress, el primer Congreso Internacional de Matemáticos. Asistieron algunos los principales matemáticos del momento: Adolf Hurwitz de Suiza; Felix Klein, Hermann Minkowski, Georg Cantor y Felix Hausdorff de Alemania; Henri Poincaré, Émile Borel y Émile Picard de Francia; Charles de la Vallée Poussin de Bélgica; Vito Volterra, Tulio Levi-Civita y Giuseppe Peano de Italia; Ernst Lindelöf de Finlandia; Gösta Mittag-Leffler de Suecia; y de Rusia Andrei Markov. Se impartieron treinta y cuatro conferencias, entre ellas las cuatro plenarias de Hurwitz, Klein, Peano y Poincaré. El congreso estableció un Reglamento, que trazó las líneas maestras de las reuniones futuras; había una clara voluntad de continuidad. El primer artículo del Reglamento fijó los objetivos del congreso; el primero de estos objetivos no era, como se podía esperar, presentar y discutir el estado de la matemática -éste era el segundo-, sino "promover las relaciones personales entre matemáticos de distintos países". Quedó así sancionada la importancia otorgada a las relaciones personales entre matemáticos para el desarrollo científico. Adolf Hurwitz expresó con mucha claridad el sentido de este mandato en la apertura del congreso: "Las grandes ideas de nuestra ciencia a menudo nacen y maduran en soledad; ninguna otra rama de la ciencia, con la posible excepción de la filosofía, tiene un carácter tan recluido como la matemática. Y aún así, el matemático siente la necesidad de comunicar, de participar en discusiones con otros colegas" 3. El peso que el "factor humano" ha llegado a tener en los ICM fue magistralmente expresado por el matemático norteamericano Oswald Veblen -que fue presidente de la American Mathematical Society entre 1923 y 1924, y presidió el ICM de 1950 celebrado en la Universidad de Harvard-en la apertura del ICM de 1954 en Ámsterdam: "La serie de los Congresos Internacionales de Matemáticos apenas está hilvanada, no son congresos de matemáticas, ese cuerpo de conocimientos altamente organizado, sino de matemáticos, esos individuos más bien caóticos que crean y conservan las matemáticas" 4. La importancia del factor humano explica, como veremos más adelante, que los ICM se hayan sucedido de forma continuada hasta la actualidad, sin sufrir otras interrupciones más que las ocasionadas por la dos guerras mundiales. Es indudable que la continuidad ha estado favorecida por el tamaño relativamente pequeño de la comunidad matemática -al menos en comparación con otras ciencias de la naturaleza-; aun así, los ICM han reunido a bastantes matemáticos: al congreso de 1912 celebrado en la Universidad de Cambridge asistieron GUILLERMO CURBERA COSTELLO 574 matemáticos, y en el de Bolonia en 1928 fueron 836; tras la Segunda Guerra Mundial los participantes en los ICM alcanzaron varios miles: fueron 1.700 en Harvard en 1950, y en 1990 en Kyoto más de 4.100. Muy relevante también ha sido el carácter general, no limitado, de los ICM desde el punto de vista científico: en los ICM han estado representadas todas las áreas de la investigación matemática, desde las más puras a las más aplicadas, de las más clásicas a las más noveles. Desde luego no fue la matemática ni la primera ni la única ciencia en haberse congregado en reuniones internacionales, pero en ningún otro caso han concurrido todos estos factores de continuidad, participación y generalidad 5. La actitud ante la crisis que provocó la Gran Guerra en la comunidad científica es un buen ejemplo del arraigado sentimiento de comunidad que los ICM habían ayudado a crear entre los matemáticos. Veamos este episodio, ya bastante olvidado, con detalle. Acabada la guerra con la capitulación de las Potencias Centrales, las Potencias Aliadas adoptaron una política extrema de doblegamiento de Alemania. John Maynard Keynes, que participó en las negociaciones del armisticio representando al gobierno británico, ante la dureza de la posición francesa respecto a la crítica situación alimentaria de Alemania en 1919, recuerda la opinión extendida entre muchos funcionarios aliados de que en ese asunto "París parece haber perdido el juicio" 6. Esta dura política tuvo su correlato en el mundo de la ciencia. Para ello se creó en Bruselas en 1919 un instrumento político-administrativo, el International Research Council (IRC, abreviadamente) cuyo mandato declarado era promover la creación de asociaciones científicas internacionales, pero cuya intención apenas disimulada era eliminar la preeminencia que en muchos campos tenía la ciencia alemana. Siguiendo las instrucciones del IRC se crearon muchas de las actuales uniones científicas internacionales, entre otras la International Union of Pure and Aplied Physics (IUPAP), la International Union of Pure and Aplied Chemistry (IUPAC), la International Union for Astronomy (IUA), la International Union for Geodesy and Geophysis (IUGG), y la International Union of Biological Sciences (IUBS) 7. Todas las uniones quedaron sometidas al control de los gobiernos aliados a través del IRC. Algunos destacados matemáticos tuvieron un papel relevante en esta organización, Émile Picard -Secretario Perpetuo de la Academia de Ciencias de París-fue presidente del IRC hasta su disolución en 1931, y Vito Volterra vicepresidente. Siguiendo las instrucciones del IRC, en 1920 se fundó la Union Mathématique Internationale (UMI, abreviadamente). En el último ICM anterior a la guerra, en Cambridge en 1912, se había aceptado la invitación del matemático sueco Gösta Mittag-Leffler para celebrar el ICM de 1916 en Estocolmo -también se ofreció allí la celebración del ICM de 1920 en Budapest y del de 1924 en Atenas-. La presión francesa, con el apoyo del IRC, descartó la celebración del congreso en un país que se había mantenido neutral durante la guerra optando por una elección más en línea con el espíritu del Tratado de Versalles: Estrasburgo, capital de Alsacia, región recién recuperada por Francia, que la había perdido en la guerra franco-prusiana de 1870-71. Este congreso es el que ha tenido menor asistencia entre todos los ICM, en parte por la exclusión de los matemáticos alemanes, austriacos, húngaros y búlgaros, que impuso el IRC, y también por la oposición en ciertos círculos matemáticos, en aquel momento todavía minoritarios, a esta política de exclusión. El ambiente posbélico en que se celebró el congreso resulta sobrecogedor: se visitó el mausoleo del mariscal de Saxe, se disertó sobre la ciencia en Alsacia, se recitó una oda "Salut à Strasbourg", se ofrecieron almuerzos especiales para los congresistas que eran oficiales en la reserva de un ejército aliado. El punto culminante de este tono revanchista fue el discurso de clausura de Émile Picard, quien afirmó que "hacemos nuestras la bellas palabras del cardenal Mercier durante la guerra, perdonar ciertos crímenes es hacerse cómplice" 8. A la clausura del congreso de Estrasburgo se acordó celebrar el siguiente congreso en Nueva York en 1924. Cuando se aproximó el momento resultó patente que un congreso celebrado bajo las condiciones del IRC de exclusión de los matemáticos alemanes, austríacos, húngaros y búlgaros no conseguiría el apoyo de los matemáticos norteamericanos, muchos de los cuales se habían formado en Alemania o bajo la dirección de matemáticos alemanes. La continuidad de la serie de los ICM peligró; fue salvada in extremis por la oferta del matemático canadiense John Charles Fields de celebrar el congreso en Toronto. Todavía en este congreso el matemático belga Charles de la Vallèe Poussin, presidente de la UMI, aludió a "la liberación de la ciencia de las manos sacrílegas que la habían controlado tanto tiempo" 9. Las actas del congreso incluyeron una fotografía en que se ve a De la Vallèe Poussin presentando una corona al pie del Soldier's Memorial Tower. Esta es la situación en que se afrontó la organización del ICM de 1928 en Bolonia. La pugna por la continuación de la política de exclusión entre, por una parte, la UMI y el IRC y, por otra, los organizadores del congreso liderados por el matemático italiano Salvatore Pincherle, diversas sociedades matemáticas -que amenazaron con no asistir, entre ellas la American Mathematical Society y la London Mathematical Society-, y numerosos matemáticos a titulo individual, llevó a que el congreso se celebrase no bajo los auspicios de la UMI sino de la Universidad de Bolonia y con la asistencia de matemáticos de todos los países. La entrada en el Aula Magna del antiguo Archigimnasio de Bolonia de la delegación alemana liderada por el matemático David Hilbert fue acogida por el resto de los congresistas en pie y con un aplauso general 10, se celebraba la vuelta al espíritu unitario que había animado los ICM hasta la guerra, espíritu que Hilbert representaba plenamente (Hilbert había dado a los ICM unos de sus iconos más reconocidos: en su conferencia en el congreso de París de 1900, titulada en francés Sur les problèmes futurs des Mathématiques, presentó una lista de veintitrés problemas en torno a los cuales pensó, acertadamente, que iba articularse la investigación matemática del siglo XX). Tres años después del ICM de Bolonia los estatutos de la UMI caducaron y no fueron renovados; al año siguiente, en el ICM de 1932 celebrado en Zurich, se decidió disolver la Unión. La voluntad de la comunidad matemática de continuar con los congresos internacionales sin interferencias externas ganó el pulso al IRC y supuso un hecho único en la historia de las uniones científicas: la desaparición de una unión por el abandono por parte de sus miembros; triunfó el espíritu de colaboración. Así, cuando tras la Segunda Guerra Mundial en 1950 se refundó la International Mathematical Union (IMU abreviadamente), se tuvo mucho cuidado de hacerlo sobre la base del espíritu de cooperación internacional sin limitaciones (en los archivos de la IMU en Helsinki se conservan cartas como la de la sociedad matemática griega donde se responde afirmativamente a la pregunta del matemático norteamericano Marshall H. Stone sobre la conveniencia de invitar a los matemáticos alemanes, austríacos y japoneses). El papel que han tenido, y siguen teniendo, los ICM en el ámbito científico no es comparable con el de ninguna otra reunión científica en otro área del saber, se asemeja, paradójicamente, más al papel de los Juegos Olímpicos en el deporte -éstos comenzaron en 1896, un año antes que los ICM, y se han celebrado desde entonces cada cuatro años con las excepciones causadas por las guerras mundiales-. La comparación no es baladí: ambos reúnen todos los aspectos de su actividad, en ellos se exponen públicamente los mejores resultados, participar en un lugar destacado es en sí mismo un honor, pues en ellos se concitan las más grandes figuras -sí hay una diferencia y es fundamental: el negocio económico que mueven cada uno de ellos-. El elenco de los conferenciantes plenarios e invitados en los ICM es una galería de notables que recorre todas las grandes figuras de la investigación matemática del siglo XX. La lista de secciones científicas y comunicaciones presentadas muestra de forma extremadamente fiel el devenir de la matemática, el apogeo y el ocaso de ciertas áreas, y el surgimiento de áreas nuevas, cuando ya están consolidadas. Un ingrediente muy importante del programa científico de los ICM son los premios. El primer premio asociado a los ICM fue la medalla Guccia, establecida en honor de Giovanni Guccia, fundador del Circolo Matematico di Palermo. Fue concedida en el ICM de 1908 en Roma por "una memoria sobre curvas algebraicas" al matemático italiano Francesco Severi. Su creación formaba parte del patronazgo que el Circolo ofreció al ICM 11. Desafortunadamente, el fin de Guccia y de su fortuna arrastró al premio que no volvió a concederse. El gran premio de la matemática, la medalla Fields, debe su origen a la celebración del ICM en Toronto en 1924. Partiendo de los fondos sobrantes tras el congreso, 2.500 dólares canadienses, junto a una importante aportación de su propia fortuna personal, 47.000 dólares, John Charles Fields propuso la creación de un premio internacional que se concediera coincidiendo con la celebración de los ICM. La propuesta fue aprobada por el ICM de 1932 celebrado en Zurich y los premios se concedieron por primera vez en el ICM de 1936 celebrado en Oslo. Sus primeros receptores fueron el finlandés Lars Valerian Ahlfors y el norteamericano Jesse Douglas. El premio es una medalla de oro y una modesta cantidad de dinero en metálico. La medalla muestra en su reverso una esfera inscrita en un cilindro, dibujo que según Cicerón estaba grabado en la tumba de Arquímedes, y la inscripción, en latín, "congregados matemáticos de todo el mundo, la dedican por sus insignes escritos". En el anverso se lee, en latín, "trascenderse a uno mismo y dominar el mundo" rodeando un busto de Arquímedes, del que el escultor canadiense que diseñó la medalla explicó: "Siento una cierta complacencia en haber dado al mundo matemático una versión de Arquímedes que no aparece decrépito, calvo y miope, sino que tiene la buena presencia y el porte seguro del hombre que desafió el poder de Roma". El paso de los años, los miembros de las comisiones que han otorgado el premio, y, sobre todo, la lista de galardonados, han hecho de la medalla Fields el premio más prestigioso de la matemática; esto suele ilustrarse diciendo que la medalla Fields es el premio Nobel de la matemática 12. Una importante diferencia distingue la medalla Fields del premio Nobel: en el memorando que Fields redactó relativo a la medalla especificó que serían "concedidas en los sucesivos congresos internacionales por logros sobresalientes en matemáticas", pero puntualizó que "aun siendo en reconocimiento del trabajo ya realizado, se pretende al mismo tiempo que sirvan de estímulo para posteriores logros por parte de los galardonados" 13. Este mandato fue interpretado por las distintas comisiones Fields que han concedido el premio como el requisito de tener menos de cuarenta años para poder recibir la medalla; este criterio fue adoptado explícitamente por la IMU cuando en los años sesenta tomó control de la concesión de los premios -hasta entonces, en cada congreso se nombraba una comisión responsable de las medallas a conceder en el siguiente congreso-. La aplicación estricta de este criterio ha llevado a situaciones como la del matemático inglés Andrew Wiles, que resolvió el Último Teorema de Fermat pendiente de solución desde el siglo XVII, pero no pudo recibir la medalla Fields en el ICM de Berlín de 1998 al tener cuarenta y dos años 14. Se comenzó concediendo dos medallas en cada ICM; a partir del congreso celebrado en Moscú en 1966 se acordó -gracias a la generosidad de un donante anónimo-conceder cuatro medallas en cada congreso. Así, incluyendo el último ICM celebrado en Madrid en 2006, ha habido cuarenta y ocho galardonados con la medalla Fields; si tenemos en cuenta que desde 1936 se han celebrado dieciséis congresos se observa que las cuentas no cuadran, esto es porque en varias ocasiones posteriores a 1966 las comisiones Fields correspondientes no han concedido cuatro medallas: en Varsovia en 1982/83 y en Berkeley en 1986 se concedieron, en cada congreso, tres medallas, y en Vancouver en 1974 y en Beijing en 2002 se concedieron solamente dos medallas en cada caso. Un ejemplo del carácter austero -alguien diría rácano-de los matemáticos. Los ICM se han enriquecido con dos premios más. El primero, nombrado en honor al matemático finlandés Rolf Nevanlinna, se concede por contribuciones sobresalientes en los aspectos matemáticos de las ciencias de la información, con igual limitación que la medalla Fields en cuanto a la edad de los galardonados. El premio Gauss se ha otorgado por primera vez en el ICM celebrado en Madrid; premia las aplicaciones de la matemática, al objeto de "ayudar al mundo a tomar conciencia de que la matemática es una fuerza motriz que está detrás de muchas tecnologías modernas presentes en la vida cotidiana". Nada más apropiado para un premio de estas características que asociarlo a la figura del matemático -y astrónomo y físico-alemán Carl Friedrich Gauss, en cuya actividad científica se combinó de forma absolutamente armónica la matemática más pura y con las aplicaciones más practicas. Esto se representa perfectamente en la medalla que se concede con el premio, que en su reverso muestra un arco de circunferencia donde se sitúan un círculo y un cuadrado; dejemos que sea el artista que diseñó la medalla quien explique el significado del dibujo: "Poco después de que Giuseppe Piazzi descubriera el cuerpo celeste Ceres, el primero de enero de 1801, Ceres desapareció de la vista, no habiendo disponibles técnicas fiables para predecir su órbita a partir de los limitados datos observados por Piazzi. Introduciendo una idea nueva y revolucionaria, el ahora bien conocido método de los mínimos cuadrados, Gauss fue capaz de calcular la órbita de Ceres de forma muy precisa, y en diciembre de 1801 Ceres fue redescubierto por el astrónomo Zack muy cerca de la posición predicha. Este impresionante ejemplo que muestra el poder de las aplicaciones de la matemática ha proporcionado la idea general del diseño de la medalla". Una mirada atenta a la serie de los ICM permite apreciar la evolución a largo del tiempo de la relación de la matemática con las ciencias cercanas, con la tecnología y con el mundo que les rodea. Hasta el momento en que la IMU tomó control sobre los ICM -lo que ocurrió a partir del ICM de 1962 celebrado en Estocolmo-, la sede de cada con- greso se decidía por aclamación a la clausura del congreso anterior entre las ofertas que de viva voz se presentaban -salvo en los congresos organizados bajo la férrea bota del IRC-. Este método de autoorganización permitió que cada congreso reflejase de forma bastante fiel las inclinaciones de la matemática del país organizador. La matemática italiana ha prestado históricamente mucha atención al estudio de problemas que provienen de modelar fenómenos físicos. No es de extrañar por tanto que el ICM celebrado en 1908 en Roma contara entre los conferenciantes plenarios a Hendrik Antoon Lorentz, premio Nobel de Física en 1902, y a Simon Newcomb, astrónomo norteamericano, y que entre las sesiones científicas del congreso -aparte de las tradicionales sobre aritmética, álgebra, análisis, geometría e historia-se incluyeran dos nuevas sobre física matemática y geodesia. Del mismo modo, haciendo honor a la tendencia aplicada de la matemática británica, en el ICM celebrado en Cambridge en 1912 se nombró presidente honorario a Lord Rayleigh, premio Nobel de Física en 1904, y fue presidente el astrónomo George H. Darwin -presidente de la Cambridge Philosophical Society, e hijo de Charles Darwin-. En este congreso hubo también nuevas sesiones dedicadas a astronomía, a economía, a ciencias actuariales y a estadística. Más aún, se organizó una visita de los congresistas a la Cambridge Scientific Instrument Company, importante empresa, que hoy llamaríamos tecnológica, que había fundado Horace Darwin, hermano de George, y que se dedicaba fabricar instrumentos científicos de alta precisión. Análogo fue el caso del ICM de Toronto en 1924, que incluyó sesiones dedicadas a ingeniería eléctrica, mecánica, civil y minera, a aeronáutica, a arquitectura naval, a balística, a radiotelegrafía y a economía. Con estos intereses científicos ¿cuál pudo haber sido la visita oficial del congreso? Ni más ni menos que a la central hidroeléctrica de Queenston-Chippawa situada en las cataratas del Niágara -las actas del congreso recogen fotos de las salas de turbinas, de las canalizaciones, y de la obra civil de la central-. Una visita similar se hizo en el ICM de 1928 en Bolonia, donde se mostraron dos complejos hidroeléctricos, el del Lago de Ledro y el de Riva. ¡Toda una sorpresa para quien piense que la matemática sólo sabe mirarse a sí misma! Las "máquinas de calcular" han tenido una presencia importante en los ICM. Comenzó en 1904 en Heidelberg con una conferencia del matemático alemán Carl Runge sobre la máquina de calcular mecánica -de manivela-que construyó Leibniz en 1672 -de la que existen actualmente dos ejemplares originales, uno en Munich y otro en Hanóver-. En Cambridge en 1912 se expusieron "models and machines (chiefly calculating machines)" en el laboratorio de Cavendish. Lo mismo ocurrió en Zurich en 1932, donde hubo una exposición de "schweizerische mathematische Instrumente" -instrumentos matemáticos suizos-. Y en 1950 en Harvard, Howard Aiken creador de la afamada serie de computadores Mark, disertó para el congreso sobre "computing machines". En Ámsterdam en 1954 se exhibieron las calculadoras electrónicas 604 y 626 de IBM, y las computadoras electrónicas ARRA, construida en Ámsterdam, y "Miracle" del Royal Shell Research Laboratories. Terminemos esta muestra mencionando la conferencia que dio el matemático ruso Seguei L. Sobolev en el ICM de 1962 en Estocolmo sobre el empleo de las computadoras electrónicas en la Universidad de Novosibirsk para descifrar el lenguaje maya. El interés por el pasado, por la historia de la propia ciencia, tampoco forma parte de la imagen usual de la matemática y de los matemáticos -imaginados éstos mayormente abstraídos en elucubraciones intemporales-. Una mirada panorámica a la serie de los ICM permite ver que la atención al pasado de la matemática ha sido una constante en los congresos, más allá de la ineludible sesión sobre historia, que siempre han incluido. Un foco principal de atención han sido las obras impresas. En el primer ICM en 1897 en Zurich, el matemático suizo Ferdinand Rudio propuso la edición de las obras completas del gran matemático suizo del siglo XVIII Leonhard Euler, el congreso apoyó unánimemente la propuesta. Tuvieron que pasar catorce años, hasta 1911, para que apareciese el primer volumen; y es que el proyecto era muy ambicioso: a día de hoy todavía siguen publicándose volúmenes de la Opera Omnia de Euler, ¡y van setenta! El ICM de Heidelberg coincidió con el centenario del nacimiento del matemático alemán Carl Gustav Jacob Jacobi, por lo que el congreso editó una biografía escrita por el historiador de la matemática Leo Königsberger. En ese mismo congreso se presentó la Encyclopédie des sciences mathématiques, que era la traducción francesa ampliada de la enciclopedia alemana Encyklopädie der mathematischen Wissenschaften, que comenzó a publicarse a finales del siglo XIX -según cuentan las actas del congreso el editor B. G. Teubner ofreció la obra a los congresistas a un tercio de su precio de venta-. Otro ejemplo de la pasión bibliográfica de los ICM fue la presentación en Bolonia en 1928 de un recién descubierto libro -i.e., capítulo-del Algebra de Rafael Bombelli, obra seminal escrita en el siglo XVII, y el regaló a los congresistas del Prefacio al libro inédito de Álgebra de Rafael Bombelli, escrito por el historiador de la matemática Ettore Bortolotti. De muy alto nivel ha sido la aportación del ICM de Madrid a este afán. En colaboración con la Real Sociedad Matemática Española, se han editado tres obras clásicas de Arquímedes: Sobre la esfera y el cilindro, La medida del círculo y La cuadratura de la parábola; la edición ha incluido una reproducción facsímil de los manuscritos griegos conservados en el Monasterio de El Escorial, y una traducción al castellano anotada y comentada. Ya hemos mencionado la celebración en el ICM de 1904 en Heidelberg del centenario del nacimiento de Jacobi. En ICM de Ámsterdam en 1954 se celebró también un centenario: el del nacimiento del prolífico matemático francés Henri Poincaré -la precaria salud de Poincaré se puede ir siguiendo a través de las actas de los primeros ICM: a algunos no asiste pese haber confirmado su asistencia, en otros se ve obligado a retirarse de las sesiones diarias a causa de su salud, la noticia de su muerte, ocurrida unas semanas antes de la apertura del ICM de Cambridge en 1912, dominó la apertura del congreso-. En este congreso de Cambridge se visitó el cercano cementerio de Mill Road, donde se depositó una corona en la tumba de matemático inglés Arthur Cayley. Sobre tumbas también se había hablado en 1904 en Heidelberg, pues se trató el problema de la familia Jacobi para mantener en condiciones dignas la tumba del matemático. Sirvan estos ejemplos para mostrar cómo los ICM se han dedicado con interés a mirar, honrar y rescatar el pasado de la matemática. Completemos esta mirada caleidoscópica a los ICM considerando algunos de sus efectos indirectos. Situémonos en la Unión Soviética del año 1966; aunque habían pasado diez años desde la desestalinización de Jruschov, y Yuri Gagarin había conquistado el espacio, el matemático de a pie sentía como una losa sobre su trabajo la incomunicación con el resto de los matemáticos del mundo. Y entonces llegó la gran marea del ICM a Moscú: asistieron en total 4.282 matemáticos, de los cuales 1.479 eran soviéticos. Muchos de éstos pudieron por primera vez en su vida ver, escuchar, discutir con matemáticos que provenía de más allá del Telón de Acero. Fue un acontecimiento de gran importancia personal para muchos matemáticos soviéticos 15. Esto fue, desde luego, más trascendente que el revuelo que ocasionó el matemático norteamericano Steven Smale quien tras recibir una medalla Fields salió a las escalinatas de la Universidad Lomonosov de Moscú donde dio una rueda de prensa en que criticó los bombardeos norteamericanos en Vietnam y para equilibrar su discurso, según él mismo explicó más tarde, criticó también la intervención soviética en Hungría en 1956 -tras la rueda de prensa Smale fue introducido en un coche por dos funcionarios y desapareció; horas después, tras visitar todos los museos de Moscú, fue devuelto a la sede del congreso-. El ICM de 2006 en Madrid y el matemático ruso Grigori Perelman han regalado a la matemática el que ha sido, hasta la fecha, el momento de mayor atención pública en su historia. El Comité Fields 2006 decidió conceder a Perelman una de las cuatro medallas por su prueba de la conjetura de Poincaré. Su negativa a aceptar el premio y a presentarse en Madrid; su más que probable renuncia al millón de dólares que la Fundación Clay concede por la resolución de cada uno de los siete problemas escogidos al comienzo del tercer milenio, uno de los cuales era la conjetura de Poincaré; su renuncia a su puesto en el Instituto Steklov de San Petersburgo; junto a su imagen de personaje más propio de una novela de Dostoyevski que de un departamento de matemáticas, le han convertido en un personaje público. Para los matemáticos el éxito es agridulce, por una parte, de una gran exposición pública se esperan importantes réditos -en la génesis de vocaciones, en la estima social del trabajo, y en la obtención de medios materiales de trabajo, es decir, dinero-; pero, por otra, se renueva la imagen del matemático como personaje singular, extraño, incluso extravagante. ¿Y la participación española en los ICM? Digamos que en el pasado ha sido modesta. Al primer ICM de 1897 en Zurich asistió un -único-matemático español, Luis Gonzaga Gascó 16, de la Universidad de Valencia. Y, de repente, sin explicación alguna al ICM de 1912 en Cambridge asistieron veinticinco matemáticos españoles. No, hay una explicación y concierne a una de las instituciones más importantes de la historia de España -nótese que no digo de la historia científica de España-: el 15 de enero de 1907 se constituyó la Junta para Ampliación de Estudios e Investigaciones Científicas que, presidida por Santiago Ramón y Cajal y dirigida por la mano sabía de José Castillejo, hizo de cuidadosa comadrona de la primavera científica que fue el primer tercio del siglo XX en España. Bajo los auspicios del impulso renovador de la Junta, en 1911 se creó la Real Sociedad Matemática Española. Así, cuando se celebró el ICM de Cambridge en 1912 se daban ya en España las condiciones para enviar al congreso una delegación nacional adecuada. En cualquier caso, la contribución española a los ICM nunca ha dejado de ser modesta. Es por ello que la celebración de la vigésimo quinta edición de los ICM en Madrid en 2006 es muy relevante, pues España no puede presumir de sus aportaciones históricas a la matemática, más bien todo lo contrario 17, ni siquiera hemos tenido una tradición de participación en los ICM. Lo único que tenemos en la matemática internacional es presente: en treinta años hemos pasado de ser un colectivo prácticamente marginal a aportar casi el cinco por ciento de la producción matemática mundial. Esas han sido nuestras credenciales para tener el indudable honor de organizar el ICM en Madrid en 2006.
Es para mí un placer, y un reto, escribir estas líneas de presentación del volumen monográfico que Arbor dedica, bajo el título Ciencia y tecnología en el CSIC: una visión de género, a la situación de la mujer investigadora en nuestro organismo. Un placer, porque se trata de una problemática que me interesa particularmente y a cuya mejora quiero contribuir, Y por eso mismo es un reto: si, finalmente, el día que deje de ser presidente del CSIC no hubiera sabido tomar las medidas que facilitaron una mayor presencia de la mujer en los niveles altos, tanto científicos como organizativos, de la institución, no habría estado a la altura de mis obligaciones. En pocas palabras, se trata de actuar, y no sólo de escribir y hablar. El volumen que Vd, tiene en sus manos, coordinado por Valentina Fernández Vargas y por María Jesús Santesmases, tiene como esqueleto ocho contribuciones que analizan la problemática de la mujer investigadora en el marco de cada una de las ocho áreas en las que se estructura la actividad científica del CSIC, precedidas por una introducción de la Dra. Dos apéndices completan el volumen. Lo primero que llama la atención es la inmensa dispersión del diagnóstico y de las conclusiones, lo que en absoluto debemos interpretar como una deficiencia, sino sólo como un reflejo de la complejidad del problema, y del poco sesgo colectivo de las autoras (salvo el sesgo de ser todas mujeres). Consideremos dos posturas distintas, pero ambas perfectamente defendibles. Hay mucho que separa a hombres y mujeres: para empezar cromosomas, fenotipo y función biológica, y en consecuencia juegan papeles distintos en la familia y en la sociedad. Por lo tanto no debería extrañar que en algunas áreas de la actividad humana destaquen más los hombres y en otras las mujeres. Lo que extraña es que la sociedad valore más, sistemáticamente y prácticamente sin excepciones, aquello en lo que destacan los hombres y valore poco aquellas actividades en las que destacan las mujeres. O, por el contrario: hay poco que separa a mujeres y hombres, sólo aquello que tiene que ver con su distinta función biológica. Los papeles de las mujeres y de los hombres en la familia y la sociedad deberían ser casi idénticos, ya que las aptitudes intelectuales lo son. Por lo tanto la indiscutible discriminación a favor del hombre no está basada en una diferencia de aptitudes para el trabajo, sino en una diferencia de actitudes cara al poder. Y hay muchas otras posturas, y la mayoría se pueden defender sin sonrojarse. Envidio, desde un cierto punto de vista, a aquellas personas que tienen ideas claras sobre la etiología de la discriminación por género, porque les permite hacer, más allá de un diagnóstico poco ambiguo, recomendaciones precisas. Yo tengo las ideas menos claras, salvo que no dudo sobre la existencia del problema y de que algún tipo de discriminación, en algún nivel, existe, Pero la duda no debe conducir a la inacción; simplemente, la acción debe enmarcarse en el principio de precaución que suele aplicarse a situaciones problemáticas serias, bien cuantificadas pero de causas sólo conocidas con un cierto grado de incertidumbre. El estado medioambiental actual de nuestro planeta nos proporciona un paradigma de este tipo de problemas, y también un paradigma de un abanico de propuestas de actuación, incluyendo la del laissez faire. Las contribuciones que se reúnen en esta monografía son una fuente de propuestas diversas e interesantes. Hay que pasarlas por el tamiz de lo que finalmente se pueda poner en marcha, teniendo en cuenta nuestra realidad presupuestaria y normativa. Pero las analizaremos con cuidado y empatia. Vaya por delante que tendré muy en cuenta la condición femenina en mis próximos nombramientos de cargos cuya designación me corresponda. Y también la presencia de la mujer en los tribunales. Pero quiero recordar aquí una de mis experiencias recientes y frustrantes: las dos mujeres a las que les ofrecí un cargo importante para la actividad investigadora del CSIC rechazaron mi oferta. Las razones que adujeron eran perfectamente comprensibles, pero tenían en su conjunto un ligero sesgo femenino; probablemente no las habría dado un hombre. En otras palabras, también las mujeres tendrán que aceptar los inconvenientes que ciertos cargos conllevan, porque si no, no alcanzaremos nunca una presencia femenina satisfactoria en ellos. Y sé que normalmente lo que la mujer sacrifica es más que lo que sacrifica el hombre. Quiero también consolidar lo que informalmente hemos venido llamado la Comisión de Mujeres, aunque deberemos para ello discutir su composición, definir su marco de actuación y encontrar su lugar estructural dentro del CSIC. ¿Cómo es que las áreas son tan distintas? Al lector que sólo disponga de unos breves momentos para hojear la monografía le recomiendo que ojee las contribuciones correspondientes a algunas áreas extremas: la de Alimentos, con un 28% de mujeres en la escala de Profesores de Investigación y un instituto en el que de 5 Profesores 4 son mujeres, la de Materiales, con un 3% de mujeres en la escala de Profesores de Investigación y un instituto con ninguna mujer entre los 17 Profesores, y la de Física, con menos de un 20% de mujeres investigadoras. ¿Fluctuaciones Presentación XVII estadísticas? ¿Discriminación aquí y no allá? La lectura de las distintas contribuciones proporciona una visión global, informada y meditada, basada en datos objetivos, incluyendo opiniones personales, sobre la situación de la mujer investigadora en el CSIC. Es un excelente material para meditar, discutir y ayudar en la toma de decisiones, ¿Qué papel juega el hecho de que la mujer se resiste más a perseguir el éxito "a cualquier precio'', como, creo que correctamente, se apunta en una de las contribuciones? ¿Por qué la ambición y exigencia se ven como algo positivo en los hombres y con no tan buenos ojos cuando se trata de una mujer? ¿Cambiar las mujeres o cambiar la ciencia? se pregunta en otra de las contribuciones. Y mucho más, Lea y medite, el problema lo merece, Y sin embargo, ¡qué frustrante es no estar convencido de que realmente, científicamente y con alto nivel de confianza, conozcamos el espectro cuantificado de causas que explique el carácter inamovilble de la varonización de la investigación de la élite, no sólo en el CSIC, sino en todas las instituciones, públicas o privadas, españolas y extranjeras. De hecho, y a pesar de todo, no es el CSIC la institución que peor está, ni mucho menos. Pero no estamos bien, o no estamos donde debiéramos. Haremos lo necesario para mejorar y mejoraremos, no lo dudamos.
En la actualidad, la situación de las científicas españolas es semejante a la de la generalidad de sus colegas a nivel internacional. Esta realidad no nos hace olvidar que en cada país han jugado -juegan -determinadas variables específicas; esbozar, al menos, la variación, evolución e incidencia de las españolas en el CSIC constituye el objetivo de nuestro trabajo. Al plantearnos llevar a cabo la serie de artículos que constituyen este Monográfico, todas las autoras tuvimos muy claro que para analizar la situación de las científicas del CSIC era ineludible realizar una primera aproximación a la historia general del Organismo. Pues, aunque la discriminación que reflejan todos los trabajos puede ser homologada a la de tantas colegas en otros países, en España ha actuado un factor específico originado por la situación del país a partir de 1939. Cuando el 1 de abril de 1939 acabe la guerra iniciada en 1936 -aunque el Estado de Guerra no ñiera levantado hasta 1947 -los vencedores constituyen el que, con firecuencia, será denominado Nuevo Estado marcando así, desde el primer momento, su voluntad de romper, radicalmente, con toda la tradición democrática que había desembocado en la IP República. Si recordamos la situación nacional e internacional tal objetivo no puede extrañarnos, aunque sí puede sorprendernos que apenas a los cin- CO meses de finalizada la contienda, se funde un Organismo encargado de organizar y coordinar la investigación nacional: el Consejo Superior de Investigaciones Científicas. La Ley ñmdacional del CISC, de 24 de noviembre de 1939, es explícita, pues señala que:... En las coyunturas más decisivas de la Historia, concentró la Hispanidad sus energías espirituales para crear una cultura universal. Esta ha da ser también la ambición más noble de la España del actual momento, que, frente a la pobreza y paralización pasadas, siente la voluntad de renovar su gloriosa tradición científica. Tal empeño ha de cimentarse, ante todo, en la restauración de la clásica y cristiana unidad de las ciencias. Destruida en el sigloXVHI..... Hay que crear un contrapeso frente al especialismo exagerado y solitario de nuestra época.,.. Hay que imponer, en suma, al orden de la cultura, las ideas esenciales que han inspirado nuestro glorioso Movimiento, en las que se conjuga las lecciones más puras de la tradición universal y católica con las exigencias de la modernidad ^. Tales objetivos serán completados, desarrollados y reglamentados posteriormente. Aunque la proliferación legislativa, la creación en 1958 de la Comisión Asesora de Investigación Científica y Técnica podría interpretarse como demostración última de la inoperancia, o el fracaso, de muchos de los objetivos primigenios. Ahora bien, los fundadores del CSIC eran conscientes de que cumplir con tales planteamientos iba a ser difícil, pues, como indica el Acta ^ de la Sesión de Constitución del Consejo Ejecutivo, celebrada el 8 de abril de 1940 en el Ministerio de Educación bajo la Presidencia del Sr. Ibañez Martín, Ministro del ramo,,,,la labor del Consejo,,,.ha de contar con dos géneros de dificultades: la que ofrecen los de fuera, los que abandonaron nuestro suelo por enemigos del espíritu español, con los que no cabe ni un pacto ni diálogo, y la de los de dentro, que recelosos e insatisfechos propagan por doquier el veneno de su escepticismo pesimista de su falta de fe en España: son los que dicen que aquí no se hace, ni se hará nada, y a estos hay que responderles con un irrevocable propósito de trabajar, de trabajar mediante una selección de los mejores, guiados todos por este Consejo Ejecutivo que ha de dar, desde el primer momento, muestras de su actividad. Como es sabido, el Consejo se instala en los edificios de, hablan las Actas del CSIC, la disuelta Junta para Ampliación de Estudios, con la finalidad de sustituir a la Fundación Nacional de Investigaciones Científicas y a la misma Junta, organismos que, como el mismo CSIC, tienen pendientes, merecen, sendas monografías. Sesenta y tres años, el tiempo de vida del CSIC, no es un lapso de tiempo importante en la vida de una Institución de sus características, Las científicas en el CSIC 457 pero habida cuenta de los acontecimientos vividos en España entre 1939 y 2002, si resultan significativos pues, indiscutiblemente, el CSIC y su personal, son reflejo, y resultado, de unas circunstancias históricas concretas. Para el Consejo, y puesto que este Monográfico está realizado por científicas de su plantilla analizando su propia situación y la de su ámbito laboral, es evidente, e indiscutible, que aún hoy persiste una desigualdad manifiesta entre la situación de los científicos y la de las científicas, cualquiera que sea la perspectiva desde la que nos planteemos el análisis. Situación no específica de España aunque aquí tenga algunos parámetros específicos. En este momento en España la igualdad entre hombres y mujeres es una realidad legal consagrada por la Constitución de 1978 pero, tales imperativos legales solo sirven para establecer marcos de actuación para acelerar, en su caso, las transformaciones sociales que, no nos engañemos, son muy lentas. Situación demostrable, en nuestro caso, por la escasa presencia, por ejemplo, de mujeres en los denominados puestos de libre designación. No ignoramos que el progreso es acelerado pero tampoco podemos prescindir de cuales ñieron las líneas maestras que estructuraron el Nuevo Estado y, por ende, el Consejo. Así, parece pertinente recordar ahora la presencia, establecida reglamentariamente, de Asesores procedentes de la Iglesia y de los Ejércitos, colectivos exclusivamente masculinos en su momento. También parece oportuno indicar ahora que en el Reglamento de 10 de febrero de 1940, se nombrará Patrono del CSIC a San Isidoro y aunque no ignoramos la importancia de Las Etimologías, sí nos parece pertinente recordar que Santa Teresa de Jesús, tan admirada en la época, tan venerada por el General Franco, había sido reconocida por la Iglesia como La Santa Doctora, pues no se puede olvidar la importancia de su obra escrita para la cultura europea. La mención a Santa Teresa no es ociosa pues su frase también entre los pucheros anda Dios, fue de las más repetidas de la época sirviendo, casi diríamos de coartada para justificar y /o valorizar políticas utilizadas para reforzar papeles tradicionales absolutamente asumidos por la Sección Femenina, rama segregada -y segregacionista -de Falange Española. El Partido Único, es decir, el único legal. Recordemos ahora que la Sección Femenina había asumido la responsabilidad de la llamada Revalida de Hogar, imprescindible para acabar el bachillerato elemental y que, por supuesto, solo atañía a las alumnas. La consideración sobre el nivel de exigencia de las asignaturas y exámenes que lo conformaban no nos sirve para atenuar la valoración social Valentina Fernández Vargas de su existencia. Si se nos permite la ironía podríamos decir que era la temprana, y académica, confirmación de la doble dedicación que esperaba a aquellas niñas. En esta breve contextualización histórica hemos de mencionar, al menos, que la incorporación de las mujeres a un ámbito profesional cualificado, distinto al tradicional en la agricultura, la fábrica, el artesanado o el servicio doméstico, había empezado a flexionar a principios del siglo XX. Esta por realizar el estudio de aquellas jóvenes licenciadas o estudiantes universitarias, que nunca será exacto pues, después de 1939, algunas vieron desaparecer su expediente académico por motivos políticos. Aunque el hecho de que en 1931 las Cortes Constituyentes de la II República, reconocieran el derecho a voto de las mujeres, a pesar de contar con un porcentaje de diputadas que no puede calificarse ni de minoría simbólica, pues era inferior al 1 %, nos permite aventurar la hipótesis de que aquellas universitarias, entre las que podrían haberse generado científicas, serían, en un número significativo, republicanas. Aunque tampoco podemos olvidar la importancia creciente de la Institución Teresiana, cuyas religiosas solo pronunciaban sus votos -temporales -al acabar la Carrera. De hecho, y no olvidamos la cantidad de factores con fluyentes en ella, ya en los años cincuenta, una Teresiana, M^ Angeles Galindo, sería la primera Catedrática de Universidad. En cualquier caso, y como ha escrito una de nosotras ^, las mujeres perdieron la guerra por partida doble pues, no solo sufrieron al igual que los varones la desaparición de los derechos generales inherentes a la ciudadanía, y aquella legislación específica a su favor, sino que, además, el ambiente general incidió para que, en el mejor de los casos terminaran trabajando o como secretarias cualificadas de sus maridos, o tuvieran que realizar su obra en el ámbito domestico; alguna de nosotras ha escuchado a un hijo de doña María Moliner recordar a su madre tomando notas para su Diccionario en medio de sus tareas domésticas. En otros casos, a las depuraciones políticas se sumaron reglamentaciones que impedían el trabajo de las mujeres casadas. Con el paso de los años muchas depuradas que, de no haberlo sido, hubieran tenido que renunciar a su puesto de trabajo al contraer matrimonio, pudieron volver a la actividad laboral. Por el contrario, aquellas jóvenes que recibieron una cantidad de dinero, la dote, al serles aplicadas las normas sobre el trabajo de las casadas, no pudieron recuperar el puesto de trabajo de abandono obligado pues, el dinero recibido fue considerado por los Tribunales como un finiquito. Pues, como también escribiera ya una de nosotras " ^ en un pionero trabajo sobre las mujeres del CSIC, la legislación tuvo como objetivo gene-ral liberar a la mujer del taller y la fábrica, situación proteccionista que, como suele ocurrir, terminó actuando en contra del protegido. Protegida en este caso. En 1958, el P. Brugarola ^, asesor religioso del Sindicato Vertical, el único legal, defendía la promoción social de la mujer en el sentido de su promoción social y maternal, aunque hemos de reconocer que en la misma fecha, y colección, F. Rodríguez ^ escribe: ha de subrayarse que la prevención sobre el trabajo femenino quizá no esté justificada. Es cierto que la mujer casada no debe salir de la familia y que en ella tiene su centro, Pero no lo es menos que esta no es la situación de la mujer soltera que, probablemente, no tiene derecho a comer gratuitamente su trozo de pastel nacional. Pensemos que en esta fecha ya había muchas mujeres trabajando en el Consejo, algunas de las cuales, desempeñarían puestos muy importantes científicos y políticos y que muchas de las científicas actuales se encontraban cursando el bachillerato o la carrera, para comprender en toda su amplitud, el clima en el que se movieron, los obstáculos con los que hubieron de enfrentarse. La pervivencia, más o menos soterrada de tales planteamiento nos permite afirmar que si bien poco a poco la sociedad va impregnándose de lo que una de nosotras ha denominado un feminismo difuso, no es menos cierto que como correlato se genera lo que proponemos denominar machismo sutil ^. Al plantearnos este Monográfico tuvimos muy en cuenta que la observación participante iba a aflorar de forma recurrente, circunstancia especialmente oportuna pues permitía recoger situaciones y percepciones sociales diversas pero que, en algunos casos, perviven con fuerza. Por ejemplo, hubo un Director del Instituto Balmes que, sorprendentemente, tenía una hija médica, que no se recataba de decir ante las dos bibliotecarias y la colaboradora científica del centro, las tres casadas y dos de ellas con hijos, que la funcionaría casada era mala madre, mala esposa y mala funcionaría. Eran tiempos en los que las funcionarías casadas no dejaban pensión a sus viudos por lo que no eran infrecuentes las polémicas en las que las afectadas hacían ver a sus compañeros la injusticia de la situación: injusticia nunca admitida por escandalizados varones que casi consideraban que el trabajo de la esposa, y su posible pensión, ponía de alguna forma en entredicho la capacidad del marido para cumplir con una de sus obligaciones: mantener a su familia. Situación de aceptación generalizada, pues, se hablaba de salario familiar. Podríamos decir que las mujeres, y por supuesto las científicas, se movían, nos movíamos, entre el paternalismo y el machismo. una de nosotras, en una reunión de Directores de Instituto en la que era la única mujer, se sumó a una violenta discusión sobre el reparto del presupuesto para Bibliotecas hubo de escuchar, asombrada, que uno de sus compañeros parara la discusión para decirla: -No discutas, que te pones muy fea. En otra ocasión, ya en el Coloquio de un Congreso Internacional celebrado en el Anfiteatro de Serrano, cuando aquella misma Directora pidió la palabra, vio que se la llamaba por su nombre de pila. Puesto que el interviniente anterior había sido identificado por sus dos apellidos precedidos del título de Doctor, pidió, antes de plantear la cuestión, un trato análogo al de su colega. Nuevamente hubo de escuchar una respuesta poco profesional: era el afecto que todos sentían hacia ella lo que les hacía llamarla por su nombre. Finalmente, y en privado, remataron la argumentación diciendo, también, que era una forma de rejuvenecerla. Y es que, no nos engañemos, la percepción social es radicalmente distinta sí actúa sobre un hombre o una mujer. Aunque se trate de una Mi-nistra^. Tanto más si nos referimos a un colectivo como el CSIC. En una de las primeras conmemoraciones ^ del 8 de marzo en el CSIC, la entonces directora del Instituto Balmes de Sociología, al plantear la distinta percepción social sobre hombres y mujeres, y como ésta repercutía en la valoración del trabajo de unos y otras, propuso recordar el aspecto de los científicos, y científicas que, en un momento dado, podían encontrase en la Cafetería de Serrano. Los hombres señaló, sobre todo si llevaban bata estarían bastante desastrados, en tanto que las científicas llevarían hasta alguna joya. Sabían, perfectamente, lo que hacían. Un científico desaliñado es visto como un hombre que solo piensa en la ciencia. Una mujer en las mismas circunstancias sería despreciada al considerar que mal podría controlar y realizar su trabajo aquella que no valora las demandas sociales sobre el aspecto femenino. La lentitud del cambio de determinados valores queda refrendada por el Barómetro de febrero del CIS ^^, según el cual, a la pregunta ¿ Como calificaría las desigualdades que actualmente existen entre hombres y mujeres'?,3,6Ns.Nc.;7,4 Casi inexistentes;30,9 Pequeñas;11,8 muy grandes;46,3 Bastante grandes. Pero hay una segunda cuestión que enlaza directamente con lo que estamos exponiendo: De las siguientes características ¿ podría decirme las tres que considera más importante para que un hombre triunfe en su trabajo? ¿ Y para que una mujer triunfe en su trabajo? Ya en los años sesenta, una de nosotras fue alumna de don Julio Caro Baroja en los Cursos de Sociología General del Instituto Balmes de Sociología; al mismo tiempo, don Ramón Ruiz Alonso, que tan importante papel jugó en el asesinato de Federico García Lorca, era el Secretario de los Cursos de Sociología Industrial que se impartían en el mismo Instituto. Al mencionar todo esto queremos subrayar la complejidad de las situaciones cuya explicación última son las relaciones personales, las ñlias -y las fobias-generadas. Ahora bien, tal reconocimiento no nos impide establecer una valoración global que, como cualquier otra generalización, es incompleta y matizable: nos referimos al hecho de que hasta el fallecimiento del General Franco, la Dirección del Consejo y la de la mayoría de sus Centros, estuvo desempeñada por los sectores más conservadores de la Ciencia española. Retomando las consideraciones realizadas sobre los años de vida del CSIC y los distintos ritmos de las transformaciones legales y sociales, es evidente que el fallecimiento del General Franco y la recuperación de la democracia supone un antes y un después en el Consejo; que el periodo conocido como Transición hacia la Democracia constituye una etapa bisagra en la que serán determinantes las reformas administrativas emprendidas durante la Presidencia de don Alejandro Nieto ^^. Don Eduardo Primo Yúfera será el primer Presidente de la Transición, el hombre que pondrá en marcha muchas de las reivindicaciones del personal del CSIC como, por ejemplo, romper con la tutela que determinados catedráticos de Universidad ejercían sobre el Consejo; dentro de esta dinámica, una de nosotras será nombrada Directora del Instituto Jaime Balmes, convirtiéndose así en 1976 en la primera mujer, al menos en Humanidades, que dirige un Instituto y una revista del CSIC. Siguiendo este planteamiento, aunque en la dirección contraria, otra mujer, doña Carmina Virgili, catedrática de la Universidad Complutense, dimitirá como Directora del Instituto de Geología Económica. En este caso, la Dirección del Centro recaerá en un hombre. La creación en 1958 de la Comisión Asesora de Investigación Científica y Técnica ya se ha interpretado como el máximo refrendo de que los impulsores del Consejo no supieron, o no quisieron, mantener su atribución fundacional como elemento realmente superior. Las Actas de los primeros años permiten rastrear intervenciones del CSIC sobre cambios de denominación de cátedras universitarias, por ejemplo; pero poco a poco, y como también hemos mencionado se termina estableciendo una situación tutelar sobre el Organismo. Radica ahí, en nuestra opinión, la proliferación de Centros, de intenciones, que apenas pasaron del papel. Citaremos, como ejemplo que en el Acta del 1 de junio de 1941 se recoja: propone, además, el Sr. Tovarla creación de una beca de 6.000ptas anuales que permita a un estudiante vasco trabajar como lector de vascuence en el Instituto Nebrija.... cuidar la biblioteca de la sección vasca que debería crearse,,,, es aprobada la propuesta. En otras palabras, son intereses con frecuencia coyxmturales y pronto olvidados, la explicación última de la proliferación de Centros, de la variopinta situación profesional de los trabajadores, cualquiera que fuera su función. En Apéndice recogemos la estructura del CSIC en el momento de su fundación, y la situación actual; ahora proponemos los datos siguientes: Si tenemos en cuenta la proporción de hombres y mujeres en las distintas carreras universitarias, estos datos resultan aún más escandalosos. En cualquier caso, y en resumen diremos que en 1982 el personal científico del CSIC estaba constituido por 1071 hombres y 346 mujeres lo que supone una representación femenina del 32,30 %. Para 1996 contamos con los datos siguientes, desgraciadamente, no desagregados por sexo. Es decir, en los catorce años considerados el CSIC tuvo un incremento de 394 científicos: unos 21 al año. Diremos, también, que los Centros de 1996 son el resultado de un proceso de reorganización que había acabado con insólitas situaciones heredadas, pues, con anterioridad, hubo Centros sin personal científico de carrera, o con uno o dos investigadores; y pese a todo, y como tónica general, contaban con magnificas actualizadas y utilizadas Bibliotecas y Hemerotecas, mantenían una sorprendente actividad científica, publicaban prestigiosas Revistas, y eran Sede de la Sección Española de las Asociaciones profesionales correspondientes. Situaciones, en absoluto idóneas, posibilitadas por la actividad de sus Directores que con frecuencia, consideraron aquellos Centros como prolongación de sus cátedras. Haber sido becario, o investigador del Consejo, era particularmente considerado a la hora de opositar a cátedras universitarias. Aunque también habría que mencionar ahora, que entre las científicas que accedieron al Consejo, las hubo porque, implícita o explícitamente, se consideraba que el Consejo era más tranquilo, más adecuado para las mujeres que la Universidad. Nuevamente planteamos que el estudio de biografías y curricula sería particularmente esclarecedor. También diremos ahora que nuestra observación participante nos permite afirmar que en los años de la Transición, y los primeros de la Democracia hubo un acceso significativo de las investigadoras a puestos de responsabilidad científica o política; situación que, poco a poco, iría desgastándose hasta la deficiente situación actual. En cualquier caso, en los primeros treinta años del CSIC se observa que no hay ninguna mujer en puestos de dirección o de gestión de política científica, y que entre los años comprendidos entre 1976 y 2002, tan solo nueve mujeres han ocupado puestos de Vicesecretaría General entre ellas, Concepción Llaguno, Angela Santamaria o de Subdirección. En los años 1980 y 1989 Teresa M.^ Mendizabal y Pilar Tigeras serían designadas para ocupar una Vicepresidencia Es decir, hasta el día de hoy solo once mujeres pueden ser consideradas como máximo exponente de la presencia femenina en la dirección del Organismo. Así mismo habría que resaltar que durante la Presidencia de E. Muñoz (1988-91) fue la primera, y la única vez en toda la historia del CSIC que hubo una Secretaria General: Pilar Seisdedos. También parece digno de mención que durante aquellos años se creara una Unidad de Coordinación Técnica dependiente de la Presidencia y constituida exclusivamente para mujeres, cuyo papel fue fundamental para que el Presidente contara con información fidedigna del pasado y presente del Organismo. Durante su gestión como Vicesecretaria, la Dra. Mendizabal pondría en marcha la Guardería del CSIC cuya importancia para las mujeres con hijos es difícil de exagerar. Insistimos, las causas de todo esto pueden ser múltiples, y abarcarían tanto a factores endógenos como exógenos. Y de uno y otro tipo los hemos escuchado al dirigirnos a compañeras, para recabar su colaboración en este Monográfico. Puesto que estamos planteándonos analizar la estructura social de un Organismo público parece innecesario decir que se cuenta con documentación suficiente para reconstruir la secuencia, cuantitativa y cualitativa, de la situación de las mujeres -de las científicas en su caso -del CSIC; pero aunque hayamos podido localizar las fiíentes el tiempo y las características de nuestro trabajo, apenas nos permiten más que establecer las series que ahora presentamos en los Apéndices. Gracias a ellas podemos afirmar que, desde los primeros tiempos, se refleja lo que será una constante en la vida del Organismo: las mujeres ocupan, copan, las escalas más bajas y las científicas se distribuyen de forma que apenas guarda relación con las carreras que cursan mayoritariamente. Claro que, como ya publicamos en el primer Monográfico de Cuadernos para el diálogo ^^ dedicado a la situación de la mujer en España, las dos carreras más feminizadas en aquel momento ( 1965), Filosofía y Letras y Farmacia, agrupaban a mujeres que estudiaban, en el caso de Filosofía y Letras, sobre todo, para trabajar en la enseñanza no universitaria, o para contar con una calificación social valorable a la hora de contraer matrimonio; en el caso de Farmacia lo hacían, mayoritariamente, para continuar con el negocio familiar. En cualquier caso, y como ya hemos indicado, las Actas del Consejo constituyen una fuente documental magnífica, y aunque incluimos el organigrama de 1940 como Apéndice, queremos adelantar que en aquella fecha, el Consejo contaba con 341 personas distribuidas en 16 Institutos. Se consigna tanto al personal que desempeñaba funciones en puestos de Dirección como al encargado de almacenes, de la limpieza. Solo encontramos 46 mujeres -el 13,5 %-y como no podía ser de otro modo, la mayoría eran preparadoras, bibliotecarias y mecanógrafas ( 27), 8 eran limpiadoras y 11 -el 3%-eran becarias básicamente en centros de humanidades. El Museo Etnológico cuenta con dos Secciones; una de las cuales estaba dirigida por una mujer La Srta.. Mercedes González Jiménez, Jefe de la Sección de Antropología del mismo Museo. En cualquier caso, nos parece pertinente señalar que, el Acta de 15 de octubre de 1940 recoge:....a la vista de la escasez de personal adminis-Valentina Fernández Vargas trativo se acuerda convocar un concurso oposición para nombrar auxiliares administrativos, con una gratificación mensual de 350 ptas.. Con arreglo a las siguientes bases. El concurso,,, constará de unos ejercicios de mecanografía, unos ejercicios de redacción de documentos,,, y podrán mejorar la puntuación los concursantes que quieran con unos ejercicios de taquigrafía. El concurso-posición se verificará ante el Tribunal que oportunamente se dirá y en plazo de presentación de instancias será de diez días, teniéndose en cuenta los méritos científicos, políticos y militares...». Se trata de las que en lenguaje coloquial -y crítico-fueron denominadas oposiciones patrióticas, buen exponente de la época y, que desde luego, no fueron exclusivas del Consejo pero que también, permítasenos decirlo, a la vista de los criterios de selección y de quienes eran los seleccionadores -militares, obispos y profesores de universidad afectos, término también habitual por aquellos años-difícilmente elegirían mujeres; máxime si recordamos los textos sobre la conveniencia, o no de su trabajo, que ya han sido expuestos. ¿ Qué deducir de todas estas cifras, de los comentarios ya recogidos? ¿ Como encajar a unas y a otros con los porcentajes de estudiantes y licenciadas en las distintas carreras? Como ya señalaba una de nosotras en 1975 en la Ponencia El ejercicio profesional de la mujer químico ^^, la igualdad, la objetividad a la hora de calificar a las alumnas se quiebra cuando la estudiante, la licenciada, se convierte en trabajadora; entra a competir con los varones en el mercado de trabajo. Situación tanto más dura cuanto más masculinizado sea el ámbito laboral elegido. A esto añadiremos que la investigación científica, sobre todo en los puestos directivos, cualquiera que sea su esfera, se mantiene muy masculinizada. Lo cual quiere decir, también, que conserva prestigio social. Dos variables que dificultan las posibilidades de acceso, y promoción, de las mujeres a la investigación. Sobre todo en puestos clave. Al llegar a este punto de la exposición sus autoras, científicas que además, han tenido -o tienen -experiencia política, consideran pertinente realizar una serie de consideraciones y propuestas encaminadas a superar una situación laboral perversa, pervertida, pervertidora. A nadie se le escapa que un país, una sociedad, equilibrada y moderna supone que su población cuente con unas condiciones de vida que posibiliten el desarrollo, y el aprovechamiento, de las capacidades de todos sus miembros, con independencia de su género, de las circunstancias que en ellos -en ellas -confluyan. Lo cual supone, a su vez, que la población laboral cuente con estabilidad y continuidad, requisitos particularmente necesarios en el trabajo científico. Que la situación laboral sea funciona-Las científicas en el CSIC rial o contractual no nos parece particularmente relevante sí los sistemas de selección y evaluación, iniciales y continuados, responden a criterios objetivos. Pero no nos engañemos; la sociedad en general -y se trata de una situación universal -los subsistemas y, por supuesto, los grupos científicos se configuran según ñierzas, estructuras de poder. Responden a círculos de intereses que, siempre, preferirán elegir a un miembro del grupo con independencia de que sea hombre, o mujer. En el caso español, el déficit de científicas en el Consejo responde, insistimos, a una confluencia de factores cuyos antecedentes inmediatos hemos expuesto groso modo, pero que, insistimos también, no constituye una especificidad española. Es indiscutible que el trabajo científico requiere que los grupos tengan identidad teórica, no otra cosa son los equipos de trabajo, las escuelas, pero esta identidad, para ser científica, para permitir el avance de la ciencia en ningún caso debe ahogar la crítica, la puesta en cuestión. Ahora bien, tampoco podemos ignorar que el poder, cualquiera que sea su ámbito de ejercicio, puede llegar a temer la crítica de los científicos, su capacidad para cuestionar, rechazar y demostrar la existencia de equívocos y falacias que pueden haber llegado a constituirse como pilares inconmovibles de sociedades dadas. Giordano Bruno, Galileo Galilei y su distinta capacidad para defender, o no, sus convicciones hasta la muerte merecen ser recordados ahora. Caso aparte, pero también digno de mención, sería Miguel Servet pues la disputa con Calvino que determinó su muerte en la hoguera no tuvo como objeto la circulación menor de la sangre, sino disputas teológicas. En cualquier caso, habría que recordar como a partir de la Paz de Augsburgo ( 1555) la asociación entre identidad política y religiosa será, durante siglos, práctica generalizada en muchos países de Europa. La pervivencia de esta identificación podemos encontrarla en las dificultades a las que hubo de enfrentarse Darwin,.en la aparición, ya en el siglo XX, de un teólogo/ biólogo como Teilhard de Chardin, el cual, conjugando los avances científicos dimanantes de la teoría de la evolución de las especies, con una lectura no literal de la Biblia, pudo incorporar el evolucionismo al acervo científico del catolicismo, situación que tardaría años en poder ser homologada por algunas Iglesias protestantes. Los problemas actuales en torno a determinadas investigaciones biológicas permiten rastrear la pervivencia de actitudes muy complejas, de reservas éticas que, en muchos casos, nos parecen, al menos, respetables, dignas de ser cuidadosamente planteadas. En cualquier caso es indiscutible que el racionalismo del siglo XVIII había roto, o al menos resquebrajado, muchas identidades. El deseo de volver a la unidad, y a la jerarquización científica que, sorpresivamente vemos aparecer en la Ley Fundacional del CSIC se trata, evidentemente, de un horizonte imposible de restablecer. El precario panorama científico español de 1939 favoreció la aparición, la consolidación y el poder de grandes personalidades que, durante años, controlaron e impusieron, su impronta en su área de especialización. Si en lo que se ha aceptado denominar civilización occidental, la comunicación profesional entre científicos ha sido una constante institucionalizada, al menos desde el siglo XVIII con la aparición de las Academias, en la actualidad se trata de una situación fluida e imprescindible a escala mundial pero que, no nos engañemos, puede, también, hacer que cristalicen con apariencia legitimada, sistemas de poder y su contrapartida de marginación, o semimarginación, profesional. La situación nacional e internacional de las científicas, el que hayamos tenido que hacer referencia a sus biografías como elemento explicativo de situaciones concretas nos parece paradigmático. Hace tiempo ~el 19 de enero de 2000-el periódico El País publicaba un reportaje sobre la situación de las científicas europeas y señalaba que en los países donde la discriminación es menor -Finlandia, Francia y España, las mujeres representan solo entre el 13 y el 18 % de los... profesores titulares (de universidad)....en el.,,CSIC donde el 31 % del personal científico son mujeres, hay nueve directoras de centro (en el área Biomedicina ^^) de entre 23, Sería revelador poder establecer el porcentaje de científicas titulares, de investigadoras científicas, que han renunciado a su promoción académica; y es factible, no habría más que ver la fecha en que dejaron de opositar, de concursar,. Pero solo con acudir a la observación participante podemos adelantar que, en muchos casos, sopesaron el desgaste personal inherente al fracaso en una oposición o concurso con la satisfacción que proporciona el ascenso académico y económico para concluir que no les era rentable. Sobre todo, cuando la mayoría de ellas cuenta con reconocimiento profesional independiente de su nivel laboral. Puesto que, como ya hemos indicado, este proceso está determinado por lineas de poder habrá muchos científicos en esta misma situación; pero las cifras, limitémonos ahora a las del Consejo, están ahí y señalan con toda claridad cuales fueron las opciones y las posibilidades de unos y otras. Hacer un estudio global sería muy clarificador y estamos planteándonos emprenderlo en un futuro. Las científicas en el CSIC 471 En cualquier caso, y en coherencia con lo que estamos exponiendo, las cifras que proponemos, los estudios por Áreas que van a continuación, hablan de situaciones de agravio y de desequilibrio que no es imposible, al menos, paliar, intentar corregir. En 1971 los investigadores y colaboradores en determinada situación pasaron a investigadores y a profesores de investigación, en tanto que, pocos años más tarde, en la Universidad el proceso fue más drástico y todos los profesores agregados, categoría o nivel equivalente al de investigador científico, pasaron a catedráticos al desaparecer aquella escala. En su momento llegó a darse el caso de personas que estaban realizando la oposición de agregados y tomaron posesión como catedráticos. Proponemos pues, una promoción similar a la que tuvo lugar en el CSIC hace ya treinta años y que permitiría corregir muchas situaciones fruto de condiciones ya superadas, que afectan a muchos hombres, a muchísimas mujeres. Con vistas al futuro, lo más importante, parece necesario arbitrar sistemas que fomenten la desaparición de barreras invisibles, del techo de cristal que, hablan las cifras, existe en el Consejo. Haremos dos propuestas y ambas rodadas, experimentadas con éxito en otros lugares, para otros colectivos. Hasta la fecha, los Tribunales del CSIC, se constituyan para oposiciones o concursos, se configuran, mayoritariamente por designación directa y con poca representación femenina. Y no entraremos ahora a analizar los motivos de tal precariedad aunque no podemos por menos que recordar como en la década de los ochenta un Tribunal constituido tan solo por mujeres, fue bautizado como el de la condición femenina. Nunca se ha suscitado la menor ironía por los cientos de Tribunales exclusivamente masculinos que se siguen constituyendo. En cualquier caso, es indiscutible que la proporción de científicas en las distintas áreas justificaría, y explicaría, tan precaria presencia de mujeres, que no cambiaría si acudiéramos al sistema de sorteos pues, teniendo en cuanta los científicos y científicas existentes, por puro cálculo de probabilidades, el sistema aleatorio no parece un elemento corrector. Sí lo sería establecer tres, digamos bolsas de sorteo, o de selección; una mixta, otra para los hombres y otra para las mujeres. De la primera bolsa, en la que se encentran los nombres de todos los que están capacitados para formar parte del Tribunal o Tribunales, es extraería un primer nombre: el del presidente. Si se tratara de un varón el segundo nombre procedería de la bolsa con los de las científicas, el tercero de la de los científicos y así, alternativamente, se irían nombrando sucesivamente hombres y mujeres, hasta completar los miembros del Tribunal. Combi-nando el efecto aleatorio con un sistema corrector de las desigualdades existentes. Se trata, evidentemente, de un sistema inspirado en el del denominado efecto cremallera implantado por el SPD alemán para elaborar sus listas electorales. Puesto que se trata de superar situaciones heredadas que, insistimos, no constituyen una peculiaridad española, nos parece imprescindible incluir las recomendaciones del Informe ETAN -European Technology Assesement Network. Comisión Europea, 2001 ^^-que, como es bien conocido, estudia la situación de las mujeres en la ciencia y en tecnología de Europa. En él, y a partir del reconocimiento de la descriminación existente entre investigadores e investigadoras en todos los debates de política científica, propone diversas medidas correctoras. -Elaborar estadísticas desagregadas por sexo. -Garantizar niveles de calidad en los procesos de evaluación y selección para acabar con la discriminación indirecta. -Integrar la igualdad entre los sexos en el Sexto programa Marco y en los Programas de financiación de la Ciencia y la Tecnología de los estados miembros. -Garantizar el equilibrio entre hombres y mujeres en los centros de toma de decisiones científicas, en los grupos especiales encargados de conceder ayudas y en los grupos de expertos de la Comisión Europea. No ignoramos la capacidad de pactar, de llegar a acuerdos para Tribunales futuros, pero creemos que se trata de un primer paso ineludible para conseguir romper situaciones heredadas. Nuestra segunda propuesta viene determinada, en cierto modo, por el riesgo que acabamos de mencionar y porque en ningún caso queremos que se piense que tenemos una visión beatífica sobre la actuación de las mujeres en general. Se trataría de que el CSIC implante la figura del Defensor de la Igualdad, más o menos homologable a la del Defensor del Alumno que existe en la Universidad Autónoma de Madrid y cuya inspiración es, que duda cabe, el Defensor del Pueblo. También nos parece pertinente solicitar que la Comisión de mujeres que debe su existencia a una iniciativa del Presidente Tarrach, al cual parece necesario agradecer ahora su iniciativa, se consolide. No queremos terminar este capítulo sin establecer una última reflexión referida a las características de la ciencia que están realizando las investigadoras del CSIC. Entendiendo por tal no el nivel científico de su trabajo, que, en principio, consideramos ajustado a los mismos parame- Las científicas en el CSIC 473 tros que el llevado a cabo por los científicos ^^, sino al hecho de que pueda haber líneas de investigación cuyo desarrollo está directamente determinado por el trabajo de las científicas; por una perspectiva de género. La ya citada Ponencia de 1975 se iniciaba afirmando que El ejercicio profesional de la Química, con mayúscula, no tiene sexo. Ciertamente, pero también es indiscutible que, en todo el mundo, el incremento numérico de las científicas ha abierto, y desarrollado, líneas de investigación nuevas. Dicho esto, señalaremos que en el CSIC no hay Centro alguno homologable a los Institutos de Estudios sobre las Mujeres presentes en casi todas las Universidades españolas. Sí hay científicas, sobre todo en Humanidades, con investigaciones, y publicaciones, afines a las que se desarrollan en los Institutos Universitarios que acabamos de mencionar. Por lo que se refiere a las Ciencias experimentales, hoy nadie discute que, por ejemplo, el desarrollo en medicina y en biología de determinadas investigaciones está íntimamente ligado al interés de las científicas por patologías, por procesos, por situaciones, que inciden, sobre todo, en la población femenina. En la actualidad, tampoco existen en el Consejo investigadoras dedicadas a estas lineas de trabajo, aunque sí hay mujeres que cursaron carreras experimentales trabajando desde una perspectiva de género que de momento se plantea el análisis de su propio colectivo desde una perspectiva histórica, sociológica. La Comisión de mujeres constituida a iniciativa del Dr. Tarrach, la recién creada Asociación de mujeres investigadoras y tecnólogas ^' *, la publicación de este Monográfico son, que duda cabe, buenos ejemplos de que el Consejo Superior de Investigaciones Científicas no permanece al margen del problema científico, y social, constituido por la situación de las científicas españolas. 2 Las Actas se encuentran perfectamente conservadas y encuadernadas en el edificio Central del Consejo., Nos limitaremos a citarlas por la fecha de su redacción. ^ Fernández Vargas, V. La resistencia interior en la España de Franco. C. Banco de datos del CSIC en WAA Apuntes para una política científica. M. S.J. Sociedad y familia Madrid. Ediciones del Congreso de la Familia Española.
La primera parte del artículo describe el "estatus" de la mujer en la primera mitad del siglo pasado. La mujer nacía para ser ama de casa y para ello era preparada según su situación social. Las pocas mujeres que accedían a estudios superiores no encontraban colocación o tenían que dejarla al casarse, ya que trabajar fuera del hogar, suponía un menosprecio para su esposo. Poco a poco las mujeres fueron accediendo a la Universidad y destacando su docencia e investigación. Se citan las investigadoras del Instituto Nacional de Física y Química, alguna de las cuales cursó estudios en U,S.A. y montó en España técnicas físicas de gran relieve. Se citan también algunas mujeres Premio Nobel, relacionadas con la Biología, cuya mentalidad dista mucho de ser feminista, resaltando en sus comentarios la superioridad del hombre con el que compartían traba-A continuación se destacan los nombres de algunas investigadoras del Área de Agricultura, primeras profesoras de investigación del CSIC, pioneras en su campo de investigación. Por último, tanto las colaboradoras como la Coordinadora de este artículo concluyen, que no han sentido discriminación alguna con respecto a sus compañeros, a lo largo de su carrera investigadora. Rosario de Felipe!• Consideraciones previas La experiencia de las investigadoras que me han ayudado a la elaboración de este artículo y la mía propia no es proclive a concluir que exista discriminación de la mujer en el Area de Ciencias Agrarias. Sin embargo, he podido comprobar por compañeras de otras Areas del CSIC que ellas la han sufrido en una u otra etapa de su carrera investigadora. Sin tenerse que remontar a épocas pasadas la evolución de la situación de la mujer en la investigación ha seguido, a nuestro parecer, el ritmo de su incorporación al mercado laboral. Como es sabido, todavía a comienzos del siglo pasado en los hogares españoles acomodados las hijas de familia eran aleccionadas para ser unas buenas amas de casa, saber coser y bordar, tocar el piano y en prepararse para atraer una buena dote. Muy pocas mujeres accedían a la Universidad, en contraposición a sus hermanos que optaban a ser médicos, farmacéuticos o ingenieros. Y si alguna hija de familia decidía eludir las tareas domésticas o demostraba desde el colegio dotes para el estudio, a lo mas que llegaba la familia era a pagarle la carrera de maestra. Curiosamente, por proceder mi familia del medio rural, recuerdo por comentarios de mi madre y vivencias propias que todas las maestras que iban por los pueblos de Castilla eran solteras, porque indudablemente al casarse, las mujeres pasaban a ser amas de casa y a ocuparse de la educación de los hijos, abandonando toda actividad de trabajo externo al hogar. Las mujeres no pudieron ir a los Institutos hasta 1868 y aunque se les posibilitó ir a la Universidad no tenían preparación para ello. La primera mujer española que se matriculó en una Facultad lo hizo en el curso 1872-73 y fue en la Facultad de Medicina de Barcelona, pero es sabido que cuando esta pionera llegó a tercero, la ley le impidió seguir adelante porque su afán por hacer su carrera era una pretensión ilegal, pues con la restauración de la Monarquía (1875) se restablecieron los obstáculos culturales para la mujer. Sin embargo, la mujer causó buena impresión en todo momento en las aulas, y así puede constatarse en un comentario de D. Gumersindo Vicuña, catedrático de la Facultad de Ciencias de Madrid, en 1875, en un Acto de apertura de curso: «Lo cierto es que hay personas del bello sexo, cuyo espíritu es susceptible de grandes progresos y no es justo cerrarles todos los caminos del saber». Estas palabras sirvieron para conceder a la mujer el acceso a las aulas, pero se les impedía el ejercicio de la profesión. La injusticia fue tal que Concepción Arenal en 1892 en el Congreso Pedagógico defendió el derecho de las mujeres a ejercer todas las profesiones, con exclusión de la de las armas. En 1890 eran 25 las españolas Mujer, ciencia y sociedad: las ciencias agrarias que obtuvieron el título de licenciadas, en un momento en el que el 71,5 % de la población era analfabeta. La admisión profesional plena de las mujeres en la Universidad Española se produjo definitivamente en 1910, llegando a ser las alumnas de Enseñanza Media el 3 % de todos los alumnos. Considerando únicamente las carreras de ciencias en el curso 1915/16 eran 51 las mujeres que cursaban carreras de ciencias y algo mas de 3300 varones y unos quince años mas tarde (instaurada la II República) el número de mujeres se había elevado a 414 en un total de 21.000 universitarios en toda España. En 1907 se crea la Junta de Ampliación de Estudios e Investigaciones Científicas, iniciativa particularmente muy interesante en el ámbito de la formación de la investigación científica. Nació como una institución autónoma, aunque dependiente del Ministerio de Instrucción Pública, e inspirada en la ideología que caracterizaba a la Institución Libre de Enseñanza (ILE) fundada en 1876 por un grupo de profesores universitarios separados de sus cátedras y presidida por Giner de los Ríos. Para contribuir al desarrollo de la educación y la ciencia en España, aquélla Junta, que presidió D. Santiago Ramón y Cajal, utilizó preferentemente dos instrumentos: por un lado, becas para estudiar en el extranjero y por otro, crear, preferentemente en Madrid, nuevos Centros de investigación, como el Instituto Nacional de Física y Química, o ayudar a mantener algunos ya existentes, como el Museo de Ciencias Naturales, el Jardín Botánico, el Museo de antropología o el Laboratorio de Investigaciones Biológicas de Ramón y Cajal. José Castillejo fue Secretario de la Junta para Ampliación de Estudios desde su fundación en 1907 hasta 1934 contribuyendo decisivamente al éxito de la Junta como primera agencia científica española. Castillejo definió la investigación en aquél momento de este modo: la investigación es libertad, vocación, privilegio, minoría, régimen específico y flexibilidad. La Residencia de Estudiantes creada en Madrid en 1910 en la calle Fortuny fue uno de los Centros culturales y científicos auspiciados por la Junta de Ampliación de Estudios. En ella se impartían conferencias sobre temas muy variados en las que intervenían los intelectuales mas destacados del momento y en ella se alojaron Madame Curie y Einstein entre otros. Cuando la Residencia de Estudiantes mueve su sede a su actual emplazamiento, la calle Pinar, lugar llamado entonces la Colina de los Chopos por Juan Ramón Jiménez, se crea en la calle Fortuny la Residencia 478 M. ° Rosario de Felipe de Señoritas en 1915. Dirigida por María de Maeztu, estuvo tutelada por el Smith College a través del intercambio de profesores de Universidades Norteamericanas y la concesión de becas para que las españolas ampliaran su formación en U.S.A. La Residencia de Señoritas sobresalió como el laboratorio donde mejor se impartían las prácticas de química y física y ciencias naturales. Al ser los laboratorios de la Facultad de Ciencias de la Universidad Central pequeños, y los presupuestos escasos, los experimentos que hacían los alumnos eran muy pocos y la Residencia de Señoritas vino a contrarrestar esta carencia. Anejo a la Residencia se montó el Laboratorio Foster, por ser M^ Luisa Foster que había obtenido el doctorado en Química en la Universidad de Chicago, la encargada de organizarlo y dirigirlo. De este laboratorio salieron los mejores protocolos para impartir las prácticas de química y física, de forma que la Universidad Central concedió validez académica a sus enseñanzas. En este laboratorio aprendieron química y física las mujeres que fueron luego aceptadas para hacer investigación en el Instituto Nacional de Física y Química, dependiente de la Junta para Ampliación de Estudios e Investigaciones Científicas La vinculación de la Residencia de Señoritas al Instituto Internacional y Federación de Mujeres Universitarias, permitió que las mujeres mejor formadas pudieran ir al extranjero, estar en centros de investigación de élite y conocer personalmente a los mejores científicos de su época. Esto autorizó a que por 8 becas concedidas a varones para completar su formación en el extranjero, una fuera para una mujer. En 1929 la fundación Rockefeller concedió 3 millones de pesetas al laboratorio de investigaciones físicas del Instituto Nacional de Física y Química, perteneciente a la Junta para Ampliación de Estudios e Investigaciones Científicas en reconocimiento al prestigio internacional alcanzado por el laboratorio de Física, dirigido por Blas Cabrera. Este Instituto Nacional de Física y Química funcionó de forma regular hasta 1937 y contó con 36 mujeres de un total de 158 personas, lo que supone un 22 % aproximadamente. Algunas de ellas habían estado ya en el extranjero completando su formación y todas habían escrito varios artículos científicos de primer autor. Dada la categoría científica de los físicos y químicos, investigadores del Instituto Nacional de Física y Química, donde sobresalieron personajes de la talla de los profesores Enrique Moles, Julio Palacios y Miguel Catalán, las 36 mujeres incluidas entre ellos, debieron ser extraordinarias. Entre ellas merece destacar las investigadoras M^ Teresa Salazar, colaboradora imprescindible de Enrique Moles que tenía a su cargo las medidas de masas atómicas y otras técnicas fisicoquímicas de gran precisión, con una gran destreza, y Dorotea Barnes, quien puso Mujer, ciencia y sociedad: las ciencias agrarias 479 a punto la espectroscopia Raman en el Instituto, lo que supuso un avance considerable en el conocimiento de la estructura de las moléculas, y que permaneció en la Universidad de Graz (Austria) para resolver las dificultades de montaje, publicando los resultados de sus investigaciones en los Anales de la Real Sociedad Española de Física y Química en 1932. La elección de Dorotea Barnes para hacerse cargo de introducir la Espectroscopia Raman en España estuvo basada en su gran preparación, a lo que había contribuido una beca para una estancia en el Smith College de los Estados Unidos y una beca posterior en el Departamento de Química de la Universidad de Yale. Su nombre, sin embargo, quedó en el olvido, pues por imposición de su esposo tuvo que dejar la ciencia cuando se casó,. Y como ella, otras mujeres científicas siguieron el mismo destino, pues en aquélla época los hombres no eran partidarios del trabajo de la mujer ñiera del hogar. En 1996, comentaba Dorotea Barnes a su entrevistadofa: «A íni me retiró de? la ciencia mi marido» e igualmente al ser preguntada M* Antonia Zoíraquino^ Drá. por la Universidad de Zaragoza en tiempos de la República, si le hubiera gustado seguir trabajando después de defender su Tesis Doctoral, respondió: «Me hubiera encantado, pero üii marido ña me dejó. En aquella época el trabajo dé la mujer fiíera de casa suponía un menoscabo para el hombre». Su marido fue un emiñanté caMedrátMú de Química Inorgánica. De haber podido continuar trabajando, seguramente estas mujeres habrían sido tan famosas como lo fiíeron investigadores coetáneos, como Blas Cabrera, los citados Miguel Catalán, Enrique Moles, Julio Palacios y otros como Leonardo Torres Quevedo, Julio Rey Pastor, Santiago Ramón y Cajal, Arturo Duperier, etc. que han pasado a la historia Hè la ciencia como los mejores cerebros de aquélla época. Desgraciadamente esta mentalidad masculina se prolongó hasta bien entrada la segunda mitad del siglo XX, y personalmente viví esta ideología en alguno de mis admiradores que me confesaron su intención de retirarme de mis estudios de Farmacia (1954) para contraer matrimonio, pues la carrera no me iba a servir para nada. La mayoría de las compañeras que terminaron conmigo y que se casaron, o bien se integraron en la farmacia familiar o no trabajaron fuera de casa, y las que sí lo hicieron, han permanecido por lo general solteras. Creo que yo soy de las pocas excepciones que he continuado ejerciendo mi profesión después de casada, fuera del ámbito familiar. A esto se suma que la mujer hasta hace relativamente pocos años ha estado convencida de la superioridad del hombre. Por los comentarios de biólogas que han recibido el Premio Nobel puede verse que estas se pre-sentan, por lo general, como mujeres sencillas, faltas de ambición y poco agresivas. Por ejemplo, Bárbara McClintock, premio Nobel de Medicina 1983, a sus 80 años, por sus investigaciones sobre los genes «saltarines» del maíz, cuando supo que le habían concedido el Premio Nobel declaró: «me parece injusto que se premie a una mujer por haber disfrutado tanto». En 1944 había sido nombrada miembro de la prestigiosa Academia Nacional de las Ciencias de los Estados Unidos y Presidente de la Sociedad de Genética aquel mismo año. Del mismo modo Rosalyn Yalow obtuvo el Premio Nobel en 1977 por sus investigaciones en el equipo del Dr. Benson, cinco años después de la muerte de éste. Su comentario fue: «Estoy absolutamente convencida de que Benson se lo merecía. Yo me acomodaba con facilidad a las personas que consideraba mejores que yo y no me importaba nada dejarle a él la preferencia, porque valía para ser el primero en todas partes». Muchas de estas mujeres, cuando han sido preguntadas en entrevistas, muestran cierto distanciamiento de la cuestión feminista. Prefieren ser valoradas en función de su trabajo, independientemente de su sexo. En ningún momento intentan ligar sus resultados científicos y su creatividad a valores especialmente femeninos y estar rodeadas de hombres es simple casualidad. Con respecto a la representación de la mujer en las Academias de Ciencias, la Real Academia Española de Ciencias Exactas, Físicas y Naturales admitió a la primera mujer en 1988 mientras que en Estados Unidos, la primera académica lo había sido en 1925 y en Francia Madame Curie recibió el Premio Nobel en 1903. En los últimos 50 años, las universitarias españolas han ido poco a poco abriéndose un hueco en todas las profesiones, pero sólo un número reducido ha llegado a ocupar los puestos mas altos. Este es también el caso de la comunidad académica, pues mientras en la Universidad más del 52% de los estudiantes son mujeres, tan sólo un 10% son catedráticas, por no hablar de las que han llegado a ocupar el puesto de rectoras. Las únicas rectoras españolas han sido en España Elisa Pérez Vera de la UNED, Josefina Gómez Mendoza, de la Universidad Autónoma de Madrid y Rosario Valpuesta de la Universidad San Pablo, quien cree que esta situación se debe tan solo a una herencia, a una época pasada, en la que la mujer no tenía tantas oportunidades y además había menos mujeres estudiando. Pero está completamente segura que las mujeres serán mayoría también en la cúspide, porque las cosas están cambiando y el equilibrio hombre-mujer se va normalizando en el ámbito laboral. Poco a poco se van aproximando las posiciones, aunque todavía hay un amplio abanico de situaciones intermedias y cada caso es un caso particular. Mujer, ciencia y sociedad: las ciencias agrarias La mujer y la investigación en la actualidad La mujer en el CSIC compite con el hombre en la actualidad con relativa igualdad. No he observado a lo largo de mi carrera científica, al igual que las investigadoras colaboradoras de este artículo, agravios comparativos a la hora del acceso y de la promoción a nuevas plazas, pues el curriculum vitae es la tarjeta de identidad por la que sojuzgan los méritos de cada concursante. Sin embargo, el hecho de que una vez finalizada la Tesis Doctoral el camino a recorrer por el investigador sea incierto, con un número siempre indeterminado de años entre estancias en el extranjero, y contratos más o menos duraderos, condiciona la carrera investigadora de hombres y mujeres. Trabajar en investigación seriamente implica mucha dedicación y el trabajo no se acaba cuando se abandona el centro, sino que a menudo se lleva trabajo a casa y allí donde te encuentres la cabeza sigue pensando en el experimento que no acaba de salir, en el equipamiento del que se carece, en los problemas de los becarios y contratados de tu grupo y, en mi caso, como directora del Centro de Ciencias Medioambientales, en la situación de todo el personal, ya que la dirección imprime una perspectiva diferente, más amplia de lo que constituía con anterioridad llevar el grupo o el departamento adelante. Por otra parte, la carrera investigadora es muy competitiva, primeramente entre colegas ya que la promoción a las diferentes escalas se realiza por una selección mediante concurso de méritos, en el que es fundamental la productividad científica. En segundo lugar un científico debe competir con la comunidad internacional en sus líneas de investigación y debe ser conocido y valorado. Para lograr este reconocimiento, es indudable que el esfuerzo que tiene que realizar la mujer investigadora es muy considerable. Se necesita una gran vocación para que no decaiga el ánimo ante un trabajo muy absorbente, aprovechar todos los minutos disponibles y sobre todo organización, pues es indudable que el ser mujer conlleva otras responsabilidades añadidas como son la educación de los hijos, y el peso de la casa. El instinto de maternidad se refleja también en la formación de los jóvenes becarios a los que se les acoge para la realización de Tesinas o Tesis Doctorales y se les acaba tomando mucho cariño, deseando para ellos lo mejor que podamos ofrecerles. En mi caso concreto he tenido la gran suerte de que mi marido también es científico. Nos conocimos en el CSIC, haciendo nuestra Tesis Doctoral y ambos hemos dedicado con ilusión la mayor parte de nuestro tiempo a la investigación científica, sin descuidar la educación de nuestros hijos. El hecho de participar en proyectos comunes de investigación ha tenido para mi una gran ventaja, el poder continuar hablando en casa de nuestros problemas en el laboratorio, tratando de llevar nuestro grupo de investigación adelante. También ha tenido algún inconveniente, ya que nuestros hijos nos han llamado a menudo la atención por continuar nuestros debates científicos en casa y en su presencia. Desde 1979 desempeño tareas de responsabilidad como jefe de Departamento, investigadora principal de proyectos, coordinadora de la reestructuración de mi Instituto, directora en ñmciones, directora del Centro, entre ellas. En todas estas facetas mi marido ha sido y sigue siendo mi mayor apoyo, y ha sacrificado en ocasiones su propio interés para que yo pueda lograr determinados objetivos. Dadas estas consideraciones, es evidente que la mujer investigadora actual desarrolla en general un papel destacado, comenzando a ocupar puestos de responsabilidad, tanto en subdirecciones del CSIC (caso de la Dra. Manuela Juárez), como asesoras del Presidente (Dras. Teresa M^ Mendizábal y Monserrat Torné), en la dirección de centros e institutos (30 Directoras), y como delegadas del CSIC en las Comunidades Autónomas (Dra. M^ Cruz Mato), si bien seguimos en minoría en algunas escalas de gestión superiores (Comisiones de Area, Presidencia y Vicepresidencia del CSIC). La investigación científica y la vida de familia «Investigar, escribía Raimundo Paniker, es meterse a seguir los vestigios que algo existente, real, ha dejado a su paso». «La investigación es la búsqueda de lo que es, de la esencia de las cosas a partir de sus huellas, de sus rastros». De estas definiciones queda claro que «el saber es sólo un descubrir». El investigador ha de estudiar, y mucho, pero «ha de hacer». Este hacer lleva a la especialización científica, no hacia la amplitud cultural. Contribución personal, modesta, callada, pero personal. Esto exige ciertas cualidades de carácter: minuciosidad, fijeza, paciencia, voluntad, calma para hacer y rehacer sin estímulos de velocidad. La inconstancia, la curiosidad sin rumbo, la efervescencia inquieta, corroen la solidez del investigador. Pero sobre todo la investigación exige una gran dedicación, constancia y continuidad, hay que profimdizar en el problema a resolver y no saltar con ligereza de unas cosas a otras dispares. Se necesita concentración, realizar un trabajo concienzudo y sin prisas pues no se trata de cubrir el expediente, de realizar las cosas «por encima» sino de terminar bien el objetivo emprendido, lo cual exige orden, dedicación y perseverancia. Para lograr esto, la mujer investigadora y madre de familia necesita cerrarse a muchos estímulos, para poder seguir su ruta competentemente y cumplir bien ambos compromisos. La continuidad es imprescindible en la investigación. No sirve de nada haber conseguido un logro científico si no perdura el esfuerzo y la continua renovación y puesta al día. Así pues el trabajo perseverante, el tesón y entusiasmo en la tarea emprendida y la dedicación exclusiva son condiciones innatas integrantes de la vocación investigadora de un buen científico. A menudo los compromisos familiares se aceptan como una carga complementaria de la tarea investigadora. Para algunas investigadoras famosas la ciencia ha sido el interés principal de sus vidas, sacrificando su vida personal y familiar. No hay ningún motivo real para que una científica casada abandone su carrera, pero naturalmente la combinación de niños y trabajo no es del todo fácil, puesto que existe una presión emocional de responsabilidades enfrentadas. Además el trabajo en investigación requiere muchas veces una total dedicación en tiempo y en esfuerzo, difícil de compaginar con una vida familiar «equilibrada». Indudablemente el mejor marido de una científica es un científico, porque una científica casada necesita un marido comprensivo. «No es difícil para la mujer encontrar su camino en la ciencia y ser esposa y madre, a condición de que elija la pareja adecuada para compartir su vida». La autora de esta afirmación Rita Levi Montalcini, ha vivido siempre soltera en el domicilio de su hermana gemela. Es evidente que el compromiso intenso personal con la ciencia y la responsabilidad familiar paralela no son siempre fáciles de combinar. Sin embargo, investigar es, para algunos y algunas, haber aprendido unas técnicas y pasarse la vida aplicándolas, degenerando su trabajo en rutina. Nada más lejos de la vocación investigadora que convertir la investigación en rutina. El investigador ha de tener afán de superación. Los jóvenes investigadores necesitan estímulo, orientación, dirección y ejemplo de laboriosidad y solidez por parte de sus formadores. La elección de un buen maestro es indudable que influirá muy positivamente en la carrera científica de los jóvenes que se inician y es notorio, salvo casos excepcionales, que las investigadoras del CSIC tomamos en esta tarea gran responsabilidad, pues es difícil separar nuestra vocación científica del instinto maternal. Este aspecto es especialmente patente en las investigadoras solteras que han sabido crear un ambiente muy acogedor y familiar en sus laboratorios, creando vínculos de verdadera amistad con el personal joven de su grupo de investigación. Antes, la investigación aislada, espontánea, personal, era el ideal o «chifladura» de una vida. Hoy, la investigación profesionalizada ha de ser medio de vida. Pero que este medio de vida no extinga nuestro ideal. Muchas mujeres del CSIC conservamos nuestra vocación inicial a pesar de los muchos esfuerzos y sacrificios que nos ha costado llegar al estado actual, luchando por consolidar nuestros grupos de investigación y dotar nuestros laboratorios del equipamiento necesario para trabajar. Esperemos que las generaciones futuras lo tengan mas fácil y que en estas tareas la mujer casada y madre de familia tenga más facilidades por parte de los estamentos gubernamentales para poder atender su investigación y su casa. La sociedad debe asimair como propio y necesario el conocimiento de la ciencia y sus aplicaciones prácticas, las nuevas tecnologías que son auténticos motores de la economía y la industria. Conseguir esto requiere el apoyo de nuestras instituciones, especialmente de los poderes públicos, cuyo compromiso con la investigación y el desarrollo científico debe ser permanente. Esperemos también que la iniciativa privada sea mas participativa en un futuro próximo, pues si bien algunos empresarios han comprendido la rentabilidad de las inversiones en investigación, aún nos falta mucho para alcanzar los niveles que dedican a este fin los principales países de nuestro entorno. Finalmente, veo el futuro con respecto a la asunción de la mujer investigadora en este tipo de responsabilidades con gran optimismo, en las diferentes facetas del desarrollo científico. Creo positivamente que el siglo XXI es el de las mujeres y el CSIC no va a quedarse al margen de este cambio. Confío que si hoy son treinta las mujeres Directoras de Centros e Institutos del CSIC, de las cuales tres pertenecen al área de Ciencias Agrarias, este número se va a ver incrementado rápidamente en un futuro muy próximo. LA MUJER EN EL AREA DE CIENCM.S AGRARIAS El área de Ciencias Agrarias es una de las más multidisciplinares del CSIC, que se ha ido enriqueciendo con la evolución paulatina de los conocimientos científicos en materia agrícola y ganadera, de tal modo que ha surgido recientemente una subárea denominada: «Fisiología, Bioquímica y Biología Molecular de plantas» hacia donde han derivado un gran número de investigadores. El área de Ciencias Agrarias tiene su origen en los Centros de Edafología que el CSIC fue creando en diferentes provincias españolas a partir de 1942, cuando se creó el primer Instituto de Edafología, Ecología y Mujer, ciencia y sociedad: las ciencias agrarias Fisiología Vegetal en Madrid, por D. José María Albareda, primer Secretario General del CSIC. Todos estos Institutos que constituyeron el Instituto Nacional de Agrobiología, encuadrado en el Patronato Alonso de Herrera, centraron sus objetivos en la resolución de los problemas agrarios de cada región, extendiendo su colaboración a Diputaciones, Cajas de Ahorros, Cajas Rurales, y al sector empresarial. De este modo los Institutos recibían ayudas económicas externas a la vez que los investigadores conocían de cerca los problemas locales agrarios y trataban de subsanarlos. Así pues, estos centros nacieron con una vocación claramente agraria, formados por miembros dedicados al estudio del suelo, en cuanto a sus propiedades físico-químicas, para su caracterización e inclusión en la clasificación general, al estudio de los componentes minerales del suelo, materia orgánica, etc., siendo destacables los trabajos sobre cartografía de suelos realizados en el Instituto de Edafología de Madrid donde se elaboraron los primeros mapas de suelos. Otros investigadores de estos Institutos centraban su atención mayormente en cultivos de interés agronómico, en cuanto a la nutrición mineral, nutrientes esenciales, fertilización de suelos y enfermedades de las plantas. En los Departamentos de Fertilidad de Suelos se realizaban trabajos de ayuda a los agricultores con el fin de aumentar la producción vegetal, que consistían esencialmente en el diagnóstico nutricional del suelo sobre estados carenciales, vocación de los suelos para determinados cultivos, etc. También se realizaron ensayos en los invernaderos sobre nutrición de plantas, tomate, maíz, trigo, judía, remolacha azucarera; estudios de translocación de elementos, problemas de salinidad, competitividad entre nutrientes. Varias mujeres, profesoras de investigación, destacaron por su dedicación a la investigación, en el Instituto de Edafología de Madrid, la mayoría solteras y que mantuvieron su vocación investigadora hasta la jubilación. Entre ellas, estaba la Dra. Narcisa Martín Retortillo, profesora de Instituto que realizó trabajos pioneros sobre las materias húmicas del suelo con el Profesor José María Albareda cuando el Instituto de Edafología de Madrid se iniciaba como un Laboratorio de Química del Suelo, en el Edificio Rockefeller. Su tesis doctoral versó sobre análisis de turberas en España. La Profesora Josefina Pérez Mateos, pionera en la composición mineralógica de los constituyentes del suelo, sobre minerales del suelo, nació en 1905 en Ciudad Rodrigo (Salamanca). Estudió en el Instituto Cardenal Cisneros de Madrid donde conoció a D. Celio Arévalo, uno de sus profesores que influyó mucho en su vocación hacia las Ciencias Naturales. Llevada por esta vocación inició sus estudios superiores en la Facultad de Farmacia, en la calle de la Farmacia de Madrid, siendo un pequeño M. "" Rosario de Felipe número de mujeres las que estudiaron en esa época, que tenían reservado el primer banco de la Facultad para ellas. En 1944 leyó su Tesis Doctoral para obtener el grado de Doctor en Ciencias Naturales recibiendo el Premio Extraordinario de Doctorado por la Universidad de Madrid. En 1946 ingresó en el CSIC y obtuvo una plaza de Colaborador Científico por oposición. Realizó investigación en la Escuela Oficial de Agricultura en Wageningen (Holanda), siendo a su regreso nombrada Investigador Científico del CSIC por oposición. Creó a continuación la Sección de Petrografía Sedimentaria, posteriormente llamada Sección de Mineralogía de Suelos en el Instituto de Edafología, Ecología y Fisiología Vegetal, de la que fue Jefe hasta su jubilación en 1975. En 1970 Josefina Pérez Mateos fue nombrada Profesor de Investigación. Como Jefe de la Sección de Petrografía Sedimentaria fue Miembro de la Junta de Gobierno del Instituto de Edafología, la única mujer miembro de la Junta. Durante el amplio periodo de su jefatura, se dedicó plenamente a la investigación. Fue una de las primeras mujeres científicas del CSIC. Supo desarrollar un ambiente científico acogedor y dejó escuela. Entre las investigadoras actuales fieles a esa escuela son de mencionar las Dr as. Ascensión Pinilla y Trinidad Aleixandre, verdaderas especialistas de mineralogía de suelos. Otra profesora de investigación, Pilar Sánchez Conde, también tuvo una actuación muy señalada en la década de 1950 poniendo en marcha nuevas técnicas en nutrición vegetal, como el conocimiento del diagnóstico nutricional por el análisis foliar, técnica de gran impacto en las décadas posteriores para hacer un seguimiento del estado nutritivo de las plantas. Son de destacar sus experimentos, realizados en invernadero, de cultivos hidropónicos. La profesora María Dolores Ángulo destacó por sus trabajos de Citogenética creando un laboratorio de referencia sobre estudios en Drosophila. El personal de este laboratorio estaba formado mayoritariamente por mujeres ayudantes diplomadas de investigación de la Escuela de Auxiliares del CSIC, que tuvo su sede en la calle Jorge Manrique. Todas ellas eran personas muy capacitadas, especializadas en diferentes técnicas que facilitaron el desarrollo de esta línea de investigación en el CSIC, donde se formaron destacados investigadores de la talla de los Prof. Giménez Martín, Antonio García Bellido, entre otros, manteniendo intercambios con el Prof. Cámara de Portugal, eminente figura en el campo de la Citogenética. Desde su creación, los Institutos de Edafología colaboraron con las Diputaciones en problemas prácticos, prestando asesoría técnica a los agricultores de cada región, desplazándose a la zona para tomar las muestras o analizando los suelos que ellos traían a los Institutos distribuidos por distintas regiones de España. La recogida de las muestras se realizaba normalmente por personal investigador. Por lo general las mujeres no salían a muestrear en el campo, no sólo en el caso de trabajos rutinarios, sino tampoco incluso para sus investigaciones científicas propias, por considerarse tareas duras para ser realizadas por una mujer. Se llevaron a cabo Planes de Desarrollo en Madrid y en Zaragoza para el estudio de la remolacha azucarera en las zonas remolacheras del Valle del Duero en Palencia, Valladolid, León y Ávila y en la zona agrícola de la cuenca del Ebro. Hubo planes también para el estudio de los cítricos en Murcia y en Valencia, en los cuales tuvo un gran protagonismo el Departamento de Fertilidad de Suelos y Nutrición Vegetal y el de Fitopatología del Instituto de Edafología y Biología Vegetal de Madrid, enviando a sus técnicos en campañas de varias semanas. En estas campañas nunesi participaban mujeres, aún cuando luego intervenían en los análisis de laboratorio Todos estos trabajos estaban orientados a la ayuda a los agricultores para mejorar la producción y la calidad de los cultivos, mejorar la fertilidad de los suelos y la nutrición mineral de las plantas. Se recomendaba el cultivo de los productos agrarios de acuerdo a las características de la zona: cerealista, vinícola, olivarera, frutera, etc., atendiendo a los parámetros mencionados. En 1974 se reúnen en la isla de La Toja un grupo de científicos y profesores universitarios para crear la Sociedad Española de Fisiología Vegetal con el fin de coordinar los trabajos que se hacían sobre los mecanismos fisiológicos de las plantas, su metabolismo, estreses bióticos y abióticos, etc. Asisten a esta reunión cinco mujeres: la Dra. M^ Cruz Mato, actual Delegada del CSIC en Galicia, y las profesoras M^ Teresa Pinol, Chariot Postchreiner, Jone Aguirreolea, y Adelina Vázquez, del Centro de Investigaciones Agrobiológicas de Galicia. Esta Sociedad tiene en la actualidad 583 socios y de ellos 269 son mujeres, lo que corresponde a un 46%. Anterior a la creación de la SEFV fue la Sociedad Española de Bioquímica, integrada por bioquímica animal y vegetal, donde hay un grupo numeroso de bioquímicas españolas. En 1976 la Asociación de Personal Investigador del CSIC (API) organizó unas Jornadas Internacionales sobre «La investigación científica y el problema agrario» que fueron coordinadas por el Prof. Valentín Hernando, Presidente del Patronato Alonso de Herrera, y por el Presidente de la API. Las Jornadas tuvieron como principal objetivo la puesta al día de la investigación agrícola en España y en diferentes países del mundo para tener una visión de conjunto y ser también conscientes de la crisis M. " Rosario de Felipe agraria planteada. Se requería un cambio en la agricultura, en sus diferentes aspectos científicos, tecnológicos, sociales y económicos, poniéndose de manifiesto un enorme interés del personal investigador por conocer la realidad del problema agrario y tratar de resolverlo. La Prof. Teresa Mendizábal, secretaria de la Junta Directiva de la Asociación de Personal Investigador y actual Vocal Asesora del Presidente del CSIC, tuvo un protagonismo especial en la organización de las Jornadas. El programa abarcó desde el tema general de la agricultura en el mundo, pasando por las técnicas de mecanización, fertilización, y producción animal hasta temas específicos de España, entre los que destacan el regadío, el secano y la ganadería por su importancia en el desarrollo del país. En estas jornadas intervino el Dr. Aurelio Peccei, Presidente del Club de Roma, que mostró su preocupación por la economía mundial y por las técnicas agrarias empleadas en los países desarrollados y no desarrollados y señaló los problemas energéticos que se iban a plantear por el uso masivo de los fertilizantes. Algunos científicos de Nutrición Vegetal fueron orientando sus objetivos hacia investigaciones mas básicas (fisiología y bioquímica vegetal) y creando nuevos Departamentos en los Institutos de Edafología del CSIC. Así ocurrió en el Instituto de Edafología y Biología Vegetal de Madrid con la creación de la Unidad Estructural de Investigación de Biología Vegetal, de la que fui su primer Jefe, entre 1979 y 1990, con un grupo de investigadores procedentes del Departamento de Fertilidad de Suelos y Nutrición Vegetal del Instituto, entre los que se encontraba la Dra. Pilar Golvano, que continúa en este Departamento. Estas Unidades de investigación o Departamentos de investigación básica se crearon en otros instituto del área de Ciencias Agrarias, como en la Estación Experimental del Zaidín (Granada) donde existe un Departamento de Bioquímica muy competitivo, en el que hay que mencionar a las doctoras Ana Chueca y M^ Isabel Rodríguez, expertas en Bioquímica y Biología Celular de plantas respectivamente, así como las doctoras Rosario y Concha Azcón del Departamento de Microbiología del Suelo y Sistemas Simbióticos. La necesidad de la aplicación de las técnicas moleculares ha enriquecido estos Departamentos con jóvenes científicos expertos en biología molecular. Igualmente ha ocurrido en el Centro de Edafología y Biología Aplicada del Segura en Murcia, donde la Dra. Francisca Sevilla realiza estudios básicos de nutrición vegetal con ayuda de técnicas bioquímicas y moleculares. La Estación Experimental de «Aula Dei» (Zaragoza) ha contado entre sus especialistas en ciencias agrarias con una investigadora recientemente jubilada, Concepción Tabuenca, dedicada al estudio de nutrición de frutales, en el Departamen-Mujer, ciencia y sociedad: las ciencias agrarias 489 to de Pomología, y actualmente con las Dr as. Monona Abadía y María Herrero, destacadas especialistas en fisiología vegetal y biología celular de plantas, respectivamente. En Aula Dei, de los 27 investigadores de plantilla, diez son mujeres, un 37 por ciento. En el Instituto de Investigaciones Agrobiológicas de Galicia, han desarrollado su carrera investigadora las Dras. María Cruz Mato y Adelina Vázquez, expertas en fisiología vegetal, y la Prof. Tarsi Carballas, en biología del suelo. La Prof. Ana M^ Vieitiez, pionera junto a su esposo, el prof. Ballester en estudios de cultivo in vitro representa un importante puntal femenino para el futuro de este Instituto. Su actividad fue muy intensa en ese período, realizando un gran número de visitas a los Centros e Institutos del Área, introduciendo innovaciones científico-tecnológicas e impulsando el desarrollo de las ciencias agrarias en razón a las tendencias europeas existentes. El aumento de la producción agraria en estos últimos cincuenta años ha convertido la agricultura en una actividad intensiva, que causará el agotamiento de los combustibles fósiles y ocasionará la contaminación de los suelos por el uso masivo de fertilizantes y fitosanitarios. Por ello la comunidad científica actualmente se inclina por una agricultura mas respetuosa con el medio ambiente, que permita la continuidad de las técnicas agrarias de forma sostenible. Todo ello conduce a una Nueva Agricultura, a una agricultura sostenible, con capacidad para mantenerse o prolongarse en la agricultura del futuro. El desarrollo sostenible, en general, es aquél que satisface las necesidades del presente, sin comprometer la capacidad de las futuras generaciones para satisfacer las propias: «ver el mundo en su conjunto». Esto supone un cambio de mentalidad en toda la sociedad, pues podemos llegar a puntos de no retorno. Este cambio de las prácticas agrícolas lleva a la puesta en marcha de biotecnologías limpias en agricultura y dentro de ellas el uso de biofertilizantes y de biocontrol de plagas y enfermedades de las plantas. Pionera del uso de biofertilizantes fue la Prof. Eulalia Cabezas de Herrera, verdadera experta en el CSIC de los estudios sobre fijación biológica de nitrógeno en el Instituto Jaime Ferrán de Microbiología. En este tema comenzamos una colaboración en 1982 ya que mi grupo de investigación venía trabajando en fijación de nitrógeno por leguminosas de grano, veza y altramuz. Al producirse la jubilación de la Dra. Mercedes Fernández-Pascual, que se había formado con ella, se incorporó a nuestro grupo potenciando así las líneas del Departamento de Fisiología y Bioquímica Vegetal, especialmente en técnicas M. "" Rosario de Felipe de microbiología. Nuestro Departamento se compone en la actualidad de un total de 16 personas de las que 11 son mujeres. El número total de mujeres en mi Instituto que componen los diferentes Departamentos y Servicios asciende a 108 frente a un total de 203 personas, lo que corresponde a un 53 por ciento de mujeres. Finalmente, la distribución de las mujeres investigadoras por escalas dentro del Area de Ciencias Agrarias es la siguiente: Testimonios de las científicas del área A continuación se adjunta el testimonio de las investigadoras que han colaborado en eite trabajo. Estación Experimental del Zaidín (Granada) Al terminar mis estudios de Licenciatura de Farmacia quise seguir ampliando conocimientos de forma ya mas selectiva y, dado que Bioquímica había sido una de las materias que mas me impactó, decidí hablar con quien me había impartido la asignatura, el Prof. D. Ángel Santos Ruiz. Muy animada después de recibir su venia, me encontré haciendo mi Tesis Doctoral en el Laboratorio de Bioquímica de la Facultad de Farmacia de la Universidad Complutense de Madrid bajo su dirección y la de la Dra. Carmen García del Amo. Desde entonces, junto a otros Licenciados como yo, formé parte como Profesor Ayudante de la Universidad de Madrid, al mismo tiempo que Mujer, ciencia y sociedad: las ciencias agrarias 491 becaria de Iniciación a la Investigación del Instituto de Fisiología y Bioquímica, un centro mixto con personal y apoyos de la Universidad de Madrid y del Consejo Superior de Investigaciones Científicas. El ambiente era espléndido, trabajé muy a gusto, pues reinaba una armonía que hacia posible que cada uno de los cinco grupos en que estaba estructurado el centro llevase a cabo la investigación independiente que se habían fijado. Cada grupo contaba con personal científico fijo de ambas Instituciones, amén de una pléyade de becarios con sus problemas científicos y aficiones particulares que nos unían en nuestros ratos de descanso y ocio. Aproximadamente la representación masculina y femenina era del 50 por ciento, aunque podía variar según los años. Casi todos terminamos la Tesis, y fíie entonces cuando nos separamos al empezar una nueva vida profesional, dirigiéndonos a la Universidad o al CSIC y los más a la Industria Farmacéutica, según nuestras aptitudes y preferencias. Por lo que a mi respecta, una vez leída mi Tesis disfruté de una beca posdoctoral del MEC para trabajar en el Institute of Cancer Research, Department of Biophysics en Sutton (Gran Bretaña) durante el año 1967. Al volver, quede adscrita ese mismo año al Instituto de Fisiología y Bioquímica de Madrid como Ayudante Científico del CSIC, organismo al que desde entonces pertenezco. Desde mi experiencia personal, el acceso a la carrera científica ha cambiado bastante en la actualidad. La competencia es mucho mayor, y eso hace que la edad de los candidatos se haya elevado unos cuantos años con el consiguiente desgaste por parte de los jóvenes. Si nos remontamos al nivel de becarios, prima el expediente académico. Se busca el 3, media de sobresaliente, como mínimo, y en ello las mujeres suelen dar la talla; con harta frecuencia se inclina la balanza hacia ellas en la obtención de las becas, por lo que actualmente y con justicia es frecuente ver por los laboratorios muchas chicas llenas de entusiasmo, responsables, que trabajan muy competentemente codo a codo, con los chicos. En mi Centro en la actualidad las mujeres bocanas son el 62%, mientras que el de seniors funcionarías representa el 46%. En resumen, el aumento de las mujeres que dedican sus esfuerzos a la Ciencia es espectacular. Pienso que la situación será parecida en todo el área de Ciencias Agrarías, y me atrevería a decir lo mismo en cualquiera otra del CSIC. Este aumento tan considerable predice un futuro venturoso de la mujer en el CSIC y en general, en la ciencia. El acceso a la carrera investigadora es igual para todo el CSIC, sea cual sea el Área. Por supuesto se necesita ser Doctor, y un bagaje mas que regular, que va en aumento, de becas, publicaciones, y años de estancias en laboratorios extranjeros. Esto último se considera primordial, constituye una criba por su dureza, y nos forma científica y humanamente para la vida científica ñitura. A mi entender, ya se perciben anomalías en el momento de adjudicar plazas según temas. A veces salen plazas casi con nombre y apellido, y otras derivan en una batalla campal para ver donde se ubican y quien o que grupo se queda con la misma, decidiéndose definitivamente con el nombramiento de tribunales. La designación a dedo de sus miembros, así como la falta de política científica hace que no siempre se integren los mejores en las filas del CSIC, ni sean los más fructíferos para la Institución. El problema es casi el mismo en los concursos de promoción, algo escasos de plazas en la actualidad. Hay muy buenos currículos para pocas plazas, lo que se agrava aún más con la designación a dedo de los tribunales que deciden. A lo largo de los años, mi situación personal puedo decir que casi nunca ha estado marcada por mi condición de mujer. Tanto en mi acceso al organismo como en general en todos los concursos y oposiciones en que he participado, el resultado ha estado mas bien dirigido por las apetencias de los diferentes tribunales o de alguno de sus miembros, lo que como he dicho, ocurre también ahora. Según mi parecer y salvo las excepciones consabidas a este nivel el método de elección no intenta captar científicos según sexo, sino hacerse con los mejores especialistas según currículo y méritos científicos. Por ello, creo que la proporción de mujeres y hombres en el Organismo se debe solo a circunstancias externas, siendo el aumento en el número de mujeres paralelo a la progresiva presencia de la misma en la Universidad. En cuanto a la ocupación de puestos directivos en el CSIC por la mujer, cabe distinguir varios factores. En principio, cabe pensar está relacionado con la, ya mencionada, escasa presencia de la mujer en la Universidad durante un tiempo, aunque en la actualidad pienso que su ausencia en puestos directivos pueda ser debida a la inercia propia de cualquier proceso aun no totalmente desarrollado, como es la presencia de la mujer en la investigación. Otra causa se puede relacionar con una falta de confianza en nosotras mismas para presentar batalla cuando se trata de ocupar algún puesto directivo. Por otra parte, la experiencia demuestra que cualquier elección esconde siempre la salvaguarda de una política propia o la conservación del sillón, lo que induce a elegir personal apropiado, o a eliminar al que suponen causará algún problema. Y aquí sí quiero, y me parece puedo, inculpar al elemento masculino del CSIC. Pensando bien, digamos que por pura costumbre de ver siempre en el sillón a un hombre no se han percatado que compañeras preparadas podrían haber hecho lo mismo, igual o mejor. Pensando algo peor, indudablemente ha habido y hay personas ocupando puestos directivos en la Institución con sus ribetes machistas, o que harto tienen con la competencia de sus congéneres, como para abrir las puertas a las mujeres. Salvar su sillón les da suficiente trabajo y, además, según ellos la mujer ya manda suficiente en casa. De ahora en adelante espero que las mujeres, que estamos ya plantando batalla, demostrando la valía en otros niveles, no nos amilanemos y, como otras muchas en otros campos, sepamos responsabilizarnos y llegar a ocupar esos puestos por derecho propio, sin necesitar cupos del 25 ni del 50 por ciento. Por mi parte, que fui elegida jefa de Departamento con anterioridad, sufrí mi acoso particular en la elección a Director a Centro. No obstante, tengo fe en las mujeres, que son las que con su trabajo y tesón conseguirán ganar ese pulso con sus compañeros los hombres. También apunto que otros problemas aflorarán y debemos estar preparadas para cuando, al competir todos, como ahora ocurre entre ellos, no siempre los mejores consiguen el puesto. Sigo dando ánimos a las féminas para prepararse a ocupar puestos directivos, y acceder a ellos a la par que nuestros colegas hombres. Otro tema a tocar relacionado con la carrera investigadora de las mujeres son los de la familia, en especial los hijos, la casa, y los familiares mayores, problemas que hoy en día también afectan a los maridos y compañeros sentimentales. Tan asumido está este problema que ambos pueden alternativamente pedir y disfrutar los permisos por hijos. Los niños requieren dedicarles mucho tiempo, cariño y cuidados, pero eso tanto puede dárselo el padre como la madre. Mi pensamiento sobre estos problemas, cuando los tuve y también ahora, es que es necesario elegir bien, y contratar a alguien que pueda suplir a los padres en los tiempos de trabajo, sin desdeñar por otra parte sacrificar algún momento, e incluso llevar a un ritmo menos acelerado que de costumbre, la investigación en curso, durante un tiempo determinado. Recuerdo que tuve un concursooposición a Investigador Científico cinco días después del nacimiento de mi segundo hijo, y mi marido hizo las veces de padre y madre durante esos días. Todo fue bien, aunque tengo que decir que aun haciendo una buena oposición, no la gané, y no fue por este motivo, el tribunal estaba ya decantadísimo, y yo no tenia a nadie de mi parte. En conclusión, no soy partidaria de abandonar totalmente nuestro trabajo durante el crecimiento de los hijos. Normalmente se desfasa una tanto que quizás la vuelta sea ya irreversible. Según mi idea de que la ciencia progresa por personas que nos diferenciamos sólo por circunstancias accidentales, no por ser de uno u otro sexo, no tengo mucha confianza de que las mujeres marquemos muchas diferencias respecto a lo que actualmente se está llevando a cabo por to-M. "^ Rosario de Felipe dos. Antes bien, el progreso vendrá dado por hombres o mujeres con visión de futuro e ideas claras, capaces de ponerlas en práctica, por propia evolución y por los adelantos que la humanidad quiera asumir. Lo que sí tengo claro es que a las mujeres nos espera una buena época de ilusión y estimulo, época de pioneras, paritaria a la de los hombres, que cometeremos errores y fallos, como ahora muchos hombres los tienen, y que con buena voluntad los corrigen y corregirán las féminas. Estoy segura de que cuando llegue, pronto, esa paridad entre los sexos en puestos directivos el CSIC se enriquecerá con ese 50 por ciento de mujeres científicas, que entrarán con fuerza a regir los destinos del Consejo y, por lo tanto, de la ciencia, y se notará, como ya se nota ahora, aunque solo sea por el trabajo del día a día llevado a cabo por todos con los proyectos de investigación. Instituto de Investigaciones Agrobiológicas de Galicia (Santiago de Compostela) Mi experiencia personal dentro del CSIC, como mujer, ha sido y es todavía extraordinariamente positiva. Mi único interés ha sido, casi en exclusiva, la carrera investigadora, y en este aspecto no he tenido el más ^mínimo escollo por el hecho de ser mujer. En mi promoción a Profesor de Investigación no me he sentido desplazada por razón a mi sexo. He dirigido y dirijo todavía un grupo de investigación en el que conviven hombres y mujeres, en donde existen los problemas típicos de todo grupo de trabajo pero no están relacionados con la condición del sexo. El hecho de que haya sido investigadora principal en diferentes proyectos de ámbito nacional y europeo, así como que en el momento actual sea editora asociada en tres revistas internacionales del Science Citation Index indica que mi labor, como investigadora, no se ha visto constreñida por el hecho de ser mujer. Por una decisión personal, nunca me han interesado los cargos directivos y, por tanto, no tengo ninguna experiencia negativa en este aspecto de enfrentamiento con el sexo opuesto. El caso concreto de mi Instituto es un poco atípico ya que el predominio de mujeres es bastante notable: de 15 investigadores de plantilla solo 4 (27%) son hombres y en mi grupo de trabajo de 16 personas (incluidos becarios y personal conexo) sólo 6 (37.5%) son hombres. No es de extrañar que en los últimos 20 años sólo hayamos tenido mujeres como directoras de Centro y que en la actualidad la coordinadora institucional del CSIC en Galicia sea también mujer (investigadora de mi Centro). Mujer, ciencia y sociedad: las ciencias agrarias En el ámbito de toda el área los datos no son tan espectaculares pues, según los datos de que dispongo, sólo el 40 por ciento del personal científico son mujeres, pero pienso que deben de ser de los porcentajes de mujeres más altos de las áreas del CSIC. El hecho puede deberse a que, en principio, se nutre de las licenciaturas de Biología, Farmacia y Química donde la presencia de la mujer es muy importante. Lamentablemente, este porcentaje femenino no tiene su reflejo en los cargos directivos del CSIC, en los que, por ejemplo, la Comisión de Área de Ciencias Agrarias está compuesta sólo por hombres y solamente tres mujeres dirigen centros de los doce que tiene Agrarias. Por tanto, parece existir una diferencia notable cuando se trata de un aspecto competitivo (entrada y desarrollo de la carrera investigadora) o un aspecto de designación directa, en cuyo caso la mujer parece perder protagonismo. Mi experiencia en tribunales del CSIC me indica que tanto el acceso como la promoción no están relacionadas con el sexo y sólo cuando se trata de designar cargos claramente pierde la mujer. Problemas que genera la familia Personalmente pienso que éste es el gran problema que tiene la mujer investigadora. Todavía se sigue pensando en este país que la mujer ha de ser la responsable de la casa en general y de los hijos en particular. La legislación se ha ido abriendo más pero, en mis años con hijos pequeños, las facilidades sociales eran mínimas y la mujer era la única responsable del cuidado de los hijos. Como siempre he tenido el máximo interés en desarrollar mi carrera científica, compaginar ambas facetas nos ha supuesto un notable sacrificio económico en términos de sueldos a personas al cargo de los hijos, guarderías no subvencionadas, etc. Hoy día creo que la situación no ha cambiado mucho: cuando algún niño de alguna compañera está enfermo, suele ser la madre quien se «sacrifica» y no el padre, aunque éste tenga una profesión más liberal que la mujer. Si la responsabilidad fuese realmente compartida por los dos cónyuges, el rendimiento de la mujer en la carrera científica podría ser mejor. Aportaciones de las mujeres científicas Entiendo que la mujer científica debe aportar, al igual que el hombre, la mejor ciencia posible. No veo que por el hecho de ser mujer haya que aportar algún aspecto extra que nos diferencie de los hombres. Distinto sería en los casos de cargos directivos, donde la mujer podría aportar cierta dosis de calma y tranquilidad que, a veces, no parecen mostrar los hombres. El hombre puede ser más pragmático y la mujer más detallista aunque no estoy muy segura de estas consideraciones, por ser también tópicos de la sociedad. En definitiva, pienso que esto puede estar más relacionado con la personalidad de cada uno que con el hecho de ser mujer u hombre. La consolidación de la mujer en el CSIC va a estar relacionada con las oportunidades que se ofirezcan. Cuanto mayor sean esas oportunidades, mayor va a ser la competencia y, por tanto, habrá más dificultades de acceso. Hace ya unos años perdimos en mi grupo de trabajo a cuatro becarios hombres en dos años (algunos con la tesis en fase de redacción) porque las expectativas de consolidación de puestos de trabajo en el CSIC eran muy escasas y «no podían» esperar tanto tiempo. La mujer tiene más capacidad de aguante, estando soltera o casada, y prefiere esperar su oportunidad. Si la oferta de plazas es alta, tanto los hombres como las mujeres esperarían menos y, en consecuencia, la competitividad sería mayor. Por tanto, creo que no puede predecirse el futuro de la mujer en el CSIC porque está sujeto a aspectos coyuntura-Íes. Estación Experimental de Aula Dei (Zaragoza) Empecé a trabajar como becaria honoraria en el Departamento de Nutrición Vegetal de la Estación Experimental de Aula Dei en Zaragoza en el año 1980 y en este centro desarrollé posteriormente mi Tesis Doctoral, presentada en 1985. Después de una estancia postdoctoral de dos años en el extranjero, logré plaza como Científico Titular en 1987. No obstante, mi toma de contacto con la carrera investigadora es incluso anterior a mi época de becaria, ya que la investigación ha estado desde siempre presente en mi ámbito familiar. Quizá por ello veo el trabajo de un investigador como un trabajo normal que puede ser realizado con una amalgama de paciencia, interés, imaginación, curiosidad e ilusión por lo que estás haciendo. Mujer, ciencia y sociedad: las ciencias agrarias Participación de la mujer en investigación La evolución de la situación de la mujer en la investigación creo que ha seguido el ritmo de la incorporación de las mujeres al mercado laboral. Desde mi experiencia personal, no creo que haya habido más trabas para que la mujer accediese a la investigación que las que ella misma haya querido imponerse, en general por razones familiares. Por ejemplo, en nuestro Centro, en 1987, entre el personal Científico de plantilla sólo había tres mujeres (una Investigadora y dos Colaboradoras Científicas, lo que suponía menos de un 20% del total de investigadores). En este momento somos diez (una Investigadora y nueve Científicas Titulares) de un total de 27 investigadores en plantilla, es decir, casi se ha duplicado el porcentaje en los últimos quince años. Además, la mayoría de las personas solicitantes de becas predoctorales que en la actualidad acuden a nuestro Centro en cualquiera de los cuatro Departamentos existentes son mujeres y creo que es una pauta bastante general. Así, en la última convocatoria de becas FPI y dentro de mi área (AGL-Agricultura) un 62% de las becas fiíeron concedidas a mujeres. Sin duda, esta situación dará lugar a un considerable aumento en la participación femenina, al menos en este área del CSIC, durante los próximos años. Influencia del entorno social y familiar Este previsible aumento de la participación femenina puede verse frenado por algunos obstáculos y casi todos derivan del papel familiar representado por la mujer como única persona capaz de cuidar de la casa y la familia. El hombre y la mujer se han repartido tradicionalmente tareas en dos extremos opuestos, el hombre en el trabajo fuera de casa y la mujer en las tareas del hogar, aunque también ayudara fuera de la casa. Poco a poco se van aproximando las posiciones, pero todavía hay un amplio abanico de situaciones intermedias y cada caso es un caso particular. En todos los casos es una tarea de toda la familia, y no sólo de la mujer, conseguir que todos sus miembros se puedan desarrollar de acuerdo con sus preferencias. Es evidente que en el caso de una mujer trabajadora fuera de casa, en éste y en cualquier otro trabajo, la existencia de personas que dependan de una puede suponer una desventaja en el terreno profesional. La libertad para desplazarse, sobre todo en el caso de estancias largas en el extranjero, puede verse muy limitada. Además, el trabajo en investigación requiere muchas veces una total dedicación en tiempo y en esfuerzo, lo que es difícil de compaginar con una vida familiar equilibrada. En contraposición a estos problemas, la tarea investigadora realizada en el CSIC ofrece una libertad que no ofrecen otro tipo de trabajos con horarios demasiado rígidos y encorsetados. Y lo que es más importante, la investigación ofrece la posibilidad de ganarte la vida haciendo algo que te gusta, lo que indudablemente va a enriquecer tu vida y las vidas de los que la comparten. El hecho de que una vez finalizada la tesis doctoral el camino a recorrer por el investigador sea incierto, con un número siempre indeterminado de años en estancias en el extranjero y en contratos más o menos precarios, condiciona la carrera investigadora de hombres y mujeres. Esta preparación, de duración desconocida a priori, incita a algunas personas a buscar opciones laborales más seguras, y es posible que la mujer sea más proclive a decantarse por estas otras opciones, sobre todo si tiene un entorno familiar que limita sus actividades. ¿Es diferente nuestra percepción de la investigación En la manera de vivir de cualquier persona hay un sello propio qué, en muchas ocasiones, está marcado por el sexo. Así, creo que la percepción de la mujer ante el mundo del trabajo es, en general, distinta a la del hombre. En el mundo de la investigación ocurre lo mismo, sin que esto quiera decir ni mejor ni peor. Tanto las prioridades como los intereses de la mujer creo que son muy variados y que hay opciones a las que las mujeres no renunciarían, y en esto tengo que dar una opinión muy personal. Quizás este comportamiento influya en la escasa presencia femenina en puestos de responsabilidad si bien es cierto que, al ser puestos generalmente de designación directa, hay otros factores que pueden explicar este hecho. También en el trabajo cotidiano considero que la visión de la mujer y del hombre son distintas: la mujer analiza más pormenorizadamente y se detiene en todos los detalles, mientras que el hombre tiene una visión más global de los temas. Por ello, pienso que son dos maneras de plantear las cosas que se pueden complementar muy bien y pueden mejorar notablemente los resultados alcanzados en las tareas investigadoras. Lo que he pretendido con estas escasas líneas es ofrecer mi punto de vista sobre el pasado, el presente y, espero, el prometedor futuro de la
El artículo titulado "El Area de Ciencia y Tecnologías Químicas del CSIC: ¿un Area de químicas?» pretende mostrar una breve panorámica del lugar que ocupa el género femenino dentro de la citada Area. En la primera parte se aportan las estadísticas que reflejan el número y porcentaje de científicas totales en los distintos Institutos del Area, así como su distribución entre las tres escalas de personal científico del Organismo. Una segunda parte está dedicada a recoger las aportaciones personales de varias científicas del Area acerca del tema, visto desde sus propias experiencias. Para tratar de dar una visión, lo más cercana posible a la realidad, referente a la situación actual de las mujeres en la plantilla del personal científico del Area de Ciencia y Tecnologías Químicas, hemos considera-El Área de Ciencia y Tecnología Químicas del CSIC 503 actualidad, seamos un Instituto con predominio del género femenino en todas las escalas de investigación. Probablemente las causas son múltiples, entre otras se podrían destacar el hecho de ser un Instituto joven y el que su fundador y primer Director, Profesor Ramón Madroñero, tuviera un talante aperturista y nunca discriminara a nadie por razón de su género. Otras causas serían las bajas consecutivas de investigadores hombres por razones de muerte, jubilación, traslado a empresas farmacéuticas o a otros organismos de la administración, unido a que, durante los últimos años, han sido únicamente mujeres las que han accedido a los puestos en plantilla. Sin embargo, quiero destacar que el Instituto de Química Médica cuenta con una altísima producción científica, demostrándose así el hecho de que el Instituto esté formado por un porcentaje elevado de mujeres, no es óbice, muy al contrario, para que su rendimiento científico, cuantitativo y cualitativo, sea muy satisfactorio. Una prueba clara de ello es que uno de los grupos participantes en el proyecto que ha obtenido el Premio Descartes 2001 de la UE para la excelencia científica y tecnológica mediante la investigación en colaboración europea, es un grupo de este Instituto compuesto en su totalidad por mujeres». A la vista de estos datos y de estos comentarios referentes al IQM cabría, como mínimo, reflexionar, y hasta dudar, del estereotipo sobre la menor competitividad de las mujeres respecto a la de los hombres, sugerida por algunas investigadoras del Area para explicar el menor número de féminas en las dos escalas superiores. Con la salvedad del pequeño valor de la muestra, el número de investigadores mujeres en el Instituto de Carboquímica (ICB, Zaragoza ) es también favorable al género femenino (66,7%). ¿Qué dicen las estadísticas? El porcentaje total de científicas en el Area de Química (36,4 por 100) pone de manifiesto un desequilibrio desfavorable para las mujeres. Sin embargo, no se pueden considerar ningún tipo de argumentos que expliquen este desequilibrio específicamente para este Area, ya que es muy similar al existente en la mayoría de las Areas del CSIC restantes y, en todo caso, se sitúa en las Areas menos desfavorecidas para la mujer. Tampoco parece deducirse diferencias concluyentes ni entre las dos vertientes del Area -Ciencia y Tecnología-ni entre las distintas orientaciones hacia otras Areas -Física o Biología-de los distintos Institutos. El hecho que sí evidencian los datos aportados es el descenso significativo en el desequilibrio, según se desciende en la categoría de las tres escalas, que se podría calificar de espectacular si se compara el 10 % total de Profesoras de Investigación en el Area con el 44,1 % de Científicas Titulares. Como reñejan varias de las aportaciones personales recogidas, el progresivo cambio en el contexto social acaecido en nuestro país en los últimos treinta años es, indudablemente, un factor de muy elevado peso. Tampoco deberíamos olvidar que el cambio de mentalidad en las parejas hacia una igualdad entre hombres y mujeres ha venido unido, o, ha es-El Área de Ciencia y Tecnología Químicas del CSIC tado favorecido, por un cambio en las necesidades económicas familiares (la aportación de dinero se va independizando del género). En resumen, estos resultados estadísticos con sus inevitables defectos, apuntan hacia que ni la Ciencia, en general, ni la Ciencia y Tecnologías Químicas, en particular, con sus diferentes ramas no muestran características diferenciales en función del sexo. Aunque aún hoy persiste una menor presencia femenina en el ámbito investigador del Area, si asumimos que el menor desequilibrio que se observa en la escala «más joven» -Científicos Titulares (44,1%)-es consecuencia del mencionado cambio social, dentro de algún tiempo no tendrán lugar artículos o debates para razonar o demostrar el género de la Ciencias y Tecnologías Químicas. Como el sexo de los Angeles. A continuación vamos a intentar resumir las aportaciones personales que sobre el tema nos han enviado distintas científicas del Area de Quí- María Teresa García-López, Pilar Goya Laza reflejada en su apariencia la dureza de los esfuerzos realizados para alcanzar esa meta. En general, se les caliñcaba de "poco femeninas"». Respecto a la evolución de la situación, una investigadora hace el siguiente análisis: «La mujer científica en el trabajo profesional, tanto en la industria como en instituciones oficiales, es actualmente mucho más respetada y considerada que años atrás. La mujer con su actitud de responsabilidad firente al trabajo ha logrado poco a poco que las diferencias de consideración (como poseer capacidad suficiente, formación profesional, dotes de mandos, efectividad, salario) entre hombres y raujeres se haya reducido considerablemente. La mujer ha tenido que demostrar constantemente su valía, y ello, en cierto modo, ha contribuido a un cambio de mentalidad en la sociedad. En los años sesenta y setenta, prosigue esta investigadora, « a igualdad de cualidades, el puesto de un trabajo se asignaba automáticamente a un hombre, dada la mentalidad de los hombres y mujeres de aquella época. Se consideraba que la misión de la mujer era ser esposa, madre y ama de casa. El hombre tenía que aportar el pan a la familia, y por tanto la sociedad le tenía que favorecer. Uno de los inconvenientes más destacable para que una mujer fuera aceptada para ocupar un puesto de trabajo en la industria era, y aún es, aunque menos frecuentemente, la posible maternidad, o sea, la posible ausencia en el trabajo. Así, una de las preguntas que formulaba el seleccionador del trabajo era: ¿Tienes novio? Ello era menos acusado en las Instituciones oficiales, pero las plazas, a igualdad de conocimientos científicos, eran más fácilmente ocupadas por los hombres que por las mujeres. Además, no se soportaba que una mujer pudiera ocupar un puesto de trabajo de mando superior al del hombre». Y concluye: « Situándonos en los años ochenta y noventa las discriminaciones antes mencionadas entre hombre y mujer han ido disminuyendo debido posiblemente al cambio de mentalidad generacional y el haber demostrado la mujer su capacidad para realizar con éxito su trabajo. También cabe considerar que el número de mujeres con la formación y capacidad adecuadas para ejercer investigación científica ha aumentado considerablemente». ¿Cuál es la situación actual? En este punto hay diversidad de opiniones. Hay quien piensa que «actualmente la discriminación entre hombre y mujer prácticamente no tiene lugar. La mentalidad ha cambiado lo suficientemente como para que se valore, en primicia, la capacidad científica de las personas frente al sexo», y quien opina que «el hecho de que el número de mujeres científicas, políticas, empresarias, etc., sea inferior al de hombres se debe más bien a que existen otras opciones, que quizás sean más cómodas o más atractivas para un gran número de mujeres, o El Área de Ciencia y Tecnología Químicas del CSIC 509 quizás también a una carencia de objetivos profesionales concretos planteados a su debido tiempo; es decir, en las etapas de formación previas a la toma de decisiones (estudios primarios, bachiller, incluso carrera universitaria)», y que «en el tiempo presente no existe campo de actividad que esté vedado para la mujer. Lo que ocurre es que para llegar a poder asumir grandes responsabilidades el camino es duro, y no todas las mujeres tienen la preparación suficiente o no están dispuestas a seguirlo. Muchas consideran todavía que el papel más importante que pueden jugar en la vida es el de esposa y madre, y ésta es una alternativa, innegablemente, muy respetable», y quien concretando respecto al Area de Ciencia y Tecnología Química comenta lo siguiente: «Después de veinte años trabajando en investigación, primero como doctor anda y postdoctoranda, y posteriormente como responsable de un grupo de investigación relativamente pequeño (lo integramos una media de 10 personas) he llegado a una serie de conclusiones que a continuación te enumero. Creo, sin pecar de optimismo, que el CSIC en general, y en particular el Area de Ciencia y Tecnologías Químicas, donde he desarrollado mi carrera, no establece, en principio, a la hora del acceso, diferencias entre hombres y mujeres. Ahora bien, la carrera científica es muy competitiva y requiere un gran esfuerzo y dedicación el mantenerse y poder progresar en ella. Esto último hace que cuando las mujeres tienen una carga familiar (hijos) sean sus condiciones particulares (reparto de tareas con la pareja, ayuda de otros familiares, etc.) las que condicionen la evolución de su carrera científica». Hay otras científicas que sí sienten que existe una cierta discriminación. Según una de ellas: «Personalmente tengo que distinguir dos niveles con respecto a mi integración en el mundo de la Ciencia y Tecnología (C}^) en general, y el CSIC en particular. Primero, el nivel institucional, donde no creo haber tenido ningún problema para integrarme en el mundo profesional. Pude estudiar, hacer mi Tesis Doctoral, sacar unas oposiciones al CSIC, etc., sin haber percibido ninguna discriminación. En todo caso, si la hubiera percibido no habría influido en mis decisiones. Primero, porque mis retos y opciones personales me los impongo yo y nadie más. Segundo, porque la legislación española me ampara no haciendo distinciones entre sexos. Muy distinto es en el nivel del día a día. Para resumir esta idea puedo decir que como profesional no existo para prácticamente la totalidad de mis compañeros de profesión, sean del CSIC o de la Universidad, y creo que esta sensación puede hacerse extensiva a todas las mujeres que estamos incluidas en el sistema de CyT. Los compañeros químicos españoles nunca me han invitado a exponer mi trabajo en ningún foro científico, nunca han pedido mi opinión sobre proble-mas referentes a Ciencia e Investigación, nunca se han interesado por mi trabajo, y si alguna vez lo han hecho ha sido a través de la "recomendación especial de un colega del género masculino de prestigio reconocido». Podría enumerar una serie de anécdotas vividas a lo largo de mi carrera científica que podrían hacer reír de lo ridiculas que resultan. Todo esto no es un problema legislativo, sino cultural, mucho más lento de resolver y al que sólo hay que darle su peso específico. No creo que ésta sea la verdadera barrera para que la mujer se integre y participe en el sistema de CyT de una forma seria y activa y tenga un peso específico en nuestra Institución. Sólo a través de un trabajo serio y continuado y de una decisión inquebrantable de hacer algo, es como podemos poner de manifiesto nuestra presencia y contribuir al desarrollo y mejora de nuestro sistema de CyT y de nuestra Institución». Otra científica señala que si bien la discriminación directa, explícita, ha desaparecido, sigue existiendo una discriminación por sexo, y apunta la siguiente experiencia personal: «En el momento en el que me incorporé a mi Centro encontré un ambiente de total igualdad entre los becarios que como yo estaban realizando su Tesis Doctoral, y también entre los investigadores más jóvenes que formaban ya parte de la plantilla del CSIC. Sin embargo, sí encontré una cierta discriminación entre las personas de mayor edad, en general Profesores de Investigación y curiosamente entre el personal de apoyo a la Investigación. En más de una ocasión tuve que explicar que el hecho de ser mujer, casada, con hijos y, en teoría, "sin problemas económicos», no implicaba que mi rendimiento fuera menor que el de cualquier persona que "en teoría» podía dedicar las veinticuatro horas a su labor científica, como a lo largo de los años he demostrado. También recuerdo el día que tuve que prometer al jefe de mi departamento que no tendría más hijos hasta que no terminara la Tesis Doctoral, para que me firmara la petición de una beca predoctoral». En la actualidad, -prosigue esta misma científica-«la discriminación directa ha desaparecido, pero sigue existiendo una discriminación por sexo, de la que nadie se siente responsable. Pero el resultado de las estadísticas demuestra claramente que la cantidad de hombres en los cargos de designación directa dentro del CSIC es muy superior a la de mujeres [URL]. Sin embargo, la cantidad de mujeres en las primeras etapas de la carrera investigadora es superior al de los hombres y esa proporción va disminuyendo según se avanza en la escala científica. Son mayoría durante el período predoctoral, y postdoctoral y esta proporción disminuye en la primera escala científica (Científico Titular), para ir siendo cada vez menor en las escalas superiores, hasta tal punto que, actualmente, en la escala superior (Profesor de Investigación) en el El Área de Ciencia y Tecnología Químicas del CSIC 511 área de Química y Tecnología Química del CSIC hay sólo un 10 por 100 de mujeres. No obstante, debo decir que en el momento actual la proporción de mujeres en las escalas superiores es mayor ahora que hace diez años y mucho mayor que hace veinte o treinta años». Otra investigadora analiza el tema en función de dos vertientes claramente diferenciadas: «La primera de ellas se refiere a los hechos objetivos relacionados con el acceso a la carrera investigadora y el mantenimiento de su actividad profesional. La segunda se refiere al trabajo de investigación desarrollado a través de los años que definen el perfil investigador de un científico En el caso de las mujeres, la vertiente que ofrece mayores diferencias por sexo es la primera. Para hablar de forma detallada de este aspecto, primero es necesario encuadrar a la persona dentro del contexto histórico que marca su generación, ya que los canabios sociales que se han vivido en estos años influyen de forma importante y diferencial en la experiencia personal que haya tenido en el mundo profesional. En mi caso, mi vida profesional comienza en el año 1977, cuando acabo la carrera de Químicas. En ese momento, con la llegada de la democracia hay un replanteamiento de los derechos de las mujeres, que influye de forma importante en el acceso al mundo laboral y en la distribución de los papeles familiares. El modelo familiar mayoritario hasta ese momento, en donde la madre está dedicada al cuidado de los hijos y de la casa y el hombre está dedicado al mundo profesional, cambia para pasar a un modelo en donde las mujeres acceden al mundo laboral y además siguen sintiéndose responsables del cuidado de los hijos y la casa. La incorporación de las mujeres al mundo profesional implicó un cambio importante, tanto a nivel familiar (reparto con la pareja de las tareas domésticas, cambio en el tipo de ingresos, etc.) como social (apertura de guarderías, etc.), abriendo un camino a la igualdad entre los sexos. En el mundo científico se mantienen en algunos casos valoraciones dependientes del sexo: una mujer siempre tiene que demostrar que es más capaz que cualquier compañero masculino y aunque una mujer soltera es más o menos aceptada, las mujeres casadas o con hijos tienen muchas más dificultades de aceptación. Dentro del Consejo estos años se caracterizaron por las pocas oportunidades de acceso al Organismo, tanto para hombres como para mujeres. Aunque de forma puntual, en algunos sitios el hecho de ser mujer supuso un handicap importante en el acceso a la escala científica, una cierta igualdad de oportunidades se mantuvo en muchos Institutos. Esto no ocurrió en otros ámbitos como el de la empresa, en donde el hecho de ser mujer era, y sigue siendo, un hecho discriminatorio». María Teresa García-López, Pilar Goya Laza Un aspecto importante que señalan varias de las científicas consultadas, y que ya ha sido constatado en otras ocasiones, es que donde sí se mantiene la desigualdad y discriminación es en los cargos directivos y en los de designación directa. Así, tal como señalan: «nuestra Area ha cambiado de forma clara. De una composición en las plantillas en los años 70, en donde las mujeres eran una minoría y no ocupaban ningún cargo de responsabilidad, se ha pasado a una situación en donde la relación numérica entre hombres y mujeres está mucho más equilibrada, manteniéndose la desigualdad en los cargos directivos. A pesar de que se pueden poner ejemplos en los que la mujer desempeña algún cargo, como el hecho de que en el área haya dos Directoras de Instituto, prácticamente todos los cargos por designación directa, en el Area de Químicas del CSIC son hombres. Como también son hombres la mayoría de los componentes de los tribunales, independientemente de la escala que se juzgue. Si, como se ha dicho anteriormente, hay más mujeres en la etapa de formación, y no se encuentran diferencias entre géneros en cuanto a su aptitud y disponibilidad para la investigación, ¿por qué las escalas científicas superiores y los cargos del CSIC están ocupados principalmente por hombres? ¿Existe realmente discriminación en el CSIC por ser mujer?». En relación a si existen o no cualidades diferentes entre las mujeres y los hombres para llevar a cabo las tareas científicas, recogemos a continuación algunas de las opiniones recibidas: «Si hablamos del desarrollo del trabajo de investigación, cualidades tales como la imaginación o la habilidad manual (dado que es un área experimental) no tienen género y se encuentran hombres y mujeres que las poseen. Aunque los hombres tengan una mayor tendencia al bricolaje. Sin embargo, quisiera destacar que las mujeres, por lo general, son mucho más voluntariosas, metódicas y constantes que los hombres, por lo que sus trabajos suelen ser más rigurosos y completos. Esto sin menospreciar al género masculino». «Dentro de la vertiente puramente científica, -opina otra investigadora-creo que las aproximaciones teóóricas y metodologicass que se toman frente al hecho científico no son valorables en función del sexo. No nos preguntamos a qué sexo pertenece el autor de un trabajo científico. Aunque en los últimos tiempos hay quien defiende que los hombres y mujeres tienen un distinto tipo de inteligencia (matemática o emocional), creo que un análisis discriminante de los resultados científicos en función de estas variables no arrojaría resultados significativos». Otra científica nos comenta: «En mi experiencia personal debo reconocer que, en un principio, yo también sufrí las consecuencias de un cierto rechazo a mi incorporación en la carrera investigadora por mi condi-El Área de Ciencia y Tecnología Químicas del CSIC ción femenina. Pero quizás fue gracias a esa condición que aprendí a desarrollar mis capacidades de superación para conseguir lo mismo que puede conseguir un hombre, sin renunciar a ninguno de los aspectos que definían mi personalidad. Creo que el esfuerzo que hemos hecho muchas mujeres en ese sentido ha valido la pena. Hoy ya nadie pone en duda las facultades de la mujer para emprender, desarrollar o dirigir cualquier empresa. Creo que, muy al contrario, hoy somos todos conscientes (y cuando digo "todos» me refiero a hombres y mujeres) de que la mujer tiene incluso a su favor ciertas características que le aproximan, le comunican y le relacionan más directa y profundamente con su entorno. La mujer intuye, observa y siente, con mayor riqueza que el hombre, los aspectos humanos que condicionan el comportamiento de quienes la rodean. La mujer científica, al igual que el hombre, aplica la lógica como práctica habitual en todos sus actos, decisiones y proyectos. Su visión, de amplio espectro, le permite llegar muy lejos en sus expectativas, y es capaz de medir el alcance de cada una de ellas con los mismos criterios que lo haría un hombre. Pero, a diferencia de él, su espíritu de competitividad no tiene como objetivo el superar al hombre en ninguna de su capacidades, sino más bien en desarrollar su mente para poder aportar una visión convergente desde ángulos diferentes. No creo que existan diferencias intelectuales en razón del sexo. El género clasifica a las personas, pero sus mentes no responden a clasificación alguna. Cada persona, sea hombre o mujer, observa una conducta acorde con determinados factores o circunstancias, que nada tiene que ver con su género». Una investigadora del Area de un Instituto de carácter más tecnológico hace el siguiente comentario: «Aunque soy de las que pienso que los hombres y las mujeres son diferentes (qué aburrimiento si así no fuera), no creo que el enfoque de un trabajo, su desarrollo o las conclusiones tengan un enfoque diferente. Sí que he observado, no obstante, que en determinados campos como el de la microscopía electrónica que yo practico, hay tradicionalmente más mujeres que hombres. Mi análisis de la situación es el siguiente: -Hace falta tener paciencia, virtud tradicionalmente asociada al género femenino. -El rendimiento publicaciones/hora de trabajo es bajo. En este tema de las publicaciones, también creo que las mujeres han sido tradicionalmente menos competitivas que los hombres. Además de publicar, las mujeres necesitan estar a gusto en el trabajo. Es algo así como el sexo, que generalmente lo preferimos asociado a la palabra amor. También por lo que puedo observar de las relaciones que tiene el Instituto con empresas de todo el mundo, no se puede decir que nuestra Institución y nuestra sociedad sean especialmente macMstas. De los científicos o responsables de empresas que vienen a establecer colaboraciones, discutir planes de trabajo o resultados, es rarísimo que venga una mujer. Y las pocas veces que viene alguna mujer nunca vienen solas. Jamás he visto un contrato con una empresa firmado por una mujer. O sea, que para bien o para mal «en todas partes cuecen habas». Finalmente recogemos parte de una extensa contribución que nos envió una investigadora del Area en la que plantea que ha llegado el momento de hacer un debate nacional sobre nuestro sistema de I+D y que el CSIC debería liderar ese debate. «Nunca he pensado en Ciencia y Tecnología (CyT) en términos de género. Considero que pensar sobre o hacer buena Ciencia no es cuestión de géneros, sino de preparación y capacidad, y creo que para ello el género femenino como el masculino están igualmente dotados. Al menos mi experiencia personal en este mundo no me dice lo contrario. Otra cosa son los condicionamientos sociales que influyen de forma diferente en la mujer y en el hombre. Las reglas sociales ponen más vetos a la mujer que al hombre para desarrollar este tipo de actividad. Pero esto no es muy distinto a lo que ocurre en cualquier otra actividad donde el intelecto o, incluso, el prestigio social estén implicados. Tradicionalmente a las mujeres se les asigna menos capacidad de razonamiento, pero creo que esta postura es demasiado tradicional y hoy en día está bastante desprestigiada. Es en este sentido en el que quiero expresar un par de ideas sobre las que creo debemos reflexionar la comunidad científica española, sea del género que sea. Lo anteriormente dicho, a forma de prólogo, creo que es anecdótico y no debe pesar mucho en el ánimo y trabajo de una mujer que le preocupa la situación actual de la Ciencia en este país y concretamente en el CSIC. Como investigadora del CSIC, un organismo fundamental para la buena marcha de la C}/! en este país, creo que ha llegado el momento de plantear un debate nacional sobre nuestro sistema de CyT, y que es el CSIC quien debería liderar este debate. Los años ochenta con la implantación de la Ley de la Ciencia fueron decisivos para que la CyT en nuestro país comenzara a homologarse con el resto de los países europeos. La Ley de la Ciencia creó dos instrumentos esenciales para establecer un sistema moderno de CyT: el Plan Nacional y la Comisión Interministerial de Ciencia y Tecnología (CICYT). No hay que olvidar la Agencia Nacional de Evaluación, una herramienta importante para favorecer la competitividad y transparencia en la financiación de los proyectos del El Área de Ciencia y Tecnología Químicas del CSIC 515 Plan Nacional. La implantación de la Ley de la Ciencia, junto con el gran esfuerzo realizado por las correspondientes administraciones y grupos de investigación, homologaron la Ciencia española a la media de la Unión Europea. A partir de los años 90, el apoyo al Plan de I+D no se incrementó al ritmo deseado para un correcto desarrollo y crecimiento, e incluso ha sufrido una clara recesión, aunque la inversión se haya mantenido alrededor del 0,87 % del PIB. En mi opinión, después de veinte años de la Ley de la Ciencia nuestro sistema de CjrT ha envejecido y está haciendo claramente aguas. Es necesario un nuevo debate y nuevas iniciativas sobre su continuidad, y esto es, en parte, responsabilidad de los profesionales implicados en este sistema, incluidas de forma especial las mujeres. El CSIC (y me refiero especialmente a sus investigadores/as) como organismo independiente y bien estructurado tiene muchas posibilidades de liderar un debate sobre esta problemática y de iniciar acciones que conduzcan a una forma más inteligente de utilizar los recursos económicos y humanos. Para terminar con mi visión de género sobre el CyT en el CSIC voy a enumerar algunos ejemplos, que están en boca de todos y cuya solución quizá no requiera ninguna revolución en nuestro sistema de CyT, sino poner un poco de sentido común en su abordaje. A estas consideraciones sí que se las podría atribuir una visión de género. A las mujeres tradicionalmente se les atribuye un sentido mas realista del aprovechamiento de los recursos económicos (por aquello de ama de casa) y, quizás, lo que expongo a continuación pueda considerarse como la visión práctica y limitada de un ama de casa que quiere aprovechar un poco más los recursos de los que dispone para llegar mejor a fin de mes. Por tanto, lo que indico seguidamente no creo que tenga mucho que ver con la alta política científica, sino con introducir un poco de sentido común en temas puntuales de nuestro sistema de Cj^ y en los que el CSIC puede intervenir sencillamente interesándose por estos problemas. (La gran política se la dejo a nuestros grandes políticos). Primer tema: La recuperación de nuestros jóvenes cerebros.-Es un tema de continuo debate. El programa de Doctores y Tecnólogos en el extranjero a5aidó a formar jóvenes investigadores a un nivel internacional. Después de una gran inversión en este programa se ha descuidado la recogida de los beneficios. Segundo tema: Los tribunales de selección de jóvenes investigadores.-Siguiendo con la incorporación de estos jóvenes al sistema de CyT y concretamente al CSIC, habría que revisar el sistema de oposiciones. No porque crea que es un mal sistema, sino por el uso que se hace de él. María Teresa García-López, Pilar Goya Laza La elección de los tribunales que deciden el acceso a la carrera investigadora es esencial. La excelencia o no de la Institución la alcanzan sus investigadores. La selección de los nuevos investigadores es una tarea decisiva para el futuro de la Institución y de la Ciencia española y no creo que se esté haciendo de la mejor forma. Este punto también exigiría una reflexión y debate interno en el CSIC, que echo en falta. Desde luego, su solución o mejora no está en un sorteo. Tercer tema: Gestión de los fondos de investigación asignados a los investigadores.-¿Es razonable o racional que un grupo de investigadores que lleve cuarenta años demostrando que hace buena Ciencia se quede sin financiación porque otro compañero decide que ahora ya la hace mala? ¿No se debería emplear un poco de tiempo para asegurarse de ello? En resumen, mi visión de género sobre la CyT en el CSIC, en particular, y en este país, en general, es que le falta un poco de racionalidad y sentido común y que no puede seguir sustentándose sobre las bases de la desconfianza y superficialidad. No es necesario hacer grandes esfuerzos de imaginación, ni tampoco grandes cambios, otros países han ido mejorando su sistema y podrían tomarse como modelos. Estoy segura que otras compañeras /os podrían aportar otros muchos ejemplos sobre los que debatir y que esto no es sólo una responsabilidad de los políticos e instituciones, sino de todos los implicados en el sistema de CyT, incluidas las mujeres. El CSIC tiene una gran responsabilidad en todo esto, pues al contrario que las Universidades, que además de investigar deben cumplir su función docente, nuestra Institución sólo tiene como misión investigar». Conjugando los datos estadísticos mostrados con las aportaciones personales recogidas, se pueden extraer las conclusiones generales que se resumen a continuación: El Area de la Ciencia y la Tecnología Químicas presenta una situación alentadora sobre la presencia de las mujeres, aunque mejorable. Aunque estamos lejos de ofirecer datos igualitarios por sexo, parece darse una tendencia hacia ello, según lo sugieren los testimonios de las investigadoras a las que hemos consultado. Aunque, en conjunto, no hay diferencias significativas entre Institutos, el caso del Instituto de Química Médica aparece como una excepción, pues las mujeres son mayoría entre el personal científico. Las desigualdades por sexo se acentúan, en general, a medida que se asciende en la escala de reconocimiento académico y científico. Al mismo tiempo, la presencia de científicas del Area en cargos de libre designación no muestra tendencia alguna a la igualdad. Al margen de las conclusiones expuestas, deducidas a partir de este trabajo, cabe hacer las siguientes consideraciones: Si son excepción los artículos de Ciencia y Tecnología Química que por si mismo constituyen un trabajo completo sobre un determinado tema de investigación, éste que nos ocupa está lejos de contarse entre ellos. Por otra parte, no es sorprendente encontrar que el análisis de los mismos datos experimentales conduzca a diferentes conclusiones, de acuerdo con la especialización, experiencia e, incluso, imaginación del investigador que los analice. Este artículo no es más que una breve panorámica del lugar que ocupan las químicas dentro del Area de Ciencia y Tecnología Químicas del CSIC, vista por un limitado número de científicas que desarrollan su labor investigadora dentro de este habitat. El artículo se ha ceñido a presentar unos datos generales y objetivos de la realidad actual, junto con opiniones particulares de ocho científicas sobre el tema, salpicadas de sus experiencias vividas a lo largo de su trayectoria. Para algunas, el camino habrá sido, o, es, más o menos, cuesta arriba. Para otras, más llano. No obstante, parece justo reconocer que, tanto quienes han contribuido a la elaboración de éste artículo con sus aportaciones personales, como aquellas cuyo esñierzo se refleja en una simple cifira estadística, han hecho camino al andar. Por todas las consideraciones expuestas, este artículo no es un capítulo cerrado y es al lector individual, independientemente de su género, al que le corresponde extraer sus propias conclusiones. El Área de Ciencia y Tecnología Químicas del CSIC
El CSIC ha sido pionero en fomentar la investigación en Ciencia y Tecnología de Alimentos lo que se ha plasmado en la creación, desde los años cincuenta, de seis institutos monográficos y dos departamentos, dentro de institutos mayoritariamente de otras áreas. No obstante, el personal científico adscrito es solo el 8,3% del total del organismo, 176 investigadores en las tres escalas de los que un 39,8% son mujeres. Los porcentajes de mujeres en las tres escalas científicas son de 28% en el caso de Profesoras de Investigación (PI), 30% de Investigadoras Científicas (IC) y 47% de Científicas Titulares(CT); la cifra de PI, aunque alejada del 50%, es el valor más alto, de las distintas áreas del CSIC, El sentir general es que las mujeres del área, no se han sentido discriminadas en función del sexo en el acceso a la carrera científica, al igual que en la promoción interna. En las dos primeras escalas científicas las diferencias aún destacables se atribuyen en general, a la menor presencia de la mujer en la carrera universitaria y puestos de trabajo. Dadas las cifras actuales de mujeres CTy de becarias /contratadas es previsible que el desequilibrio actual en las categorías mas altas se atenúe en el futuro. No se detecta discriminación para las mujeres en los cargos de gestión de los centros; sin embargo, es notoria en cuanto al desempeño de tareas de gestión. Manuela Juárez 520 El considerable potencial de nuestro país en la producción de alimentos y la importancia de algunos sectores, tales como los de firutas y hortalizas, vino, aceite de oliva o productos lácteos, motivó la creación de institutos en el CSIC que atendiesen a las necesidades tecnológicas de la industria y ampliasen el conocimiento de las bases científicas de los procesos tecnológicos. El CSIC ha sido pionero en el desarrollo de la Ciencia y Tecnología de Alimentos en España con la creación, en los años cincuenta, de grupos de investigación que han dado lugar a cuatro institutos monográficos en la materia y a dos departamentos dentro de otros dos Institutos, mayoritariamente de las áreas de Agrarias y/o de Recursos Naturales: el Instituto de la Grasa (IG), en Sevilla; el Instituto de Agroquímica y Tecnología de Alimentos (lATA), en Valencia; el Instituto de Fermentaciones Industriales (IFI) y el Instituto del Frío (IF) en Madrid; el Departamento de Química y Tecnología de Productos Marinos, en el Instituto de Investigaciones Marinas en Vigo (IIM) y el Departamento de Ciencia y Tecnología de Alimentos en el Centro de Edafología y Biología Aplicada del Segura, en Murcia (CEBAS). Veinte años más tarde se creó el Departamento de Nutrición y Bromatología de la Facultad de Farmacia de la Universidad Complutense, que posteriormente dio origen al actual Instituto de Nutrición y Bromatología (INB) en Madrid. En 1990 inicia su andadura otro, el Instituto de Productos Lácteos de Asturias (IPLA). El Área de Alimentos del CSIC es la de menor tamaño del conjunto de las ocho áreas de actividad del Organismo: el personal científico adscrito es el 8,3% del total del organismo, 176 investigadores en las tres escalas de los que 70 son mujeres (39,8%). Según el estudio realizado en Junio del año 2001, sobre "Mujeres investigadoras del CSIC" (véase la Web del CSIC), hay en este Organismo un 13,3% de mujeres en la categoría de Profesoras de Investigación (PI) -cifi^a que además parece relativamente estable-, un 26% en la de Investigadoras Científicas (IC), un 37,8 % en la de Científicas Titulares (CT) y un 31% en el total del personal científico del área. No cabe duda que esos porcentajes son absolutamente significativos. Para analizar esa situación se echan en falta datos actuales de otros países en instituciones similares a la nuestra, tal como el CNRS y por supuesto en la Universidad española. Un estudio de 24 universidades de España entre 1980 y 1990, sobre «La mujer en la Universidad», realizado por el Departamento de Análisis y Planificación de la UCM en 1991 (ver Web de la UCM) reveló que el porcentaje de mujeres en la docencia superior aumentó del 25% en 1980 a 29% en 1990, pero no se aportan datos de la distribución en las distintas escalas. En los datos correspondientes al área de Alimentos, procedentes de la misma fuente (véase Web del CSIC), las cifras de científicas antes citadas se elevan a 28% en el caso de PI, 30% de IC, 47% de CT y 40% en el total de científicas (Fig. 1). Estos son los porcentajes de mujeres más altos, en las escalas de PI y CT, de las distintas áreas del CSIC. Un análisis del conjunto del área permitiría concluir, en primer lugar, que si bien en las dos primeras escalas (PI e IC) los porcentajes de científicas están aún alejados del 50%, los valores para las mismas son bastante similares (28 y 30%), frente a las cifras claramente más descompensadas en el conjunto del CSIC (13 y 26%). Es previsible que la baja proporción de profesoras de investigación se mantenga unos años debido al limitado número de investigadoras (13) que pueden optar en los concursos de promoción, muy inferior al de hombres (31) Sin embargo, el porcentaje de mujeres IC, ahora claramente inferior al de hombres (30%), podría en un futuro próximo acercarse más al 50% ya que el número de las científicas titulares, posibles candidatas a la promoción de plazas de IC, es más próxima a la de hombres, 50 frente a 57. Dado que el número de institutos del área es reducido parece interesante analizar estas cifras en cada uno de ellos (Tabla 1). Situación de la mujer científica en el Area de Alimentos. La presencia de las mujeres en los Institutos de más reciente creación y los grupos integrados en un instituto que incluye personal de mas de un área se comenta a continuación. El Instituto de Productos Lácteos de Asturias es el instituto más joven. Carece de personal en las escalas de IC y de PI; y en cuanto a la de CT, consideramos que está bien compensada en lo que se refiere al número de hombres y de mujeres, pues hay un 43 por ciento de mujeres. El Instituto de Nutrición y Bromatología, por su parte, no tiene Pis, cuenta con una sola mujer IC (33%), y en el nivel de CT el número de mujeres (2) supera el 50 por ciento, por lo que en total está bien equilibrado. Ni en el Departamento de Química y Tecnología de Productos Marinos del IIM rd en el de Ciencia y Tecnología de Alimentos del CEBAS hay científicas en los niveles de IC y de PI; los dos PI y los cinco IC son hombres. Sin embargo, en el IIM está bien equilibrada la escala de CT (4, el 67 por ciento) por lo que la situación anterior podría cambiar en un ñituro, nnentras que el CEBAS es el instituto del área con mayor grado de desequilibrio (22% de mujeres en el total). En cuanto a los cuatro institutos con mayor número de personal, el Instituto del Frío presenta unos porcentajes de mujeres entre su personal científico, muy próximos a los del total del área. En los otros tres Institutos hay diferencias sensibles. Destaca de forma favorable el Instituto de Fermentaciones Industriales, con 4 mujeres PI (80% del total del Instituto) y el 74% de mujeres en el total de CT; en el conjunto de personal científico la cifra de mujeres es del 69%. El Instituto de la Grasa tiene porcentajes superiores a los del área para las dos primeras categorías, 33% (PI) y 43% (IC) de mujeres, mientras que en la de CT el porcentaje de éstas es muy bajo, solo un 28%. En el lATA, sin embargo, aunque las cifras de mujeres en las dos primeras escalas son claramente inferiores a la media del área (10 y 13% respectivamente) el porcentaje del total de CT es superior al 50%. ¿Hay discriminación de la mujer en las escalas investigadoras? Aunque hace 2-3 décadas, la incorporación de la mujer a una plantilla de nuestro Organismo -supongo que al igual que en otras instituciones-, en general llevaba consigo la necesidad de que ésta demostrara en mayor grado que los hombres capacidad, dedicación e interés para el trabajo, sobre todo si estaba casada (personalmente convencí al director en curso permaneciendo en activo en el Instituto hasta la víspera del nacimiento de mi primer hijo), la situación de la mujer en los últimos años ha 524 Manuela Juárez cambiado drásticamente en un sentido muy positivo y es difícil ahora hablar de discriminación en sentido estricto. Independientemente de lo anterior, las cifras actuales, resultado de la situación previa, revelan diferencias cuantitativas importantes en las escalas superiores, que hay que atribuir a un acceso ralentizado de la mujer a la carrera investigadora, frente a las cifras próximas al equilibrio en la categoría de CT. El cambio se debe probablemente al ocurrido en el acceso de la mujer a la formación universitaria, imprescindible para la carrera científica. En nuestro país no existe ya discriminación en el acceso a la Universidad, lo que ha supuesto la eliminación de la barrera más importante que justificaba el bajo número de mujeres dedicadas a la carrera científica. Si se sigue encontrando baja proporción de mujeres en determinadas áreas de nuestro Organismo, sería atribuible a la preferencia de la mujer hacia determinados estudios universitarios o a la existencia de discriminación más sutil, implícita y ya no explícita, dentro de determinadas áreas y ajena, por tanto, a la política general del CSIC. Este último aspecto no se detecta en nuestra área como se comenta posteriormente. El equilibrio actual en la escala de CT ha llevado consigo el que las mujeres han optado por realizar estancias postdoctorales en el extranjero que, aunque beneficiosas para su formación, desde el punto de vista personal interfieren en ocasiones con los planes familiares por lo que no es infrecuente comprobar incrementos en las edades de maternidad. Las diferencias entre institutos antes comentadas, y que a continuación se analizarán de forma más pormenorizada, están ahí y son consecuencia de una etapa previa, con muchos más hombres que mujeres trabajando fuera de casa, en todos los lugares, no sólo en el CSIC; se estima que esa es la razón del desequilibrio en las categorías altas, mas que una discriminación del organismo en el caso del área de Alimentos. No obstante, desde la creación de los grupos, que posteriormente dieron lugar a los Departamentos o Institutos de Tecnología de Alimentos, en todos los casos sin excepción había un hombre al frente y sucesivamente se fueron incorporando mujeres que, tras salvar las dificultades antes aludidas, demostraban que estaban capacitados para abordar las tareas de investigación con igual efectividad que sus colegas hombres. Sin embargo, por las razones que a continuación se comentarán, el número de mujeres que acudía a realizar la Tesis Doctoral y el de las que permanecían en los institutos era inferior al de hombres. En Ciencias Químicas en la Universidad de Salamanca, en la que estudié, en los años 60 el número de mujeres era comparable al de hombres, pero en general mis compañeras se dedicaron al finalizar los estudios universitarios a la enseñanza en Insti-Situación de la mujer científica en el Area de Alimentos. tutos (pues a partir de 1966-67 hubo muchas plazas de ese tipo, con una dedicación en número de horas fuera del hogar, en general inferior al que requiere un trabajo de investigación) y muy pocas accedieron a la realización de la tesis doctoral. En este caso habría que distinguir entre discriminación y ciertas limitaciones socio-culturales mucho más difíciles de eliminar, porque en la mayor parte de los casos son respetables y aceptadas por la mujer. El papel de la mujer en la familia no ha cambiado en paralelo a su formación y ello es una fuente indiscutible de limitaciones en una carrera absorbente como la científica, que exige muchos años para acceder a la escala investigadora, y más tiempo y dedicación que el establecido como jornada laboral. Particularmente, los años de formación y los primeros años de acceso a una posición estable coinciden, como antes se ha apuntado, con los años de creación de la familia y de mayor atención a los hijos y, por ello, no es de extrañar que muchas mujeres decidan voluntariamente renunciar a la carrera, limitar su rendimiento profesional en los años más importantes para nuestra profesión o simplemente no aceptar determinados puestos que conllevarían una menor dedicación a la familia, valor más arraigado en nuestra sociedad que el trabajo en el caso de las mujeres. En resumen, la discriminación por sexo en nuestro área del CSIC se puede considerar prácticamente inexistente, si bien es cierto que la condición de mujer y, principalmente su papel en la familia, introduce limitaciones al desarrollo más eficiente de nuestra profesión. Afortunadamente, ahora se comparten más las tareas familiares, lo que sin duda está contribuyendo a compensar esas diferencias. Por tanto, no puede concluirse, que en el último período, el acceso a las escalas administrativas haya producido discriminación en razón de sexo. En los tribunales hay una representación equitativa de los dos sexos, siempre decidida en función de la especialidad de la plaza, por lo que es indudable que actualmente las oportunidades para el acceso a la plantilla científica son iguales para hombres y mujeres. En cuanto a la promoción, son muchos los tribunales del área presididos por investigadoras y realmente no hay argumentos para considerar que exista discriminación tampoco en la promoción a escalas superiores. Sin embargo, en el caso de promoción, una causa importante de discriminación puede ser el trabajar en temas fronterizos, o en campos que pueden incluirse en más de un área; hay ejemplos en distintas áreas. En esos casos, la persona en cuestión, hombre o mujer, siempre se ve remitida a otra área, donde los tribunales le dirán lo mismo para conseguir su promoción, con lo que ésta en general se retrasa más de lo habitual. Para el análisis pormenorizado de los distintos institutos, que se comentará posteriormente, parece interesante recoger los porcentajes de mujeres en los grupos de becarios predoctorales y becarios/contratos posdoctorales, que en definitiva pueden ser las que opten a plazas de CT en el ñituro. La tabla 2 recoge estos datos. Un análisis de los datos permite concluir que las cifras en los dos niveles son en general claramente superiores al 50%. Presencia de la mujer en cargos técnicos y directivos Un tema a considerar, independientemente de los porcentajes de mujeres en las distintas escalas investigadoras, es la presencia de éstas en cargos técnicos destacados y en cargos directivos. En el área de Alimentos no se percibe discriminación para el primero de los aspectos apuntados, como se verá a continuación: Situación de la mujer científica en el Area de Alimentos. bros electos del área en el conjunto del período que incluía ambas denominaciones el porcentaje de representación de investigadoras está en torno al 50. En cuanto a una posible discriminación en la obtención de financiación para proyectos de investigación del Plan Nacional u otras convocatorias, se puede afirmar sin lugar a dudas que en toda la etapa reciente se consideran igualmente los proyectos liderados por mujeres. El banco de evaluadores de la ANEP no es discriminante, ya que incluye investigadoras e investigadores en base a su especialización. A la hora de enviar a evaluar un proyecto se tiene en cuenta únicamente la experiencia en un campo y además no se considera si el investigador principal es hombre o mujer. De acuerdo con mi experiencia personal, la realidad es que no hay diferencias détectables entre ambos sexos, ni a la hora de enviar a evaluar un proyecto ni en el proceso de evaluación o resolución. En cuanto a dedicación preferential a líneas concretas de investigación, no se puede considerar que las mujeres se decanten preferentemente hacia líneas específicas, con excepción de la baja atención que reciben los temas de ingeniería de procesos en cuyo desarrollo, por otra 528 Manuela Juárez parte, existen escasos grupos en el área. Sin embargo, ante un proyecto concreto puede haber diferencias en los puntos de vista abordados por los componentes del equipo investigador, en general con preferencia de menor dedicación a los aspectos teóricos por parte de las investigadoras. Con relación a cargos de gestión en la Organización Central, si bien en los últimos años ha habido dos mujeres del área en este tipo de puestos, esta cifra supone solo un 30% del total de los altos cargos ocupados por investigadores del área, pero además los hombres han tenido puestos relevantes, pues dos han sido Vicepresidentes. No hay duda que, en términos generales, los hombres en el CSIC están mucho más representados en puestos destacados, si se consideran como tales los de designación directa. La diferencia es tan elevada que no parece justificada. Ahora bien, para una gran mayoría de mujeres, un factor que puede pesar negativamente a la hora de aceptar un cargo directivo en la Organización Central es, sin lugar a dudas, la necesidad de una dedicación extra al puesto y, en los casos en que no sea Madrid la residencia familiar, el estar alejadas de la familia. Sin embargo, para los hombres es frecuente, en cualquier institución, aceptar un cargo fuera de la residencia que conlleve estar alejado de la familia durante la semana. En esto influyen razones culturales, que quizás, por conocidas, pueden ser aprovechadas para no ofrecer esos cargos a mujeres. También es cierto que esta situación estaría justificada sólo en la etapa en que las obligaciones familiares son más acuciantes para la mujer y no en su etapa madura, cuando los hijos son mayores y aceptar un cargo de mayor dedicación no debería tener, en principio, problemas añadidos. Sería interesante conocer si se han ofrecido cargos directivos a mujeres en el CSIC y se han rechazado. En definitiva, de entre la plantilla científica del área, es fácil comprobar que salvo los dos casos puntuales anotados, los puestos de gestión en nuestro Organismo están ocupados principalmente por hombres. No obstante, hay que admitir que puede no considerarse exactamente una prueba de discriminación porque el trabajo de gestión, por relevante que sea, es secundario en una carrera vocacional como la nuestra, en la que la investigación es lo más satisfactorio para la mayoría de nosotras. Es posible que por parte de las mujeres haya también un factor que se viene arrastrando, y es una menor ambición de poder, aunque no de prestigio: esto justificaría una presencia menor en altos cargos, (aunque nunca tan baja como la que hay), y también justificaría que las mujeres luchen por una plaza o por su curriculum como cualquier hombre, pero en menor grado para conseguir un cargo de gestión. Situación de la mujer científica en el Area de Alimentos... En este aspecto, resulta curioso que a veces los hombres se pregunten el porqué de la abrumadora mayoría masculina en estos niveles, cuando la respuesta es que ellos son quienes no han nombrado mujeres para esos cargos. La situación del CSIC se parece a otras en numerosos organismos. La designación no se hace en función de la concurrencia competitiva, sino de la confianza que el superior deposita en la persona designada. Realmente no desconfían de las mujeres, ya que todos sus papeles, informes, citas y secretos están en manos de sus secretarias o puestos intermedios, que no tienen capacidad de decisión. Es una situación de mera preferencia, que se arrastra desde hace mucho tiempo: los hombres en el poder prefieren otros hombres para cargos ejecutivos, y mujeres para secretarias. Cuando hay que nombrar un cargo, se hace en función de sólidos razonamientos, basados en las cualidades y circunstancias del candidato, pero en el caso del nombramiento de mujeres posiblemente habría que dar más razones y alegar muchas más cualidades para justificarlo. Es cierto que sin duda las mujeres globalmente tienen cualidades equivalentes, pero, salvo excepciones, tienen menos experiencia en cargos similares porque se ha establecido un círculo vicioso: para desarrollar un cargo de gestión relevante es necesaria la experiencia en puestos de gestión intermedios en los que, a su vez existe una baja proporción de mujeres. Puntos de vista desde los Institutos del área Con objeto de tener una versión lo más amplia posible de la situación en cada Instituto o Departamento de Tecnología de Alimentos respecto al tema que nos ocupa, se ha recabado la opinión de investigadoras consolidadas y de otras más jóvenes en los distintos Institutos, con el fin, también, de aportar datos actuales, los más cercanos a la realidad. Parte de sus opiniones sobre aspectos generales se han recogido en los apartados anteriores. Se ha contado también con otra IC del área de Alimentos, que desarrolla su actividad en el Instituto de Química Orgánica, Isabel Martínez Castro. Instituto de Productos Lácteos, El IPLA, dada su breve historia y que ese Instituto se inició con postdoctorales formados en el extranjero en la especialidad de lácteos, que optaron a plazas para el mismo, aún carece de personal científico siquiera en la categoría media; en la de CT la cifra está bien equilibrada (43% de mujeres) por lo que no cabe hacer más comentarios. La Vicedirección del Instituto está ocupada por una mujer, Ana Rodríguez, (que nos ha facilitado los datos). En cuanto al futuro, en-Manuela Juárez 530 tre el personal en formación y con contratos o becas posdoctorales la mayoría son mujeres, por lo que no se dan circunstancias que denoten discriminación. A la vista de las cifras existentes, cabe esperar que en un período razonable lleguen a ser mayoría también las mujeres en las distintas escalas. Instituto de Nutrición y Bromatología. En el INB, en cuanto al porcentaje de mujeres IC ya comentado del 33%, cabe indicar que a ese Instituto se incorporó por traslado un IC del área de Agricultura (a la disolución del Instituto de Nutrición Animal); en la categoría de CT y en el conjunto total presenta unas cifras equilibradas. Salvo en su etapa inicial, la dirección ha sido ocupada siempre por mujeres (dos del total que ha habido en el Instituto, 66%). Ascensión Marcos ha facilitado la información. Ella se siente esperanzada, ya que el porcentaje de personal en formación en los niveles predoctoral y postdoctoral es mayoritariamente femenino, por lo que confía que las cifras cambien en un futuro. Centro de Edafología y Biología Aplicada del Segura. La situación en los grupos de Ciencia y Tecnología de Alimentos pertenecientes a Institutos mayoritariamente dedicados otras áreas es diferente. Desde la fundación del CEBAS (en este grupo es donde las diferencias son más notorias por lo que se hará un análisis más detallado de la situación) solo ha habido dos mujeres entre su personal investigador en plantilla en el Departamento de Ciencia y Tecnología de Alimentos. No obstante, las únicas mujeres que se han presentado a plazas en el CEBAS han sido las dos que actualmente están en plantilla; ambas realizaron una estancia postdoctoral fuera de España y estaban casadas en el momento de terminar la Tesis. Cristina García Viguera, Vicedirectora del Instituto, es una de ellas y es quien nos informa. El resto de las mujeres que han hecho la Tesis Doctoral en el Departamento no se plantearon continuar la carrera investigadora en el CSIC; optaron por la Universidad (pública o privada), la docencia en la enseñanza media, o el trabajo en empresas. El hecho de que sólo haya hombres en las categorías de PI e IC (tres en total) en este departamento del CEBAS puede achacarse al fenómeno social comentado, más que a una discriminación en el propio instituto. El índice de natalidad, mayor en Murcia que en el resto de España, sugiere una relación con ésto: sus intereses familiares pudieron haber condicionado en el pasado a muchas mujeres a no plantearse siquiera algunos trabajos con dedicación amplia. De todos los doctorandos del Departamento, sólo una mujer está casada; el resto no tiene obligaciones familiares, por lo que todos están en las mismas circunstancias, viajan por igual al extranjero y están dispuestos a sacrificarse en la misma medida. Pero ésto sólo dentro de entre 5 y 7 años se podrá ver reflejado en las estadísticas del personal científico. Instituto de Investigaciones Marinas. Un razonamiento similar puede aplicarse a la situación de las mujeres en el Departamento de Química y Tecnología de Productos Marinos, del IIM (Vigo). Carmen González Sotelo, Vicedirectora del Instituto hasta el año 2001, nos facilita la información. En los cincuenta años de vida de este centro nunca una mujer ha ocupado la dirección. El departamento cuenta con 1 PI y 3 IC, todos ellos hombres. Hay 4 científicas titulares (dos de las cuales incorporadas como consecuencia de las convocatorias 1997-2000) de un total de 6, por lo que es de esperar que en un futuro pasen mujeres a las otras dos categorías, si bien el equilibrio en la escala de PI necesitará bastante tiempo. Por otra parte, el número de becarias realizando la tesis doctoral es alto (75%), consecuencia de un mayor número de solicitudes con expedientes en general mejor que los de hombres. El sentir de las científicas no es en absoluto de discriminación en su Centro, aunque resaltan el sacrificio que supuso la estancia postdoctoral en el extranjero, durante la etapa crítica para la planificación familiar. Es resaltable la alta participación de mujeres de este área del CSIC en proyectos europeos, comparable o superior a la media del continente. Instituto de la Grasa. En el IG se cuenta con información aportada por Carmen Dobarganes (PI), quien dirigió este instituto entre 1989 y 1992, y quien entre 1992 y 1994 fue Coordinadora Institucional del CSIC en Andalucía; también es miembro de la Comisión de Área desde 1997. No ha sentido personalmente ni ha apreciado discriminación en el centro en los 31 años que lleva en el CSIC. Considera que su carrera investigadora ha sido similar a la de muchos de sus colegas, simultaneando durante varios años el trabajo de laboratorio con el de gestión. En este instituto, sin embargo, como se ha indicado, las dos categorías superiores (PI y IC) están menos desequilibradas que en el conjunto del área (33 y 43% de mujeres, respectivamente), mientras que, en contra de lo que es frecuente, el porcentaje de mujeres CT es menor (solo un 28%). Las cifras de personal en formación o contratados postdoctorales están mucho más equilibradas (67 y 40% respectivamente) por lo que es de esperar que en la base también se compense en un futuro. En el año 1970 había en el Instituto de la Grasa solo cinco mujeres científicas en una plantilla compuesta de 32 personas, una de ellas perteneciente a la escala investigadora. Todas estaban integradas en grupos de investigación sin responsabilidades de dirección de proyectos o de grupo. Además, parecía que se daba por hecho que el matrimonio era incompatible con la carrera científica pues las cinco estaban solteras. En Manuela Juárez 532 aquel entonces las científicas se sentían discriminadas con mucha razón e incluso la situación hacía pensar que habría muchas dificultades cuando llegara la hora de acceder a la escala en competencia con un compañero. La situación actual en el Instituto es muy distinta. De una plantilla de 47 investigadores, 15 son mujeres muy activas, la mayoría responsables de proyectos de investigación, además en las dos primeras escalas salvo en el IFI es el instituto que tiene porcentajes más altos de mujeres. Ninguna de ellas tiene la impresión de que en el acceso a la escala de CT o en la concesión de proyectos influya negativamente el hecho de ser mujer. Instituto de Fermentaciones Industriales, En el IFI tenemos la experiencia de Carmen Polo, profesora de investigación y directora del Instituto durante los últimos diez años. Es el único Instituto en que las mujeres PI son más del 50 por ciento (son el 80%) en ese nivel. Manifiesta que no puede hablar de discriminación en su Instituto, quizás porque tuvo delante a unas mujeres que estuvieron en él desde las primeras etapas, lucharon por la igualdad y abrieron camino a las que llegaron después. Quiere que su contribución a este artículo sea un homenaje a esas mujeres, en reconocimiento a su importante labor. Ellas tuvieron que demostrar su valía como independiente de su sexo, y si hay que citar a una, se destaca a Concha Llaguno. Según Carmen Polo, la discriminación de la mujer de su época y en sus circunstancias no procedía exclusivamente del CSIC sino de la sociedad entera, que dificultaba el acceso de las mujeres al mundo laboral. A pesar de esa realidad, son muchas las mujeres que han sabido compaginar su vida profesional y familiar, pero, por supuesto, a un coste muy alto. Ese pluriempleo es lo que discrimina a muchas mujeres que no quieren (o no pueden) asumir cargos (como los de gestión), que puedan exigir horas de trabajo adicionales. Instituto de Agroquímica y Tecnología de Alimentos. En el lATA contamos con la experiencia de Carmen Benedito, una institución en su Instituto, PI que lleva 47 años en el CSIC, aunque en plantilla desde el año 1965. Comenzó en el área con el trabajo de tesis doctoral en 1955, -antes de la constitución del actual Instituto-en un tema de interés para el entorno regional, arroz, que junto con el de cítricos eran los más propicios para conseguir subvenciones para proyectos de investigación. Eran muy pocas las mujeres y así ella fue la primera que leyó la tesis en el Departamento de Química Vegetal de la Facultad de Químicas de Valencia, origen del actual lATA. Por cada mujer que optaba a una plaza lo hacían tres o cuatro hombres. Fue la primera mujer CT del Instituto, sin em-Situación de la mujer científica en el Area de Alimentos.. bargo estima que no sintió discriminación en razón del sexo, a la hora de acceder a las distintas escalas. Las diferencias en el número de hombres y mujeres en su centro las percibe también cuando acude a reuniones europeas, en las que la presencia de la mujer está en torno a un 10 por ciento. A pesar de las cifras bajas en las dos primeras escalas de su Instituto, dado que, como se ha indicado, la situación está equilibrada en la escala de CT, confía que los otros dos niveles se compensen en un futuro próximo. En el IF contamos con la aportación de Pilar Cano, IC y directora desde el año 1998. Considera que la situación general de la mujer en nuestro área tiene una excelente «salud». Para demostrarlo remite a los datos ya mencionados: la incorporación de mujeres investigadoras en los últimos años a la primera escala ha sido notable y las perspectivas atendiendo al número de becarias/contratadas puede favorecer el equilibrio futuro. Constata la ausencia de discriminación por sexo en la evaluación de proyectos de investigación, nacionales o comunitarios, a través de su propia experiencia en los paneles de evaluación. En cuanto a la faceta, importante en la carrera científica, de la gestión de la investigación y de cargos directivos o de responsabilidad en el organismo, si bien es cierto que hay un número muy equilibrado de mujeres ejerciendo tareas de dirección de los institutos del área, no se observa esa misma proporción en los cargos de mayor responsabilidad. A Pilar Cano le preocupa especialmente la ausencia de mujeres entre los Coordinadores de Área, ya que como se ha indicado no ha habido ninguna mujer ejerciendo dicha función, que corresponde a una tarea de líderazgo en la Comisión de Area, pues entre sus responsabilidades se encuentra la de hacer propuestas de plazas, contratos, y la política científica del área. Confía en que las nuevas generaciones de mujeres investigadoras vayan tomando posiciones en esos puestos, que realmente tengan influencia para mejorar y potenciar la investigación en el ámbito de nuestro organismo a nivel comparable al de los hombres. -Becarios: no se detecta en los últimos años, discriminación por sexo en la selección de becarios/contratados; al contrario, las cifras revelan balance positivo para la mujer. Este hecho no solo tiene que ver con las calificaciones académicas obtenidas durante la li-Manuela Juárez 534 cenciatura, sino también porque la perspectiva de emplear hasta 7 años en formación académica e investigadora, adicional a la obtenida en la Universidad para obtener un puesto de trabajo con estabilidad, puede estar resultando menos atractiva para un hombre que para una mujer. -Científicos Titulares: consiguen plazas los becarios y contratados postdoctorales, con un curriculum más amplio y completo, con independencia del sexo. -Promoción interna: la experiencia es similar. Sin embargo, la razón del desequilibrio actual está, como también se ha indicado, en el menor número de candidatas disponibles. Incluso suponiendo que haya igualdad de oportunidades, tendrían que pasar bastantes años para que la desigualdad inicial se atenúe, sobre todo en algunos institutos. Aunque quizás no lleguen a ser tantos si los resultados de la reciente promoción continúan: de las 4 plazas de PI a concurso, a pesar de que el número de potenciales candidatos hombres era claramente superior, han obtenido plaza tres mujeres y un hombre. En la reciente promoción a IC, de las 6 plazas para el área, se han promocionado cinco mujeres y un hombre. Las cifras disponibles hasta esta fecha de porcentaje de mujeres en las dos primeras escalas de 28% (PI) y 30% (IC) cambiarán en cuanto tomen posesión las promocionadas a 35 % de PI y a 36% de IC. Las incorporaciones de profesoras de investigación se han producido en el IG y el lATA, cuyos porcentajes suben a 60 y 18% respectivamente. Las nuevas Investigadoras Científicas pertenecen al IFI y al lATA, con lo que los porcentajes suben a 57 y 30, respectivamente. Por tanto, actualmente no cabe hablar de discriminación tampoco en promoción. En resumen, el sentir general es que las mujeres del área, -una vez superados los aspectos comentados inicialmente de tener que demostrar, pero eso hace más de 25 años, dedicación y competencia en mucho mayor grado que los hombres-no se han sentido discriminadas en función del sexo en becas, tribunales, oposiciones, y promoción, donde suelen primar los méritos, a veces modulados por intereses como endogamia, amistad o enemistad. En las dos primeras escalas científicas (PI e IC) las diferencias aún destacables tiene su origen, en general, en la menor presencia de la mujer en la carrera universitaria y puestos de trabajo. -Gestión de los centros. En este aspecto el balance es positivo para la mujer, ya que actualmente cuatro ocupan la dirección de institutos y otras cuatro la vicedirección.
dores que forman parte de esa trayectoria vital. Pero no es el momento de hacerlo sino el de, como dice el título, dar una visión de género. Sin embargo las especialistas en estos temas de género, están en la idea de esta profimdización y no dudo de que llegarán al final. El Área de Humanidades y Ciencias Sociales (HH. y CC. SS.) del Consejo Superior de Investigaciones Científicas está integrada por diecinueve institutos, de los cuales trece tienen una estructura propia, es decir, dependen exclusivamente del CSIC y el resto seis, tienen una estructura compartida con otros organismos o administraciones. El origen de algunos de estos institutos es anterior al nacimiento del CSIC el 24 de noviembre de 1939. En efecto, la Junta de Ampliación de Estudios, por lo que se refiere al Area científica que nos ocupa, aglutinaba a investigadores en: filología. La intención de mi colaboración en este número de la Revista Arbor dedicado a «Ciencia y Tecnología en el CSIC: una visión de género», no es hacer un análisis exhaustivo del área y de su problemática de género. Más bien voy a dedicar estas líneas a realizar un breve relato histórico y un análisis puntual, a modo de foto fija, del momento actual, en base a la información recogida en diferentes documentos del CSIC para los datos cuantitativos y, lo que es más importante, en base a las experiencias personales de científicas (entre las que incluyo la propia después de treinta y seis años en el organismo), con diferentes orígenes académicos, que se dedican también a distintas líneas de investigación en los Institutos que componen el área. A todas ellas les doy las gracias y citaré sus valiosas y acertadas opiniones. Un estudio de género que permita ver el cómo y el cuándo se producen los principales acontecimientos en la vida profesional de las mujeres que se incorporan a la vida laboral de la investigación, requiere un análisis largo en el tiempo y profundo en cuanto a los múltiples indica-Área de Humanidades y Ciencias Sociales historia, arqueología y arte, en el Centro de Estudios Históricos de la calle de Medinaceli y, más allá de nuestras fronteras, en Roma, la Escuela Española de Historia y Arqueología (Gutiérrez Ríos, 1970). Esta labor de fomento de la investigación y de promoción de la ciencia y la cultura en general que llevó a cabo la Junta de Ampliación de Estudios, podemos decir que fue el origen del CSIC no solo en el área científica que nos ocupa, sino de la mayoría de las que se organizaron para dar estructura al naciente organismo público de investigación. Así pues, este M° Asunción Martín Lou 540 nuevo organismo científico no partía de cero, y aunque estos primigenios núcleos de investigación se ubicaban mayoritariamente en Madrid, desde el inicio «el CSIC no es un punto sino un mapa», y la difusión geográfica de sus centros ñie la primera tarea a la que se dedicó el Secretario General, J.M. Alvareda, a fin de buscar y aglutinar por toda la geografía española personas o instituciones con posibilidades para la investigación. No todos los institutos han tenido en el tiempo y en el espacio el mismo origen. Algunos de los actuales institutos surgen con la especialización de determinadas disciplinas, o con la necesidad de proñmdizar en aspectos de nuestra sociedad y de nuestra historia. Los diecinueve Institutos del área están repartidos irregularmente por la geografía española, la mayoría de ellos en la Comunidad de Madrid, pero también localizados en otras Comunidades Autónomas como en Andalucía, Aragón, Cataluña, Extremadura, Galicia y Valencia y, como decía, uno de ellos, en Roma. En relación al número de institutos que componen el Área de conocimiento que nos ocupa, cabría esperar, que también los investigadores ñieran numerosos. Sin embargo del conjunto de áreas de investigación en el que está distribuido el personal del CSIC, solamente 215 científicos integran el Area de HH. y CC. Por el contrario, en relación al género, junto con el Area de Ciencias Agrarias (37,7%) y Ciencia y Tecnología de Alimentos (39,8%) tiene los mayores porcentajes de investigadoras. Entre 26 y 65 años, se sitúa el total del colectivo que estamos analizando, con un predominio de investigadoras en la etapa, de vida profesional, comprendida entre los 46 y los 65 años, edad, esta última, de jubilación voluntaria. Solamente 18 investigadoras tienen menos de 45 años, lo que nos ofrece una perspectiva de madurez peligrosamente alta, si pensamos en la necesaria renovación generacional. Este grupo de edad representa el 70% sobre el total del área, lo que se aleja mucho del 49% de este mismo tramo de edad, en el total del CSIC. Este dato cuantitativo que pone en peligro, como decía, la renovación generacional del colectivo científico del Área de HH. y CC. SS., tiene mucho que ver, sin duda, con la Oferta de Empleo Público que, aunque con un constatable aumento en las convocatorias de 1999 y 2000 en relación a años anteriores, ha supuesto la incorporación de solamente 38 científi-Área de Humanidades y Ciencias Sociales 541 cas a la plantilla del CSIC en este último año, 2000, de las que tan solo dos lo han hecho al área de HH. y CC. Este último dato puede sumarse al ya citado en relación a la mayoría de investigadoras en el tramo de edad 45-65 años, con lo que vemos reforzada esa idea de la dificultad de renovación de la plantilla de científicas en nuestra área. Las setenta y cinco investigadoras están irregularmente repartidas en las tres escalas de la estructura científica. Solamente seis son profesoras de investigación, diecinueve son investigadoras científicas y cincuenta son científicas titulares. Estas cifras absolutas se corresponden con unos porcentajes del 20%, 37% y 38% respectivamente que, como vemos en el cuadro I representan unos porcentajes superiores a los que presentan estas mismas cifras para el total del CSIC en el caso de los dos primeros escalones y un punto de diferencia respecto al primer tramo de la carrera profesional, es decir el de científicos titulares. Hasta aquí la presentación cuantitativa de algunos de los indicadores que reñejan la estructura del colectivo de científicas en el área de HH. y CC. SS.: algo más de un tercio del personal científico del área, con un predominio de edades cercanas al final de la vida laboral, pero con una distribución por categoría profesional que, en absoluto se puede menospreciar si la comparamos con la que ofirece la del total del CSIC. La visión de género de HH. y CC. SS. en la historia del CSIC «... La ciencia se ha construido socialmente y sus contenidos son, consecuentemente, parciales. La experiencia histórica de hombres y mujeres ha sido distinta y la ausencia de las mujeres en los procesos de creación y 542 M" Asunción Martín Lou codificación del conocimiento ha dejado su huella en todos los ámbitos del saber» (M^ A. Duran). Atendiendo a la categoría de «género» lo haremos teniendo en cuenta, como cita Inés Alberdi en palabras de Giddes, «... tenemos que hacer una distinción fundamental entre género y sexo. Mientras que el sexo se refiere a las diferencias físicas del cuerpo, el género alude a las diferencias psicológicas, sociales, culturales entre hombres y mujeres» (Alberdi, 1999). Es, en estas circunstancias, a las que añadiría las de política científica, en donde vamos a encontrar las diferencias en las trayectorias profesionales de hombres y mujeres de quienes integran el área y también las diferencias que puedan existir con otras áreas científicas del CSIC, que se analizan en otros trabajos de este número de Arbor. ¿Cuál ha sido la trayectoria personal-profesional de las científicas pertenecientes al área de HH. y CC. ¿Existe diferenciación en esta trayectoria profesional en razón de género? Después de escuchar y leer las aportaciones a que antes aludía, sumadas a mi propia experiencia, no se percibe claramente un sesgo por razón de género, aunque se plantean muchos interrogantes en cuyas respuestas existen múltiples circunstancias. Estas circunstancias no sólo responden a la historia de los propios institutos sino también a los diferentes puntos de partida de cada una de las científicas y que son a su vez consecuencia de sus propias singularidades familiares, económicas, etc. En la primera etapa de formación del CSIC, se integraban en los institutos que se iban configurando una serie de catedráticos universitarios, grandes maestros que compaginando su labor docente universitaria con la vocación investigadora, tuvieron la posibilidad de formar y contar con personas jóvenes dotadas con becas que, aunque ahora parecerían míseras, posibilitaron el acceso a una infraestructura de investigación que permitió emerger del aislamiento científico y conectar a estos incipientes institutos con el resto del mundo (E. Gangutia). Nombres ilustres en la ciencia española ocuparon los cargos directivos de los institutos en este inicio del CSIC: Menéndez Pidal, Asin, Ballesteros, Entrambasaguas, Viñas y un largo etc. Esta primera etapa de nuestra Área, está ligada estrechamente a las universidades, de forma que los universitarios que iniciaban su vida profesional en el seno del CSIC muy pronto pasaban a ocupar puestos de plantilla en departamentos universitarios, mientras que las mujeres, sus compañeras, permanecían en el CSIC. Esta es una experiencia vivida por mí y que, supongo, comparto con otras investigadoras lectoras de esta líneas que reconocerán, en algunos catedráticos universitarios, compañeros del CSIC con los que se iniciaron en la carrera profesional. También Área de Humanidades y Ciencias Sociales 543 existen las excepciones como la de M^ Angeles Galino, primera catedrática de España, que se formó en el Instituto Suárez. En los años sesenta, cuando ya se percibían otras formas, M^ Eugenia Aubet, pasó de investigadora científica a catedrática, y aunque desde el principio se han producido pasos en esa dirección, creo que la migración femenina hacia la universidad ha sido escasa. Siguiendo con este breve repaso histórico de los institutos del Área de HH. y ce. SS. focalizado espacialmente en la C/ Medinaceli (Madrid), en donde estuvieron y están los principales institutos de Humanidades, sin menospreciar los que se localizan en otras Autonomías pero que son posteriores, hay que destacar que también allí surgieron los primeros núcleos de investigación en ciencias sociales, que aunque carecieron, como tantos otros, de personal científico de plantilla hasta 1971, son los artífices del progreso de esta área de investigación en una sociedad en la que se abrían paso no sin dificultades. La historia del Instituto Balmes y de sus publicaciones (1944 aparece ya la Revista Internacional de Sociología editada por el Instituto) son el fiel reflejo de esta situación. Es también el Instituto Balmes el que por primera vez cuenta con una directora, Valentina Fernández Vargas, que dirigió igualmente la RIS y otras publicaciones, que recogían las investigaciones más importantes de esta área de conocimiento. En el Instituto se hacia especial énfasis en el estudio y difusión del análisis demográfico, razón por la que Cerrado Gini fue codirector con Séverine Aznar, uno de los máximos representantes de la sociología católica. Con la desaparición de los Patronatos y las Divisiones, estructura mantenida durante muchos años en el CSIC, en la que todas las nuevas áreas temáticas que aparecían tenían cabida, desaparecieron también institutos emblemáticos que en el mejor de los casos dieron lugar a Departamentos dentro de los actuales Institutos. Es el caso del Balmes, repartidas sus líneas de investigación en el momento actual en el Instituto de Economía y Geografía, Unidad de Políticas Comparadas e Instituto de Estudios Sociales Avanzados de Andalucía. Otras áreas temáticas incluidas dentro del Área han tenido procesos y génesis diferentes. Así el Instituto de Estudios Jurídicos que desapareció de la estructura del CSIC en la década de los setenta, o el Instituto de Economía «Sancho de Moneada» que dio origen al Instituto de Economía Aplicada, ubicado en la UAM. También Geografía, ciencia a caballo entre las humanidades y las ciencias sociales, entonces y aún ahora, tuvo, desde la creación del CSIC, un lento pero continuo crecimiento en dos orientaciones que, aunque no antagónicas, re-M" Asunción Martín Lou 544 presentaban dos concepciones de la disciplina: una más histórica y humanista encabezada por el Prof. Manuel de Terán y otra más aplicada a las necesidades de la sociedad y del análisis territorial que desarrolló la escuela del Prof. José M. Casas Torres. Y para no ser distintos, ambos eran catedráticos universitarios y nunca pertenecieron a la plantilla del CSIC. Otros institutos fueron ampliando el número de los que componen el área, dedicándose a líneas de investigación no desarrolladas hasta hace unos cuantos años en el CSIC. Estos movimientos, no han dejado de producirse. Así, por ejemplo, el Instituto de Demografía que nació en 1988 con una gran proyección social, fue convertido en Departamento del mismo nombre en 1996 anexionado al Instituto de Economía y Geografía. El Centro de Estudios Históricos acaba de sufrir una última reestructuración, agrupándose en una única estructura administrativa y en tres Institutos (Lengua, Historia y Filología) las múltiples líneas de investigación que desde la época de la Junta de Ampliación de Estudios se desarrollan en Medinaceli. Y a la vez que se funden líneas de investigación en un único instituto, otros nuevos núcleos científicos aparecen en nuestra estructura, tal es el caso del Instituto Histórico Hoffmeyer o el de Estudios Islámicos y del Próximo Oriente. Puede decirse que en el momento actual, a excepción hecha ya del área del Derecho, todas las áreas temáticas de las humanidades y ciencias sociales tienen su lugar en el CSIC: Historia, Arte, Filosofía, Arqueología, Economía, Geografía, Sociología, Demografía, Musicología, Historia de la Ciencia y del Pensamiento, Estudios Locales,... etc., aunque con diferente plasmación en la estructura del organismo. Merece destacarse que en esta primera fase de desarrollo del CSIC en la que los institutos estuvieron estrechamente ligados a la universidad, las mujeres que en ellos trabajaron, y no solo las científicas, contribuyeron de manera decisiva al crecimiento del área. No solo por los trabajos de investigación, en muchas ocasiones tesis doctorales, sino también porque la dedicación a sus institutos permitió la formación y organización de las bibliotecas, la gestión y edición de las revistas científicas del área, entre las que se encuentran las de mayor prestigio de España y que, a través de sus intercambios, constituyen ahora un patrimonio fundamental para nuestra área. Es de justicia destacar en este punto, la labor que han desempeñado y desempeñan las numerosas y valiosas mujeres que se implicaron en estas tareas auxiliares imprescindibles para la investigación. Todo el personal científico del Área estamos obligados a reconocer esta labor, aunque no sea este espacio el destinado para analizarla. Pasada esta primera etapa, a partir de los años sesenta, se inicia un proceso en el que la investigación se financia a través de proyectos. Se termina el paternalisme que caracterizó la etapa anterior y la investigación en equipo será desde entonces, salvo excepciones, la forma habitual de investigar. Ello llevó, inicialmente en nuestro ámbito, a una integración y después a un despegue de la investigación de las mujeres, por la posibilidad naciente de tener financiación independiente, de desarrollar proyectos propios, con un protagonismo similar al de los investigadores varones y en un momento en el que el CSIC se equiparaba, en prestigio, a la Universidad (E. Gangutia). El proceso histórico que se ha planteado en las líneas precedentes, ha sido la reciente historia de los Institutos de nuestra Área. Claro está, que aquellos que tienen un origen más reciente, se han incorporado ya a la etapa en la que la independencia investigadora preside, como norma general nuestro trabajo. Pero teniendo en cuenta, como hemos visto, la edad de las científicas del área, la mayoría de nosotras hemos pasado por esta etapa inicial «paternalista» y la posterior, de independencia investigadora, ya en plena madurez científica. Al final de la década de los sesenta y primeros de los setenta, cuando la formación universitaria para las mujeres deja de ser un indicador de excepcionalidad y muchas, de las hoy investigadoras de nuestra área, comienzan su vida laboral, el formar una familia propia constituía también una forma de independencia de la familia tradicional. Conseguir esta libertad, solo aparente, y conciliar el trabajo de investigación con la formación de la familia sería, en la mayoría de los casos, un obstáculo para tener un proceso profesional con los mismos tiempos y resultados que alcanzaban los investigadores varones. Aunque no fue lo más habitual, en algunos casos, esta dedicación a la familia o la participación en trabajos de los institutos, no estrictamente de investigación, retrasaron la ejecución de la tesis a más de una de las actuales colegas investigadoras. Puede decirse que estas circunstancias fueron obstáculos en razón de género (encubierto) debido a las necesidades personales de dedicación a la familia o, la necesidad económica de mantener un puesto de trabajo. «... no tengo claro todavía si los problemas que fueron surgiendo a lo largo de mi carrera profesional y que pudieron solventarse, ocurrieron por mi condición de mujer o fueron independientes de este hecho específico» (A. Calatrava). «... recuerdo los años duros de inserción en el mercado de trabajo, la dificil compatibilización con la vida familiar. Durante muchísimos años no he tenido vacaciones. Los libros, la memoria de cátedra y los principales informes los he escrito de madrugada, en el silencio acogedor de mi M" Asunción Martín Lou 546 mesa de trabajo. Fuera de la familia y el estudio o la investigación quedaba muy poco sitio para otras cosas, para mi misma...» El poder lo ostentan los hombres Aunque en el momento actual seis de los institutos del área están dirigidos por mujeres (CINDOC, EEHA, lEG, IFL, IH, IHH), son los hombres los que dominan las cifras de nuestro entorno científico. Es curioso observar como esta discriminación numérica se arrastra en la configuración de los Tribunales, tanto en los de oferta de empleo público como en los de promoción interna. Solamente en los formados para juzgar la promoción de Titulados Superiores Especializados encontramos un 60% de mujeres en la composición de los mismos. Por el contrario, cuanto más elevado es el nivel a juzgar, menos es el porcentaje femenino de los componentes de los tribunales: Profesores de Investigación 13 %, Investigadores Científicos 16% y Científicos Titulares 24%. Lo habitual es que sean hombres los directores de tesis, los integrantes de tribunales, tanto de tesis como de oposiciones, los directores de equipos de investigación, y aunque según la percepción de la mayoría de las investigadoras consultadas no está claro que estos hechos sean debidos a una discriminación en razón de género, las cifras están ahí, y las diferencias podemos decir que son más bien consecuencia de cuestiones relacionadas con la política... científica. «... en mi trabajo científico en el CSIC no me siento en absoluto discriminada, aunque considero que mi trayectoria profesional se encuentra un tanto frenada, pero no estoy segura (aunque alguna vez lo he pensado) de que ello se corresponda con el hecho de ser mujer, sino más bien a cuestiones más generales de política científica» (M. Delgado). De este olvido hacia las mujeres científicas está llena la etapa paternalista a la que antes aludíamos. Solarnente circunstancias personales, casi siempre ligadas a la familia, han logrado vencer esta circunstancia. Entre las experiencias personales aportadas por investigadoras del área reproduzco ahora la de Concha Roldan, una reciente (1997) investigadora del área perteneciente al Instituto de Filosofía. No es vanal incluirla aquí. Considero que reflejan con firmeza el estado de la cuestión en nuestra área y, más aún, confirma lo que muchas hemos experimentado desde hace más de treinta años. Mi trayectoria profesional en el CSIC tampoco consigue zafarse de la jerarquización androcéntrica mencionada en esta institución pública de investigación, en la que desde 1997 soy Científica Titular, después de Área de Humanidades y Ciencias Sociales una década de vinculación intermitente con la institución como becaria y contratada. Para hacer honor a la verdad he de decir, además, que soy la única mujer investigadora en la plantilla en la joven historia de este pequeño instituto que en la actualidad cuenta ya con catorce investigadores, entre los que desde el principio ñie considerada «como uno más», si es que puede emplearse esta expresión sin que suene discriminadora. Indaguemos la causalidad de este hecho: no hay que buscarla precisamente en la escasez de mujeres con un curriculum valioso en el campo de la investigación filosófica, algunas de las cuales han sido becarios en nuestro instituto. ¿Se debe entonces a la casualidad este hecho que me hace enfi: entarme cada día con una sensación de excepcionalidad? ¿Qué fiíe, por ejemplo, de mis compañeras de promoción o de promociones anteriores y posteriores a la mía?. Nos licenciamos en una promoción superior al 60% de los varones, con notas bastantes mejores que ellos en la mayoría de las asignaturas, lo que a muchas nos permitió acceder a distintas becas de investigación. Sin embargo, apenas nos contamos con los dedos de una mano las que conseguimos horadar un hueco en el resistente muro de la Academia, mientras que a muchas sí se les abrió el campo de la Enseñanza secundaria, o incluso primaria, tanto en centros estatales como privados. Algunos «científicos» afirman que la mayoría de las mujeres carecen de la testosterona suficiente para alimentar su ambición profesional y que por eso «se quedan» en puestos subordinados con respecto a los varones «más agresivos». Así de sencillo, como recuerdan las clasificaciones que van desde Aristóteles hasta Linneo: nosotras mismas nos vamos autoexcluyendo por el camino debido a una sencilla «cuestiona hormonal». Parecería obvio que la filosofía, con su consideración como disciplina crítica por excelencia y, sobre todo, con su pasado ilustrado de lucha contra los prejuicios, hubiera debido enfi:*entarse al problema con otro talante, pero son pocos los filósofos que se han acercado al debate sobre el género de una manera que no sea meramente oportunista o anecdótica. Salvando esas honrosas excepciones, una pequeña parte de nuestros colegas varones están asentados en su cota de poder y no quieren arriesgarse a perderla concediendo de facto el estatus de igualdad a sus colegas mujeres; la mayoría, sencillamente «no nos ve». Conclusión y perspectivas de futuro En las líneas que anteceden he expuesto unas consideraciones, muy generales, con respecto al proceso histórico y a los datos actuales del área de HH. y CC. SS. y de las científicas que la integran. Con respecto a la historia, la mayoría de los institutos tienen sus orígenes en los del CSIC y aún lo anteceden como hemos visto en el caso del Centro de Estudios Históricos de Medinaceli. En cuanto al proceso científico, sigue en paralelo al desarrollo social de nuestro país. También la investigación realizada por mujeres ha logrado una independencia que se manifiesta en una participación equiparable a la de los hombres en cuanto a resultados de la investigación, publicaciones, participación en proyectos, conferencias, seminarios, etc. No podemos decir lo mismo si comparamos la participación de las científicas en puestos directivos, tribunales..., en fin, en órganos de decisión a pesar de que, como hemos visto, el porcentaje de mujeres es suficiente para tener una mayor presencia. ¿Es a causa del género el retraso en el tiempo que en muchos casos experimentan las científicas en su trayectoria profesional? Parece ser, según hemos constatado en las conversaciones mantenidas que no hay conciencia clara de ello. Pero ¿acaso la dedicación a la familia, a los hijos (colegio, médico, etc.), a los padres en la edad actual de la mayoría de nosotras, no es un indicador de género? El futuro no podemos tampoco desligarlo de las tendencias generales de nuestra sociedad actual, en donde las HH. y CC. SS. tienen un escaso reconocimiento de su valor y trascendencia. No deben olvidar quienes hacen política científica que nuestras disciplinas recogen el patrimonio histórico y cultural y que, sólo el conocimiento de nuestra sociedad en todas sus manifestaciones permitirá seguir teniendo un lugar importante en el entorno científico que hemos heredado y nos corresponde.
estudio incluye datos numéricos en cuanto a presencia porcentual de mujeres en las distintas escalas y comisiones de evaluación, así como testimonios personales, reflexiones y consideraciones generales. Se pone de manifiesto el bajo porcentaje de investigadoras en esta Área, Se concluye el estudio con una serie de recomendaciones. Introducción y notas generales El 22 de noviembre de 2001 empezó nuestra andadura en este proyecto, al que coloquialmente nos referimos como el «Women 's Lib de las Físicas del CSIC», en un terreno que era nuevo para nosotras. Además, a lo largo de nuestra carrera científica, la mayoría de nosotras ha trabajado generalmente con hombres, de modo que para algunas este proyecto constituye la única experiencia de un trabajo realizado en colaboración con mujeres. Pues bien, parece que nos ha resultado una tarea altamente gratificante y estimulante y, desde luego, nos ha sido muy fácil ponernos de acuerdo en ella. Desde nuestra primera reunión de trabajo quedaron muy claras las prioridades. En primer lugar, este trabajo debería servir para mejorar las condiciones de las científicas y estudiantes que vienen detrás. Por tanto, tendríamos, como principal cometido, hacer propuestas claras y concretas, recomendar vías de solución a los problemas y a las deficiencias con que nos habíamos enfrentado y que observábamos en la actualidad. En segundo lugar, nuestro trabajo debería servir como documento de partida para futuros estudios sobre las científicas en el CSIC. Por tanto, antepondríamos a nuestras ansias literarias y perfeccionistas el cumplimiento del plazo, finalizando el artículo en febrero de 2002. Aceptando de antemano deficiencias, como la fractalidad de los datos y testimonios disponibles, o la formulación imprecisa e incompleta de ideas y conceptos, nos pusimos manos a la obra. Los tres meses que teníamos por delante estaban ya repletos de compromisos en nuestras agendas de trabajo, pero nos comprometimos a sacar tiempo de donde no lo había. Con esas dos prioridades en mente, estructuramos nuestro proyecto en una primera recogida de datos, experiencias y opiniones que expondríamos con brevedad y claridad, para a partir de ellos, deducir los puntos a destacar y las medidas a recomendar. En el primer frente -recogida de datos-pretendimos hacer un análisis de la evolución, desde los años 60 ó 70 hasta ahora, de la relación porcentual de mujeres y hombres en los distintos niveles de puestos de investigación en los centros de Física y Tecnologías Físicas del CSIC. Sin embargo, hasta el momento y aunque seguimos trabajando en ello y solicitando ayuda al respecto de la Subdirección General de Recursos Humanos, sólo disponemos de información muy limitada. Presentamos aquí la información global referente al año 2000, que ha sido difundida en el 2001 desde la Presidencia del CSIC y que está disponible en la página web del Consejo, pormenorizada en la distribución por centros. Afortunadamente, una de las aquí firmantes tenía información bastante detallada del año 1994, año en que había realizado un estudio sobre este tema. Bueno, para ser más precisos, casi nada. Afortunadamente, otra vez, una de las colaboradoras había vivido de lleno la situación de la Física en el CSIC entre los años 1970 y 1990 y, aunque no podía darnos números precisos ni estadísticas, sí podía darnos una idea cualitativa de la situación en esa época a través de su propio testimonio y el de algunas antecesoras suyas. Por tanto, en la Sección 2 dedicada a datos recogidos, hemos incluido sólo la evolución desde 1994. Algo de la situación anterior se vislumbra de los comentarios del apartado de «orígenes» en la Sección 3, pero ésta debería de ser objeto de estudio en el futuro. Mujeres en Ciencia y Tecnologías Físicas en el CSIC 551 En el segundo fi:-ente -opiniones y vivencias-tratamos de obtener el mayor número posible de contribuciones de científicas del área. Obviamente, la información recogida está lejos de ser completa, debido a las limitaciones de tiempo y a la dificultad de comunicación con algunos centros. Aparte del buen número de contribuciones escritas que se recibieron y que se exponen de forma resumida en la Sección 3, hubo respuestas muy interesantes recogidas en conversaciones. Estas no se hallan reflejadas suficientemente en la Sección 3 y queremos aquí referirnos a ellas porque pueden ser de utilidad para futuros estudios y reflexiones. En concreto, algunas tecnólogas respondieron que no se habían sentido nunca discriminadas en el CSIC, pero sí en trabajos anteriores fuera del Consejo, en particular en empresas de software. Discusión aparte merecen las opiniones de nuestros colegas varones del CSIC y de otros países. Para poner en contexto dichas opiniones, que a continuación comentanaos, hay que decir que nos pareció interesante recogerlas aquí debido al carácter predominantemente internacional y masculino del sector de población con el que tenemos que convivir y competir en nuestra actividad científica ordinaria. En general, nuestros colegas del CSIC se mostraron molestos ante la más mínima alusión a preguntas sobre discriminación por sexo en la Institución, sin dar mayores explicaciones. No obstante, algunos de ellos hicieron hincapié en la idea de que la discriminación en el CSIC no era cuestión de sexo sino de «clase», ya que los órganos dirigentes no daban el debido peso a los científicos y sólo escuchaban a algún «elegido» que variaba según las legislaturas. Así lo hemos oído, así nos parece que debemos transmitirlo por si hubiese lugar a enmendar el presunto fallo. Ese es pues, el mensaje de nuestros colegas masculinos en el CSIC, y ¿qué pasa con los colegas extranjeros? Destacamos las opiniones mayoritarias de colegas anglosajones, quienes a) no piensan que haya discriminación y, b) señalan que prácticamente sólo en los países mediterráneos hay mujeres científicas en la Física. Claro, hay países anglosajones donde a las niñas se les enseña que no es ésta «una carrera para mujeres», con lo cual no hay discriminación por sexo en la vida profesional porque no hay a quién discriminar. Sin embargo, a menudo se oye comentar a científicas mediterráneas que se sienten más discriminadas por estos colegas. Lo que sí parece claro ^ es que, comparada con la cultura mediterránea, la anglosajona ha sido más proclive y eficaz en crear un mundo de poder en torno a la investigación científica en el área de Física y en mantener apartadas de ese mundo a las mujeres. Consecuentemente con el lema de que «las cuestiones importantes las resuelven los hombres» y 552 Elvira Moya de Guerra atendiendo a un principio de pragmatismo muy anglosajón, su esquema sería: «Si, como Neobía, somos hijas de un Dios Menor, ¿No es acaso más práctico para nosotras y para la especie mantenernos alejadas de conocimientos y esfuerzos que devendrían estériles?» Obviamente, consideramos que la premisa es falsa y, por ende, la pregunta es falaz. Hoy se acepta universalmente que, a priori, no hay nada en las capacidades intelectuales, creativas y organizativas de una persona que la hagan diferente por el hecho de ser hombre o mujer. Simplemente hay personas que por sus dotes naturales y, sobre todo, por esfuerzos educativos y de su propia voluntad, desarrollan más dichas capacidades. Este desarrollo depende de la medida en que su entorno lo permite. Consideramos que, en lo referente a la cuestión de género, las limitaciones en este sentido vienen más de las condiciones de contorno establecidas por el medio que del potencial individual. Para terminar con estas consideraciones añadiremos que hay una percepción bastante generalizada de que nuestros colegas masculinos (españoles y extranjeros) tienden a menospreciar nuestras capacidades como científicas. Por tanto, la opinión de los hombres arriba expuesta (que también se contradice con los números de la Sección 2) sería sólo un reflejo de que la percepción de discriminación se da en el sujeto paciente, no en el sujeto agente. No obstante, se percibe, por parte de las más mayores y expertas, una evolución temporal favorable del comportamiento de nuestros colegas en cuestiones de género. Dicha evolución resulta particularmente positiva en aquellos que tienen más vínculos de parentesco y/o de trabajo con científicas. Parece ser que una gran mayoría de físicas del CSIC están casadas con físicos de su mismo instituto o de institutos afines. Este punto puede y debe ser estudiado en el futuro. Sin duda, hay dos puntos clave que hoy por hoy continúan sin resolverse de forma satisfactoria. Estos problemas transcienden desde luego a la problemática de las físicas del CSIC, aplicándose a toda la sociedad, pero en lo que aquí nos atañe, haremos en la Sección 4 algunas recomendaciones sobre medidas prácticas que el CSIC puede tomar para paliar estos problemas. El primer problema es, sin duda, el de la maternidad. No cabe duda de que hoy por hoy la sociedad tiene recursos muy superiores a los que tenía a finales del XIX para afrontar esta cuestión sin prescindir de la contribución social de la mujer como trabajadora y como madre. Sin embargo, la cuestión está lejos de ser resuelta. Varias de las aquí firmantes que tratamos de desarrollar con éxito no sólo nuestra profesión sino también nuestra faceta de madres, hemos confesado a menudo nuestra pesadumbre ante la carga y la tensión (a veces insoportable) que nos supone la compaginación de estos dos «full time demanding jobs», ser madre y científica. A menudo decimos: «el problema es que cuando estoy a pleno rendimiento, centrada en mi trabajo, tengo la pesadumbre de que estoy abandonando mis deberes de madre de familia y cuando estoy dedicada a mis hijos pienso que abandono mi trabajo». Frases análogas se repiten de generación en generación desde principios del siglo XX, ya que si se consulta cualquier biografía de ilustres antepasadas nuestras, puede verse en todos los idiomas y épocas ^. Por ejemplo, María Goeppert Mayer (Premio Nobel de Física en 1963 por su descubrimiento del Modelo Nuclear de Capas) decía refiriéndose a sus hijos: «I never stopped feeling guilty, thinking that I should have been home more. El segundo punto clave radica en la, aún hoy, deficitaria imagen pública de mujer profesional. Percibimos que, hoy por hoy, la imagen de mujer en puestos de responsabilidad provoca un cierto rechazo de forma mayoritaria. Asimismo, percibimos que el éxito profesional de la mujer es peor recibido y aceptado entre su colectivo, que el del hombre. No sólo entre sus pares (que pueden llegar a sentir que el que una mujer ocupe su mismo puesto les desprestigia), sino incluso entre profesionales de niveles inferiores. Aquí el problema está muy relacionado con el hecho de que (desde formas tribales) la idea de respeto y reconocimiento a la superioridad del otro está vinculada al ejercicio autoritario y al sometimiento a la autoridad. Lo cual entra en claro conflicto con el aspecto frágil y formas naturales y amistosas, características de la mujer. Asimismo, la idea de carisma personal se asocia con la de inaccesibilidad e impermeabilidad, en contraposición a los modos de acercamiento personal y confidencialidad más al uso entre mujeres. Aquí la sociedad en general tiene una asignatura pendiente. Para una sociedad en la que tradicionalmente el respeto a la mujer venía dado fundamentalmente en función de su cate-554 Elvira Moya de Guerra goría de esposa y madre, es difícil llevar a cabo la incorporación plena del nuevo concepto de mujer profesional. Toda la sociedad está implicada en esta aventura. Las mujeres profesionales tenemos la oportunidad de demostrar nuestras capacidades y talentos, y tenemos el deber de hacerlo con seriedad y responsabilidad. La sociedad at large tiene que comprometerse a aceptar sin cortapisas y a valorar nuestra profesionalidad. Como se desprende de la lectura de la Sección 3, actualmente, en el sector de mayor nivel educativo en que nos movemos, es difícil observar manifestaciones abiertas de discriminación por sexo; pero sí hay formas sutiles de discriminación en las relaciones profesionales de la mujer científica en el área de Ciencia y Tecnologías Físicas del CSIC, que tienen que ver con los puntos arriba mencionados. Las sociedades occidentales hemos apostado por la incorporación de la mujer al mundo laboral en todas sus dimensiones. Por tanto, hemos de ser consecuentes buscando vías para resolver temas que están en el fondo minando la aportación, la eficacia y el rendimiento de las mujeres. En una sociedad plural la mujer tiene que aportar su propia identidad y escala de valores, enriqueciendo el mosaico del potencial humano del mundo laboral. Si las condiciones de contorno la obligan o fuerzan a ser «más de lo mismo», limitándose a seguir el patrón masculino previamente creado, entonces el intento no habrá valido la pena y la incorporación de la mujer al trabajo puede tener nefastas consecuencias. Expreso aquí estas ideas aún a sabiendas de que pueden ser objeto de litigio y pueden plantearse de forma muy diferente en otros sectores. A. Evolución de los porcentajes de mujeres en el Área Los resultados que presentamos han sido aportados por los gerentes de los diferentes institutos, por lo que les estamos profundamente agradecidas, y de los que encontramos en la web de los centros. Para poder realizar un estudio comparativo con la evolución durante los últimos años en el CSIC hemos utilizado los datos recopilados por J. Masegosa en 1994. Estos resultados fueron presentados en el curso Mujeres de Ciencia. Presente y Futuro (Universidad de Granada, 1994), gracias a la colaboración desinteresada de la Prof. Carmen Dobarganes, entonces coordinadora institucional en Andalucía. Somos conscientes de que en algunos aspectos no es completo. No obstante, nos da una idea de la realidad actual de nuestro área y de si en los últimos años -donde se supone que vie-Mujeres en Ciencia y Tecnologías Físicas en el CSIC 555 jos tabúes quedaron anclados en el pasado-hemos obtenido el lugar que como mujeres científicas nos corresponde, o si por el contrario, en algún momento en nuestra historia reciente hemos alcanzado el «techo de cristal» *• En primer lugar, los resultados globales para el área no parecen demasiado optimistas. Tomando los datos aportados por la Presidencia del CSIC y que se pueden encontrar en la web http:l /www.csic.es, nos enfrentamos a que nuestro área es la más desfavorecida en cuanto a la presencia de mujeres: un 19.9 por ciento, frente a valores típicos en el resto de las áreas por encima del 30% (exceptuando la presencia de mujeres en el área de Recursos Naturales). Este resultado, analizado aisladamente y sólo para el año 2000, ya puede parecer preocupante, pero más preocupante es el hecho de que el porcentaje es el mismo que el de enero de 1994 (19.2%). De forma que, si bien creemos que ha habido una dinamización del CSIC en los últimos años, parece que ésta no ha ido en la misma dirección para hombres que para mujeres. Téngase en cuenta que el porcentaje de becarias postdoctorales y predoctorales durante ese mismo año era de un 30%. Nos gustaría aquí resaltar que este estancamiento del CSIC no es exclusivo de nuestro área y que los porcentajes, salvo fluctuaciones de tipo estadístico, son los mismos en todas las áreas a los obtenidos en 1994. En cuanto a la tendencia general, ya encontrada en 1994, de una diferencia notable a medida que se analiza la presencia de mujeres en escalas más altas, la situación también permanece estable: seguimos con el mismo numero (3) de Profesoras de investigación que en el año 1994, hemos aumentado en 2 el número de Investigadoras científicas (los números obtenidos por nosotras no coinciden con los que hay en la Web, 8 frente a los 5 publicados por la presidencia). De forma que seguimos con nuestro típico 10 por ciento en puestos de mayor responsabilidad y también de poder científico y político, como la presencia en tribunales, jefaturas de departamento y dirección de centros. En cuanto a la escala más baja, a la cual parece que nuestros colegas nos ponen menos reparos, tampoco la situación es muy halagüeña: hemos aumentado en 2 puntos, un 26 por ciento en la actualidad frente al 24 por ciento de 1994. Este hecho se reproduce claramente a la hora de ocupar puestos directivos en los diferentes Institutos. En la actualidad no existe ninguna directora en toda el área, y sólo hay una Vicedirectora. Por el contrario, el porcentaje aumenta de manera importante para los Gerentes, de hecho solo 3 Gerentes son hombres, cargos que tradicionalmente han sido Barrera invisible que la científica no ve pero con la que se encuentra en su carrera. Elvira Moya de Guerra identificados con labores femeninas. El hecho de que exista una fuerte tendencia a que los Directores de centros sean Profesores de Investigación o Investigadores Científicos produce una clara discriminación para las investigadoras del CSIC a la hora de acceder a puestos directivos. A continuación pasaremos a detallar los resultados obtenidos entre las diferentes disciplinas en los institutos de investigación. En la Tabla 1 se presentan los datos de Institutos propios del CSIC y en la Tabla 2 los de centros mixtos. En los centros propios del CSIC (Tabla 1) existen dos Institutos singulares con porcentajes muy por encima del valor medio, el Instituto de Óptica y el Instituto de Microelectrónica de Madrid. Sería interesante decir que el aumento de porcentaje femenino en ambos Institutos coincide con una drástica reducción del personal en plantilla a lo largo del periodo 1994-2000. En el Instituto de Óptica, como puede verse en sus anuarios, ha habido siempre una gran participación femenina (por ejemplo, en el año 1975 la tercera parte de los Profesores de Investigación eran mujeres -6 hombres, 3 mujeres-). Dicho instituto fue reestructurado, disminuyendo notablemente su plantilla en el año 1994 y se nombró a una mujer como directora del centro para proceder a convertirlo en un instituto más competitivo. En cuanto al Instituto de Microelectrónica de Madrid, está formado por dos departamentos: el de Fabricación y Caracterización de Nanoestructuras, con dos mujeres en él de un total de 7 científicos en la plantilla, y el de Fabricación de Dispositivos, Sensores y Biosensores con 4 mujeres de un total de 8. En el otro extremo de la balanza se encuentran el Instituto de Matemáticas y Física Fundamental (IMAFF) y el Instituto de Acústica (lA). El IMAFF tiene tres departamentos: Física Atómica y Molecular Teórica (dos mujeres); Partículas, Campos y Cosmología (dos mujeres) y Matemáticas. El lA tiene dos departamentos: Acústica Ambiental (dos mujeres); y Señales, Sistemas y Tecnologías Ultrasónicas (una mujer). El resto de los Institutos son bastante homogéneos, con proporciones de mujeres entre un 19 y un 23 por ciento. Sin embargo, es interesante detallar por líneas de investigación en cada uno de los Institutos restantes. El caso del Instituto de Astrofísica de Andalucía (lAA) es particularmente interesante: de las seis investigadoras de este instituto, cuatro pertenecen al Departamento de Astrofísica Extragaláctica y representan el 50 por ciento de su plantilla. Es también resaltable que en dicho departamento el porcentaje de mujeres investigadoras postdoctorales es también el más alto de todo el Instituto, (apuntando en la dirección ya argumentada en el trabajo «Mujeres de Ciencia. Presente y Futuro» de que los centros y departamentos con más mujeres incorporan también más mujeres). El Instituto de Estructura de la Materia (lEM) es uno de los Institutos más grandes de nuestro área y no se aprecian diferencias obvias en la distribución de los diferentes departamentos. La disminución de un 28.6 a un 22.5 por ciento en los últimos seis años refleja, en parte, la incorporación de un grupo predominantemente masculino procedente del Instituto de Óptica Daza de Valdés (10). Por último el Instituto de Física Aplicada es un compendio de investigadores procedentes de otros Institutos, en particular de la reestructuración del 10, lo que queda reflejado en su evolución en los últimos seis años: ha pasado de no tener mujeres a ser éstas el 21.7 por ciento de la plantilla del centro. En cuanto a los centros mixtos (Tabla 2), los datos sugieren que no son especialmente favorables a promocionar la carrera científica de la mujer. Es resaltable especialmente que estos centros se generan casi siempre a instancias de iniciativas de varones y con escasa participación de mujeres. Sólo cuando dichos centros ya han alcanzado su madurez se empieza a vislumbrar una participación de la mujer similar a la observada en los centros propios del CSIC. B. Participación de mujeres en tribunales de oposiciones Los datos que presentamos en este apartado están elaborados a partir de los tribunales publicados en el Boletín Oficial de Estado, comprendidos entre 1995 y 2001. En los tribunales para plazas de Científicos Titulares (antes Colaboradores Científicos), la participación media en estos años ha sido de un 16 por ciento. Por años el desglose es el siguiente: El porcentaje de mujeres en tribunales de CT en nuestro área debe considerarse bajo. En ningún caso se llega a la media publicada en la Web del CSIC de participación de mujeres en los tribunales, juntando todas las áreas (año 1999 el 34.6% y año 2000 el 29%). En el caso de este área de Físicas y Tecnologías Físicas no se cumple ni siquiera la proporción de Científicas Titulares en el área (26%) y tampoco se ve ningún incremento paulatino en función de los años. Es, por tanto, claro el camino que debería seguir el CSIC en los próximos años: no sólo aumentar la proporción de mujeres en los tribunales en número, sino tener una política más activa que rompa con el estereotipo masculino de la Física. En los tribunales para plazas de Investigador Científico la media es del 9 por ciento, y aquí el problema es la estadística de números pequeños. El desglose por años se da en la siguiente tabla donde hemos incluido, además del porcentaje, el número de mujeres respecto al total de miembros en los tribunales: Tampoco en el caso de IC y PI se llega, en media, a la proporción de mujeres en el área. Además, se llega a esta proporción por una mayor participación de las mujeres en los tribunales de tecnologías físicas, como es el caso de los tribunales de IC de los años 1998 y 2001. Creemos que un punto importante de reflexión para las autoridades del CSIC debe ser el hecho de que desde hace diez años tenemos el mismo número (tres) de Profesoras de Investigación en el área. Cuestión de opiniones: testimonios y percepciones sobre la discriminación por sexo En esta Subsección mostramos textualmente, y en primera persona, algunos testimonios comenzando con el de una Profesora de Investigación Emérita. «MIRANDO HACIA ATRÁS» Si empiezo por el principio, he de decir que ya en casa de mis padres no hubo discriminación puesto que éramos tres chicas. Por otra parte, asistí a un instituto de Segunda Enseñanza femenino; por lo tanto, no existía competitividad entre chicos y chicas. En la Universidad ya fue otra cosa. En mi curso, en la Facultad de Química, al empezar en 1944, aproximadamente un tercio éramos muchachas (mi promoción se licenció en 1949). Allí sí recuerdo que experimenté algo de la «dominación mas-Mujeres en Ciencia y Tecnologías Físicas en el CSIC 561 culina», pero era el ambiente de la sociedad de entonces. Me acuerdo, por ejemplo, de un profesor que prefería chicos para hacer prácticas especiales. Y terminé la carrera. Busqué trabajo: en un laboratorio farmacéutico, en donde hice un intento para entrar, sólo querían mujeres como ayudantes, nada de licenciadas. No podían pasar de los estudios de Bachillerato. Pensar en la Universidad era una locura. Tenía la sensación de que era inabordable llegar a ser profesora porque en aquella época no sabía de ningún caso. Sí existían de ayudantes de laboratorio, supongo que de forma gratuita. Incluso me ofrecí, pero no tuve éxito. Para ganar tiempo me matriculé de algunas asignaturas de doctorado y entre ellas, en una de Espectroscopia con el Profesor Miguel A. Catalán. Una de mis hermanas se encontró con el Prof. José Barceló Matutano, con quien yo había estudiado Física y Química en el Bachillerato, que estaba trabajando a tiempo parcial en el casi recién fundado Instituto de Óptica Daza de Valdés (en el Dpto. de Espectroscopia que dirigía el Prof. Catalán) y le dijo que fuese a verle. Yo pensé que de la Óptica sólo me apetecía trabajar en Espectroscopia, por lo tanto no hubo problemas para empezar a hacer la Tesis Doctoral. Como el Prof. Catalán ya tenía trabajando mujeres en su departamento y el Prof. Barceló acababa de llegar de los EEUU y estaba solo, no tuve problemas de ninguna clase por el hecho de ser mujer. Además, en el mismo grupo entraron pronto otras jóvenes a hacer la Tesis. Pronto tuve una beca, y después de leer la tesis me nombraron Ayudante de Investigación, luego Colaborador eventual del Patronato «Alfonso X el Sabio», seguido de Colaborador científico del Patronato «Juan de la Cierva»; después, con los años. Investigador y, finalmente, Profesor de Investigación en el Instituto de Óptica. Puedo decir que en toda mi carrera investigadora no tuve que competir prácticamente con hombres, al menos siendo consciente, aunque sí tuve noticias, a posteriori, de que, en el Instituto de Óptica algunos se enfadaron por adelantarles yo al ser nombrada Investigador y Profesor de Investigación antes que ellos. También, como anécdota, puedo contar que, cuando obtuve una beca para ampliar estudios en Alemania, un compañero le aconsejó al Director que yo no fuese porque «me ahogaba en un vaso de agua» (lo cual no creo que fuese cierto). Me lo confesó él mismo años después. Menos mal que el Director confió en mí. En resumen, como el Director del Instituto de Óptica, Prof. Otero, no parecía tener nada en contra de las mujeres científicas, como lo demos-562 Elvira Moya de Guerra traba el hecho de que antes que yo habían entrado otras mujeres, entre ellas María Teresa Vigón, María Egüés, y Olga García Riquelme, no puedo decir que encontrase discriminación. Yo por mi parte no tenía ambiciones de «poder», y ahí sí podía haber tenido dificultades. En realidad, tuve mucha suerte de haber ingresado en el Instituto de Óptica. Sabía que en otros institutos de investigación, dependiendo del director, después de leer la tesis doctoral las mujeres tenían que abandonar el CSIC. En el Instituto de Óptica, cuando esto ocurría, era porque no había puestos de trabajo, lo que, como sabemos, ha sido el problema del CSIC antes y ahora. Yo entré en el momento oportuno. Respecto a mi estancia en Alemania y después en Inglaterra, las mujeres científicas en los Institutos de Física y Química en que estuve pertenecían al género «avis rara», mucho más escasas que en España. En el Institut fur Physikalische Chemie de la Universidad de Friburgo creo que sólo había una mujer haciendo la tesis, en cuyo departamento, por supuesto, me pusieron. Después, ¡no sé por qué razones! trabajó en otro centro. En la hora del café y en las reuniones solamente éramos las dos únicas mujeres. En el Physical Chemical Laboratory de la Universidad de Oxford también había muy pocas mujeres estudiando, yo sólo recuerdo a una polaca. También la hora del café y del té estaban pobladas casi exclusivamente por hombres. Desde luego, no cabe duda de que en la rama de Ciencias, al menos, la situación era igual o peor en los países europeos que en España. En nuestro país, mucha culpa de la situación la teníamos las mismas mujeres. No teníamos claro si nuestra misión era convertirnos en mujeres científicas. Muchas de mis compañeras de curso, al casarse, se dedicaron a su familia (el mismo marido no dejaba que trabajasen fuera de casa), aunque unos años después algunas buscasen trabajo, principalmente en la Enseñanza, que era más compatible con su vida familiar. También hay que dejar constancia de la dificultad de encontrar trabajo para una mujer casada. Para terminar, no puedo dejar de mencionar una frase que oí en mis tiempos de estudiante refiriéndose a que nuestra misión era convertirnos en «las mujeres cultas de unos hombres cultos y las madres cultas de unos hijos cultos». Esto estaba en la mente de todos y de todas, y eso ya era una suerte. El destino de otras fue peor porque no les dejaron o no pudieron llegar a la Universidad. Así pues, mi experiencia como científica del CSIC ha sido de no discriminación. Sin embargo, sé de otras colegas, mayores que yo, que tienen experiencias muy diferentes, como lo demuestra el testimonio de María Egüés, quien nos cuenta a continuación sus experiencias. «YO FUI DISCRIMINADA EN EL CSIC POR SER MUJER» Comencé la carrera de Físicas el curso 1935-1936 en la entonces llamada Universidad Central y terminé el curso a finales de mayo de 1936. Así, la Guerra Civil me encontró con el primer curso de la carrera acabado, pero lo que no sabía era que me esperaban tres años de vacaciones forzosas. Terminada la contienda, el curso 1939-40 se presentó con la perspectiva de poder hacer dos cursos intensivos para ganar algo del tiempo perdido, en una universidad con los laboratorios arruinados y un cuadro de profesores totalmente diezmado. Por ejemplo, en Físicas solamente quedaba un catedrático titular: D. Julio Palacios. Las asignaturas comunes a Matemáticas estaban mejor dotadas en cuanto a profesores; pero en Físicas el profesorado lo componían, además de D. Julio, auxiliares y ayudantes como encargados de cátedra, cargados de buena voluntad. Las asignaturas de Electricidad y Física Matemática las impartía el Profesor Duran, que más tarde ganó la cátedra de Óptica y que estaba muy interesado en el porvenir de los físicos españoles. La de Óptica estaba a cargo del Profesor Biel. Con estos profesores terminamos la carrera el curso 1940-41, curso normal sin los agobios de los dos intensivos. Por marzo o abril de 1940, el Prof. Duran, que al mismo tiempo cjue sus tareas universitarias trabajaba como ayudante en la sección de Óptica del Instituto de Física y Química de la antigua Fundación Rockefeller -núcleo del proyecto del CSIC entonces en embrión-, me comunicó que en dicha sección se iba a impartir un cursillo de Óptica Geométrica y Cálculo de Sistemas Ópticos a cargo de un profesor alemán (el Prof. Weidert). Su consejo fue que yo tomase parte en él. El jefe de la sección de Óptica del Instituto era D. José María Otero, que también era Subdirector del Laboratorio de Óptica del Ministerio de Marina. Acepté, y, cuando llegó el Prof. Weidert y empezó a impartir su cursillo, fui para asistir al mismo. Allí me encontré con un grupito de ocho o diez personas: licenciados, doctores e ingenieros que iban a lo mismo que yo, y como únicas mujeres, Piedad de la Cierva y yo. Entonces, me dijeron los profesores Otero y Duran que el Director del Instituto, D. José Casares, había permitido que yo asistiese al cursillo, pero en cuanto terminasen las clases debía ausentarme del edificio porque él no quería mujeres en su Instituto. Lo cierto es que había una secretaria y bibliotecaria y Piedad de la Cierva, porque pertenecía al personal del Instituto antes de la guerra. El curso, que se daba, todas la tardes, duraba dos horas, con una pausa de un cuarto de hora. Todo estaba debidamente escrito en unos encerados clarísimos en los c^ae, aunque no sabíamos alemán, podíamos seguir su exposición. Después, como los que dominaban el alemán eran los pro-564 Elvira Moya de Guerra fesores Otero y Duran, había un repertorio donde nos explicaban todo lo que en el encerado había escrito el Prof. Weidert. Luego había que hacer prácticas de cálculo de sistemas, que entonces se hacía persiguiendo un rayo de luz a través de todas las superficies que constituían el sistema óptico, mediante cálculo logarítmico. Esto se hacía en parejas para evitar en lo posible los errores que pudieran cometerse. Llegamos felizmente al final del cursillo, y entonces me propusieron firmar un contrato con el Ministerio de Marina para, trabajando en el Instituto, dedicarme al cálculo de sistemas ópticos, cosa que acepté de inmediato. Esto requería trabajar mañana y tarde y continuar por las tardes con un nuevo cursillo del Prof. Weidert. Empecé mi trabajo, siempre con el miedo de que me viera D. José Casares en horas no lectivas. Siempre había alguien que avisaba: «¡Maruja, que viene D. José!», y yo me escondía donde podía; muchas veces debajo de una mesa de trabajo porque no me daba tiempo de encontrar un sitio mejor. Pero hubo un día en que me topé con él y me echó una bronca de las que no se olvidan. Me dijo, entre otras cosas, que si volvía a verme por allí fuera de las horas del cursillo, me pondría en la calle sin más aviso, que no quería mujeres en el edificio y que a Piedad la toleraba porque hacía tiempo que trabajaba allí y conocía a su familia, mientras que a mí no me conocía de nada. Salí llorando de la entrevista y les dije a los Prof. Otero y Duran que no contasen conmigo porque no pensaba volver más. Entonces buscaron una solución intermedia, que consistía en trabajar por las mañanas en un despachito que tenía el Instituto Torres Quevedo en el Museo de Historia Natural y así poder seguir el cursillo por las tardes. Y eso duró hasta que ocupó la Secretaría General del Consejo D. José María Albareda, en que las cosas cambiaron y las mujeres podíamos entrar libremente en los edificios del Consejo. Y aquí terminó mi odisea, porque después pude simultanear mi puesto en el laboratorio y taller de investigación del E.M. de la Armada con ser Ayudante en la sección de Óptica Geométrica del Instituto Daza de Valdés y, más tarde. Jefe de dicha sección. «UNAS ANÉCDOTAS ENLAZANDO PASADO Y PRESENTE» Cuando empecé a hacer el Doctorado en 1970, mi director de tesis decidió que no podía pedir una beca del Ministerio de Educación para mí porque iba a casarme y no llevaría a cabo la realización de mi tesis. Quiero dejar bien claro que lo digo sin acritud, sólo como un testimonio de lo que hace ya más de treinta años era el «status quo». Cuando lo supe, lloré; no por el hecho de que pudiese tener o no la beca sino por lo que me hirió pensar la falta de seriedad que se me suponía, ya que no se me consideraba una persona responsable capaz de cumplir sus compromisos profesionales. Recuerdo que entonces, para aplacarme, un querido compañero me dijo que «no lo tomase a mal», que era comprensible que el Profesor no quisiese pedir la beca pensando que al casarme me quedaría embarazada y tendría descendencia, lo que implicaba que, forzosamente, al menos por unos meses, tendría que dejar de trabajar. Yo le contesté que esa posibilidad existía, pero que ese hecho al menos era controlable. Añadí que si esa era la razón entonces no podría pedir la beca para nadie, porque él mismo, por muy varón que fuese, podía tener un accidente y tener que hacer reposo y ausentarse del trabajo durante una temporada. Nunca volvimos a mencionar esa conversación, pero al recordarla ahora me pregunto si, cuando al año siguiente este querido compañero tuvo que ausentarse varios meses del trabajo por haber dado unas vueltas de campana con su coche, el director de tesis o él mismo se impacientaron por el posible incumplimiento del compromiso con su beca. Como decía, han pasado más de treinta años y, aunque aparentemente han cambiado mucho las cosas, en el fondo no han cambiado tanto. Debo decir que jamás había vuelto a acordarme de esta anécdota hasta que el otro día, presenciando la oposición de una joven colega, oí a uno de los miembros varones del tribunal preguntar -en un tono que me pareció peyorativo-si era por razones de maternidad el periodo de dos años «en blanco»(que tenía en su curriculum) entre los dos sexenios aprobados. Este comentario me pareció igualmente ofensivo que los qiie yo había oído hace más de treinta años. ¿Me pedís que os cuente más?, pues bien, añadiré que no me arredré. Con una Beca del GIFT (Grupo Interuniversitario de Física Teórica) hice mi tesis doctoral y después mi postdoctorado en el MIT (EEUU). Tuve contratos en el MIT, en el NBI, en la UAM. Entretanto, tuve hijos, y un largo etc. A mi vuelta a España tuve (¡claro está!) que opositar y en el 81 saqué mis oposiciones reglamentarias (¡de las de seis ejercicios!) de Catedrática de Universidad, compitiendo con otros ocho colegas varones -«así hemos demostrado que no somos machistas», dijo el, a la sazón, catedrático más antiguo del Área. Como damnificada de la LRU, y tras sacar una plaza de IC, me incorporé al CSIC, donde hube de vencer una notable resistencia. Pero encontré que el CSIC era «mi casa». Todo por lo que había luchado tanto en la vida era por poder hacer investigación científica con sosiego, tiempo para reflexionar y buen ambiente humano, y aquí, en el Campus de Serrano del CSIC, lo encontré. Formé mi grupo, saqué plaza de FI (1989), gané más internacionalidad, reconocimiento y fama. Mi antiguo director de tesis llegó a decirme que era su discípula más «aventajada» e interna-566 Elvira Moya de Guerra clonal. Sé que no es para tanto, que mi carrera está llena de claroscuros, recovecos y obstáculos, y que la carrera científica nunca termina, pero cuando miro atrás me digo aquello de «YouVe come a long way baby!». ¿Cuál ha sido la clave? Estar segura de dónde quería ir y no dejarme vencer por la adversidad. ¡Ah!, ¿Me preguntáis que si hay discriminación en el CSIC? Pues sí, la hay ¿dónde no? ¿Acaso no somos en cierta medida «machistas» nosotras mismas? ¿Acaso no hay evidencias de diferencias institucionales en el CSIC de trato hombre-mujer a todos los niveles?, ¿Me haríais la pregunta si no las hubiese?¿Alguien diría «así demostramos que no somos machistas» si verdaderamente no lo fuese? Pero seamos conscientes de que hoy, como hace 20, 30, 40, 50 años, seguimos siendo afortunadas de movernos en el sector de población de mayor nivel educativo, lo que hace que la discriminación por sexo sea pecaía minuta comparado con lo que pasa en otros sectores. Por eso tenemos también una gran responsabilidad, no sólo la de hacer bien nuestro trabajo, sino, lo que nos es más difícil, la de permear nuestra fuerza y espíritu hacia otros sectores. B. Resumen de los testimonios personales Veamos primero algunos puntos que afloran de las comunicaciones orales y escritas recibidas: la mayoría de las compañeras que han enviado su «experiencia personal» no se ha sentido discriminada en el CSIC, de forma explícita, directa, o denunciable, por el hecho de ser mujer; sin embargo, la mayoría sí ha notado una discriminación indirecta más sutil (consciente o inconsciente), por parte de muchos o algunos de los colegas hombres (y mujeres), así como del personal de apoyo y de talleres, que se pone de manifiesto de maneras muy diversas. Por ejemplo, a través de: -Formas de infravaloración encubierta: actitudes paternalistas dañinas de algunos jefes o directores de trabajo, dándoles a las mujeres menos responsabilidad y protagonismo intelectual que a los hombres. -Formas de dirigirse a «ellas» menos respetuosas que para dirigirse a «ellos» (por ejemplo: «Srtas.», para ellas y «Doctores» para ellos, ¡como sucedió en una oposición!). -Comentarios maliciosos con doble rasero descarado dependiendo de si la víctima es hombre o mujer, normalmente en detrimento de la mujer. En la valoración global de la mujer influye, mucho más Mujeres en Ciencia y Tecnologías Físicas en el CSIC 567 que en el hombre, sus relaciones privadas (quién es su novio, marido o amante, de qué familia viene...) o sea, se mezcla mucho más su condición profesional con su vida privada. Esto es una consecuencia de que en nuestra sociedad la mujer tiene triple estatus: el que viene de la cuna, el que le confiere su matrimonio y el que ella se gana por méritos propios, siendo éste último, desgraciadamente, el que menos se le valora (excepto en casos excepcionales). El hombre, sin embargo, tiene sólo doble estatus y, aunque la cuna tiene bastante peso, lo que más cuenta y se valora son sus logros personales. Su matrimonio cuenta muy poco o nada en cuanto a su valoración. -Percepción diferente de un mismo «defecto» dependiendo de si se trata de un hombre o una mujer, de nuevo, normalmente, en menoscabo de la mujer. Un «defecto» que en el caso de un hombre puede no llamar siquiera la atención o no se ve como tal defecto, en una mujer puede resultar fatal y altamente peligroso. El ejemplo clásico sería el del ligón mujeriego, perfectamente aceptable (incluso admirado), mientras que el equivalente femenino, incluso con muchas menos «tablas» que el varón, sería una ambiciosa/arribista/.... Pero hay muchos más ejemplos de los que somos muy poco conscientes. Por ejemplo, a un científico algo «dejado» y muy desordenado se le tiende a ver como muy trabajador, ensimismado en sus ideas, en su laboratorio, en sus teorías...(«z//z genio»), mientras que a una científica algo «dejada» y desordenada se la tiende a ver como una neurótica, que tiene un lío mental que no se aclara, y que no da abasto con su casa y el trabajo. Además de lo anterior, la mayoría coincide en la sensación clarísima de que a las mujeres científicas no se nos escucha de la misma manera que a nuestros colegas masculinos, aunque digamos exactamente lo mismo y lo digamos antes. Queramos o no, lo cierto es que, cuando abrimos la boca, nuestras ideas y opiniones cuentan menos que si las expresa un hombre. Dar más crédito a los hom.bres que a las mujeres, además de injusto, es un síndrome muy generalizado y nos incumbe a todos, ya que también las mujeres tenemos tendencia a padecerlo. Como todo síndrome, normalmente no sucede de forma intencionada (aunque en algunos casos sí lo sea), sino que se origina en algunos mecanismos reflejos de la percepción mental subliminal, lo cual no es de extrañar, ya que todos vivimos sumergidos en una sociedad machista. Según Carmela Valdemoro (que por edad y estatus tiene mucha experiencia), todavía faltan un par de generaciones para que este problema se solucione. El «machismo inconsciente», como algunos lo denominan, tiene una serie de conse-Elvira Moya de Guerra 568 cuencias funestas, que van desde lo simplemente desagradable hasta lo traumático. -Sentir que «cuenta menos» que sus pares masculinos puede ser devastador para algunas científicas jóvenes que no tienen un puesto estable; y puede provocar fácilmente su retirada profesional. En todo caso, este sentimiento, bastante deprimente y humillante, puede ocasionar problemas psicológicos de cierta consideración, incluso verdaderos traumas, dependiendo de la vulnerabilidad psíquica de la mujer en cuestión, entre ellos, a saber, pérdida de la autoestima, inseguridad para expresarse, tristeza, sentimientos de impotencia y desamparo, agresividad, automarginación, depresión. -La mayor credibilidad hacia los hombres también da como resultado que, a la hora de elegir representantes o personas con poder de decisión (tribunales, jefes,...), la tendencia sea a escoger hombres. -Otra consecuencia, y muy grave, es que al valorar un curriculum no cuenta lo mismo, a igualdad de méritos objetivos, si pertenece a un científico o a una científica, por supuesto siempre a favor del primero. Desafortunadamente, debido a su mayor credibilidad, el hombre viene dotado de manera natural de algunos puntos extra «subjetivos» que se suman al total. Sus trabajos serán «mejores» y sus contribuciones en una colaboración serán «más importantes». Y lo peor es que nadie en el tribunal necesita expresar este tipo de argumentos en voz alta, porque se dan de manera inconsciente. Por ejemplo, es bien sabido que en un trabajo en colaboración entre hombres y mujeres, ellos se llevan el crédito de las ideas relevantes, creatividad y resultados importantes, mientras ellas tienden a ser vistas como meras «ayudantes» a sus órdenes que participan en la parte técnica menos creativa. La regla general en una oposición, salvo en raras circunstancias, es que se dé la plaza a una mujer sólo si sus méritos están muy por encima de los méritos de los candidatos masculinos. Ella debe demostrar su superioridad de manera clarísima. También la mayoría coincide en que somos diferentes los hombres y las mujeres en nuestra psicología, metodología, formas de presentarnos y perspectiva de la vida. Todo ello nos desfavorece a la hora de triunfar y «hacer carrera» en un mundo laboral dominado por la psicología y maneras de hacer masculinas y donde los valores femeninos no están precisamente en alza. (Se cuentan incluso anécdotas de que para descalificar las diferencias de opinión de sus colegas femeninas algunos hombres Mujeres en Ciencia y Tecnologías Físicas en el CSIC 569 usan fijases del tipo «esas actitudes y posturas son típicas de mujeres»). Nuestra feminidad, que como vemos va en contra de nosotras en lo profesional, suele ser, sin embargo, una ventaja para las personas que trabajan bajo nuestra dirección, debido a nuestra mayor sensibilidad y humanidad y a nuestro ego menos inflado y menos vulnerable. Sin querer pecar de psicólogas amateur, también es interesante señalar que entre las mujeres físicas es bastante común la sensación de que nosotras somos más realistas y equilibradas que nuestros colegas varones y recibimos nuestros éxitos con mayor cordura y naturalidad. En general, los consideramos como un justo premio a nuestro esfuerzo continuado, y en raras ocasiones pensamos que el éxito obtenido es atribuible a que somos especiales y obviamente geniales. Muchas de nosotras tenemos la impresión de que en el CSIC, como en la Universidad, existen grupos o zonas machistas así como no machistas (grosso modo, ya que todos padecemos en mayor o menor medida el «machismo inconsciente»), siendo más o menos mitad y mitad en número. Así, no es de extrañar que, entre las aportaciones recibidas, se encuentren todo tipo de experiencias, sobre todo en relación a los primeros años de la carrera científica. Las compañeras que cayeron en «territorio machista» desde el principio de sus carreras, cuentan experiencias diferentes de aquellas que cayeron en «territorio no machista». De entre éstas, algunas, sin embargo, notaron que existía un machismo palpable en otros grupos de investigación cercanos al suyo, mientras que otras se toparon con el machismo años después, cuando ya tenían un cierto nivel. También muchas de nosotras tenemos la impresión de que existe otro factor de suerte, aparte del caer o no caer en una zona no machista. Lo llamamos el «paraguas masculino» y consiste en tener lazos fuertes, normalmente familiares, con algún miembro del mismo departamento o de un departamento afín. Esta circunstancia -particularmente si la mujer está casada con alguien del grupo-parece paliar bastante los efectos indeseables en grupos machistas, parece contribuir a que se respete más a la mujer, a aceptarla y a tratarla como «uno más», en vez de verla como una extraña que se ha colado en el grupo. En las oposiciones, en general, el «paraguas masculino» no da puntos extra a una candidata, es decir, se la seguirá juzgando como a un candidato masculino con los mismos méritos objetivos (o como menos competente que éste, como apuntábamos más arriba), pero sí le facilita el vencer la resistencia natural que cualquier grupo machista opone a la entrada de una mujer, sobre todo en la plantilla fija. Si bien, a la larga, ese paraguas puede volverse en contra de la científica, pudiendo darse el caso de que infravaloren sus méritos precisamente por sus lazos personales con otros colegas. Otro factor que nos ajoida a ser más respetadas dentro de un grupo machista es el estatus profesional. Esto sólo lo aprecian con claridad las compañeras que se toparon con grupos machistas desde el comienzo de su carrera científica y que, por tanto, han ido notando los cambios en el trato de sus colegas a medida que ellas han ido mejorando de estatus. En el caso de compañeras que pasaron sus primeros años en grupos no machistas puede darse la impresión contraria, al toparse con el machismo cuando ya gozaban de mayor estatus. Pasando al capítulo doméstico, la mayoría reconoce que el peso de las obligaciones domésticas (el cuidado del hogar y de los hijos) recae mucho más sobre las mujeres. Es decir, en la mayoría de los casos este peso no está repartido por igual entre el hombre y la mujer. Esta circunstancia puede dar a los hombres más ventajas profesionales, ya que disponen de más tiempo para su trabajo y tienen menos preocupaciones que ocupen su espacio mental. Por ejemplo, será normalmente la mujer quien lleve a los niños al médico, quien les compre la ropa, ordene los armarios y un largo etcétera de obligaciones de las que ellos se evaden sistemáticamente. Un tema relacionado con el anterior es el de la maternidad y las guarderías. La gran mayoría de las compañeras con hijos se quejan de la insuficiente infraestructura en guarderías, que no facilita la compaginación de ser científica y madre al mismo tiempo. En particular, el CSIC tendría que hacer un esfuerzo en apoyar a los padres y madres con hijos pequeños, haciéndose con más plazas de guardería, menos discriminación por ingresos económicos y más horas de apertura para permitir una flexibilidad de horario que es importante cuando se trabaja en investigación científica. Respecto a la maternidad en sí misma, algunas compañeras han sentido algún tipo de discriminación por parte de algunos colegas por el mero hecho de tener hijos, como si fueran a disminuir su capacidad profesional. Por ejemplo, leemos en una contribución: «Tener un hijo es un argumento que puede ser utilizado para justificar cualquier decisión de mi parte». Por otro lado, afortunadamente las compañeras sin hijos se muestran muy solidarias con las que los tienen. Una de nuestras compañeras, siendo CT, se encontró con una reducción de sueldo de 40000 pesetas en su baja por maternidad en 1999, ya que la Seguridad Social sólo pagaba el tope del nivel y ella ganaba más. Desde que entró en vigor esa legislación, el CSIC se había hecho cargo de la diferencia pero no fue así en 1999, contrariamente a lo que pasaba con las bajas por enfermedad. Finalmente y tras una carta a las altas instancias del CISC, éste reconsideró su postura aunque con un retraso de un año. ¿Es tan raro que las científicas se reproduzcan? ¿Seremos una especie a extinguir sin todavía habernos desarrollado plenamente? Mujeres en Ciencia y Tecnologías Físicas en el CSIC Por último, ha habido compañeras que nos han comunicado casos de acoso sexual. Si bien este problema no nos consta que sea firecuente, y por tanto no es un hecho generalizable, la gravedad del tema exige un seguimiento serio. Habría que hacer encuestas a las científicas donde este punto se pudiese denunciar de forma anónima para tener una idea exacta de cual es la situación real al respecto. A continuación, desglosamos resumidamente por etapas en la carrera científica, las dificultades que se detectan en los escritos recibidos sobre experiencias personales de científicas en el Área de Física y Tecnologías Físicas del CSIC. Como se desprende de lo expuesto anteriormente, dichos escritos contienen los siguientes puntos en común: a) Período predoctoral: Una gran parte asegura no haber notado discriminación por sexo, siendo común a todas ellas el hecho de que en el Grupo de Investigación al que se incorporaban había ya alguna otra mujer y/o su pareja estaba en el mismo centro. Aquellas mujeres que, sin embargo, se adherían en solitario a grupos netamente masculinos sí indican haber sufiddo discriminación personal además de escuchar comentarios de género que se consideraban tan normales que se hacían en presencia de la becaria y sin ningún respeto hacia ella. b) Período Postdoctoral: Todas en sus periodos post-doctorales en países anglosajones pudieron comprobar que la situación de las mujeres científicas en los países mediterráneos era mejor. La discriminación de la mujer en los países anglosajones es manifiesta, abundan los comentarios de género y se caracteriza por la casi total ausencia de mujeres en Física con puesto permanente. c) Puesto permanente. El problema de las físicas en plantilla está muy bien reflejado en los números que aparecen en la sección 2. Las dificultades en este periodo se resumen a continuación. -Promoción: Por una parte nos encontramos con que si el numero de mujeres que estudian Físicas no es muy elevado (35 % en 2001, tomando como muestra la UCM), los porcentajes de científicas en plantilla en los centros del Área del CSIC son muy inferiores, como se ve en la sección 2. Las colegas que nos envían sus experiencias personales hablan de «techo de cristal» para las mujeres, de «una cierta desconfianza o incomodidad por parte de los hombres para elegir mujeres en cargos de responsabilidad», o lo que es lo mismo «que a la hora de elegir a una persona que nos represente o que tenga poder de decisión» dentro del CSIC la tendencia es escoger a un hombre (premios de investigación incluidos). En resumen si ya es sinuosa la carrera científica, para las mujeres hay barreras adicionales y específicas de género. Tribunales y comentarios discriminatorios: Todas coinciden en que en conversaciones generales, tanto el lenguaje como los comentarios particulares tienen sesgo de género, a veces sutil y siempre descalificador. Alguien dice que la diferencia no se nota cuando se escribe un artículo científico sino cuando se habla del éxito científico de colegas mujeres. Tales comentarios discriminatorios en un tribunal, aunque en sí banales, suelen tener un efecto demoledor para la concursante. Una mayor participación de las mujeres en los tribunales, al menos en número igual al porcentaje de mujeres en la escala, reduciría ese tipo de comentarios en una situación tan importante. La familia: El tema familiar y de descendencia mencionado en todos los informes es muy recurrente. Los aspectos legales fallan más de lo que uno se atrevería a pronosticar. Si eres becario post-doctoral (en la actualidad, en nuestro campo no osan las mujeres tener hijos en el periodo predoctoral), te encuentras con que la baja maternal consiste en la suspensión de la beca y su correspondiente remuneración. Incluso, ha habido algún caso de anomalías en el sueldo de alguna científica en plantilla por razones de maternidad. Además de los temas laborales hay dos puntos más que se repiten cuando una científica decide tener un hijo: 1) La investigadora parece alcanzar directamente su «techo de cristal». 2) La investigadora se encuentra con el problema de las guarderías. ¿Cómo compaginar los «horarios de oficina» de la guardería con las largas jornadas de una investigadora? Se vuelve a casa de noche y se utilizan los fines de semana para no dejar de ser madre y científica a la vez, para demostrar que comentarios como «contigo no se podrá contar en unos pocos años» no son verdad. Si todos coincidimos en que la investigación es una profesión de alta dedicación y sacrificio, el CSIC debería facilitar a sus investigadoras guarderías que contemplen horarios hasta las 19h, permitiéndoles compaginar con mayor facilidad la maternidad con la dedicación a la investigación. Parece que tener un hijo y ser mujer lleva implícito una renuncia al éxito profesional. No se puede negar que tener un hijo repercute temporalmente en la dedicación profesional, tanto del hombre como de la mujer, pero si bien al hombre se considera que lo hace más ambicioso a la mujer se presupone que ya se «realiza» con la maternidad y que el éxito profesional por el que tan duramente ha trabajado no le interesa. Mujeres en Ciencia y Tecnologías Físicas en el CSIC 573 Comentarios finales y recomendaciones La situación de la mujer en el CSIC y particularmente en nuestra área, nos parece un reflejo de la sociedad en que vivimos. Formalmente existe igualdad de derechos, pero la inercia histórica hace que, «de facto», la mujer no tenga la misma relevancia que el hombre, especialmente en los niveles más altos y en los círculos de «toma de decisiones». Tanto las estadísticas que hemos realizado como las aportaciones personales recogidas, nos hablan de la existencia de «un techo de cristal». En nuestra carrera profesional éste aparece desde el acceso a la primera escala permanente (Científico Titular) y se acentúa aún más a partir de ella. Las estadísticas revelan que el porcentaje de mujeres en nuestra área es significativamente inferior a la media del CSIC, no habiendo mejorado en los últimos diez años. Este hecho podría deberse en parte a la menor participación de la mujer en la Física desde la etapa de licenciatura. Sin embargo, hay indicadores de que el porcentaje de físicas en el CSIC es a su vez inferior al correspondiente porcentaje de estudiantes de licenciatura. El análisis de las causas de ese sesgo inicial merecería ser estudiado con más detalle (¿es la sociedad la que desanima a la mujer por el camino de la investigación en Física?, ¿es el ambiente universitario o de los centros de investigación?...). Los testimonios y opiniones personales nos muestran la «cara humana» de las estadísticas. Además de un escaso estímulo para que las mujeres se inicien en la Física, las que finalmente entran en el CSIC y quieren progresar profesionalmente, encuentran un «techo invisible». El CSIC debe aceptar su papel motor en el desarrollo científico y cambio social. Para que pueda desarrollar una Ciencia de Excelencia es necesario que favorezca una Ciencia sin género, aprovechando las capacidades de todas las personas y realizando políticas activas para eliminar los sesgos existentes, particularmente en nuestra Área. Por tanto creemos que nuestra Institución debería diseñar acciones positivas para provocar un punto de inflexión en la participación de mujeres en la investigación científica en nuestra Área. He aquí nuestras recomendaciones: * Realización de un estudio estadístico profundo de la situación de la mujer en CSIC, y en particular en nuestro área, donde, con los datos a los que hemos tenido acceso, parecen existir claras diferencias en las distintas especialidades. Sería necesaria la creación de un grupo de trabajo que, dotado con medios, continuara la labor empezada por los grupos que han presentado los primeros resultados de género en el CSIC y las aportaciones recogidas en este documento. Este estudio debería partir de la realización de una encues- Elvira Moya de Guerra ta lo más exhaustiva posible tanto en el aspecto profesional (historial profesional, contribuciones científicas, participación en comisiones y órganos de decisión sobre política científica...) como en aspectos personales (número de hijos/hijas, edades, diferencias, existencia de presiones...) e incluyendo todos los niveles (becarias predoctorales, post en estancias fuera de España, post en el CSIC, contratadas posdoctorales, CT, TS, IC, PI...). Este estudio, con datos sistemáticos y con una visión retrospectiva, se vislumbra como una de las mejores maneras de proporcionar las claves sobre el tipo de desequilibrios existentes y sobre los procesos que conducen a ellos en las diferentes áreas de conocimiento y, dentro de éstas, en las diferentes especialidades y líneas de investigación. Elaboración sistemática de estadísticas desglosadas por género. Es necesario que el CSIC incluya la variable género de manera sistemática en sus estudios e informes y en las estadísticas de solicitudes/concesiones de becas, contratación, acceso a la escala investigadora, promoción, tribunales, comisiones, etc., incluyendo todas las etapas y niveles administrativos de la carrera científica (desde predoctoral hasta Profesores de Investigación), de manera que se pueda analizar cómo cambian esas proporciones en las distintas líneas del área y si es necesario incidir especialmente en alguna de las especialidades existentes. Esta elaboración sistemática, publicada periódicamente, sería la base fundamental tanto para conocer la situación actual de la Mujer en la Física del CSIC y sus perspectivas de mejora en los próximos años, como para dar indicaciones de si son necesarias acciones positivas encaminadas a integrar la igualdad en las estructuras organizativas, de gestión y de política científica del CSIC. Política activa de participación. El CSIC debe asegurar una mayor y apropiada participación y representación de las científicas del área en los diferentes foros de toma de decisiones y de política científica: órganos directivos, comisiones de selección, tribunales, comités de expertos, representaciones a nivel institucional, etc. De todos los datos recogidos podemos afirmar que las mujeres en el área de Física se encuentran claramente subrepresentadas y resulta preocupante el escaso nivel de elección de científicas del área en los puestos de decisión de la política científica del CSIC, uno de cuyos primeros ejemplos son los tribunales y comisiones de selección. Los tribunales son, sin duda, una pieza clave en la política científica de una institución. No es justificable que, siendo pocas las científicas de un determinado rango, no estén ni siquiera re-Mujeres en Ciencia y Tecnologías Físicas en el CSIC presentadas proporcionalmente en los tribunales. La dimensión de género debería tenerse en cuenta en el diseño de los programas de actuación, como se está implantando ya en la Unión Europea ^'^. • Apoyo a la maternidad. El CSIC debe realizar un programa con las actuaciones necesarias para facilitar la compatibilidad de la carrera científica y la familia, de modo que el hecho de tener hijos no sea perjudicial para la promoción de las mujeres. Un aspecto importante es la creación de guarderías y centros escolares con horario ñexible, donde para la admisión de los hijos no se penalice a los padres por sus ingresos económicos. Otro aspecto es la flexibilización de los límites de edad o tiempo en las convocatorias de becas, contratos postdoctorales, etc. La organización actual del trabajo científico se ajusta a modelos de trabajo masculinos, con tiempo casi ilimitado dedicado a la investigación y en los que tradicionalmente la dedicación a la familia es mucho menor, lo que claramente perjudica a las mujeres científicas. • Políticas de visibilidad y motivación. Difusión del papel que ha jugado y juega la mujer en la Física, con objeto de educar a la sociedad y de motivar a las futuras generaciones. La NASA, por ejemplo, está actualmente llevando a cabo un programa en este sentido*. Esta política debe dirigirse a todos los niveles educativos, para eliminar el estereotipo de que la ciencia es «cosa de hombres». Mencionemos para terminar el artículo de V. Verdú, titulado «El regreso de los valores familiares» (El País, domingo 3/2/2002, Tendencias 11). Dice que «tras la masculinización femenina emerge una feminización de la virilidad», que según el autor consiste en que «antes había que llegar a ser alguien, ahora se trata de llegar a ser Yo». Pues bien: si logramos transmitir a los hombres, en nuestro trabajo codo con codo, el interés en el trabajo bien hecho y en la familia muy por delante del éxito a cualquier precio, la sociedad habrá dado un paso de gigante. Son muy numerosos los colegas, personal de apoyo y amigos que nos han ayudado en el curso de este trabajo. A todos ellos queremos desde aquí expresar nuestros agradecimientos. Especial mención requieren: Susana Jiménez (sin cuyo apoyo técnico este trabajo no hubiese sido posible) y, María Egüés, Luisa González, Berta Rubio, María Luisa Se-
Biología y Biomedicina: un área de mujeres fértiles 581 y Cajal personalmente había escrito que no las consideraba demasiado aptas para tal empresa y que escaseaban en nuestro país... «La mujer intelectual, es decir, la joven adornada con carrera científica o literaria o que, llevada de vocación irresistible por el estudio, ha logrado adquirir instrucción general bastante sólida y variada, constituye especie muy rara en España,,,» (En: Reglas y consejos sobre investigación científica. Es signo de la época. Como dato que refleja el escaso reconocimiento general que las mujeres tenían entonces en España, destaca que ninguno de los seis patronatos fundacionales del CSIC llevaba un nombre femenino, ni de las letras ni de las ciencias. Estos patronatos se llamaban «Raimundo Lulio», «Marcelino Menéndez Pelayo», «Alfonso el Sabio», «Juan de la Cierva», «Alfonso de Herrera» y «Ramón y Cajal» ^, En la labor impulsora de creación de institutos y centros de investigación, Albareda contó con un alumno y colaborador interesado en la bioquímica, J. Avelino Pérez Geijo, que desarrolló su trabajo en el Centro de Investigaciones Biológicas (CIB). Este centro tuvo su origen en la necesidad de expansión del Instituto Cajal, que hasta entonces ocupaba unos pequeños laboratorios en la Escuela de Ingenieros del Retiro, en Madrid. La sede de Velazquez 144 fue entonces planeada para albergar tanto al Instituto Cajal de Neurobiología como al Instituto Jaime Ferrán de Microbiología. Se incorporaría también al naciente CIB Gregorio Marañen, que sería su primer director, actuando de secretario José Luis Rodríguez Candela. Este fue más tarde sustituido por Pérez Geijo, quien dirigió el funcionamiento del CIB hasta 1975. El espíritu de Marañen, como dijo en la inauguración del centro, era hacer de él un lugar eficaz para la investigación, eficacia basada en la selección de los científicos (1). Solo una científica formó parte de la primera generación de investigadores con reconocido liderazgo, Gabriella Morreale, dentro del Instituto Marañen (el tercero de los que formaron inicialmente el CIB), donde se investigaba en Enzimología y Metabolismo. En 1963, el CIB contaba con 58 científicos de plantilla y en su Junta de Gobierno se sentaban, junto a Un breve recorrido por la incorporación de las mujeres investigadoras al CSIC, demuestra que las mujeres se pierden, de manera alarmante, en los sucesivos escalones de la carrera científica. En 1970, las mujeres representaban un 8% de la categoría más alta, Profesor/a de Investigación. Treinta años después la proporción es aún de sólo un 13%. El área de Biología y Biomedicina, un campo extraordinariamente competitivo, ha albergado a algunas de las científicas más reconocidas en España en las últimas décadas. Estos hechos no son fruto de la falta de incorporación de mujeres a la formación universitaria, ni a la carrera científica en el escalón inicial de becarias. No es fácil admitir, sin embargo, que las causas principales de esta desigualdad son las múltiples formas de desmotivación, marginación y discriminación por sexo aún vigentes en los albores del siglo XXI. El conocer las trayectorias comparadas de productividad de mujeres y hombres a lo largo de la carrera, y empezar a tomar medidas para eliminar los mecanismos de exclusión de género en el CSIC son ya nuestra responsabilidad ineludible e inaplazable. Homero dividió la Historia en tres edades: la de los dioses, la de los héroes y la de los hombres. No pudo predecir la cuarta, la de las mujeres. Pero lo cierto es que hemos entrado en ella, estoy convencida. De las revoluciones iniciadas en el siglo XX, pocas quedan, excepto la tecnológica, con vigencia. El avance en la igualdad de derechos y oportunidades del hombre y la mujer es, sin embargo, una revolución aún in crescendo que se inició el pasado siglo con la incorporación de la mujer a la educación superior, tuvo su hito principal en la conquista del derecho al voto (en España, en 1931) y que en el comienzo del siglo XXI se extiende horizontal y, confiemos, verticalmente. Todavía se escuchan voces en nuestro entorno, aunque cada vez tienen que hablar más bajo, que afirman que la mujer no reúne condiciones para ciertas profesiones que requieren iniciativa, pensamiento analítico, esñierzo sostenido, control emocional o disciplina rigurosa, como es la Ciencia. La realidad en los países mas avanzados del primer mundo, donde cierta perspectiva sobre el tema es ya posible, indica lo contrario. Un breve recorrido por el camino de la incorporación de las mujeres como científicas al CSIC, abordado en este número, demostrará que la incorporación, sin embargo, no es plena. Partiendo de un escalón de graduadas con el maillot amarillo, las mujeres se pierden para la carrera científica en núraero preocupante en los sucesivos escalones profesionales. El área de Biología y Biomedicina es territorio de mujeres fértiles, sí, que contribuyen desde la Bioquímica, la Biología Molecular y Celular o la Biología del Desarrollo; pero no logran (como tampoco ocurre en otras áreas) llegar a los escalones superiores de reconocimiento e influencia en la toma de decisiones. Su potencial es pues, en parte, abortado. Los datos y opiniones recogidos en este artículo intentan ayudar a clarificar la situación de estas científicas en el invierno de 2002. Espero que contribuyan a acelerar la llegada de la primavera que se merecen. El Area de ByB nace con el CSIC: apuntes para recordar Cuando se constituyó el Consejo Superior de Investigaciones Científicas en 1939 (ver capítulo introductorio), época inicial de la postguerra, recordemos que era secretario general José María Albareda, farmacéutico y químico por formación, y posteriormente sacerdote del Opus Dei por -suponemos-vocación. Entre las primeras piedras contribuyentes a la naciente institución figuraba el Instituto Cajal. No consta que en este instituto creado por el genial histólogo y Premio Nobel, se valorara especialmente la contribución de las mujeres a la Ciencia. De hecho, Ramón Flora de Pablo 582 del día a día del laboratorio, hasta la muerte de Sois, ayudando a convertirlo en uno de los grupos científicos más productivos de la época, no precisamente fácil en cuanto a recursos económicos y de equipamiento. El equipo se trasladó, siendo ya De la Fuente Profesora de Investigación, a la Facultad de Medicina de la Universidad Autónoma de Madrid en 1972. El nombre de Alberto Sois quedó asociado honoríficamente al nuevo Instituto de Investigaciones Biomédicas (IIB), inaugurado en ese campus en 1989. Para entonces se encontraba también ya en ese centro mixto Gabriella Morreale, al que se había trasladado junto con su marido, Francisco Escobar, en 1975. Al Instituto Marañen se había incorporado también desde sus inicios en los años 50, Sara Borrell que escalonó en década y media cinco estancias de formación en el extranjero, algo excepcional para la época. En ellas se convirtió en una experta en la bioquímica de hormonas esteroideas, dirigiendo un grupo de trabajo pionero en este tema en España. No fue, sin embargo, hasta que murió Marañen, cuándo la nombraron Jefa de la Sección de esteroides y, posteriormente, Vicedirectora y Directora del Instituto Marañen. En 1970 fue promocionada a Profesora de Investigación y, tras incorporarse en 1983 al Instituto Cajal, dentro de la Unidad de Psicobiología que se formó cuando aún aquel era parte del CIB, pasó a ser la única científica hasta el día de hoy que ha llegado a Profesora en el Instituto Cajal. Borrell, soltera y sin hijos, se jubiló en 1989 y murió en 1999, sin haber recibido nunca el reconocimiento que su valía merecía. Otra mujer que creció científicamente en el CIB, de las que luego serían muy relevantes en el área, fue Margarita Salas. Contactó con Sois para realizar una Tesis doctoral, recomendada por Severo Ochoa, pariente y amigo de la familia, quien había impresionado profundamente a la joven química asturiana. Logró, gracias a ello, ser aceptada por Sois y, a la vez que su marido Eladio Viñuela, empezó a trabajar en el CIB. Tras terminar el doctorado en 1964, ambos se fueron al Departamento de Bioquímica que Ochoa dirigía en la Universidad de Nueva York. En 1967, Rodríguez-Candela les ofreció un laboratorio dentro del Instituto Marañón que él dirigía entonces. Margarita Salas elegiría un pequeño virus, el fago phi29, para estudiar la replicación y otros aspectos moleculares que abrirían uno de los caminos más fructíferos de la entonces incipiente biología molecular en España ^. Salas dirigió la Sección de Genética Molecular del primer departamento de Biología Molecular creado en España, el del CIB, en 1971. Este departamento se convirtió en el Instituto de Virología y Genética Molecular poco después. Con la apertura del Centro de Biología Molecular (CBM) dedicado a Severo Ochoa en 1975, Salas (ya como Profesora de Investigación), y otros destacados científicos dejan el CIB en 1977. Albareda había muerto en 1966 y Pérez Geijo en 1976, tras muchos años de ser secretario-administrador-vicedirector del CIB. En esos años a caballo de dos décadas, otras científicas habían iniciado sus carreras en el CIB, Gertrudis de Torróntegui, Matilde Sánchez A3ruso, Concepción García Mendoza, etc., que recibieron variables apoyos (ciertamente no del nivel que los colegas masculinos de su generación) y hasta su jubilación, en el caso de Torróntegui, o hasta la actualidad las restantes, no han sido promocionadas al escalón superior del escalafón. Solo Consuelo de la Torre, que Uegó al CIB en 1966 y que trabajó junto a José Luis Cánovas y Gonzalo Giménez Martín, en el recién creado (1964) Instituto de Biología Celular, progresó hasta Profesora de Investigación en 1984. Ha sido la única Profesora del centro durante más de una década. El CIB, aún en los años 80, ha tenido el triste mérito de mantener a sus científicas en la penumbra. Así puede verse, como reflejo, el índice de «Biológicas 88» (CIB, CSIC, Madrid), que recoge las conferencias de la celebración del XXX aniversario del centro. Ninguna mujer aparece en la lista de conferenciantes! Hoy, ciertamente, las científicas forman parte integral y significativa de todos los centros del área de Biología y Biomedicina (Anexo).Un centro, excepción dentro del área, el IIB, tiene mayor proporción de mujeres en la plantilla científica, incluso, en la categoría de Profesoras. En el CIB, que tras las múltiples gemaciones de otros centros es aún el centro más grande del área (considerando personal propio del CSIC), las mujeres son un tercio de los aproximadamente 80 investigadores en plantilla. De los seis departamentos que ahora existen, dos tienen Jefas de Departamento que les representa en la Junta, Angeles García Pardo y Paloma López, ambas Investigadoras. Esto, sin embargo, no es garantía de participación equilibrada de científicos y científicas en las decisiones importantes. Por ejemplo, ninguna Jefa de Departamento (de las dos que había entonces) formó parte de la comisión, nombrada en 1999, que repartió el espacio del nuevo CIB construido en el campus de la Complutense, aún pendiente de ser inaugurado. Los fríos y tozudos números continúan dando la señal de alarma El informe ETAN 2000, A Report from the European Technology Assesment Network on Women and Science ^, elaborado en Bruselas, detecta dificultades en los países de la Unión Europea para que las mujeres: a) Entren en la carrera científica, b) permanezcan en la carrera cientifi-584 Flora de Pablo ca, y c) entren en las élites directivas. En España, en el curso 1999-2000 ya era el número de mujeres universitarias (53%) superior al de los varones (47%).Obteniendo ellas, además, mejores calificaciones. Sin embargo, sólo son cuatro las Rectoras de Universidad actuales. En un reciente capítulo, parte del libro «Las mujeres ante la ciencia del siglo XXI» ^, he repasado algunos de estos datos, y resalto que hay un claro movimiento internacional para sacar a la luz la tremenda diferencia de valoración y progreso de la carrera científica de hombres y mujeres ^"' ^. Se comenta en el mismo libro, por otras autoras, que las diferencias entre sexos ocurren también en la Universidad y en la industria ^'^. Voy a centrarme aquí pues en el CSIC, nuestro tema en este número de Arbor. Aunque los datos disponibles son escasos, la mayoría están recogidos en la página web: wwwxsices I hispano I mujeres I ciencia I htm ^^. Son fruto de varias reuniones, a lo largo de 2001, de la Comisión para analizar la carrera científica de las mujeres en el CSIC creada por el Presidente Rolf Tarrach. Me honra participar en esta Comisión y espero que, tras la primera fase de conocer la presencia de la mujer en las distintas escalas y cargos del CSIC, podamos avanzar en el análisis de los datos y, en palabras de Tarrach, «saber si en algo estamos fallando en los procesos de selección y promoción.» Mientras esperamos, los números son tozudos. La entrada de mujeres a la institución como becarias es más numerosa que la de varones. El resultado obvio de esta falta crónica de promoción es que las mujeres llegan a edades próximas a la jubilación en muchos casos sin haber dejado de ser CT. Mientras que son raros los casos de varones que no han pasado, al menos, a IC. Como ejemplo, vemos en la Figura 2 la situación de asimetría entre ambos colectivos en el CIB. Es, por tanto, preocupante, como dice el informe ETAN antes citado, que las científicas en el CSIC no alcancen el grado que permite participar con mayor frecuencia en Comités y otros cargos directivos. el principal responsable de proponer los Tribunales que juzgan las oposiciones de CT y las promociones a IC y PI. Difícilmente podemos justificar la participación de las científicas en estos Tribunales aún por debajo de la ya escasa proporción que hay en cada escala (Figura 3). En el área de Biología y Biomedicina, el Tribunal que juzgó la promoción resuelta en 2001 estaba formado exclusivamente por hombres (¡tanto los 5 titulares como los 5 suplentes!). Esta menor presencia de las mujeres en los Tribunales que juzgan el acceso y promoción dentro del CSIC probablemente influye en los resultados y, en todo caso, es injusta. En el conjunto de la institución, la promoción a Profesores/as de los años 1999 y 2000 mostró que las posibilidades para un Investigador fiíeron de 1:11 y para una Investigadora de 1:37 ^^. Por otro lado, no sólo se trata de cuántas llegan sino de cuándo. En la convocatoria resuelta en 1999 resultaron promocionados 14 hombres y 2 mujeres (una de CC. Sociales y una de CC. Ante este sesgado y desolador panorama, es difícil no encontrar una relación más que circunstancial entre la masiva presencia masculina en los Tribunales y el hecho de que los últimos 22 Profesores de Investigación promocionados en el área de Biología y Biomedicina, correspondientes a las últimas seis convocatorias (incluyendo los diez promocionados este año 2002, según datos de la página www.csic.es.), sean todos científicos varones. No es posible obviar ni retrasar más la segunda fase del análisis de la carrera científica de las mujeres en el CSIC. Es imperativo saber cuál es la productividad inter pares. En el área de Biología y Biomedicina esto es un trabajo largo, si se quiere hacer bien, y especializado. Yo creo que los resultados serán muy probablemente parecidos a los recientemente publicados en Italia para el CNR ^^. Que las mínimas diferencias de productividad, si las hubiere, no justifican la situación de las científicas en Biología y Biomedicina: un área de mujeres fértiles el furgón de cola. Es urgente saber cuántos recursos económicos y de personal tienen las científicas del CSIC respecto a sus colegas varones. Es posible que la diferencia en los mismos sea mayor que la encontrada en el exhaustivo y esclarecedor estudio del Instituto Tecnológico de Massachussets (MIT) ^. Solo con todos estos datos en la mano podremos empezar a contrarrestar las causas, varias y complejas, sin duda, del enlentecimiento de las carreras científicas femeninas. Quizá evitar, en algunos casos, la total pérdida de mujeres capaces para la Ciencia. ¿Qué opinan ellas?: perspectivas personales El objetivo de este artículo es abordar la situación de un colectivo, no resaltar algunos casos excepcionales. No obstante, es importante reflejar la visión de género desde varios ángulos. He recogido las opiniones de siete científicas con contribuciones significativas en el área (ver perfiles biográficos más adelante) y que han pasado la criba de la promoción al menos una vez. Solo una Profesora de Investigación de las invitadas ha declinado contribuir por falta de tiempo. El espectro de edades, desde 36 a 81 años, es amplio, como diversas son algunas de sus opiniones, fruto de las distintas trayectorias y, creo, del distinto nivel de reflexión previa sobre el tema. ¿Cuánto contribuimos las científicas? En su respuesta a si consideran que la contribución de las científicas en nuestra área es relevante y de calidad, todas coinciden en que es cada vez más importante. «En mi dilatada experiencia, dice Gertrudis de la Fuente, la contribución de las mujeres no ha dejado de crecer, tanto en calidad como en cantidad. Esto se comprueba examinando las memorias de actividades de los centros del CSIC. Precisamente el área de Biología y Biomedicina es de las que más destacan en este sentido, posiblemente porque sus contenidos se relacionan con el fomento de la salud y el bienestar humano que es un objetivo muy atractivo para las mujeres». Maria Blasco matiza, «Creo que aparte de que el número de hombres que son Jefe de grupo es mayor que el de mujeres, para una misma escala científica del CSIC, la calidad e impacto de la ciencia que producen las mujeres es comparable. Sin embargo, para poder decir esto con autoridad habría que calcular el impacto medio de las publicaciones de las mujeres científicas en las distintas escalas del Consejo y compararlo con el de los hombres en posiciones equivalentes. Es necesario añadir Flora de Pablo 590 este tipo de análisis a los datos publicados recientemente por el CSIC. Creo que la contribución de las mujeres Jefas de grupo es tan importante como la de los colegas masculinos. Pero es lamentable que, en demasiadas ocasiones, la investigación realizada por mujeres sea más desconocida y, por lo tanto, mas ignorada que la realizada por los hombres». Para Margarita Salas, «es en nuestra área donde la contribución de la mujer científica es más relevante respecto a otras áreas de conocimiento del CSIC. El número de mujeres investigadoras que tienen una independencia científica (Jefas de grupo) ha ido aumentando lenta, pero significativamente». ¿Hay o no, discriminación para las mujeres en el CSIC? Muy distintas, sin embargo, son las visiones sobre si existe discriminación profesional o desigualdad de oportunidades para las científicas y, si es así, cuáles podrían ser sus raíces. Para De la Fuente no hay duda: «Sí, se percibe discriminación en todos los terrenos científicos que conozco, aunque con tendencia a disminuir. Se aprecia particularmente en dos momentos: uno en el acceso a plazas, sea por ingreso o por promoción, y otro a la hora de la designación para cargos directivos o de responsabilidad. Una prueba de ello es que cuando una mujer recibe el reconocimiento de una instancia superior (generalmente mayoritaria o exclusivamente varonil) llama aún la atención y se comenta en el entorno. En mi opinión, los factores contribuyentes a esta discriminación profesional son varios, el principal es un sentido irracional de que las mujeres son incapaces de hacer nada serio en el terreno científico, que se arrastra desde tiempo inmemorial, y por ello tiene carácter de dogma; cuando una mujer ha hecho algo importante, históricamente ha sido interpretada como la excepción que confirma la regla, y es elogiada para que se vea que no hay prejuicios. En la comunidad científica actual, no se admite abiertamente que hay discriminación, pero los datos sugieren que sigue influyendo en un amplio sector del colectivo científico masculino. Posiblemente relacionado con lo anterior es que a la condición femenina se le atribuyan rasgos temperamentales, como la inestabilidad emocional, los «nervios», la menor resistencia al esfuerzo sostenido, etc., que sirven para cuestionar la idoneidad de muchas mujeres para puestos de responsabilidad dentro de la profesión. En cuanto a la productividad, es importante señalar que no depende solo de cada mujer en su puesto de trabajo, sino también de la suma de circunstancias familiares y personales de cada mujer. Es evidente que las mujeres te-Biología y Biomedicina: un área de mujeres fértiles 591 nemos una sobrecarga física (menstruaciones, embarazos, cuidado de los niños y de los ancianos) que, en ocasiones, pueden llegar a socavar muy seriamente la capacidad de trabajo. A todo esto se añade algo que, siendo una cualidad muy valiosa, se convierte en un impedimento, que es el sentido de la responsabilidad y actuaciones solidarias con los demás. En infinidad de ocasiones he visto a compañeras cuidando a sus hijos y sus padres ancianos, haciendo esñierzos increíbles a la vez por cumplir con su trabajo. La insuficiencia que la pareja presta en estos casos es demasiado conocida, y no vale la pena insistir. He visto a mujeres renunciar a logros profesionales en beneficio de los de su pareja, nunca al contrario. Si reunimos todo esto, la desigualdad de oportunidades está servida y podría incluso «justificar» la discriminación en fianción de una posible menor productividad. Mi larga experiencia me ha enseñado que la mayoría de las mujeres muestran en la práctica una capacidad de logros científicos inferior a la que intrínsecamente tienen, por culpa de las circunstancias no solo del medio profesional, sino de todo el contexto social. En esto la mujer científica tiene los mismos problemas que tienen todas las mujeres trabajadoras, si bien en aquella las consecuencias desfavorables se proyectan a largo plazo y socavan toda su carrera profesional. Bien es cierto que, en conjunto, las mujeres van ganando puestos en la realización profesional, montada, por desgracia, sobre esquemas competitivos». También, aún en el otro extremo de edad, María Blasco ve una discriminación profesional de las mujeres respecto a los científicos varones: «Sin duda. Hay una discriminación sutil, pero no por ello menos humillante hacia las mujeres. Esta discriminación está basada en una acusada falta de profesionalidad por parte de un segmento significativo de los colegas masculinos. Esta falta contrasta mucho con lo que he vivido en países con mayor tradición científica y con mayor sensibilidad hacia este tema como Estados Unidos, Holanda o el Reino Unido. Creo que esta falta de profesionalidad está basada en el hecho de que los científicos masculinos se sienten más a gusto entre otros colegas masculinos. Las mujeres científicas tienen una aproximación más profesional y menos social hacia la ciencia. La discriminación no es nunca a nivel de oposiciones, ya que se establece un baremo de cómo juzgar a los distintos investigadores basado exclusivamente en la calidad de la ciencia y en los méritos. Sin embargo, cuando hay que nominar o invitar a científicos para tribunales, cargos o participar en reuniones científicas, rara vez se considera un criterio importante incluir a las mujeres científicas que destacan para igualar su número al de hombres. No sólo eso no se hace sino que, muchas veces, y de manera arbitraria, se prefiere a científicos hombres, a pesar de Flora de Pablo 592 que su calidad científica o su categoría profesional sea inferior al de algunas mujeres igualmente aptas para el cargo. En este país sigue sorprendiendo que en una reunión científica haya tantas ponentes mujeres invitadas como hombres. El trabajo de las científicas del CSIC sigue siendo mas desconocido que el de los colegas masculinos quienes, desafortunadamente, son los que casi siempre toman las decisiones. Otro rasgo importante de la discriminación hacia las mujeres está basado en prejuicios. No se usa el mismo criterio para juzgar el talante de los científicos según su sexo. En concreto, una mujer científica ambiciosa (y por lo tanto agresiva) y exigente (y por lo tanto crítica), rara vez es vista con la misma admiración o simpatía con las que se ve a colegas masculinos del mismo talante. Si un científico muestra su disgusto o frustración con relación a algo que no funciona, que es injusto o incompetente, este científico está siendo «exigente». Si lo mismo es planteado o exigido por una mujer, puede ser tildada de «histérica». Esto, que ocurre en este país, es una sutil manera de coacción y hace que la mujer científica no se sienta cómoda». Para Pilar Santisteban, el hecho claro es que «son muchas las mujeres que empiezan la carrera científica y muy pocas las que llegan a los puestos en los niveles más altos, a pesar de que los mejores expedientes de las personas que empiezan la Tesis Doctoral son los de las mujeres. Una parte del problema radica en las propias mujeres, fruto de la educación. Cuando una mujer termina la Tesis en muchos casos decide «cortar el vuelo», se supedita al marido y no sale al extranjero. Por el contrario, muchos hombres salen al extranjero y la mujer les acompaña. Esta actitud, influida por el entorno social y educativo, hay que ir rompiéndola en la familia y con un cambio desde la política. Cuando la decisión de seguir la carrera investigadora se ha tomado, no cabe duda de que para la mujer es más complicado, por el entorno de trabajo y el tema familiar, éste habitualmente muy arraigado. Una vez que la mujer supera estas barreras (algunos investigadores de élite no quieren tener nunca becarias postdoctorales), creo que sí existe discriminación profesional y que las mujeres tardan muchísimo más en llegar a las escalas superiores del CSIC (Investigadoras y Profesoras). Habría, sin embargo, que estudiar en detalle los curricula de hombres y mujeres para tener evidencia de que se premia ser varón entre dos de ellos iguales. En los cargos raeritocráticos la discriminación es más evidente aún. Nunca ha habido una mujer Presidenta del CSIC, no hay Coordinadora en ninguna de las ocho áreas del CSIC, solo cuatro mujeres entre los veinticuatro coordinadores de área de la ANEP (nunca en nuestra área o relacionadas), etc.». Gabriella Morreale no habla de discriminación pero sí de diferentes oportunidades, muy condicionadas por los apoyos próximos: «Creo que Biología y Biomedicina: un área de mujeres fértiles 593 salvo escasas excepciones como la mía, donde el apoyo y la constante generosidad de mi marido no han mermado, sino aumentado, mis oportunidades, la mujer que desea aunar su investigación con sus aspiraciones familiares está en desigualdad de oportunidades, sobre todo si está casada con un hombre que no esté «infectado» por el mismo virus de la investigación. Es obvio que si tiene hijos, estos requieren una atención física y psíquica muy importante precisamente a una edad en la que otros científicos y científicas pueden dedicar toda su atención a una investigación cada vez más competitiva. Las oportunidades de poder pasar temporadas largas en centros de investigación alejados de casa, que suelen ser muy productivas y pesar mucho en el curriculum vitae, son desiguales. En otros países de la UE se aplica un factor de corrección cuando las investigadoras tienen que competir por becas o puestos, ampliando la edad máxima que limita el acceso a la correspondiente plaza. Aparte de este problema, biológicamente ligado al sexo, existe el problema cultural de una sociedad que consciente o inconscienteraente sigue siendo machista. Así, parece que las familias esperan que sean las hijas, y no los hijos varones, las que se ocupen de los enfermos, ancianos, etc. Por otra parte, el hecho de que las plazas que se ofertan en el CSIC sean totalmente insuficientes, considerando el alto nivel de las personas que se presentan, puede hacer que subliminalmente otros factores sociológicos (como pensar que los hombres necesitan más la plaza por ser tradicionalmente los responsables económicos de la familia) influyan en la elección final de aprobados. Aunque se haya progresado mucho desde que, en 1956, sacamos Gertrudis de la Fuente y yo (además de otra científica) la plaza de Colaborador Científico, y apareciera la lista de aprobados por estricto orden alfabético, pero primero los varones y al final las mujeres (supongo que para no alterar el orden «natural»), los datos aportados recientemente en la página web del CSIC ^^ hablan por si solos. Me resulta inconcebible que, en un área como la nuestra, sean tan pocas las mujeres que llegan a Profesoras de Investigación y que el porcentaje que participa en los tribunales sea aun más ridículo. Sé que es una tarea muy ardua, pero deberían compararse los curricula de las mujeres que se han presentado a Profesoras, y no han sido promocionadas, con la de los hombres que lo han logrado. Igualmente debería hacerse con las otras escalas. ¿Influye en el resultado el escaso porcentaje de mujeres en los tribunales?». Otra científica, Ana Aranda, pone el énfasis en la discriminación social general y el reparto de poder: «En mi opinión la situación de la mujer en la Ciencia no es más que un reflejo de la estructura social en la que el hombre tiene el papel preponderante y el poder se asocia a lo «mascu-594 Flora de Pablo lino». No creo que la ciñ-a de científicas en los escalones mas altos. Profesora del CSIC o Catedrática de universidad, sea muy diferente al de otras profesiones, por ejemplo, en la empresa privada. Habría que descartar que no exista una discriminación «activa» por la que un hombre tendría mayores posibilidades de ascenso que una mujer a igualdad de méritos científicos. Yo nunca he percibido que esto me haya ocurrido a mí, pero pienso que sería importante realizar este tipo de estudio especializado para ver si nos llevamos una sorpresa...No tengo la impresión de que, al menos en los comités y tribunales de los que yo he formado parte, haya habido discriminación, pero los resultados publicados hace algunos años sobre selección de postdoctorales en Suecia (5), una de las sociedades considerada menos machista, hace que debamos mantener la mente abierta sobre este punto. Una vez descartada este tipo de discriminación «activa», lo que está claro que existe es una discriminación «social» responsable de que las mujeres, que somos tan valiosas e inteligentes como los hombres, ocupemos una posición secundaria en la Ciencia. Lo que a mi más me preocupa de la actual situación es que el porcentaje de mujeres en las escalas superiores esté estancado desde los últimos 20 años, en los que yo suponía que los cambios sociales en nuestro país deberían haber permitido una evolución rápida y favorable para las científicas. ¿Será que todavía asumimos los roles tradicionales más de lo que pensamos? Es fundamental, en mi opinión, poner mucho más empeño en una educación igualitaria desde la infancia y yo veo un montón de casos en los que esto no es así. (Claro, que no sé lo que se puede pedir en un país en el que un portavoz del Gobierno se permite la frase de que la mayoría de edad es esa en la que los niños votan y las niñas se ponen de largo...). Parece claro que las científicas tenemos mucho más difícil que nuestros colegas masculinos dedicarnos a una profesión tan exigente como la nuestra. No creo que sea casualidad, al menos en nuestra área, el que haya tantas parejas de científicos. El tener una pareja en este trabajo, u otro tipo de apoyo familiar para poder dedicarse a la investigación, creo que contribuye a que las mujeres podamos tener éxito en ella. Los otros factores sociales deben ser, sin embargo, de gran peso porque tengo la impresión de que las mujeres que no tienen hijos tampoco tienen una situación mejor. Un dato llamativo, es el del escaso número de científicas en puestos de responsabilidad. En la historia del CSIC no ha habido ninguna mujer Presidenta y en otros puestos altos del organigrama son minoritarias. No creo que sea cierto que las mujeres rechacen estos puestos; pienso que principalmente no se les ofrecen. Y ello es significativo porque creo que refleja la ecuación «poder=masculino». Esto es lo que con sensibilidad y voluntad sería más fácil de solucionar. Biología y Biomedicina: un área de mujeres fértiles 595 Hay otras científicas, sin embargo, que ven la situación menos preocupante. Angela Nieto es categórica: «Yo no estoy de acuerdo en que haya discriminación de género en el CSIC, al menos en nuestra área. Los números publicados recientemente en la página web del CSIC ^^ son, efectivamente, muy claros, pero un análisis de una sola variable tiene el sentido que tiene. Las estadísticas son útiles y también peligrosas. A mí personalmente no me dice nada la proporción de mujeres en los distintos escalafones del CSIC, si no hay información de los curricula correspondientes. Es decir, que mientras no se demuestren casos en los que un hombre ha conseguido un puesto, especialmente los de promoción, pasando por encima de una mujer con mejor curriculum que él, yo no aprecio la discriminación. Otra cosa es la discusión de por qué las mujeres científicas tienen menos curriculum (si es que esto es así) que los hombres. No estoy de acuerdo en que la discusión se desvíe al hecho de que las mujeres tienen que atender a los hijos, tareas del hogar, etc. El dedicar más tiempo a la vida familiar frente a la investigación, debemos defenderlo como una elección personal, que pudiera ser tomada por los hombres que así lo decidieran también. De acuerdo con esto, nadie debería entrar en un sistema de «bonus» por esa decisión. No debería utilizarse ese «factor de corrección» para promociones o para ocupar un puesto de gestión o con mayor responsabilidad. Para mí, lo único objetivable es el Curriculum vitae. Tengo el convencimiento de que en España ha habido discriminación negativa con las mujeres y que, posiblemente, ésta sigue existiendo en algunos campos, pero mi experiencia personal no cuenta con ningún episodio de discriminación por género, ni en nuestra área recuerdo casos de desigualdad de oportunidades». Margarita Salas también ve la situación actual razonable: «Yo no creo que en la actualidad, en el CSIC, en el área de Biología y Biomedicina, haya una discriminación profesional de las científicas respecto a los científicos. Cuando se trata de obtener una plaza en cualquiera de las escalas científicas del CSIC, no creo que se tenga en cuenta el sexo, sino la calidad científica. Mis comienzos en España sí fueron difíciles y sentí discriminación al iniciar la Tesis doctoral con Alberto Sois. En América, sin embargo. Severo Ochoa, me trató de acuerdo con mi trabajo. A mi vuelta en 1967, también fue difícil y fue fundamental el apoyo de mi marido, Eladio Viñuela, una persona extraordinaria tanto desde el punto de vista humano como científico. Pero aún hoy, creo que a las científicas que tienen hijos no se les dan facilidades para desarrollar lo más eficientemente posible su labor investigadora. Porque respecto a la productividad de las científicas, en general existe el problema real de su dedicación a los hijos, para aquellas que son madres. Todavía es una rea-Flora de Pablo 596 lidad que son las mujeres y no los hombres las que mayoritariamente asumen la responsabilidad y el cuidado de los hijos, aparte del periodo de maternidad ineludible. Esto, evidentemente, repercute en general en la productividad de las científicas en una etapa de su carrera. Yo pediría a las autoridades del CSIC que se creen guarderías en nuestra institución. Esto redundaría a favor de la productividad de las científicas con hijos. ¿Abordajes distintos o similares'? «No creo que las mujeres abordemos problemas científicos distintos, dice Morreóle, aunque en mi caso intento no perder de vista la posible implicación de mi investigación para el hombre, lo cual resulta un refugio gratificante cuando el problema básico de investigación se me resiste. A veces, sin embargo, he sentido pereza en dedicar más tiempo al pensamiento abstracto, pero no sé si es un defecto personal o va unido a una característica de género». En la misma línea Santisteban, afirma que «los problemas científicos no los abordamos de forma distinta por ser mujer, sino de acuerdo con nuestra formación científica. Pero sí creo que, en general, las mujeres son menos competitivas que los hombres y en ocasiones ello pesa de manera negativa, por ejemplo, cuando una mujer rechaza un cargo de alto nivel (aunque esto ocurra poco) por falta de competitividad». Y, aún más explícita, Blasco continua: «Las mujeres no abordamos problemas distintos en la ciencia, ni lo hacemos de forma distinta. Este tipo de argumentos es una de las maneras principales de descalificar o discriminar a las mujeres. La única diferencia que puede haber entre dos científicos, independientemente de su sexo, es la calidad e impacto de la ciencia que hacen. Tampoco somos las mujeres ni más ni menos competitivas que los hombres. La competitividad es una cualidad necesaria en el mundo científico actual. Muchas veces la palabra «competitiva» se usa de manera peyorativa cuando se refiere a una mujer científica, pero no si se refiere a un colega masculino, lo que es otra forma sutil de discriminación.» También cree en el cambio Salas, que afirma: «Es cierto que, en general en el pasado, las mujeres hemos sido menos competitivas que los hombres. Nos ha dado miedo o no hemos tenido el interés suficiente para aceptar ciertas responsabilidades y hemos preferido estar a la sombra de nuestros maridos, en el caso de las científicas casadas. Yo creo que esta mentalidad está cambiando rápidamente, lo que hace que en la actualidad las científicas seamos tan competitivas como los científicos. En mi época, la mayoría de las chicas, aunque hacían Biología y Biomedicina: un área de mujeres fértiles la carrera, no pensaban dedicarse profesionalmente. Ahora es al contrario, en los laboratorios hay mas chicas y las que hacen una Tesis doctoral es porque están decididas a seguir trabajando en la investigación. Yo creo que la situación se está consolidando, pero aún queda mucho por hacer. Todavía la mayoría de los grupos de trabajo están dirigidos por científicos, situación que espero cambiará dentro de pocos años. En cualquier caso, no creo que las científicas abordemos problemas distintos en Ciencia o lo hagamos de forma distinta.» ¿Qué pueden I podemos hacer? Obviamente, por ser la más comprometida, a esta pregunta se le dan respuestas de distintos tonos o bien, simplemente, se pasa de puntillas sobre ella. María Blasco no lo duda: «Defiendo la acción positiva y las cuotas. Tengo la convicción de que hay tantas mujeres científicas de calidad como hombres científicos de calidad dentro del CSIC. Por lo tanto, es hora de hacer un esfuerzo por parte de todas aquellas personas que tengan un cargo de responsabilidad, o que tengan que elegir científicos para un congreso, un tribunal, un cargo, una plaza. Tenemos la obligación de ser profesionales y no discriminar por negligencia». Pero tampoco Angela Nieto lo duda, en el sentido opuesto: «Quiero dejar muy claro que yo no apruebo en estos momentos, ni estaría de acuerdo en ningún caso, con la discriminación positiva. Dice el Presidente Tarrach en su introducción a los datos de la página web (10) que hay países de nuestro entorno en los que el porcentaje de mujeres en ciertas escalas es aún más bajo, y que ya están tomando este tipo de medidas. Estoy de acuerdo en que hay cierto grado de discriminación negativa en algún país europeo, y he podido apreciar el comienzo del fimcionamiento de la discriminación positiva con, desde mi punto de vista, efectos bastante negativos. Yo no estoy de acuerdo con la discriminación en majrúsculas, independientemente del signo». Gabriella Morreale incide en el punto de partida: «Creo que, para poder emitir una recomendación de política científica, habría que comprender antes las causas que persisten, pues no se ve tendencia alguna de que la situación vaya mejorando progresivamente. Si de este estudio sale luz al respecto, será un gran avance». Y también reclama Pilar Santisteban «que nuestras autoridades sean conscientes del problema. Esto habrá que conseguirlo con cartas, editoriales y publicaciones en diferentes revistas y medios de difusión. Ahora bien, no me gustaría que por ser mujer se consiguiesen las cosas Flora de Pablo 598 más fácilmente. Estoy en contra de los cupos. Debemos conseguir los puestos por la valía real, independientemente de ser hombre o mujer. Gertrudis de la Fuente no cree que sea fácil; dice, «considero ilusoria toda aspiración a introducir cambios importantes en la mentalidad de personas y organismos con funciones directivas a fin de liberar a las mujeres de ciertas cargas que injustamente se han echado sobre ellas desde el origen de los tiempos. Pero no hay que renunciar a avances parciales en aspectos concretos que vayan, poco a poco, produciendo cambios sin retorno. Los cambios más trascendentales no son de política ni de legislación, sino de mentalidad y, precisamente, en las propias mujeres. Es necesario que ellas crean que están suficientemente dotadas para no tener por qué sufrir discriminación en ningún caso. No estaría de más, como complemento, que recibieran el apoyo institucional necesario para sobrellevar las dos cargas que más minan las energías de lasmujeres: los niños y los ancianos, mediante asistencia social asequible y de suficiente calidad. Pero, ciertamente, prefiero que se eliminen las causas de discriminación sin tener que legislar imponiendo cifras mínimas para el acceso de mujeres a los puestos de trabajo o de responsabilidad. Hay que dejar a las mujeres desarrollar su potencial, eligiendo libremente los puestos y las tareas que les atraigan y para los que se sientan más preparadas, sin que tengan que estar demostrando todos los días que también son capaces. Caminos y acciones, ¿Razones para ser optimistas? No cunde el optimismo, aunque algunas científicas no pierden un ácido sentido del humor. Ana Aranda cree que «la situación de la mujer en Ciencia viene perfectamente definida por una frase dç Marx (Groucho): «Hemos pasado de la nada a la más absoluta miseria». En la informativa, aunque publicada en forma anónima, encuesta que realizó Santesmases ^^ a 48 investigadoras españolas nacidas antes de 1950, se reflejaba el hecho de que una mayoría (él* 56% de la muestra) eran mujeres que no tuvieron hijos. Algunas entré ellas admitían que el ser solteras había facilitado su trabajo en el CSIC, ya que las opositoras a plazas permanentes que estaban casadas fueron rechazadas por alguno de los miembros del tribunal, allá en la década de los cincuenta. Hoy, la situación de matrimonio o emparejamiento estable no se tiene, en las oposiciones y promociones del CSIC que yo he conocido, ni siquiera como dato disponible la mayoría de las veces. Aún pesa, sin embargo, como hemos leído en algunas visiones personales, (de las ocho Biología y Biomedicina: un área de mujeres fértiles 599 científicas que hemos contribuido, cinco tenemos hijos) la dificultad y el sobreesfiíerzo de muchas científicas para compatibilizar las exigencias de una vida científica competitiva con crear y criar una familia. Pero hace ya tiempo que en otros países han descartado que la causa principal del retraso de las carreras femeninas sean los hijos. En palabras de la Premio Nobel Christiane Nüsslein-Volhard, si los hijos ñieran la causa, en Alemania tendría que haber un 25% de mujeres Directoras entre los 80 Institutos Max Planck, (como ella) porque este es el porcentaje de alemanas sin hijos. Pero hay un 4% de mujeres Directoras. Esta no fue sino una de las muchas aportaciones de importantes mujeres científicas, principalmente europeas, a la reunión organizada por EMBO (European Molecular Biology Organization) en Junio de 2001 en Heidelberg. The glass ceiling for women in the life sciences, no deja duda de cuál es la percepción del problema para toda persona con formación científica que lo mira con atención. Fruto de este encuentro, y la decidida apuesta posterior por mejorar las cosas, es un artículo de «posición» [URL], Women in science project) que invita a trabajar juntos para lograr igual representación de hombres y mujeres en las ciencias de la vida. Las aproximadamente 100 científicas que asistimos a ese encuentro estoy segura de que trabajaremos para ello, pero ¿y los/las demás? Claramente, las mujeres y hombres en la élite que se atreven a denunciar sesgos sexistas están a3aidando a mejorar las condiciones sociales que facilitan la carrera de las mujeres. Pero ha sido común que incluso las científicas hayan evitado reconocer la discriminación y hayan sido poco activas en apoyar a otras más jóvenes (14). Es preciso perder el miedo a la «estigmatización» que ha sido siempre recurso represivo en momentos históricos cuándo quien detentaba el poder se veía amenazado. Y para lograr romper el «techo de cristal» es necesario un plan de acción. Sin él no progresaremos con velocidad razonable. En Europa ya se ha admitido a nivel social global que «la promoción de la igualdad entre hombres y mujeres requiere una combinación de medidas y, en la práctica, de legislación y acciones concretas, concebidas para reforzarse mutuamente,...la persistencia de la discriminación de índole estructural por razón de sexo, la doble y en muchos casos múltiple discriminación que padecen muchas mujeres, así como la persistencia de las desigualdades entre mujeres y hombres justifican la continuación y la intensificación de la acción comunitaria en este ámbito y la adopción de nuevos métodos y nuevos enfoques» (Diario Oficial de las comunidades Europeas L17/22, 19.1.2001). Un claro objetivo emanado del informe ETAN ^ es que todos los Comités decisorios en política científica incluyan un 30% de mujeres para el año 2002 y un 40% para el 2005. Hay muchas medidas posibles Flora de Pablo 600 para paliar la situación ahora denunciada internacionalmente. Varios países europeos nos llevan, también en esto y no sólo-en la promoción general de la Ciencia, la delantera. Algunas investigadoras españolas, de las ciencias y las letras, del CSIC y la Universidad, y algunas tecnólogas, hemos creído necesario fimdar AMIT: Asociación de Mujeres Investigadoras y Tecnólogas ^^, con el fin primordial de hacer el camino de la Ciencia más justo y estimulante para las mujeres. No nos engañemos: todavía hay muchos científicos y gestores varones en el CSIC, como en otras instituciones, que desearían que las científicas camináramos con la mirada baja y proclamando: He aquí la esclava del señor. Pero ha comenzado el siglo XXI. Ha trabajado en las áreas de cáncer, envejecimiento y biología de los telomeres. Doy las gracias a las científicas consultadas para elaborar este capítulo, por contribuir su opinión, valiente en muchos casos y, en todos, desinteresada. Excepto lo reflejado directamente de cada una de ellas, que espero no haber desvirtuado, el resto del texto corresponde exclusivamente a mi visión personal, no necesariamente compartida por todas. A Paloma Alcalá le agradezco haber pensado en las científicas del CSIC antes que nosotras mismas, y su contribución a los datos. Agradezco también a varios científicos que conocen bien el área, Alberto Ferrús (Instituto Cajal), Enrique J. de la Rosa (CIB) y Manuel Fresno (Universidad Autónoma de Madrid), sus comentarios informales que me han ayudado a contrastar puntos de vista con «la otra mitad de la Ciencia». Mi reconocimiento al Presidente del CSIC, Rolf Tarrach, por arriesgarse a escuchar el clamor de las científicas, cuando en su entorno hay tantos intereses por minimizar y marginar la problemática de género. Bibliografía y páginas web Establecimiento de la bioquímica y de la biología molecular en España. Algunos centros tienen personal en plantilla que corresponde a otras áreas y no está por tanto incluido en la tabla (por ejemplo, en el CIB hay un total de 16 PI, pero 6 no son del área de Biología y Biomedicina. En este caso el porcentaje de mujeres en esta categoría es aún menor). CIB, Centro de Investigaciones Biológicas; IBM, Instituto de Biología Molecular de Madrid; CNB, Centro Nacional de Biotecnología; IIB, Instituto de Investigaciones Biomédicas; IC, Instituto Cajal; UBB, Instituto de Investigaciones Biomédicas de Barcelona; IBMB, Instituto de Biología Molecular de Barcelona. Distribución del personal científico por sexo y categorías en los mayores centros del Area de Biología y Biomedicina y en el total del Area y del CSIC. O Centro CIB IBM CNB HB ic ilIBB IBMB AreadeByB Total CSIC Profesores/as de investígación Hombres
Los datos indican que algo se ha hecho mal desde el principio para que un área tan joven presente cifiras tan alarmantes de desigualdad de género, con sólo un 3% de Profesoras de Investigación cuando las mujeres representan el 31% del personal científico del área. Tanto las mujeres jóvenes como los hombres no son aún muy conscientes de su existencia, no se ve, es transparente, sólo te topas con él cuando tratas de atravesarlo. No se manifiesta de igual manera en todos los Centros, en algunos es más fi^ágil, en otros es cristal blindado. A mi padre que me enseñó a amar la justicia y a trabajar por ideales Ciencia y Tecnología de Materiales 607 tuto) que este artículo se estaba elaborando y que todas las contribuciones y sugerencias serían bien recibidas. No se pretende plantear aquí una lucha entre dos colectivos que trabajan juntos y en armonía, nada más lejos de mi intención, sino todo lo contrario. Necesitamos despertar nuestras conciencias para que tanto los hombres como las mujeres dejemos de actuar por el subconsciente y demos paso a un consciente más justo, de mayor respeto y de mayor igualdad para todos. Sólo si conseguimos aunar el esfuerzo de hombres y mujeres inteligentes y con sensibilidad conseguiremos el cambio en un futuro cercano El mundo científico reconoció este problema en EEUU en la década de los 80. Más tarde el artículo de dos investigadoras suecas publicado en la revista Nature ^ en 1997, demostró cómo los evaluadores conferían inadvertidamente a los hombres, sólo por el hecho de serlo, una ventaja equiparable al valor de 20 publicaciones científicas en revistas de prestigio. La mujer tenía que ser 2,2 veces más productiva que sus compañeros varones para conseguir un soporte financiero equiparable. Este estudio realizado por el Swedish Medical Research Council provocó el cambio de composición de los comités de evaluación, para incluir más mujeres en los mismos. Recientemente, el informe elaborado por la Comisión Europea ^'^'^ en 1999 dice: «Pese a que los datos disponibles son escasos, proporcionan una sorprendente instantánea de exclusión y segregación», y recomienda insistentemente registrar a partir de ahora datos estadísticos segregados por géneros. Ya para citar un último ejemplo de los muchos que hay, el prestigioso Massachusetts Institute of Technology lleva años trabajando en un programa' ^' ^ para apoyar que las investigadoras puedan llegar a los puestos de máxima responsabilidad y evitar la enorme discriminación que se detectó en 1994 608 después de un estudio encargado por su Presidente a instancia de las investigadoras senior de esa institución. Nosotras abordamos hoy el problema tratando de recopilar el mayor número posible de datos para hacer un análisis basado en cifras objetivas y no en opiniones subjetivas. El hecho de que dispongamos de gran número de tablas sobre diferentes aspectos del Instituto de Ciencia de Materiales de Madrid es debido a que en sus Memorias anuales podemos encontrar toda esta información y puede ser fácilmente consultada. Muchos de los institutos de este área son centros mixtos con las Universidades y en estos casos la recopilación de datos es una labor muy compleja, para la que se necesitaría más tiempo del que se dispone en esta ocasión. Tampoco se han podido aportar datos del Instituto de Materiales del País Vasco. Su creación es muy reciente, es un centro mixto y no hay en su personal ninguna mujer que pertenezca a la escala investigadora del Consejo, por lo que ha quedado fuera de este análisis. Instituto de Ciencia de Materiales de Madrid (ICMM) El Instituto de Ciencia de Materiales de Madrid fue creado en diciembre de 1986 por fusión de tres centros: Instituto de Física de Materiales, Instituto de Física del Estado Sólido e Instituto de Físico-Química Mineral. Posteriormente, en diciembre de 1987, se incorporó el personal del Instituto de Química Inorgánica «Elhuyar». Es el Instituto más grande del área, por lo que nos puede servir para hacer un estudio más detallado sobre la situación de la mujer en las escalas científicas del CSIC. Observamos en la Tabla 2 que no hay ninguna Profesora de Investigación, a pesar de ser un Centro donde desde sus orígenes ha habido bastantes mujeres. En la actualidad es el Instituto con más alto porcentaje de mujeres en la escala científica, un 38 %. El 35 % de Investigadoras Científicas está en parte formado por las que deberían ser Profesoras de Investigación, pero llegar a esta categoría parece que les está negado a las mujeres de nuestro Centro, ya que Curricula brillantes en este colectivo no es lo que falta. La pirámide de escalas está truncada para la mujer y las científicas se jubilan siempre sin llegar a la cima. Por dar algún ejemplo citaremos aquí el caso de una Investigadora Científica, que ha cumplido 65 años, y que también se jubilará sin llegar a la escala máxima, no sabemos por Ciencia y Tecnología de Materiales qué razones, ya que méritos no le han faltado. Su nombre ha aparecido hasta el año 2000 en las listas Internacionales de Químicos más citados del mundo, trabajando siempre con pocas medios técnicos a su servicio, con escasos recursos y con pocos becarios. Pero también podríamos hablar de otros casos que fueron premios extraordinarios de licenciatura y se jubilarán como Científicas Titulares aunque les sobran méritos para haber sido Investigadoras Científicas. Este inciso en el análisis de nuestra primera tabla, es un pequeño homenaje a personas que pronto dejarán la Institución y no han sido justamente tratadas. Ellas, y otras como ellas que se marcharon antes, han sido el indicador permanente de que algo no se está haciendo bien en nuestro entorno. Si hacemos un estudio de las edades de los Científicos Titulares del ICMM, de los 23 hombres, el máximo de la distribución por edades está en torno a los 40 años, sólo dos superan los 42 (uno con 44 y otro con 47) y casi con seguridad ascenderán antes de su jubilación; mientras que para las mujeres la realidad es muy diferente, casi la mitad de ellas (12) superan los 50 años y su perspectiva es jubilarse como Científico Titular, es decir en la escala mínima de su carrera después de 30 o 40 años de servicio cumpliendo siempre con celo y en exceso con su trabajo. Si analizamos el número de proyectos de investigación (Tabla 3), que son dirigidos por hombres o por mujeres, observamos que va aumentando y actualmente está en un valor más próximo al porcentaje de mujeres en nuestro Instituto. Si nos fijamos en las cuantías de los proyectos dirigidos por mujeres (Tabla 4), estas son menores que las de los dirigidos por hombres. Teniendo en cuenta que somos el 38% del personal científico, las cifras son bastante alarmantes y en el periodo 1997 -99 es aún peor, ya que recibimos prácticamente la mitad de la cuantía que correspondería a ese volumen de proyectos conseguidos y que, por supuesto, no llegan ningún año al 38%. Los datos sobre las Tesis Doctorales leídas en el ICMM (Tabla 5) pueden sorprendernos en una primera lectura pero tienen una fácil interpretación cuando se comparan las cifras que aparecen en la Tabla 6. Las mujeres no tienen casi becarios. El tiempo necesario para hacer una Tesis Doctoral está en torno a los 3 o 4 años, con lo que no sorprende que los ciclos de lectura se agrupen con estas periodicidades, ya que es difícil tener un becario en nuestro colectivo. Es además muy frecuente que becarios dirigidos por hombres sean en la práctica instruidos y enseñados por mujeres, que no aparecen, en la mayoría de los casos, ni como codirectoras. El porcentaje de mujeres y hombres que leen sus Tesis Doctorales, está muy de acuerdo con la composición de nuestra Institución, no parece que exista discriminación en el acceso a la primera escala de Científico Titular. Las cifras de la Tabla 6 vuelven a indicar una enorme desigualdad en nuestro colectivo. El personal en formación trabaja principalmente para los hombres y el trabajo de la mujer se desarrolla más en solitario o dirigido hacia los hombres de su grupo. Teniendo en mente el dinero que administran los investigadores y el número de becarios que trabajan para ellos solo quedaba por analizar la producción científica de hombres y mu- 612 jeres de nuestro Centro, así como el índice de Impacto del trabajo que ambos colectivos realizan. Sería de esperar que la diferencia en el número de trabajos/año por investigador hombre o mujer fuera alarmante y no digamos en el índice de Impacto, para poder así justificar los datos de la Tabla 2. La diferencia en el número de publicaciones/año para el colectivo de hombres y mujeres es de una publicación y la calidad del trabajo, reflejada en los índices de Impacto, que realizan unos y otros es muy semejante y solo se diferencia en el tiempo en que se alcanzan los máximos. Solo me gustaría dejar una reflexión en la mente de todos ¿qué seríamos capaces de conseguir las mujeres si contásemos con los mismos medios económicos y humanos que nuestros compañeros, Ciencia y Tecnología de Materiales 613 sin entrar en el análisis de las cargas sociales y familiares que lleva la mujer y que en absoluto comparte de forma igualitaria con el hombre? Gloria Platero es Investigadora Científica en el Departamento de Teoría de la Materia Condensada del ICMM desde el año 1990. Ha dirigido 4 tesis doctorales, así como proyectos de investigación nacionales y europeos. Cuenta con numerosas publicaciones internacionales en revistas científicas de alto impacto y conferencias invitadas en congresos internacionales. Gloria nos da su opinión sobre la situación de la mujer en la Física Teórica de la Materia Condensada. La mujer ha estado y está discriminada profesionalmente por sus colegas masculinos en esta área de investigación más que en ninguna otra. La prueba objetiva de ello esta en los datos que se refieren al número de mujeres que acceden a una plaza permanente y finalmente al prácticamente nulo grupo de mujeres que ocupan el nivel de promoción superior de la escala científica (Profesora de Investigación), o bien a puestos de responsabilidad y decisión científica (comisiones de área, tribunales de concursos y oposiciones, comisiones de proyectos, gestión de proyectos, etc.). Ahora bien, la pregunta que inmediatamente surge de estos hechos es por qué y cómo se manifiesta esta demostrada discriminación en la relación diaria profesional de las mujeres con sus colegas masculinos. Respondiendo primero a la segunda pregunta (la primera deberían responderla nuestros compañeros), la manifestación de esta relación discriminatoria es diferente en las distintas etapas de la vida profesional. Consideremos como primera etapa la correspondiente a la tesis doctoral. En ésta la doctoranda suele ser tratada de una manera paternalista o bien de una manera «frivola» y su labor profesional no se toma muy en serio (por supuesto, salvo honrosas excepciones). Es en esta etapa donde todavía no se manifiesta claramente el fuerte sentimiento de recelo que desarrollan los colegas masculinos frente a sus compañeras científicas y que es factor común en su relación posterior en todas y cada una de las etapas profesionales. Este recelo les lleva a desarrollar una actitud agresiva y de crítica destructiva e injustificada hacia su labor profesional. En muchas ocasiones esta actitud está reforzada por la agrupación de los miembros del colectivo masculino, que se unen para defender «su territorio» frente a la posible incursión de mujeres en el mismo. Esta actitud se acentúa entre los físicos teóricos debido al carácter puramente intelectual de la disciplina. En este terreno, los colegas masculinos no admiten que se cuestione su superioridad intelectual o, sencillamente, no admiten una igualdad de las mujeres en este ámbito. Pocas son las mujeres que se promocionan a un nivel alto en la escala científica. En el Consejo, los tribunales de los concursos son designados «a dedo» y este dedo corresponde en la mayoría de los casos a alguien del género masculino (esto siempre es así en el área de Ciencia de Materiales, por ejemplo). En lo que se refiere a proyectos, los hombres admiten en ellos a las mujeres y están encantados de que éstas participen en ellos, pero siempre en el caso de que ellos lleven el liderazgo del mismo. Desde el punto de vista de colaboración científica deben ser ellos los líderes absolutos y sus colegas femeninos se relegan a una posición de «estudiantes» eternas de los mismos y además se da por descontado que no pueden competir por los medios asignados al proyecto (tales como becas para doctorandos) con sus colegas masculinos. Esto último se plantea o bien explícitamente por ellos: «si hay una beca es para mi doctorando» o bien implícitamente. Si por algún motivo, como por ejemplo un expediente brillante indiscutible de un doctorando, es una mujer del equipo la que accede a la beca para dicho estudiante, el investigador principal hombre no lo puede asumir y se suceden en ocasiones episodios desagradables a lo largo del proyecto («sois un cero a la izquierda en este proyecto tú y tus doctorandos, puesto que no publicáis conmigo y, por tanto, no podéis asistir a congresos financiados con los fondos del proyecto». Este comentario, realizado por un investigador principal a una colega del proyecto, es sólo un ejemplo de lo expuesto anteriormente). No hablemos, por ejemplo, de quien debe ser el responsable de un proyecto. De nuevo, salvo honrosas excepciones, son los hombres los que por decreto ley deben ser los responsables de los proyectos y sólo en los casos en que ellos no puedan serlo por incompatibilidad debido a algún cargo, o por otras razones (como no pertenecer al centro o ala institución desde la cual se solicita el proyecto) permitirán que sea una mujer la investigadora principal. El prestigio profesional juega un papel primordial en la carrera científica. Es muy rara la ocasión en que los hombres alaban la labor profesional de sus colegas femeninas y más raro es aún que se alegren de sus éxitos profesionales. Sin embargo, entre los mismos, y siguiendo el espíritu corporativista antes mencionado, los hombres se agrupan en colectivos que se defienden entre ellos y se prodigan en alabanzas muchas veces de una manera muy poco objetiva y menos aún realista. Instituto de Ciencia de Materiales de Sevilla (ICMSE) El Instituto de Ciencia de Materiales de Sevilla (ICMSE) se crea en junio de 1986, como En la Tabla 8 podemos ver cómo el porcentaje de personal de plantilla que representan las mujeres en el centro mixto no ha variado en los últimos 5 años; sin embargo, el porcentaje de proyectos liderados por mujeres ha ido aumentando hasta igualar el porcentaje correspondiente de mujeres científicas de plantilla. Esto indica que la productividad y capacidad de liderazgo va en aumento y además, en los últimos años los montantes económicos de los proyectos dirigidos por mujeres y el número de becarios asignados son totalmente equiparables a los asignados a los proyectos dirigidos por hombres. En cuanto a la gestión interna del ICMSE es actualmente de una extraordinaria participación femenina. La Directora y la Vicedirectora son mujeres y en la Junta de Instituto de sus 9 miembros, 4 son también mujeres. Esta situación, que existe tan solo desde hace unos meses, al ser nombrado el nuevo equipo Directivo, representa claramente una oportunidad y un reto para demostrar qué es lo que podemos aportar a este tipo de tareas de alguna manera paralelas a la propia actividad investigadora. Durante años he trabajado con tesón en una profesión que me gusta y a la que he dedicado un gran esfuerzo para alcanzar el grado de formación adecuado. Apenas sí me había planteado alguna vez si el hecho de ser mujer estaba implicando algún tipo de dificultad adicional en el desarrollo de mi actividad como investigadora, Al mirar hoy hacia atrás y reflexionar sobre los ya 20 años de mi carrera investigadora y sobre lo que he visto en mi convivencia profesional con mis compañeros y compañeras, no me cabe duda de que el desarrollo de la carrera investigadora requiere a la mujer un esfuerzo superior al del hombre. Las cargas y responsabilidades relativas al hogar, educación de los hijos, etc., siguen siendo en general superiores para la mujer y la carrera profesional masculina sigue siendo más valorada en el entorno familiar que la de la mujer. Esta se acepta normalmente en una sociedad evolucionada como la nuestra, pero pienso que no se le reconoce su importancia y, sobre todo, el gran valor y esfuerzo que supone para una mujer el pleno desarrollo de sus capacidades profesionales. Es evidente que estas reflexiones intentan reflejar mi punto de vista de un modo generalista y que, por supuesto, existen mujeres, y también hombres, que por las circunstancias personales podrían representar situaciones particulares de mayor facilidad o de dificultades extremas. Si nos remitimos a las estadísticas, incluso aplicando cualquier factor de corrección que se nos pueda ocurrir, el número de mujeres en las esca-Ciencia y Tecnología de Materiales las superiores y en los puestos de responsabilidad sigue siendo muy inferior al de hombres. En general está bien establecido en el ámbito de la investigación que el papel que debemos o podemos jugar es importante en las escalas más básicas como científicas bien formadas y de valía, pero no más allá. Es indudable que este esquema solo se romperá con el cambio de la mentalidad masculina, pero también si las mujeres sabemos afrontar decididamente nuestras responsabilidades, Profesionalmente he tenido la oportunidad de comparar la situación en España con otros países de nuestro entorno europeo, especialmente con Alemania, en donde realicé mi Tesis Doctoral, En este sentido debo expresar, desde mi experiencia personal, que en nuestro país hay una aceptación mucho más efectiva de la carrera investigadora. En muchos entornos sociales de los países del norte de Europa he podido apreciar una cierta valoración negativa del hecho de que la mujer, una vez que asume la maternidad, no desee relegar sus funciones laborales a un plano más relajado, con dedicación en muchos casos a jornada parcial, a favor de una dedicación casi exclusiva al cuidado y educación de los hijos. En este sentido, está claro que la sociedad debe valorar la riqueza de experiencias personales de la mujer trabajadora a la hora de trasmitir a los hijos valores como el tesón, la capacidad organizativa y de trabajo, la capacidad de tomar decisiones, la independencia, etc, junto a valores evidentemente importantes como ternura, consuelo, apoyo moral, etc. Quiero también comentar, y siempre desde mi propia experiencia personal, que los hombres del entorno científico tienen en muchos casos un talante más progresista y una mayor amplitud de miras que los hombres en otros ámbitos profesionales y empresariales. Vaya por delante mi satisfacción y el placer de tenerlos como colegas. Hace ya casi 20 años, cuando yo hacía mi Tesis Doctoral en Alemania, el responsable del laboratorio vecino al mío se preguntaba si sería rentable la inversión que la Sociedad Max-Planck hacía formándome como Doctora, Lo decía en aquel entonces por dos razones claras; que yo era mujer y además española. Creo que si me viese ahora dirigiendo mi propio laboratorio, siendo responsable de proyectos europeos, publicando en las mejores revistas de mi campo, dirigiendo tesis y, desde hace poco tiempo, incluso dirigiendo un Instituto, no le quedaría la menor duda de que la Sociedad Max-Planck no se equivocó al elegirme como becaria. Invirtamos en la formación de jóvenes científicos y científicas, apostemos firmemente por todos ellos; porque el terreno está abonado y los frutos se verán en aquellos o aquellas que tengan las mejores capacidades para este tipo de trabajo. Instituto de Ciencia de Materiales de Bareelona(ICMAB) El ICMAB fue ñmdado por el CSIC en 1987 con un núcleo muy reducido formado por personal del Instituto Jaime Aimera y del Centro de Investigación y Desarrollo. En la actualidad las mujeres representan el 24% del personal científico, pero tampoco hay en este Instituto ninguna Profesora de Investigación y sólo un 6%, del total, son Investigadoras. La Tabla 10 refleja todos los proyectos de investigación, incluyendo los ñnanciados por industrias y las acciones bilaterales. La tabla evidencia el menor porcentaje de mujeres en el personal científico del Instituto y el hecho de que ha sido en los dos últimos años cuando este porcentaje se ha incrementado más. Hablamos con Concepció Rovira, una de las dos únicas mujeres que son Investigadoras Científicas en el ICMAB. Especialista en conductores orgánicos, ha dirigido proyectos nacionales y europeos así como proyectos industriales. Pertenece a comités internacionales, ha dirigido 7 Tesis Doctorales, y sus numerosos trabajos recogen más de mil citas. Mi experiencia personal en cuanto a mi condición de mujer en la ciencia me hace concluir que la circunstancia mas determinante es la persona o personas que tengas como superior. Comencé mi carrera científica en Julio de 1973 y después de tres años y medio leí la Tesis Doctoral, una semana antes de salir de cuentas de mi primer hijo. Era la primera Tesis Doctoral defendida por una mujer en el grupo. Mi primer problema por ser mujer surgió precisamente a raíz del nacimiento de mi primer hijo ya que estaba con un contrato-beca otorgado por mi «jefe» y él tenía plenos poderes por lo que me exigió volver al trabajo a los dos meses escasos del parto, cuando en la legislación vigente para los trabajadores se concedían tres meses de permiso. En el año 1979 tuve mi segundo hijo, tenia entonces una beca postdoctoral del CSIC, y para poder renovar la beca dos de mis compañeros tuvieron que hacer, a escondidas, mi trabajo correspondiente a los tres meses que el CSIC me concedió de permi-Caridad Ruiz Valero 620 so maternal en contra de la voluntad de mi «jefe». Según él si en un año no hacía el trabajo que él consideraba necesario el informe para la beca posterior «podía» ser negativo. También en las oposiciones para una plaza de colaborador adjudicada al grupo el hecho de ser mujer nos perjudicó tanto a mí como a mis compañeras. Se convocó una plaza en el año 1980 a la que nos presentamos tres mujeres y un hombre ya que en esa época ya habían realizado la Tesis más mujeres en el grupo. Unos dos meses antes de la oposición nuestro jefe nos comunicó casi sin disimulo que la plaza debería ser para nuestro compañero hombre que había defendido su Tesis Doctoral un mes antes. Naturalmente, a pesar de que dos de nosotras nos presentamos igualmente a la oposición y fuimos muy batalladoras, el primer clasificado fue el hombre, A pesar de ello nunca me di por vencida y mi carrera científica continuó de forma fructífera tanto en el extranjero como en el mismo equipo anterior ya que en la parte científica el equipo era bueno. Evidentemente en todos estos años las cosas han cambiado mucho pero creo que aún persiste una discriminación subyacente de la mujer. Hoy en día en las oposiciones para científico titular ya no se discrimina a la mujer pero hay otras circunstancias en que se nota la discriminación como por ejemplo en el hecho de que en mi instituto, el ICMAB, sólo uno de los cuatro departamentos y aproximadamente 12 grupos de trabajo del Instituto tenga una directora. Mi carrera como investigador en plantilla (desde 1987) ha discurrido siempre formando equipo con mi marido, y ello me ha permitido no tener problemas para dirigir proyectos y compartir las tareas del grupo. El sistema es trabajar conjuntamente pero especializarnos cada uno en vertientes distintas con lo que nuestros méritos pueden en cierto modo distinguirse. De todas formas, su carrera ha sido mucho más fácil y ha llegado a Profesor de Investigación antes que yo a Investigador, La circunstancia de los matrimonios trabajando en un mismo grupo es muy común dentro de nuestro instituto y sin ninguna excepción el hombre se promociona antes que la mujer. Hay cuatro matrimonios y excepto en uno en que los dos son científicos titulares (él entró antes como colaborador), en los demás el hombre siempre está una o dos categorías por encima. Es bastante sistemático el hecho de que si se presentan las dos personas del matrimonio a promoción salga primero el hombre aunque tengan curricula similares. En general no hay problemas para acceder a proyectos de Investigación en el instituto por el hecho de ser mujer. Creo que depende de nuestra actitud y en general de la relación con los jefes de grupo. Si tenemos menos proyectos las mujeres es porque somos menos y también porque la mayoría son más jóvenes. Ciencia y Tecnología de Materiales 621 Cuando se inauguró el edificio del Instituto en 1991, había 2 Profesores de investigación, 5 Investigadores y 8 Colaboradores. De todos ellos sólo tres éramos mujeres y todas Colaboradoras, En la actualidad el número de personal en todas las categorías es mayor (ver Tabla 9), pero aún no hay ninguna Profesora de Investigación y sólo 2 de los Investigadores son mujeres. Curiosamente dentro del personal becario siempre la proporción de mujeres ha sido mucho mayor lo que indica que la consecución de plazas ha sido más difícil para las mujeres. Una circunstancia clave para este desequilibrio es que las mujeres casadas tienen más dificultad para realizar una estancia postdoctoral en el extranjero que los hombres. Actualmente, como se alarga mucho la edad del matrimonio y la de tener hijos esta circunstancia esta cambiando y creo que en el acceso a las plazas de Científico Titular hoy, no perjudica el ser mujer si el curriculum es competitivo. Sin embargo existe otro problema posterior. Cuando se debe viajar para realizar experimentos, congresos y conferencias las mujeres con hijos siempre tienen más problemas porque las tareas familiares no se comparten totalmente y tienen que bajar el ritmo. Yo creo que nos deberíamos mentalizar más de que la nuestra es una profesión muy competitiva y si las tareas familiares no son compartidas es muy difícil seguir el ritmo que se requiere. Las estadísticas hechas por el CSIC muestran claramente que la promoción resulta más difícil para las mujeres. Yo creo que en general deberíamos mentalizarnos de que debemos ser más batalladoras para llegar a los puestos superiores y directivos que obviamente están, en su mayoría, copados por hombres. Nuestro carácter más tranquilo no ayuda para la lucha que se debe mantener para conseguir el mando, parece que nos sentimos más a gusto en el laboratorio y dedicándonos más a la ciencia que a la política. Instituto de Ciencia de Materiales de Aragón (ICMA) El Instituto de Ciencia de Materiales de Aragón (ICMA) fue creado en 1985 por acuerdo entre el Consejo Superior de Investigaciones Científicas y la Universidad de Zaragoza como centro mixto dependiente de las dos instituciones. El ICMA engloba a miembros de ambas que se ubican en Facultad de Ciencias en la Pza. San Francisco y en el Centro Politécnico Superior en el campus del ACTUR. Lo componen nueve departamentos de investigación: 3 del área de Químicas y 6 del área de Materiales. La composición de los departamentos de Materiales, por categoría y género, es la siguiente: Como punto de partida, el Estudio sobre mujeres investigadoras del CSIC, disponible en la Web, arroja datos significativos, el más llamativo de los cuales es que las mujeres no parecen tener problemas para acceder a la carrera investigadora, pero sí para progresar en ella. Hay otros datos destacables, como la escasa participación de mujeres en tribunales, pero, en mi opinión, las razones que lo explican son diferentes en ambos casos. La composición de los tribunales tiene mucho más que ver con ámbitos de poder y de influencia que con el sexo de sus componentes. He clasificado las posibles causas de la situación actual en tres categorías: i) Hecho biológico, ii) Hecho sociológico, iii) Hecho psicológico. Por hecho biológico me refiero, por supuesto, a la maternidad. Así como en el resto de las actividades antes consideradas como típicamente femeninas la situación hombre/mujer se ha equilibrado mucho, la maternidad sigue siendo, obviamente, indelegable. Francamente, no hay carrera profesional que resista una media de dos visitas por semana al pediatra durante meses, el fin de la jornada laboral a las 5 de la tarde, más las reuniones con maestros y padres, la asistencia a actividades extraescolares, etc., por no hablar de lo más importante, que es el cambio sutil y paulatino en la escala de valores: al principio aceptas que es normal, mientras los niños son Ciencia y Tecnología de Materiales 623 pequeños, dedicarles todas tus energías. Un buen día te das cuenta de que hace 7 años que no vas a un congreso, que los compañeros cuando te ven sólo te preguntan por los niños porque te ven como madre y no como colega, que tú misma te has conformado con ese status. Me gustaría dejar claro que conozco mujeres que no lamentan la disminución, e incluso interrupción, del ritmo laboral, porque anteponen el cuidado y educación de los hijos a unos hipotéticos triunfos profesionales. También conozco mujeres que no han tenido hijos, o han atrasado al máximo el tenerlos, porque han preferido aprovechar el buen momento profesional que, frecuentemente, suele coincidir en el tiempo con la llegada de la maternidad. Es difícil encontrar una solución para aquellas mujeres que quieren -o queremos-dedicarnos plenamente a las dos facetas; seguramente es imposible. Se podrán oponer a estas consideraciones dos argumentos: Primero, que también los hombres se ven afectados por la paternidad, las visitas al pediatra y los horarios escolares. Esto es verdad, pero sólo en parte: en primer lugar por el hecho biológico en sí de que somos nosotras las que tenemos a los niños, pero también porque ese cambio de intereses que he mencionado arriba afecta mucho más a las mujeres que a los hombres. Éstos saben, en mayor medida, desconectarse de los asuntos familiares cuando llegan al despacho. ¿Y las que no han tenido hijos, qué pasa con ellas? Ahí es donde entran los otros dos factores, el sociológico y el psicológico. Por hecho sociológico entiendo el factor cultural y social, que se propaga a través de la educación impartida en los colegios, en las propias familias o en los medios de comunicación, según el cual hay unos valores masculinos y otros femeninos. El primero entre los masculinos es, por supuesto, el éxito profesional, el reconocimiento y el prestigio ante los colegas, por delante incluso del éxito económico. Alcanzar ese status de científico prestigioso, que conduce a ser nombrado en comisiones y tribunales, exige un dinamismo inusitado: asistir a congresos, organizar reuniones, mantener contactos, a ser posible internacionales... todo ello sacrificando la cuota correspondiente de dedicación a la vida privada o familiar. El hecho sociológico es que, para muchos hombres, no hay en ello ningún sacrificio, y se van, mientras que, para muchas mujeres, el sacrificio no compensa, y se quedan. Sin llegar al caso extremo del científico de maleta, es cierto que, en el ambiente competitivo en que se desarrolla la investigación, sólo progresa el que pone todo su esfuerzo en conseguirlo, y aquí llegamos al punto iii), el hecho psicológico: Esos valores sociales de éxito, de prestigio, requieren actitudes personales -ambición, agresividad, cierta dosis de egoísmo- Caridad Ruiz Valero frontalmente opuestas a las actitudes femeninas de toda la vida -sumisión, entrega, conformismo. A una mujer no se le suponen aspiraciones, y la que las muestra sorprende. El fondo del problema no es de capacidad, sino de actitud, y aquí es donde las mujeres podemos actuar: no se puede luchar contra la biología, ni tenemos por qué, pero sí contra la presión social. Para ello no basta con quejarse, sino que hay que dar un paso al frente, vencer la inercia de siglos de conformismo, de educación en la pasividad. La solución para el futuro no está en las cuotas, aunque ello pueda ayudar a nivelar desigualdades, sino mucho más abajo: en la educación que damos a nuestras hijas, en la que damos a nuestros hijos, en los juguetes que compramos. En el presente, en no callarnos ante nuestros colegas masculinos, en darnos a conocer y exigir que se nos tenga en cuenta. En adoptar, en fin, algo de esa agresividad que puede empezar por reclamar, sin más, que se nos dé la palabra cuando levantamos la mano. En cuanto a las científicasmadres, no nos vendría mal sacudirnos un poco ese complejo de culpa y disfrutar de lo que tenemos. El lETcc nació en 1934 con carácter privado como Instituto Técnico de la Construcción y Edificación, y se convertiría en un centro propio del Consejo en 1946.Es el único Instituto del Área donde nos encontramos con una Directora, la Dra. María del Carmen Andrade, y ha sido también durante muchos años la única Profesora de Investigación que hemos tenido, por ello en este Centro nos dirigimos a ella para conocer su opinión. Carmen Andrade ha sido premio «Robert L 'Hermite» para jóvenes inves-Ciencia y Tecnología de Materiales 625 tigadores siendo la primera mujer que lo recibió. Asimismo es también la única mujer que ha dirigido organizaciones internacionales del máximo nivel científico en su área. Es considerada uno de los mejores científicos del mundo en su especialidad. Mi comienzo de carrera investigadora data de hace unos 30 años. En aquel momento el porcentaje de investigadores de plantilla en el centro al que me incorporé, Instituto Eduardo Torroja, era prácticamente nulo. Justo conmigo se incorporaron las primeras mujeres hecarias, varias a la vez. Mi carrera se desarrolló, al principio, entre el lETcc y el CENIM dónde había ya algunas mujeres investigadoras. Nunca he sentido la más mínima discriminación por ser mujer en el ámbito de los dos centros que más frecuenté. Fui becaria diez años hasta 1979 en que, junto con otra mujer, conseguimos una plaza cada una de Colaborador Científico pero luego accedí a la escala de Prof, de Investigación en relativamente muy poco tiempo (en 1987). Muy recientemente he conocido que he sido la única Prof, de Investigación de toda el área de materiales hasta el año 2001 en que otra compañera ha accedido a la escala. Es realmente sorprendente el pequeño porcentaje de mujeres en las escalas de Investigadores y Profesores de Investigación en el área de Materiales, aunque no me he podido formar una opinión rigurosa de las razones de ello. Sería realmente interesante analizar los Curricula comparando entre hombres y mujeres para ver si es una cuestión de méritos o no. En mi caso, mis compañeros en el Instituto y en el CENIM me ayudaron siempre y algunos (S. Feliu), me insistieron en liderar pronto proyectos de investigación y otras actividades. Aportando estadísticas, en mi Centro actualmente, el porcentaje de mujeres en el Claustro del lETcc es elevado, y su participación en todas las responsabilidades del centro también. De los cuatro Departamentos, dos Jefes son varones y dos mujeres. En cuanto a los Servicios, también las Jefaturas se reparten casi al 50%. Creo poder afirmar que la condición de sexo es igual de irrelevante ahora en el lETcc que hace 30 años. No puedo percibir, ni entonces ni en todos estos años, ninguna discriminación en cuanto a la posibilidad de acceso a responsabilidades. En cuanto al Sector de la Construcción la participación de la mujer es realmente escasa. Existe presencia femenina en Congresos Internacionales del ámbito, aunque nunca en proporciones superiores al 10-20%. Analizando la presencia en puestos de responsabilidad, los ejemplos de mujeres son escasísimos siendo, la que suscribe prácticamente la única mujer en Comités Directivos de organizaciones internacionales como la UEAtc, Comité de Liaison, Rilem, Acción COST-521. Aparte de mí, sólo conozco que una mujer norteamericana haya sido Presidente de alguna 626 Caridad Ruiz Valero gran organización internacional (el American Concrete Institutejy ello solo durante un año, En niveles algo inferiores de Asambleas Generales de organizaciones internacionales o representaciones nacionales, la participación femenina es cuando puede alcanzar el 10-20% En cuanto al por qué hay tan pocas mujeres en puestos directivos y progresamos menos en nuestras carreras profesionales (de investigación en este caso) yo he tenido tendencia a buscar las razones en mi propia actitud y no en la de los demás. Mis padres me educaron para que me sintiera igual que mis hermanos, todos varones, que no aceptara ser menos que ellos pero que tampoco pretendiera privilegios con respecto a ellos. Así lo asimilé y he estado convencida de que se puede llegar dónde uno quiera si se trabaja mucho, no se tiene pereza en adoptar responsabilidades y se valora el trabajo de calidad en los demás, sean hombres o mujeres. Sin duda la maternidad supone una sobrecarga para la mujer (yo he tenido dos hijos cuando estaba haciendo mi tesis doctoral y antes de llegar a ser de plantilla). Entonces la ayuda de la pareja es fundamental. Si el marido te apoya, sí es posible compatibilizar la profesión, incluida la asunción de cargos y responsabilidades. Sin duda con un mayor número de horas de trabajo físico y mental que la pareja, pero compatibilizarlo es posible si no se presentan enfermedades especiales. Creo que hay que educar a la mujer para el sacrificio y el esfuerzo si quiere tener éxito profesional y compatibilizarlo con tener una familia. A partir de ahí, serán las aptitudes individuales las que marcarán el listón de a dónde se llega. La capacidad de asumir responsabilidades y tomar iniciativas con todo el volumen de horas de trabajo, a veces extra, que eso lleva, es lo que me parece esencial en una mujer si quiere progresar profesionalmente. Mi percepción de no sentirme discriminada por ser mujer, no sólo la tengo dentro del CSIC o de nuestro país, sino también de mis colegas de todo el mundo. Me aceptaron desde el primer momento que salí al extranjero, y respetaron mi trabajo. Sin duda fue fundamental que era muy bueno, pero cualquier trabajo bueno era, y es, reconocido sin discriminación entre hombre-mujer. En la actualidad los que somos reconocidos en mi ámbito científico, lo somos claramente por nuestras publicaciones no por otros condicionantes. En eso la actividad científica es mucho más rigurosa que otras profesiones y sólo pervive el que aporta calidad y originalidad. El tiempo es implacable con las publicaciones que no son buenas, y los compañeros /as también. Por lo demás, he sido invitada a ser experto y dar conferencias en países tan poco aparentemente valoradores del trabajo de la mujer como Libia, India, Vietnam o Irán y este año estoy invitada a dar un curso en Jor-dania y el año que viene a dar una conferencia en Corea. El caso que recuerdo más llamativo fue en Tokyo, dónde fui invitada por la Facultad de Civil Engineering a dar una conferencia en honor de uno de mis colegas que alcanzó el retiro, y la di con una audiencia de unos trescientos profesionales todos varones. Nunca he conocido a una mujer japonesa que trabaje en el área de Ingeniería Civil y Arquitectura. Ello muestra, a mi entender, que si uno aporta un trabajo de calidad y transmite aprecio por el de sus colegas, éstos responden de la misma manera, al menos en el ámbito científico que yo conozco. Tengo que concluir que mi experiencia vital por ser mujer es muy positiva en el ámbito profesional. Creo que siempre ha sido una ventaja y nunca un inconveniente ya que al ser tan pocas, la atención es atraída por nosotras, la minoría, más que por los compañeros varones, mucho más numerosos. linstituto de Ciencia y Tecnología de Polímeros (ICTP) El ICTP fue creado en los años cuarenta en el seno del Instituto Alonso Barba de Química. Carmen Mijangos, Profesora de Investigación del ICTP, es en la actualidad Gestora del Plan Nacional de Materiales. Ha sido responsable de más de 15 proyectos de investigación, financiados con fondos de la Unión europea, Nacionales y de la Industria. Ha contribuido a avances científicos que han sido recogidos en mas de 100 publicaciones internacionales, por las que ha sido invitado a numerosas conferencias. Ha dirigido 6 tesis doctorales y son frecuentes en su laboratorio las estancias postdoctorales y visitas de doctores nacionales y extranjeros. 628 do parte de distintos comités de expertos tanto nacionales como internacionales. Carmen Mijangos es la única mujer que ha conseguido ser Profesora de Investigación por el Área de Ciencia y Tecnología de Materiales ya que la Dra. Andrade consiguió su promoción por el Área de Química. Me licencié en Ciencias Químicas en la Universidad del País Vasco (UPV) en junio de 1973. En setiembre de ese mismo año me ofrecieron un puesto de profesor ayudante en esa misma Universidad, puesto que abandoné para dedicarme exclusivamente a la investigación en polímeros y por eso elegí el Instituto de Plásticos y Caucho, actualmente denominado de Ciencia y Tecnología de Polímeros(ICTP). En noviembre de 1974 entré como becaria en el Instituto de Ciencia y Tecnología de polímeros obteniendo el título de doctor en Julio de 1977. En octubre de 1984 conseguí una plaza de Colaborador Científico; en 1989 me promocioné a Investigadora Científica y en el año 2000 a Profesora de Investigación. Entre medias estuve 2 años en el CNRS en Francia y obtuve una plaza de adjunto en la Universidad Politécnica de Cataluña. A principios de los 90 me independicé, o mejor dicho me independizaron, lo que me ha permitido formar un grupo de investigación compuesto por dos Científicos Titulares y cuatro becarios. Lo que no he podido conseguir en este tiempo es un espacio como el que disfruta el resto de mis compañeros(la falta de espacio es el problema n° 1 de nuestro Instituto). Paralelamente a mi trabajo científico, en los últimos años he llevado a cabo una actividad administrativa. De 1996 a 2001 fui directora del Instituto(a propuesta de varios de mis compañeros y porque nuevamente para mí suponía un reto extraordinario) y desde octubre de 2000, Gestora del Programa Nacional de Materiales. Mirando hacia atrás y haciendo un pequeño repaso de los problemas, dificultades y satisfacciones que he podido experimentar a lo largo de estos años, debo decir que hasta ahora no había sido muy consciente de ningún tipo de discriminación por el hecho de ser mujer (me figuro que estaba demasiado ocupada en hacer mi trabajo y siempre pensaba que las actuaciones «injustas» eran hechos aislados o casos particulares), pero analizando los hechos fríamente he llegado a la conclusión de que, a mi alrededor, sí se ha producido algún tipo de discriminación. Pongo como ejemplo el hecho de que en 1999 informé a las autoridades del CSIC de que ninguna investigadora del Instituto había formado parte, hasta entonces, de ningún tribunal de oposiciones en el CSIC. También he visto a mi alrededor cómo se favorecía más a «unos» proporcionándoles becarios, colaboraciones o espacio, negándoselos a «otras» que es a quienes correspondía. Trasladando el tema a la empresa privada, puedo comentar algunas experiencias personales. En 1973 me presenté a unos tests para un puesto en una gran industria nacional y los superé, pero no me dieron el puesto porque no querían mujeres en la empresa. Recientemente otra gran industria nacional me ha invitado a participar en un Seminario en el que participaban también unos cien directivos europeos de grandes industrias del ramo y nos encontramos, con gran sorpresa para todos, que no había más mujeres en el acto. Pienso que se tardará un tiempo todavía en que las mujeres ocupen los puestos de responsabilidad que les corresponden en la industria debido a que, aunque tengan mucha formación y sean muy competitivas, sólo se han empezando a incorporar en los últimos años. Creo que las dificultades de las mujeres de mi época, en el ámbito de los polímeros, para acceder a la carrera investigadora y después a puestos de responsabilidad, no sólo a nivel nacional sino en el resto de los países desarrollados, se debían a la escasez de plazas, a lo competitivo del acceso, a que la mujer sacrificaba su carrera profesional en aras de una vida familiar, a que no tenían ningún tipo de apoyo social y a que el número de mujeres universitarias era mucho menor que el de universitarios. Todo ello ha contribuido a que se hayan perdido por el camino muchas mujeres que habrían desempeñado un importante papel en la ciencia. Pienso que, hoy en día, el acceso es igual o más competitivo, el apoyo social no muy grande, pero lo que sí ha cambiado enormemente es que las mujeres son capaces de conjugar perfectamente la vida profesional con la familiar. Este hecho hará que en poco tiempo, espero, haya más científicas ocupando puestos de mayor responsabilidad. De hecho ya empieza a haber científicas con una excelente preparación y que ocupan puestos de cierta responsabilidad. Como anécdota de todos estos años está el hecho de que a lo largo de toda mi vida profesional nunca me ha juzgado, ni dirigido, ya sea a nivel administrativo o científico en las numerosas actividades que he desarrollado, una mujer, A este respecto pienso que si los puestos de responsabilidad científica en el CSIC (Presidente, Vicepresidentes, Coordinadores, Comisiones de Área, Junta de Gobierno y Comisión Asesora) fueran compartidos con mujeres o más mujeres, la Organización, Planificación y Comunicación en el Organismo mejorarían (lo que sí evitaría, al menos, son las mismas camarillas). Además, como las mujeres no han tenido poder, no tienen miedo a perderlo y por eso la libertad de actuación es mayor. Son reconocidas por rigurosas, constantes y que se enfrentan a los problemas. Desgraciadamente este hecho de falta de representatividad de las mujeres en los puestos de decisión ha sido constante en todos los ambientes internacionales que he conocido. Como resumen de estos años tengo que decir que he debido luchar muchísimo por hacerme un «hueco», científicamente hablando, en la Institución y, a veces, he notado que se me ha negado lo que me correspondía. A este respecto, posiblemente muchos de mis compañeros puedan decir lo mismo. Lo que sí debo decir también es que, a título particular, han sido muchos los compañeros de dentro y fuera del Organismo los que me han apoyado y prestado su colaboración a lo largo de toda mi carrera científica y que al mismo tiempo mi estancia en la Institución me ha dado muchas satisfacciones, muy buenos amigos, me ha permitido desarrollar toda la carrera investigadora y me ha permitido ocupar un cargo administrativo de gran responsabilidad fuera de la Institución. No obstante, a pesar de todos los logros conseguidos, hoy es el día en que todavía tengo que reivindicar un hueco para ubicar a mi grupo y poder estar así equiparada al resto de mis compañeros. Pero lo que ahora no tengo claro es si merece la pena seguir luchando o simplemente «plantarme» o «cambiar de aires». Centro Nacional de Investigaciones Metalúrgicas (CENIM) El CENIM procede de la unificación en 1963 de tres Institutos, el del Hierro y el Acero, el de la Soldadura y el de Metales no Férreos pertenecientes al Patronato Juan de la Cierva del CSIC. El CENIM inicia así su andadura con una plantilla de 287 personas, de las que 75 eran personal investigador con tan sólo dos mujeres. Durante muchos años esta situación fiíe similar. En la actualidad, las mujeres representan el 21% del personal investigador del CENIM como se muestra en la Tabla 15. Paloma Adeva Científica Titular en el Departamento de Metalurgia Física del CENIM nos cuenta su experiencia personal y expresa su opinión sobre el tema. Su actividad investigadora se puede resumir brevemente en su participación, tanto en calidad de integrante de Equipos de Investigación como de Investigador a Responsable, en diferentes Proyectos de Investigación Nacionales y Europeos. También ha sido Investigador a Responsable de Proyectos de Infiraestructura, Acciones Especiales y Acciones Concertadas. Ha dirigido dos tesis doctorales y es tutora de becarios y estudiantes de último curso para la realización del Proyecto fin de carrera. Además desde hace años comparte la dirección científica del Laboratorio de Microscopía Electrónica con el Dr. Joaquín Ibáñez. Ingresé en el CENIM en calidad de Colaboradora Científica, en enero de 1985, traspasar ocho años como becaria predoctoral y postdoctoral del CSIC, Considero que mi acceso a la carrera científica del Consejo fue igual de problemática que para el resto de mis compañeros varones. La escasez de plazas dio lugar a una acumulación de personal investigador no en plantilla (PINP), De todos modos, quizás fui de las personas con suerte, ya que aprobé la oposición en la primera convocatoria a la que me presenté, septiembre de 1984, Quiero hacer constar que desde el momento en que me incorporé al CENIM como becaria predoctoral (1977) me integré en un Grupo en el que nunca tuve la sensación de tener un trato diferente por el hecho de ser mujer. Tampoco mi relación con el resto del personal del Instituto fue distinta a la de mis compañeros. Respecto a la dirección de proyectos y la formación de Equipos de Investigación tengo que reconocer que tampoco he tenido problemas, sino, al contrario, una gran ayuda por parte del que fue mi director de tesis, el Prof Torralba, recientemente jubilado. En mi opinión esto está relacionado con el talante de los individuos y creo que un científico que crea un Grupo no distingue entre hombres y mujeres. Su misión es enseñar y formar científicos, para lo cual integra a sus discípulos en los Proyectos, Esto es una de las cosas que me enseñó el Prof, Torralba y él me animó a liderar mi primer proyecto Nacional incorporándose al equipo en calidad de Investigador, Además me puso en contacto con científicos de otros países para colaborar en un proyecto Brite que acaba de finalizar, formando asimismo él parte del equipo que yo dirigía. Su apoyo y ayuda a lo largo de mi trayectoria investigadora ha sido decisiva, así como la de otros compañeros de mi Departamento, Con respecto al Laboratorio de Microscopía Electrónica, laboratorio que hemos ampliado con la adquisición y renovación de equipamiento y la incorporación de técnicos, tengo que reconocer que le he dedicado un 632 Caridad Ruiz Valero gran esfuerzo y las trabas y los problemas que surgen, independientes a mi condición de mujer, suelen ser de otra índole. Según lo anterior, parece deducirse que no he encontrado discriminación en mi carrera investigadora. Sin embargo, esto no es así. Aunque el número de investigadoras en el CENIM ha sido siempre escaso, se ha producido una incorporación paulatina de Científicas, de manera que en la actualidad las mujeres representamos el 21%, cifra que estopor debajo de la media en el CSIC y de la media en el Área. Si analizamos la distribución por escalas (Tabla 15) tenemos O % de Profesoras de Investigación, 13% de Investigadoras Científicas y el 31% somos Científicas Titulares. Estas cifras explican la sensación de discriminación que tengo desde hace unos años, por la dificultad que tenemos para ascender dentro de nuestra carrera y que comparten muchas de mis compañeras del CENIM. Aunque ciertamente, el número de plazas está siendo escaso, son muy pocas las mujeres que ascienden en el área de Tecnología de Materiales. Creo que la igualdad de oportunidades para acceder a becas y a Científico Titular es indiscutible, pero, en la fase de ascenso dentro de la carrera investigadora, las mujeres tenemos que demostrar que somos mucho mejores que los hombres y para ello basta con comparar las cifras de varones y de mujeres en puestos Directivos (datos recogidos en el Informe del Presidente), y las de promoción de hombres y mujeres en las diferentes escalas. No es posible que las mujeres disminuyan su producción científica desde el momento en que son Científicos Titulares. Para demostrar que esto no es así, sino al contrario, se presenta la Tabla 16. Se puede observar en la tabla que todas las investigadoras dirigen proyectos, y algunas más de uno. Con respecto a la producción científica, en la Tabla 17 se recoge para el periodo 1996-2000 el n*" de investigadores del CENIM que han publicado, separado por género sin tener en cuenta el numero de publicaciones. Además se da entre paréntesis el porcentaje respecto del total de investigadores. Se observa que en los años 97 y 98 todas las investigadoras publicaron. Las cifras en tanto por ciento reflejan el importante papel científico de las mujeres en nuestro Centro, compuesto básicamente por Científicas Titulares y por dos Investigadoras, una de las cuales conocida y respetada internacionalmente por su importante labor y esfuerzo, que lidera muchos de los proyectos de este Centro y que posee un magnífico Curriculum, lleva ya muchos años esperando la promoción. Esta Investigadora, próxima ya a alcanzar su jubilación, creemos con gran tristeza que lo va hacer sin haber promocionado a Profesora de Investigación. De las Tablas 16 y 17 se deduce que la participación de las mujeres en la actividad científica del CENIM es al menos similar a la de nuestros compañeros. Por lo tanto la pregunta que nos surge es ¿por qué no promocionamos?. El modo en que se nombran los Tribunales también parece que nos está perjudicando. Finalmente, me gustaría hacer una reflexión y es que el ascenso dificil que tenemos las investigadoras puede provocar un problema adicional que me parece muy peligroso, y es la competitividad entre nosotras. Creo que esta posibilidad es algo que debemos considerar y que en ningún caso favorece nuestra situación. Alicia Duran es Dra. en Ciencias Físicas, Investigadora Científica del CSIC en el Instituto de Cerámica y Vidrio, y jefa del Departamento de Vidrios de este instituto. Cuenta con más de 100 publicaciones en revistas científicas, ha editado 4 libros, dirige proyectos nacionales, europeos y de cooperación internacional, y es representante española en diversas asociaciones internacionales del sector del vidrio (ICG, ESG, USTV, CPIV).. Activa sindicalista, dirige el área de Ciencia y Tecnología de la Fundación V de Mayo de CC.OO. Desde esta Fundación ha coordinado diversos proyectos de investigación nacionales y europeos sobre el sistema ciencia-tecnología-industria en España, su estructura y las relaciones ciencia-sociedad, ha editado 6 libros y publicado más de 30 artículos. Con Alicia no hablamos de su propia historia personal sino que hace reflexiones más generales: ¿CAMBIAR A LAS MUJERES O CAMBIAR LA CIENCIA? La pregunta que titula esta contribución es una pregunta clave si se pretende entender (y cambiar) la situación subordinada -en algunas esferas, marginal -, de la mujer en la ciencia española, y, como no podía ser diferente, en su mayor centro público de investigación, el CSIC. El movimiento feminista inició el debate en los años'60. La ciencia, como fenómeno social, no está aislada del contexto histórico y socioeconómico, y su avance está estrechamente vinculado a las estructuras y relaciones de poder: económico, político y también de género^. Porque existe una idea generalizada según la cual el trabajo creativo y original, el que da lugar a transformaciones radicales, es producido por los hombres, mientras que las mujeres son más eficientes en las tareas técnicas, en la Ciencia y Tecnología de Materiales obtención de datos, en poner «orden» en el laboratorio. Una idea que refleja el androcentrismo del sistema científico-técnico, que supone que ser científica significa formar parte de una profesión masculina y haber superado las presuntas «desventajas» de nuestro sexo ^^. Ser científica sería en consecuencia no ser una «mujer real» -o una «mujer, mujer»-, como diría el presidente Aznar. Sorprendería a muchos las reacciones surgidas después de la TV Conferencia de la ONU y el Foro de ONG sobre la Mujer realizado en Pekín en 1995. Muchos compromisos asumidos por los gobiernos para luchar contra la discriminación, incluyendo el ámbito científico, han suscitado un rechazo frontal acudiendo a argumentos tan peregrinos como el del determinismo biológico. Y esto no sólo ocurre en África, ocurre en la Unión Europea, donde se siguen rechazando avances legislativos relacionados con medidas de acción positivas en contra de la discriminación femenina. La DGXII, ante la escasa participación de científicas en las tareas encomendadas por la Comisión -evaluación, gestión, seguimiento -, mantiene una política de apertura y promoción, pero aún así se mantiene un desequilibrio manifiesto, y que no guarda relación con el porcentaje de mujeres en los sistemas de ciencia y tecnología de los países miembros ^^. El caso de España es paradigmático: aunque la proporción de alumnas universitarias en ciencias exactas supera en muchas carreras el 50% (aunque siguen siendo minoritarias en las ingenierías), y §e ha probado que tienen mejor rendimiento y obtienen mejores notas que los varones, cuando se integran en el mundo de la investigación su porcentaje disminuye dramáticamente a medida que se asciende en la escala de responsabilidades. No existen catedráticas de universidad en varias ramas de la Física, ni en Astronomía, ni en la mayoría de las Ingenierías, y el número total de Profesoras de Investigación del CSIC apenas supera el 13% rozando la marginalidad en áreas como la de Materiales (3%), cuando las Científicas Titulares han superado el 40% de la plantilla. Peor aún es la situación en los ámbitos de dirección, planificación y gestión de la investigación, en los sitios donde se toman las decisiones que determinan la vida de los centros de investigación y el rumbo de la ciencia de este país. Miremos al CSIC: ¿cuántas directoras de centros?, ¿cuántas mujeres en los tribunales?, ¿cuántas en las comisiones de área?, ¿cuántas en posiciones de poder real? Más allá de la «cuota femenina» indispensable de lo «políticamente correcto», existe una marginación real e indiscutible. El análisis de las relaciones entre ciencia y género ha puesto de manifiesto la construcción de la ciencia desde una perspectiva masculina, y la visión androcéntrica tanto de la producción como del discurso sobre la ciencia. Estos estudios han detectado las barreras explícitas e implícitas Caridad Ruiz Valero 636 que dificultan el acceso, la permanencia y la promoción de las mujeres en el campo científico. Dado que la participación en la comunidad científica pasa por adaptarse a un medio con características y comportamientos tradicionalmente masculinos, las mujeres tienden a desarrollar una doble personalidad. Por un lado, deben comportarse como hombres en el campo profesional para ser aceptadas como miembros de hecho de esta comunidad, y, a la vez, deben responder socioculturalmente de acuerdo a su identidad femenina. El coste de trabajar en ciencia y llegar a ser algo más que el «toque de color» de un laboratorio o un proyecto supone para la mujer transgredir el modelo establecido. Las relaciones de género comunes en el medio científico se siguen sustentando en una falta de reconocimiento desde lo masculino de las capacidades intelectuales de las mujeres para mantenerlas en los márgenes de la actividad, sin acceso a los sitios de decisión real ^. Un capítulo especial merecería la participación de las mujeres en instituciones y proyectos con participación predominante de empresas. Las sonrisas condescendientes suelen ser la respuesta más común ante cualquier desacuerdo, y hace falta mucha presencia de ánimo para forzar la discusión de un tema en estos ambientes. Esas son las condiciones de contorno del problema, las que han originado el modelo predominante de mujer científica que logra destacar: de excelente nivel profesional, eficiente, dura, a veces autoritaria. Lejos, muy lejos, de la «mujer, mujer». El trabajo y el contacto con mis compañeras de profesión me muestran casi a diario la contradicción constante que deben enfrentar aquellas que pretenden hacer compatibles el trabajo del laboratorio y su papel en la familia. Huelga decir que las estadísticas sobre incidencia del trabajo doméstico (4 horas diarias para las mujeres frente a 45 minutos para los hombres) son también válidas en el mundo de la ciencia. Consecuencia directa son las dificultades para viajar, para estancias de perfeccionamiento en el extranjero o, simplemente, para prolongar la jornada laboral. Los límites a la participación de la mujer en la ciencia no son, por tanto, límites profesionales, sino límites sociales. Límites que derivan de un modelo educativo sexista, que obliga a las mujeres que deciden trabajar en ciencia a identificarse cotí modelos que se dicen neutros pero que son decididamente masculinos. Límites que abocan a la contradicción de demostrar de forma constante la equivalencia social a partir de los resultados académicos, a la vez que se reivindica el derecho a la diferencia y la búsqueda de la identidad ^^. Cuando a diario leemos noticias estremecedoras sobre lapidaciones, prácticas de ablación, o marginación y exclusión sistemática de las muje-Ciencia y Tecnología de Materiales res en algunos países del denominado Tercer Mundo, tendemos a convencernos de que en Europa las mujeres hemos conseguido los objetivos que perseguimos durante más de un siglo: el acceso a una educación igual a la de los varones, una formación que nos preparara para un oficio y nos hiciera independientes. Sin embargo, deberíamos también reflexionar sobre lo que nos ha costado llegar hasta aquí y cuánto nos estamos dejando en el camino. Superar las contradicciones que se generan entre calidad y valía profesional, y expectativas e imagen social de la mujer, significa apostar por un sendero que la filósofa Ana Sánchez ^^ traza con nitidez: «adentrarnos en un camino dialógico donde la lógica de la igualdad nutra y realimente la lógica de la diferencia». Una apuesta por construir otro saber a partir de las mujeres mismas, otra forma de abordar el trabajo científico, como se ha planteado la revista Science ^^. Una tarea que trasciende al mundo de la investigación porque comienza con la transformación de la educación en proyecto coeducativo. Una enseñanza que deberá trasmitir saberes transformadores, que reconozca e incorpore las relaciones sociales de sexo y constituya una etapa hacia una cultura más completa, hecha por hombres y mujeres ^^. Una tarea que debería acercarnos a lo que Danielle Mitterrand definía como una sociedad igualitaria: aquélla en la que el número de mujeres mediocres en puestos de poder iguale al de hombres mediocres en los mismos puestos. Una tarea que no es un asunto de mujeres sino de todo el mundo. Después de escuchar muchas opiniones, no todas aquí recogidas, aunque sí creo quedan reflejadas todas las tendencias de opinión, podemos concluir afirmando que la mayoría de las mujeres de nuestra área se encuentran claramente discriminadas. Los datos que aportamos reflejan que, a pesar de la discriminación en medios y personal, en las cuotas de trabajo y calidad científica estamos muy igualadas con nuestros colegas masculinos. Hoy nosotras nos unimos al mundo al reconocer que también en el Consejo Superior de Investigaciones Científicas se dan los mismos problemas de discriminación que en el resto de las universidades y centros de investigación, sólo llevamos cierto retraso en el tiempo en ser conscientes de ello y pedir acciones que rompan nuestro techo de cristal ^^. Caridad Ruiz Valero jeres jóvenes como los hombres no son aún muy conscientes de su existencia, no se ve, es transparente, sólo te topas con él cuando tratas de atravesarlo. No se manifiesta de igual manera en todos los Centros, en algunos es más firágil, en otros de cristal blindado. Pero el.artículo de hoy no es para lamentarnos, sólo para reconocer una situación y tratar de aportar algunas propuestas: -Tribunales de 7 miembros a sorteo entre el personal que no tenga denegados los sexenios, y garantizando al menos un 30% de representación por género. -Que todas las memorias de los Centros incluyan datos segregados por género, siguiendo la recomendación de la Comisión Europea. • Distribución del personal investigador por categoría y género. • Distribución del personal por edad y género. • Número de proyectos y sus cuantías por IP hombre o mujer. • Número de becarios y contratados por investigador responsable hombre o mujer. -Que se institucionalice la Comisión nombrada por el Presidente para estudiar el problema de la mujer investigadora en el CSIC. Siendo algunos de sus miembros elegidos por el colectivo de mujeres. -Incrementar el número de mujeres en los Órganos de Gobierno del CSIC elegidos por designación directa. Conscientes de que no podemos cambiar el mundo, pero sí poco a poco nuestro pequeño entorno, finalizamos este artículo con la esperanza de que el trabajo de la mujer pueda pasar de las sombras a las luces para que algún día, esperemos que cercano, las jóvenes que nos sucedan no sepan que significa el concepto «discriminación por genero». Ojala no este lejos el tiempo en que lo que hoy aquí escribimos suene trasnochado y pasado de moda para cualquiera que lo lea.... Mi agradecimiento a todas las mujeres del ICMM, a Nieves Iglesias, Nacho Regera y María Cruz Muñoz que han hecho posible que dispongamos de los datos y tablas del ICMM. A todos mi gratitud porque sin sus contribuciones no hubiese sido posible realizar este trabajo. • Y al Presidente del Consejo Superior de Investigaciones Científicas, Rolf Tarrach, porque ha hecho posible que este debate se abra y ha nombrado una comisión para estudiar el problema de las mujeres investiga-Ciencia y Tecnología de Materiales doras en el CSIC. Sin su iniciativa este número de Arbor no vería hoy la luz.
Desde su fundación, el Museo ha contribuido al conocimiento y estudio del arte contemporáneo principalmente a través de las publicaciones, y más concretamente de los catálogos relacionados con las exposiciones temporales. Estas, a las que me referiré a continuación y específicamente a aquellas en las que he trabajado, son la faceta más visible de la investigación que se realiza en el Museo. Pero hay otros aspectos esenciales a más largo plazo a los que no querría dejar de referirme, precisamente por ser menos conocidos de puertas afuera, y porque afectan fundamentalmente a la colección, la clave del Museo alrededor de la cual basculan las exposiciones temporales. Debido a la ambición experimental que caracteriza el arte del siglo XX, las obras de la colección presentan una diversidad y complejidad de soportes, materiales y técnicas que dificultan su presentación y conservación, obligaciones fundamentales del Museo. Un problema que se agrava tras el fallecimiento de los artistas y cuando los componentes de las obras quedan obsoletos. ¿Cómo montar o restaurar las obras? El Departamento de Restauración está implicado actualmente en un ambicioso programa europeo de estudio de las instalaciones artísticas, trabajando en activa colaboración con los artistas, a los que se entrevista para conocer mejor sus obras y su opinión sobre como éstas deben mostrarse, mantenerse y, en su caso, repararse. Igualmente importante me parece la tarea que desarrolla el Centro de Documentación y Biblioteca del Museo. Junto al acopio de bibliografía actual el Centro está reuniendo un importante archivo histórico, del que pueden destacarse la recuperación de revistas españolas y de archivos privados (Solana, la galerista Juana Mordó o el director del Museo de arte contemporáneo Fernández del Amo). Además, desde ese departamento se canaliza la elaboración de catálogos razonados, y la organización de exposiciones dedicadas a estudiar el contexto artístico, y especialmente la labor de galerías históricas. Todas esas tareas constituyen en sí un trabajo de investigación, además de proporcionar una infraestructura al servicio de futuros estudiosos. Por su parte, el Departamento de Colecciones realiza una investigación esencial para el museo, catalogando y estudiando sus fondos, además de realizar exposiciones y publicaciones sobre aspectos parciales de los mismos. Las exposiciones temporales, como he dicho el aspecto más visible de la investigación producida desde el museo, se canalizan principalmente a través del Departamento de Exposiciones Temporales, en el que yo empecé a trabajar el año 2001, contratada como comisaria y coordinadora de exposiciones. Ya antes había colaborado con el museo, como comisaria externa, en una exposición organizada por el Festival de Otoño de la Comunidad de Madrid. Un mito contemporáneo, se presentó en la sala conocida RESUMEN: La investigación en el museo tiene un amplio territorio ante sí, del que no forman parte solo las obras, sino también los modos en que se agrupan y muestran, la narración que se establece con ellas. A través de varias exposiciones comisariadas por la autora se muestran aspectos de la investigación en el museo que atañen a la museología como vehículo de una historia del arte distinta y complementaria a la académica. PALABRAS CLAVE: MNCARS, Arte contemporáneo, Cultura visual, Montaje. como Gabinete en la tercera planta del Museo. Creo que lo más interesante de esa exposición residía en su propio planteamiento y en la selección de obras más que en el estudio de las piezas en sí. En primer lugar por su enfoque temático, que por entonces era poco habitual. Ese enfoque permitía ampliar el espectro cronológico, geográfico y estético usual en el Museo, al introducir el simbolismo -sin apenas presencia en los museos españoles, y presentar conjuntamente obras importantes de artistas como Gustave Moreau o Puvis de Chavannes junto con obras menores de otros artistas, como Picasso o Munch, que no tendrían cabida en grandes exposiciones individuales; obras de artistas muy poco conocidos en España, como los checos Emil Filla o Drtikol, y por último obras de artistas considerados menores en el ámbito español, como Romero de Torres, Isunza, o el fotógrafo Josep Masana. Y sobre todo al presentarlas en relación con obras procedentes de otros ámbitos de eso que entonces comenzaba a denominarse la cultura visual: la danza (Loïe Fuller), el teatro (escenografías de Reinhardt o Alexandra Exter) o el cine (con un ciclo que incluía cine amateur español -Almodovar-junto cine comercial americano). Abordar el arte en una época de cambios radicales desde esa perspectiva transversal, que recoge las paradojas, dudas, avances y retrocesos de la creación, relacionando alta y baja cultura, yendo más allá de la visión lineal formalista, que hasta los años ochenta había predominado en la historiografía académica, fue en mi opinión la principal contribución de esa exposición. Querría referirme también a una característica del montaje, acorde con el concepto de la exposición, que creo interesante y que he repetido siempre que he podido: la presentación de textos junto a las obras. Aunque el enfoque habitual en los museos sigue considerando que la confrontación del espectador con las obras debe ser directa, sin mediaciones explicativas, la falta de familiaridad del público con buena parte de las obras creo que hace recomendable en muchos casos la existencia de esas mediaciones, que no tienen porqué entorpecer la visión ni ser meramente pedagógicas. Buena parte de la investigación museística actual -y de la práctica artística-se ha centrado precisamente en los modos de presentación de las obras, tanto desde una perspectiva estética como ideológica y comunicativa. En el caso de Salomé introduje textos que creo que servían para activar la visión de las obras y enriquecer su sentido, aludiendo a cuestiones estéticas (Dalí); subrayando los aspectos humorísticos, transgresivos, y el incipiente protagonismo de la mujer como sujeto artístico (Loïe Fuller, Alexandra Exter), o las connotaciones simbólicas del asunto (Oscar Wilde, Michel Leiris, Ortega y Gasset,...). Se trata de permitir hablar a los artistas o a sus compañeros de viaje (en una exposición con un tema tan literario como es el de la princesa Salomé), escritores y poetas, y ampliar así las vías de acercamiento del público a las obras. De esa manera se puede introducir la voz del artista como teórico, y confrontar la mirada actual con las interpretaciones y miradas de otras épocas, especialmente a través de fuentes originales. En la exposición que comisarié en 1993, titulada Suiza constructiva y dedicada al arte suizo de orientación racional, con artistas fuertemente implicados en cuestiones pedagógicas y teóricas, incluí igualmente textos colocados en las paredes. La exposición mostraba pintura, escultura, carteles, fotografía, arquitectura y revistas. La mayor parte de los artistas presentes se habían dedicado a actividades diversas, tanto por necesidad económica como por convicción. La figura central, Max Bill, formado en la Bauhaus e impulsor de la Escuela de Ulm en los años cincuenta (que también ofrecía una formación artística integral), había sido pintor, escultor, arquitecto, diseñador gráfico e industrial, y un importante teórico. La exposición mostraba, de nuevo ampliando las fronteras de géneros habituales en el Museo, a artistas poco conocidos y prácticamente sin representación en las colecciones españolas, y que sin embargo forman un episodio coherente y muy influyente del desarrollo del formalismo en la posguerra. Querría subrayar la presentación de carteles, muebles, y proyectos arquitectónicos (en total casi 200 obras), dada la inexistencia de museos en España con colecciones internacionales que recojan ese tipo de objetos. Aunque la exposición no ofrecía avances en relación con el conocimiento de las obras o el periodo (años 30-60) en Suiza, si ponía en relación obras y géneros que no se habían expuesto nunca conjuntamente, además de rescatar obras de gran rareza que no habían sido valoradas ni mostradas anteriormente, como las fotografías de Binia Bill o una película del cineasta dadaísta Hans Richter, dedicada a la vivienda moderna. Un tema actual de discusión museística gira en torno a las posibles formas de mostrar objetos funcionales en el Museo, puesto que tienen un valor de uso y no sólo estético, y responden a unas condiciones tecnológicas, de producción: no son esculturas. Aunque el diseño de mobiliario suizo de esos años tiene un carácter marcadamente formalista, también los materiales y técnicas usadas fueron muy innovadores. El recurso para mostrar los muebles como objetos de uso cotidiano pero también como el fruto de un estudio formal, en el caso de Suiza constructiva, fue doble. Por un lado, en el catálogo se presentaron textos de época referidos al proceso de proyecto y fabricación de los muebles. Por otro, en el montaje, los muebles se exhibían sobre una tarima baja. Gracias a ello ofrecían una perspectiva ligeramente distinta de la habitual en una vivienda o en el comercio, y gozaban de una protección suficiente sin llegar a rodearse del aparato museístico de protección de las esculturas (urnas, cordones, pedestales), que condiciona su visión como "obras de arte". La selección de carteles y muebles en esta exposición fue también en esta dirección, intentado recoger obras que abarcaran el espectro sociológico y técnico de la producción y que por contraste o identificación establecieran un diálogo con la pintura presente en la exposición. También para la arquitectura rehuimos el recurso a planos originales o maquetas, para presentarla a través de fotografías con fragmentos interiores o exteriores, y sobre todo a través de una película de los años treinta que recoge la construcción y usos de un edificio, un documento excepcional en esa época que permite lo que podríamos definir, sé que simplificando la cuestión, presentar la construcción como un proceso vivo y complejo y no como un fetiche estático. Ya me he referido a la labor investigadora que se realiza desde el Centro de Documentación, que contaba antes de trasladarse al nuevo edificio con una pequeña sala de exposiciones. Para ella comisarié dos pequeñas exposiciones, una que llevó el título de Los humoristas del 27 y otra sobre la trayectoria de la Galería Cadaqués. De la primera me gustaría destacar la localización de obras -bocetos o impresos-de una serie de autores, como Tono, Jardiel Poncela, o Edgar Neville, que son conocidos sobre todo como escritores, y que sin embargo practicaron con asiduidad la ilustración, el cartelismo o el cine. Lamentablemente, por diversas razones no pudo presentarse un ciclo de cine que estaba previsto exhibir contemporáneamente. Aunque la exposición fue solo una primera aproximación al asunto, a la espera de que otros investigadores profundicen en él y sobre todo localicen obras de los autores, conseguimos encontrar algunos fondos desconocidos, gracias a familiares, a herederos de los editores para cuyas revistas habían trabajado, e incluso piezas de gran interés como un modelo de teatro infantil proyectado por Jardiel que se hallaba, sin catalogar, en la Biblioteca Nacional. En este caso el acopio de material muy poco conocido y estudiado fue la principal aportación investigadora, que partía de un enfoque problemático desde el punto de vista museístico: la consideración del estatuto de originalidad de la obra. No hay espacio aquí para entrar en un tema esencial en el arte del siglo XX, como es el del concepto de original, tradicionalmente ligado a la obra única, en la "época de la reproducción técnica", por ello planteo únicamente el problema. ¿Deben presentarse como originales las obras impresas, es decir reproducidas y múltiples? Las ilustraciones, collages, fotomontajes.. que entrega el artista a la imprenta ¿deben considerarse como bocetos o como obras? Cada caso exige una valoración diferente, pero siempre desde la conciencia de que las fronteras entre boceto, original y reproducción son imprecisas y que, en este terreno, el valor económico o de colección no coincide con el artístico o de exhibición. En cuanto a la exposición Galería Cadaqués 1973-1997, formaba parte como ya he dicho de una serie de exposiciones iniciada años antes por el Centro de Documentación y dedicada a estudiar el contexto del arte. La galería, pese a estar situada en un lugar marginal, tuvo una enorme importancia en los años de la transición, en los que se gestó el sistema artístico actual, al dar a conocer en España a artistas internacionales que no se habían expuesto anteriormente, exponiéndolos y colaborando con ellos en la producción de obra seriada. Gracias a su importante archivo es posible conocer algunos aspectos esenciales del arte conceptual en Cataluña o de la introducción de figuras como Beuys, Duchamp, Max Bill, Stella, Richard Hamilton o Dieter Roth, algunos de ellos además muy ligados a España a través de Cadaqués, y muy influyentes en el arte español de esos años de recuperación de la relación con la vanguardia. Por último, estoy preparando actualmente una exposición titulada La noche española. El proyecto consiste en estudiar las relaciones de mutua influencia entre los motivos flamencos -y por extensión, españolesy el arte de vanguardia, recogiendo también sus derivaciones en la cultura popular, entre 1870, cuando tras la visita de Manet a España comienzan a popularizarse los retratos de bailaoras y toreros en la pintura, el teatro, la fotografía o el cine, hasta 1939, cuando en la iconografía surrealista adquiere el tema un tinte definitivamente siniestro, acorde con las circunstancias. ¿Cuál es la razón de que, especialmente en momentos de crisis y cambios, aparezca la bailarina española en la obra de Picasso, Picabia, Miró, Masson, Goncharova, Man Ray, los Delaunay...? En la exposición intentaremos mostrarlo, aludiendo a las cuestiones estéticas y simbólicas -la identidad nacional y de género-que a través de esos motivos se construyen y representan. Las exposiciones, con su fragmentación, versatilidad y constante renovación, pueden establecer un discurso menos limitado, más arriesgado y personal que el de la propia colección del museo -el elemento esencial de su discurso-además de complementarla. Como institución productora y gestora de conocimiento, el museo debe aportar un conocimiento específico, buscar territorios y narraciones propias, contar una historia del arte distinta a la universitaria, partiendo de la materialidad de las obras e incorporando los discursos teóricos en torno a ellas. Por eso la investigación en el Museo tiene un amplio territorio ante sí, del que no forman parte solo las obras, sino también los modos en que se agrupan y muestran, la narración que se establece con ellas. Patricia Molins de la Fuente Museo Nacional Centro de Arte Reina Sofía ARBOR Ciencia, Pensamiento y Cultura CLXXXII
UN POEMA A MANERA DE INTRODUCCIÓN El poema de Neruda Una mano hizo el número, que abre este artículo, continúa así: Creció el número dos y luego el cuatro: fueron saliendo todos de una mano: el cinco, el seis, el siete, el ocho, nueve, el cero, como huevos perpetuos de un ave dura como la piedra, que puso tantos números sin gastarse, y adentro del número otro número y otro adentro del otro, prolíferos, fecundos, amargos antagónicos, numerando, creciendo en las montañas, en los intestinos, en los jardines, en los subterráneos, cayendo de los libros, volando sobre Kansas y Morelia, cubriéndonos, cegándonos, matándonos desde las mesas, desde los bolsillos, los números, los números, los números. No sé a ustedes, pero a mí me sugiere el poeta con sus versos esa propiedad intrínseca de los números (naturales) de ir uno detrás de otro desde un comienzo que Neruda, de forma tan poética como coherente con la historia, sitúa en la mano y no en el cero. Sin mencionarse siquiera, se entrevé en el poema esa infinitud de los números que tanto obsesionó a Borges. Un poema, en fin, que, alargando la metáfora, bien podría pasar como álter ego literario de los más técnicos axiomas de Peano y que sitúa los comienzos de la relación humana con los números -la humanidad de los números-lejos, muy lejos en el tiempo... DE LA MANO QUE CUENTA A LA MANO Tengo para mí que las representaciones de manos humanas en cuevas paleolíticas del norte de España y sur de Francia -"en la paciencia del granito" que decía el poeta-son un vestigio del esfuerzo intelectual que llevó a nuestros antepasados cavernícolas a discernir e individualizar el número 3 del 5 o del 4. De ser mi presunción cierta, haría de la pintura y la aritmética una especie de Rómulo y Remo que la creatividad humana encontró al final de las manos y amamantó juntos antes incluso de que aprendiéramos a enterrar a nuestros muertos. Las manos nunca han dejado de ser una herramienta privilegiada para relacionarnos con los números -y obviamente para pintar-: los niños siguen usando los dedos para iniciarse con los números, primero para mostrar y reconocer su edad cuando apenas saben hablar y después, ya en la escuela, para aprender a sumarlos y restarlos. Probablemente, en aquellas épocas olvidadas del Paleolítico no hicieran falta muchos números para llevar la cuenta de la caza y la recolección. Tal vez la presencia de esos primeros números entre nosotros siquiera requirió de palabras para nombrarlos y bastara entonces con algunos signos que, sin duda, tuvieron a las manos por protagonistas. Eco de tales usos encontramos hoy en algunas tribus de Oceanía, África y América, donde el nomenclátor de los números es despachado con nombres para el 1, 2 y 3, más allá de los cuales apenas se matiza con palabras como "algunos" y "muchos"; sin embargo, esas mismas tribus cuenta con procedimientos aritméticos corporales, articulados en torno a los dedos de las manos y, a veces también de los pies, que les permiten contar sin palabras hasta más allá de la treintena. La necesidad de números creció conforme los cazadores fueron convirtiéndose en pastores; y en pastores eficientes que hacían crecer y crecer el número de cabezas de sus rebaños. Debió de ser en esa trasumancia de oficios cuando los números fueron bautizándose de manera masiva y desarrollándose las primeras argucias para ayudarse en una incipiente y necesaria contabilidad. Así se empezaron a hacer los surcos e incisiones en huesos y bastones de madera que menciona Neruda en su poema, y a usarse cálculos, cuentas y piedrecitas -"huevos perpetuos de un ave dura como la piedra"-. Sin duda entonces la humanidad empezó a agradecer lo "prolíferos y fecundos" que son los números, capaces de proveer y proveer sin fin ni aparente cansancio, fertilidad esta en la que hoy, tal vez por habernos acostumbrado a ella, apenas se repara. Pero cuando la humanidad empezó realmente a depender de los números fue cuando, además de con pastores, empezó a contar entre sus huestes también con agricultores. La agricultura tuvo como efectos colaterales -que decimos hoy-el sedentarismo, el comercio y la necesidad de conocer mejor el ciclo de las estaciones, esto es, el calendario. La vida empezó entonces a complicarse y hubo que inventar la escritura -y, en consecuencia, la lectura-para hacerla algo más llevadera. Con toda seguridad, los números están en el origen de la escritura. Los registros escritos más antiguos conservados, en tablillas de arcilla que se remontan al año 3000 a.C. o incluso algo antes, contienen primitivos diseños numéricos sumerios y operaciones aritméticas sobre intercambios comerciales. Estos intercambios eran presumiblemente trueques, y en las tablillas constan las cantidades y los productos -cebada, por ejemplo-intercambiados. Todo esto sugiere razonablemente que el comienzo de la escritura bien pudo ser como sigue. Situémonos en alguna aldea del sur de Mesopotamia -pongamos Uruk, o Elam, si se prefiere más precisión-a mediados del IV milenio a. C., cuando todavía la humanidad no sabía escribir. Una familia ha enviado a uno de sus miembros para que compre cabras en una aldea vecina -o cierta cantidad de trigo y cebada, tanto da-. La familia, y esto es lo importante, quiere tener la seguridad de que el enviado va a traer a la casa familiar tantas cabras como le fueran vendidas. Para ello, el vendedor guarda en un recipiente sellado de arcilla una piedrecita por cada cabra vendida, de manera que cuando las cabras lleguen a la familia compradora se pueda comprobar que hay tantas cabras como piedras en la vasija. En cierto momento, a alguien se le ocurrió presionar contra el recipiente de arcilla fresca las piedras que iba metiendo dentro, de manera que al volverlas a sacar encajaran fuera y se tuviera mayor seguridad de que el contenido de la vasija de arcilla no había sido manipulado. Después, otro alguien se dio cuenta de que, una vez marcadas fuera, ya no era necesario meter las piedras dentro del recipiente. Precisamente con esas marcas empezó la representación de los números y, a la par, la escritura empezó a ser engendrada. Puesta de manifiesto la manera de representar un número, el siguiente paso fue representar el objeto al que ese número hacía referencia. Porque además de comprar cabras, aprovechando el desplazamiento también se compraban ovejas, y no en igual número. De manera que había que señalar que el número 10, pongamos por caso, se refería al número de cabras compradas, mientras que el 15 hacía referencia al de ovejas; para lo cual nada mejor que añadir al lado de las marcas para el 10 un signo que se convino viniera a significar cabra, y al lado de las marcas para el 15 otro distinto que iba a significar oveja. Con el transcurso del tiempo, esos primeros signos, presumiblemente simples pictogramas para representar objetos, pasaron a representar sonidos, bien palabras o bien sílabas, evolucionando además al diseño cuneiforme -hacia el 2500 a. C.-, más fácil de imprimir sobre arcilla. Este proceso que antepone por poco la representación escrita de números a la escritura en sí, y todo ello teniendo como motor al comercio -más o menos primitivo o incipiente-, es bastante universal. Se ha producido a todo lo largo y ancho de la geografía y la historia humanas, desde Mesopotamia, Egipto o China -donde la contigüidad espacial puede explicar la similitud del proceso-, hasta Mesoamérica -cuyo aislamiento geográfico de esas civilizaciones (y también la discontinuidad temporal) quiebran toda posible influencia-. Los efectos del comercio en los números no quedaron ahí, como podrá comprobar quien continúe con la lectura; fue la revolución comercial vivida en la Europa medieval, origen del moderno capitalismo que acabaría convirtiéndola en la potencia dominadora del mundo, la que acabó haciendo triunfar nuestro actual sistema de numeración -de origen hindú, como es bien conocido-sobre el romano, todavía en uso entonces por estos lares. El progreso de la agricultura -imprescindible (además de causa) para sostener las altas densidades de población asentadas en las ciudades-requirió conocer, con cuanta más precisión mejor, cómo se sucedían las estaciones a lo largo del año, empezando, naturalmente, por determinar cuántos días tenía ese año y cuántos las estaciones de que se componía. Esta curiosidad interesada por predeterminar el ciclo solar y poder así sacar el correspondiente rendimiento al conocimiento preciso de los ciclos de siembra y recolección mostró la necesidad de disponer de calendarios fiables. Para estas sofisticaciones que la civilización necesitaba para progresar, son imprescindibles los números, las cuentas y otras orgías y manipulaciones que con ellos se pueden hacer. No ha habido, de hecho, cultura que haya controlado -de forma más o menos precisa-el calendario que no haya desarrollado a la par un sistema eficiente para representar y hacer operaciones con los números. NÚMEROS PARA PONER ORDEN EN LAS Ese fue de hecho, el caso de sumerios y babilonios: la base 60 que usaron para escribir los números -cuya herencia es todavía hoy perceptible en su uso para medir el tiempo o los ángulos-, puede plausiblemente haber tenido su origen en la astronomía, toda vez que el número 60 -y sus partes y múltiplos-es especialmente adecuado para medir, en una primera aproximación, buena parte de las divisiones temporales relacionadas con el ciclo solar y, por ende, del calendario. Dividir la circunferencia en 360 grados, como seguimos hoy haciendo por influencia babilónica, equivale a asignar al grado el valor angular recorrido -más o menos-por el sol en la eclíptica durante un día. Los babilonios fueron grandes astrónomos y astrólogos. Y la sofisticación alcanzada por su sistema de numeración debe mucho a la necesidad que sintieron de ordenar el calendario y a la fascinación por las artes mágicas y adivinatorias que asociaron con los cuerpos celestes. El calendario tuvo casi la misma importancia en la vecina civilización egipcia y, por tanto, la astronomía y los cálculos numéricos asociados. Egipto debe su ser a la inundación anual del Nilo. Esta inundación había que saber predecirla convenientemente; primero para evitar los daños y después porque había que tener todo listo para la siembra. Digamos que la clave para determinar un buen calendario radica en el mejor o peor conocimiento que tengamos de la duración exacta del año trópico -esto es, el tiempo que transcurre entre dos pasos consecutivos del sol por el mismo punto equinoccial; luego está el año sidéreo: el tiempo que tarda el sol en volver a pasar sobre el fondo de una misma estrella; la relación entre ambos, teniendo en cuenta estimaciones actuales, es de 0'999961123...-. Los calendarios sumerios y babilónicos usaban una estimación de 360 días, muy cómoda para su sistema sexagesimal, pero que acumulaba en pocos años semanas y semanas de imprecisión que había que corregir para hacer viable su uso. Los egipcios mejoraron la estimación adoptando 365 días para la duración del año que dividieron en 12 meses de 30 días, más 5 días agrupados al final del año -su calendario les dio para cierto lucimiento: basta si no ver la cara de pasmo de los turistas cuando, el primer día del verano, ven en las profundidades de un templo egipcio al último rayo del sol poniente besar la frente de un faraón-. El problema es que el año trópico no se puede medir exactamente en días, de hecho la estimación egipcia suponía un desfase de 10 días cada cuarenta años, aproximadamente. La magnitud de ese error motivó la creación del calendario Juliano, vigente hasta finales del siglo XVI. El calendario Juliano se elaboró basándose en los cálculos del astrónomo griego Socígenes de Alejandría que estimaban para el año trópico una duración de 365 días y 6 horas. De esta manera el emperador Julio César decretó en 46 a.C. que tras cada tres años de 365 días seguiría uno de 366 -el año bisiesto, que acumulaba en un día las seis horas de desfase de cuatro años consecutivos-. Otra civilización donde los números y la astronomía alcanzaron sofisticaciones, que siguen hoy sorprendiendo, floreció un par de milenios más tarde que babilonios y egipcios y bastantes miles de kilómetros y todo un océano más al oeste. Se trata de los mayas, que convirtieron en religión la medida del tiempo y su transcurrir; quizá porque ese transcurrir permite la continuidad y el suceder de la vida. Probablemente fuera la agricultura -en este caso del maíz-la impulsora de esa pasión por medir el tiempo, tan determinada y hasta contaminada por influjos religiosos. Naturalmente, para el estudio y la predicción astronómica, los mayas necesitaron de los números. Desarrollaron de hecho varios sistemas de numeración. Uno más primitivo basado en el principio aditivo -similar, por tanto, a la numeración romana-; y otro mucho más sofisticado, similar al nuestro actual aunque con base 20, siguiendo por tanto el principio de posición y el uso del cero. En este caso los números se representaban por glifos, en su mayor parte rostros humanos o humanoides, algunos de inusitada fiereza, otros más dulces y relajados. Estos símbolos para los números conforman una singular galería de dioses que nos recuerda, una vez más, el carácter religioso de la escritura y los cómputos mayas. Todo esto les permitió elaborar unos afinados calendarios astronómicos con predicción de eclipses, ciclos lunares y fases de Venus, Mercurio y Marte, pero también otros más extravagantes con presagios astrológicos. Además de dos sistemas de numeración, los mayas también dispusieron de dos calendarios. Uno ritual llamado tzolkín con 260 días agrupados en 20 nombres o días del mes y 13 números. Los mayas erigieron por toda Mesoamérica una red de impresionantes centros ceremoniales, muchos de los cuales todavía se conservan hoy en mejor o peor estado: Uxmal y Chichén Itzá en Yucatán, Palenque en Chiapas, Tikal en Guatemala y Copán en Honduras, etc. El calendario tzolkín era fundamental para fijar las fiestas y rituales religiosos celebrados en estos grandes centros de ceremonias, donde no fueron extraños los sacrificios humanos. Los mayas también tuvieron un calendario solar llamado Haab con 365 días divididos en 18 meses -uinal, en legua maya-de 20 días, más 5 días extras a los que llamaban uayeb, o "aquellos que no tienen nombre". Los nombres de los días estaban cargados de significado para los mayas, de ahí que esos uayeb al carecer de nombre fueran días de mala suerte. Atendiendo a estos dos calendarios, cada día recibía dos nombres, cada uno de los cuales estaba formado por el nombre del mes y el nombre del número correspondiente. Para los mayas tenía especial significado el lapso de tiempo necesario para que los nombres y números de los días volvieran a repetirse en ambos calendarios. Un simple cálculo muestra que esto sucedía cada 18.980 días, esto es, cada 52 haab del calendario solar -descontados los uayeb-o, simultáneamente, cada 73 tzolkín del calendario ritual. En su obsesión por el calendario los sacerdotes mayas se distinguían poco de sus colegas católicos -a uno de cuyos conspicuos ejemplares se debe la quema de buena parte de los espléndidos códices mayas porque, según escribió, "no tenían cosa en que no hubiese superstición y falsedades del demonio"-. Y es que la Iglesia católica ha sido una de las tantas religiones que ha sentido verdadera fijación por ligar sus fiestas rituales al sol y la luna. A esa obsesión se debe precisamente nuestro calendario actual. El calendario Juliano fue adoptado por la Iglesia católica en el Concilio de Nicea -325 d. C.-. Ahora bien, teniendo en cuenta los datos actuales, la duración del año trópico es unos 11 minutos menor a la estimación de Socígenes adoptada por Julio César, esto es, el error acumulado por el calendario Juliano añadía un día de más cada 132 años. Los días de más, acumulados, suponían un problema para la determinación de fechas religiosas importantes para la Iglesia católica -la de la Pascua y otras fechas litúrgicas móviles que dependen del equinoccio de primavera-: piénsese que cuando el calendario indicaba el 21 de marzo en un año cualquiera del siglo XVI, era, en realidad, el 11 de marzo -diferencia ya apreciable toda vez que el auténtico 21 de marzo, supuestamente el equinoccio de primavera, la duración del día y la noche debería ser idéntica-; precisamente este problema apareció en la dedicatoria que Copérnico hizo de su De revolutionibus al Papa Pablo III como la más importante de las razones que le llevaron a abordar su reforma de la astronomía ptolemaica: "porque los matemáticos están tan inseguros sobre los movimientos del Sol y de la Luna, que no pueden ni demostrar ni observar la duración constante del año estacional". Después de siglos postergando la reforma, esta culminó finalmente en 1582, bajo mandato del Papa Gregorio XIII -de ahí el nombre de calendario Gregoriano con el que es conocido-y la dirección de los astrónomos del jesuita Collegio Romano. Se estipuló para la duración del año 365 días, 5 horas, 48 minutos y 46 segundos y se dictaminó recuperar los diez días de desfase -se pasó del 5 de octubre de 1582 al 15 de octubre-y convertir 3 años bisiestos en normales cada cuatro siglos -concretamente, de los años terminados en 00 serán bisiestos aquellos cuyas cifras de centenas y millares sean múltiplo de cuatro: así, 1700, 1800 y 1900 no fueron años bisiestos, mientras que el 2000 sí lo fue-. Ya ven, detrás de los dioses casi siempre hay un número y, como dijo el poeta, adentro del número otro número y otro adentro del otro, prolíferos, fecundos...... Se da también la circunstancia de que cuando una sociedad humana ha llevado los intercambios comerciales entre sus miembros más allá del trueque ha necesitado, y por tanto ha desarrollado por sí, o copiado de otros, sistemas más o menos sofisticados para manejar los números. Ocurrió así en Babilonia, Egipto, India, China, Mesoamérica, etc. A esta asociación de comercio y aritmética, precisamente, se debe la difusión por occidente de nuestro actual sistema de numeración. A menudo se piensa que fueron las necesidades matemáticas las que obligaron a desarrollar y difundir nuestro actual sistema de numeración, y que esas mismas necesidades matemáticas acabaron haciéndolo de uso universal. Nada más falso y alejado de la realidad histórica, hasta el punto de que sin incurrir en exageración alguna se puede afirmar que nuestro sistema de numeración ha sido un regalo que los matemáticos han recibido de la sociedad; y si se quiere algo más de precisión, sustitúyase sociedad por comerciantes, mercaderes y banqueros. Como es bien sabido nuestro actual sistema de numeración es de origen hindú y cuajó durante el período de esplendor cultural e intelectual que tuvo lugar en todo el valle del Ganges desde mediados del siglo III d.C. hasta mediados del siglo VI d.C. -dinastía de los Gupta-, coincidiendo con una fuerte expansión comercial, tanto con el Oriente próximo, como con Bizancio -no por casualidad se inició y desarrolló en esa época la gran astronomía trigonométrica hindú de clara influencia griega-. Poco a poco, los matemáticos hindúes fueron dominando los números en general y, en particular, el cero. Así, Bramagupta en torno al 628 explicó el cero como el resultado de restar un número de sí mismo; también usó los números negativos, que los griegos habían evitado y que luego llevaría muchos siglos introducir y hacerlos de uso común en Europa. Mahavira en torno al año 1000 estableció claramente las reglas para el uso del cero en las operaciones: un número multiplicado por 0 da como resultado 0, mientras que un número menos cero es igual al mismo número. Por último Baskhara hacia el 1114 estableció que un número dividido por cero es igual a infinito. Para escribir las diez cifras a partir de las cuales se puede representar cualquier número, los hindúes tuvieron la buena idea de no usar letras de su alfabeto. Usaron símbolos que derivaban de la escritura brahmi, surgida en el sigo III a.C. para escribir el sánscrito. Las cifras brahmi evolucionaron y se diversificaron dando lugar en el siglo IV y V a las cifras Gupta y a partir del siglo VII a las nagari, que fueron precisamente las que tomaron inicialmente los árabes. Tras su conversión al Islam en el siglo VI, los árabes iniciaron una expansión hacia el Oriente que los llevó a territorio hindú. A través de esa frontera se filtró el sistema hindú de numeración, de forma que ya a finales del siglo VIII los musulmanes lo habían asimilado. Del primer cuarto del siglo IX data una de las mejores aritméticas que los árabes compusieron. Su autor fue Al-Jwarismi o Al-Khwarizmi (780-850), el gran matemático y astrónomo árabe, uno de los padres del álgebra. Al-Jwarismi trabajó en Bagdad en la Casa de la Sabiduría. Esta institución fue creada por Al Mamún, el gobernador que aparece en las Mil y una noches, para el conocimiento y desarrollo de la filosofía, la astronomía, las matemáticas y otras ciencias. El libro de aritmética de Al-Jwarismi lo conocemos por una versión latina del siglo XIII, pues no se ha conservado en su versión árabe. En él se explica la forma de representar números usando el sistema y las cifras hindúes, y la forma de hacer las cuatro operaciones -suma, resta, multiplicación y división-. La forma de representar los números que los árabes aprendieron en el Oriente circuló hasta la otra punta de sus dominios; y así, a través del norte de África, el sistema de numeración hindú llegó a España en el siglo IX. El diseño de las 10 cifras que los árabes nos trajeron a Occidente deriva directamente de las cifras nagari de los hindúes, aunque adaptadas a la caligrafía árabe. Estas fueron precisamente las cifras que el monje Vigilán escribió en su monumental Codex Vigilanus, compuesto en el desaparecido monasterio de San Martín de Albelda en La Rioja hacia el año 976. Es posible que el monje Vigilán aprendiera esa forma de escribir los números en el monasterio de Santa María de Ripoll, cerca de Vic. Lo que ilustra el esfuerzo de los monjes cristianos del noreste de la península por asimilar la cultura científica de Al-Andalus y su transmisión posterior al resto de Europa. Unos años antes de que Vigilán visitara Ripoll, allí aprendió los números Gerberto de Aurillac, que después sería papa con el nombre de Silvestre II. Gerberto fue quien primero impulsó la introducción en Europa de los numerales árabes, aunque como parte de un nuevo tipo de ábaco que usaba el principio posicional aunque no el cero, innecesario en un ábaco. Aunque se conservan en el Oriente -India principalmente-diversos registros anteriores al Codex Vigilanus donde se usan signos con cierto parecido con nuestras cifras para indicar una fecha o las dimensiones de un templo -es el caso de unas lápidas en los templos de Gwalior datadas el año 876-, es el Codex Vigilanus el documento más antiguo de cuantos se conservan que, mencionando de manera explícita los números, reproduce las 9 cifras -no aparece el 0-en forma muy parecida a como hoy lo hacemos. Pues bien, desde que a finales del siglo X cuando Vigilán incluyó esa mención a los números hindúes en su Codex -y Gerberto de Aurillac los llevó al otro lado de los Pirineoshasta que la aritmética hindú se hizo de uso prácticamente universal en Europa bien entrado el Renacimiento, pasaron quinientos años en los que con los números no se hicieron matemáticas sino que sirvieron de manera esencial para el desarrollo del comercio. Así no es de extrañar que la figura cumbre de la aritmética medieval fuera Fibonacci, hijo de comerciantes y comerciante él mismo. Durante esos cinco largos siglos se produjo en Europa una batalla entre algoristas, esto es, aquellos que usaban para las cuentas el sistema hindú de numeración y los numerales árabes, y abacistas, esto es, aquellos que hacían las cuentas con el viejo sistema romano mejora-do con artilugios como el ábaco, o las mesas de cálculo. Lo que al inicio del Renacimiento vino a decantar la victoria del lado de los algoristas frente a los abacistas fueron, ni más ni menos, las necesidades contables que el desarrollo del comercio durante la baja Edad Media había generado. Cuando la actividad comercial empezó a transformarse en Europa a partir de los siglos XII y XIII, la simplificación de las operaciones aritméticas que permite el sistema hindú se tornó imprescindible. Ocurrió entonces que los mercaderes dejaron de acompañar a las caravanas, se hicieron sedentarios, asentaron los negocios en sus ciudades y establecieron sucursales en la ruta, creando así vastas redes comerciales de intercambio. Todo ello propició la creación de las primeras entidades bancarias con instrumentos comerciales más complicados como las letras de cambio. Esta transformación, fundamental para la expansión del comercio, generó una contabilidad mucho más complicada que requirió entonces de los poderosos métodos de cálculo que la aritmética hindú permite. Imagine el lector a un comerciante veneciano, o genovés o florentino, mercadeando con Bizancio, con el Mediterráneo árabe e incluso con China, llevando esclavos, vino, sal o paños y trayendo especias, seda, trigo o porcelanas. Imagine que ya de Venecia a Génova o Florencia la forma de medir y pesar las mercaderías era distinta. Variaban también las monedas que cada república o reino acuñaba y fundía con aleaciones elegidas a su gusto o provecho. Y si esto, digo, era así entre repúblicas vecinas, imagínese ahora el lector lo que no ocurriría con los pesos, las medidas y las monedas de un lado al otro del Mediterráneo y más lejos todavía hasta llegar a la India o la China. Añádase a esto los distintos aranceles y tasas aplicados por unos y por otros, aquí y allá. ¿Quién sino los números y la aritmética podían poner orden donde tanto caos y minucias contables se acumulaban? Esta es la sencilla razón que hizo que el sistema hindú arraigara antes en el norte de Italia o en las ciudades de la Hansa que en otras regiones de Europa. La zona hanseática dejó además una marca todavía hoy reconocible en la aritmética. En la Hansa los abanderados de los números fueron los rechenmeisters, o maestros calculistas: funcionarios encargados por la respectiva ciudad de la contabilidad, sobre todo la relativa a la organización de los puertos, salida y entrada natural del comercio entre las ciudades de la liga. Los rechenmeisters escribieron muchas de las aritméticas impresas en Alemania durante el primer siglo de la imprenta, y fueron los inventores de buena parte de los símbolos que hoy usamos para representar las operaciones de la aritmética: es la marca a la que me refería arriba. ¿Cómo expresar mediante símbolos que dos números van a ser sumados, multiplicados o divididos? Ya los babilonios y egipcios habían inventado ideogramas para indicar cuando dos cantidades se sumaban o restaban. Especialmente gráfico era el signo egipcio: un par de piernas caminando hacia delante indicaban una suma y caminando hacia atrás una resta. En las primeras aritméticas mercantiles publicadas en el Renacimiento se optó por declarar con palabras la operación que se iba a hacer con los números. Pero este exceso retórico era engorroso y confuso. En Italia y otros países se optó, desde finales del siglo XV hasta principios del XVII, por indicar las operaciones mediante abreviaturas: así, la letra tildada p, inicial de plus y la m, inicial de minus, se usaron para señalar sumas y restas, respectivamente, y una r era el signo habitual para la raíz cuadrada. Pero fueron los rechenmeister de la Hansa quienes mostraron más imaginación en el diseño de los símbolos de la aritmética. Mientras cuadraban balances contables en sus oscuras oficinas de los muelles, cayeron en la cuenta de que para indicar sumas y restas acaso pudieran servir aquellos signos usados en el puerto para indicar excesos o mermas en los pesos de las cajas y embalajes. Estos símbolos no eran otros que la cruz + para indicar un exceso y el guión -para indicar una merma. Así, algunos rechenmeister empezaron a usar esos símbolos hacia el final del siglo XV para indicar con el + una suma y con el -una resta. Primero los usaron en textos manuscritos; después los símbolos pasaron a la imprenta y acabaron con el tiempo haciéndose universales. La intensa relación que mantuvieron el comercio y la aritmética hindú escrita con cifras árabes quedó reflejada en el Renacimiento con la impresión, nada más desarrollada la imprenta, de numerosas aritméticas mercantiles. Estos libros, más que de matemáticas lo eran de cuentas, y además de enseñar la aritmética, contenían multitud de ejemplos útiles para usos contables: cambio de monedas, LA HUMANIDAD DE LOS NÚMEROS cálculo de aleaciones, de trueques, de repartos proporcionales, cálculo de precios y beneficios, problemas de finanzas, cálculo de intereses, e incluso, información sobre costumbres crediticias y letras de cambio en diferentes ciudades europeas. Referencia se ha hecho ya a las aritméticas publicadas en Alemania por los reichenmeisters -célebres son la de Johann Widman escrita en alemán y publicada en Leipzig en 1489, o la de Christoph Rudolff que vio la luz en Estrasburgo en 1525, y no sigo por no hacer la lista demasiado larga-y sería imperdonable no hacer mención de la Summa de arithmetica, geometria, proportioni et proportionalita (1494), del italiano Luca Pacioli. La Summa fue la mayor síntesis matemática impresa en el siglo XV. De las cinco partes que contiene el libro, las que aquí me interesa reseñar son las dedicadas a la aritmética y, sobre todo, la llamada De computis et scripturis, dedicada a las aplicaciones mercantiles de la aritmética -dejo casi sin mencionar la parte dedicada a la regla de la cosa o arte mayor, que supuso ver impresos los primeros balbuceos del álgebra, a la que la aritmética fue abriendo camino desde ese estado primitivo llamado regla de la cosa hasta convertirse de manos de Vieta y Descartes en el álgebra simbólica: esa que todavía hoy asusta a la gente con su parafernalia de incógnitas x,y,z y ecuaciones sincopadas: x 2 + z 3 + 2xy = y 2 x-. Acaso sea exagerado decir que con el De computis et scripturis, fray Luca Pacioli inventó la contabilidad moderna, aunque sea esta una exageración tan módica y esquelética que casi se puede considerar ecuánime. Quizá tanto como decir que su influencia ha llegado hasta el siglo XX, en parte ayudada por las 34 traducciones -a 14 lenguas-que De computis et scripturis ha tenido. El fraile Pacioli explicó en su libro la contabilidad de doble entrada, que venía usándose en Italia desde mediados del siglo XIV, convirtiéndola en contabilidad por partida doble -o veneciana-, esto es, se anotaban tanto abonos como cargos, o en otras palabras el activo y el pasivo o el haber y el debe; e incluía también los correspondientes ejemplos sobre cambio de monedas, medidas y pesos que Pacioli tomó de algunos manuscritos que circulaban entre mercaderes y comerciantes. De computis et scripturis es un magnífico y detallado tratado sobre la teneduría de libros contables y tal vez por eso haya sobrevivido activo muchos más siglos de los que acaso su autor llegara nunca a imaginar. Puede compararse cualquiera de las aritméticas comerciales renacentistas con los Elementos de Euclides -impreso por primera vez en Venecia en 1482-, donde, como dijo aquel, no se usan más números que los necesarios para numerar proposiciones y teoremas. Esta no-presencia de los números en los Elementos viene a reflejar que la matemática griega siempre había excluido de su mundo los cálculos numéricos, a cuyo arte dieron el calificativo de logística, quedando la palabra aritmética para denominar lo que hoy llamamos teoría de números. Los griegos consideraron las cuentas cosa más de comerciantes y negociantes que de filósofos y matemáticos -aunque hubo excepciones notables como fue el caso de Arquímedes-, lo que tal vez explique el penoso sistema de numeración que usaron -penoso en comparación con el de los hindúes-. Así, cuando se empezó a hacer propiamente matemáticas con el sistema de numeración hindú -digamos a partir del descubrimiento de los logaritmos a principios del XVII-, los mercaderes, comerciantes y banqueros ya llevaban beneficiándose del invento varios siglos. Coincidiendo con el desarrollo de la imprenta, un último y curioso beneficio le supieron arrancar los gremios del comercio y la banca a los números: esa profusión de libros de cuentas publicados en el Renacimiento fue usada por comerciantes y banqueros para mejorar su imagen pública. En efecto, en La República, Platón había catalogado como subalternos a los trabajadores manuales, comerciantes y artesanos incluidos, habiendo sido los números y las cuentas que estos practicaban expulsados, como se acaba de decir, del paraíso de las verdaderas matemáticas ejercidas por filósofos y matemáticos. Esta mala imagen no hizo sino agravarse cuando la mitología cristiana retrató a su líder expulsando a golpes a los mercaderes del templo. Así, durante la Edad Media, los oficios de comerciantes y mercaderes estuvieron contaminados por el oprobio que la práctica de la usura había arrastrado a lo largo de los siglos. Acaso el hecho de que se identificara a los usureros con los judíos había empeorado algo más las críticas sobre la moralidad de los prestamistas. Esta situación se mantenía todavía en los inicios del Renacimiento, lo que no dejó de reflejarse en las primeras aritméticas mercantiles. Así, para conjurar el pecado de avaricia, encontramos invocaciones a Dios, la Virgen o Jesucristo al inicio de las más antiguas aritméticas comerciales publicadas. Era una manera de exorcizar las posibles interpretaciones torcidas que se pudieran hacer de los cálculos de intereses y ganancias. Esta situación fue cambiando conforme avanzaba el siglo XVI, y acaso el hecho de que algunos curas y frailes escribieran este tipo de aritméticas sirviera para relajar las consideraciones morales que cupiera hacer, por más que estos autores procedieron en sus libros sin parar mientes en si los cálculos de precios que proponían podían considerarse justos o no, o si los intereses calculados entraban o no en la usura, o si los beneficios computados caían o no dentro del pecado de avaricia. El tratamiento aséptico de los asuntos contables que la aritmética permitía, sobre todo en lo relativo a préstamos y cálculo de beneficios y ganancias, ayudó también a superar las connotaciones amorales de estos oficios. La publicación de las aritméticas mercantiles sirvió finalmente para mejorar la apreciación social de mercaderes y comerciantes. Una parte del prestigio social que tenía el libro en el Renacimiento acabó trasvasándose a esos gremios que eran, a fin de cuentas, los usuarios y, en cierta forma, protagonistas de los textos. La mejor consideración del dinero, propiciada por el incipiente capitalismo renacentista, acabó permitiendo el ascenso en la jerarquía social de determinados oficios y actividades manuales. Así, ese matrimonio de convenien-cia que formaron la aritmética y el comercio acabó, para beneficio de mercaderes y banqueros, siendo sellado y confirmado por la imprenta. Hasta tal punto gozaron de buena reputación los libros de cuentas que no era raro verlos aparecer en cuadros y retratos como elementos de prestigio: es el caso de Luca Pacioli que prefirió hacerse un retrato, no orando ni meditando, ni tan siquiera enseñando las verdades reveladas del evangelio, sino las verdades demostradas de los Elementos de Euclides; además, contra lo que ordena la regla franciscana, Pacioli exhibía ostentosamente lo que acaso fuera una de sus más preciadas posesiones: en su retrato aparece, cerrado, la Summa de arithmetica. Y no fue el único: Hans Holbein el joven, incluyó en su composición Los embajadores un ejemplar -entre otros libros-de la aritmética mercantil escrita por Pedro Apiano. Si alguna prueba más hacia falta, sirvan estos retratos de libros de cuentas para mostrar cuánta humanidad cabe en los números.
Se me pide que escriba, dentro de este monográfico dedicado a una "visión de género» en el CSIC, acerca de la situación concreta en el área de Recursos Naturales. El encargo que se me hace es para mí doblemente complicado. Por un lado, he de escribir sobre algo de lo que únicamente tengo una vaga opinión personal, a buen seguro sesgada, fruto de mi particular experiencia y de mi trayectoria vital lo que, para el caso que nos ocupa, tampoco es tan importe pues es la opinión de una entre muchas. Por otro, es un tema sumamente complejo y abordarlo con el rigor metodológico suficiente, como para poder extraer conclusiones que tengan algún interés general, es algo que se escapa, desde todo punto de vista, a mis conocimientos y a los datos de los que dispongo. De tal modo que lo que a continuación viene es fruto de una opinión particular aunque, para emitirla, he procurado documentarme previamente. Los datos objetivos, relativos a la situación concreta de las investigadoras del CSIC, los he tomado, entre otras fuentes, del «Estudio sobre mujeres investigadoras del CSIC» [http:/ /www.csic.es] y, los relativos al área, del último Plan de Actuación del CSIC, 2000CSIC, -2004.. He consultado, así mismo, otras fuentes relativas a la plantilla actual de personal investigador del Organismo. El área de Recursos Naturales, sus características El área de Recursos Naturales se define, en el Plan de Actuación del CSIC, como de temática compleja y heterogeneidad disciplinaria. M. Teresa Tellería paso por las líneas de investigación que se desarrollan en los institutos que la integran nos lleva desde la Geoquímica a los estudios concretos de Faiuia y Flora con la taxonomía descriptiva, la sistemática molecular y la paleontología como estandartes, y por un camino que pasa por la Evolución y Dinámica de la Litosfera, las Ciencias del Suelo y Procesos Superficiales, Estructura y Procesos Oceánicos se llega a los Sistemas Litorales, la Acuicultura y Pesquerías. La Ecología Evolutiva y del Comportamiento y, de nuevo, la Ecología esta vez de poblaciones cierran la tabla. Cada epígrafe principal abarca, a su vez, un acervo temático tan rico como variado lo que se concreta en más de treinta grandes líneas de investigación. Tal heterogeneidad disciplinaria se reparte, según la referida memoria, en 18 Institutos (ver apéndice 1), aunque este número llega a 25 si lo que consultamos es la información de la web del CSIC ^. En cualquier caso, un elevado número de centros repartidos por toda la geografía española. Además, el área dispone de algunas grandes instalaciones como estaciones de campo, buques oceanógraficos o colecciones de organismos, estas últimas punto de referencia obligado en los estudios de biodiversidad. Si comparamos estos datos, al menos parcialmente, con los de las otras áreas podemos decir que: en lo referente a la publicación en revistas incluidas en el SCI, el área de Recursos Naturales ocupa el tercer lugar, tras Ciencia & Tecnología de Materiales (con 4.517 artículos) y Biología & Biomedicina (con 4.101 artículos) que se colocan en primer y segundo lugar respectivamente; tras Recursos Naturales, Ciencia & Tecnologías Químicas (con 3.469 artículos) y Físicas (con 3.199). Si en vez de los artículos publicados en revistas incluidas en el SCI, tomamos como punto de referencia las que no lo están, entonces Recursos Naturales pasa de nuevo a la cabeza, seguida por el área de Humanidades con un número total de publicaciones en este tipo de revistas de 1.621. El orden se invierte entre estas dos áreas cuando hablamos de libros o asimilados. Humanidades pasa a la cabeza, con 2.291 volúmenes editados, seguida de nuestra área que, como hemos dicho, acumula un total de 1.686. Pasemos ahora de las publicaciones a otro de los parámetros que se utilizan en este tipo de evaluaciones: el económico. Más concretamente aquel que se refiere a los recursos captados por cada una de las áreas y Una visión de género en el Área de Recursos Naturales también referido al quinquenio 1995-1999. Todos estos datos, están referidos a una plantilla de personal investigador que, a finales de 1999 ^, era de 2.085 investigadores. El área de Recursos Naturales que tenía 294 ocupaba el tercer lugar, tras la de Biología & Biomedicina y la de Ciencia & Tecnología de Materiales con 334 y 308 investigadores respectivamente. Análisis cuantitativo de género en el área Los datos de los que se dispone para el análisis que a continuación se realiza proceden, como hemos dicho en la introducción, del estudio sobre mujeres investigadoras publicado en la web del CSIC Chttp://www.csic.es/ hispano/mujeres/ciencia.htm]. Según estos datos son las áreas de Ciencia & Tecnologías Físicas, con un 19,9% y la de Recursos Naturales con un 23,5%, las que tienen un porcentaje más bajo de investigadoras en su plantilla. Distan mucho estas cifras de las que ocupan los puestos más altos de la tabla: Ciencia & Tecnología de los Alimentos con un 39,8% y Ciencias Agrarias con un 37,7%. El área de Recursos Naturales está también bastante alejada de la media general del Organismo que se sitúa en un 30,9% de investigadoras. Un análisis por escalas dentro del área refleja que las mujeres son el 22% de los integrantes de la escala de Profesores de Investigación, el 20% de los Investigadores Científicos y el 26% de los Científicos Titulares. Quizá no esté de más añadir que el primer porcentaje lo es sobre un total de 37 individuos, el segundo de 81 y el tercero de 188, lo que significa que, en junio de 2001, el número de Profesoras de Investigación en el área era de 8, el de Investigadoras 16 y el de Científicas Titulares 48 (ver gráfica 1 ^). Si comparamos estos datos con los generales del Organismo, el área está muy por encima de la media, que se sitúa en el 13,3%, en lo relativo a la escala de Profesores de Investigación y por debajo en las de Investigadores Científicos donde la media está en el 26% y de Científicos Titulares que se sitúa en el 37%.Para completar la descripción cuantitativa del área añadiremos que de los 18 Institutos que la integran solo cuatro, según los datos de los que dispongo, están dirigidos por mujeres, M. Teresa Tellería lo que supone el 22%, un porcentaje algo inferior al de la media del Organismo que se sitúa en el 25%. Muestra la distribución, por categorías y género, en el área de Recursos Naturales. Científicos titulares (negro); investigadores científicos (rayas en diagonal); profesores de investigación (rayas horizontales) Evolución de la plantilla investigadora en Recursos Naturales Tras estos análisis comparativos con otras áreas vamos a tratar de describir, de modo detallado, cual es la situación concreta dentro del área que nos ocupa. Para ello utilizaremos un mayor número de datos que proceden también del CSIC y que son los relativos al personal investigador hasta 1999. Es probable, por tanto, que algún dato difiera ligeramente de los utilizados en la comparación anterior. No obstante las diferencias no van a ser nunca significativas. El acceso a la escala de Científicos Titulares ha venido marcado en el área, como en otras del CSIC, por la política científica del país y la del propio Organismo. La mayoría del personal investigador que en este momento constituye la plantilla del área ha accedido a la carrera científica a través de la escala de Científicos Titulares y lo ha hecho, fiíndamentahnente, en tres etapas. Según se refleja en la gráfica 2 ingresaron en ese periodo un total de 84 Científicos Titulares de los que un 23% eran mujeres (20 fi:'ente a 64). Una visión de género en el Área de Recursos Naturales 645 GRÁFICA 2. Acceso a la escala de científico titulares por convocatorias, en el área de Recursos Naturales. Columna clara: mujeres Entre los años 1982-1984, ambos inclusive, hay un paréntesis en el que no se produce ninguna nueva incorporación. Entre los años 1991 y 1998 vuelve una época de recesión en la incorporación de nuevos científicos a la plantilla del área. Se convocan un total de 38 plazas y de ellas 12 (el 31,57%) son ocupadas por Científicas Titulares. Finalmente, en el año 99 se detecta un nuevo incremento en el número de plazas y el porcentaje de mujeres baja a un 23, 53% de las plazas lo que nos coloca en los tantos por ciento de los años setenta. Para poder analizar en detalle estos datos sería importante saber el número de becarias / becarios tanto predoctorales como postdoctorales que acceden al área y, de éstos, cuantos llegan a presentarse a las oposiciones. Sería también importante poder disponer, para este caso y los que a continuación vienen, de los datos necesarios para analizar la proporción de candidatos presentados/plazas cubiertas por varones y mujeres en cada una de las escalas y la evolución de estos datos en el tiempo. Esto nos permitiría hacer un examen más preciso de la situación y plantear, sobre la base de datos cuantificables, alguna hipótesis que a3rude a explicar la curiosa situación que se presenta, bastante atípica con relación a otras áreas y que no se ajusta a los patrones del CSIC en particular ni del mundo científico en general, donde la presencia de las mujeres en las categorías más altas es poco menos que testimonial. Pasamos seguidamente a examinar el acceso a la escala de Investigadores Científicos pues nos puede dar una idea de como evoluciona la promoción interna dentro al área. Como en el caso anterior, hay también diferentes etapas marcadas por la política del Organismo. Según los datos de los que dispongo, la plantilla actual de Investigadores Científicos se ha promocionado fundamentalmente en dos periodos (ver gráfica 3). El primero a comienzos de los años 70, entre 1971 y 1973 ambos inclusive, en que ascienden 22 de los Investigadores hoy en activo, y lo hacen según la siguiente proporción: 8 mujeres frente a 14 varones. Un periodo intermedio, que va desde 1974 hasta 1984, con un número de promociones mínimo: cambian de escala un total de 6 investigadores, todos varones; y el tercero que comienza en el año 1986 y llega hasta 1993. El número de accesos a la escala de Investigadores Científicos en esta etapa es elevado, un total de 72, con un número muy reducido de mujeres, apenas un 15,27% (es decir 11 mujeres frente a 61 hombres). Acceso a la escala de Investigadores Científicos por años, en el área de Recursos Naturales. Columna clara: mujeres ¡•¡i 1 I'"!"*!""!"*!' Una visión de género en el Area de Recursos Naturales Se puede comentar además que hay también una significativa diferencia de género en el número de Investigadores Científicos que han accedido a esa escala directamente. De los actualmente en activo, los varones son 10 frente a las mujeres que son únicamente 2. En ambos casos una cantidad mínima, pero bastante inferior en las mujeres: un 2,59% frente a un 10%. Llegamos, por último, a la escala de Profesores de Investigación donde, lo mismo que sucede en otras áreas, la promoción es a cuentagotas. En el área de Recursos Naturales ésta tiene lugar, sobre todo, en el periodo que va desde 1984 hasta 1993. En esta etapa (ver gráfica 4) el número total de plazas es de 29 de las que 5 son ocupadas por mujeres (un 17, 24 %). En los últimos años ha habido un incremento -^no dispongo de esos datos pero se deducen de los referidos en el Estudio sobre las mujeres investigadoras en el CSIC-hasta llegar a un 22% del total de los de la plantilla. Tanto en un caso como en otro, el porcentaje está por encima de la media del Organisíno GRÁFICA 4. Acceso a la escala de Profesores de Investigación por años, en el área de Recursos Naturales. Los criterios de evaluación No descubro nada nuevo a estas alturas si digo que hay una clara discriminación de género en la Ciencia. Los datos objetivos así lo prueban. Un problema general que se escapa a la escala del área, a la del CSIC, a la de nuestro país y a la de los de nuestro entorno geográfico y cultural y que se extiende, en mayor o menor medida, por todas las ramas del saber y líneas de investigación. Siempre el porcentaje de investigadoras es menor y sus posibilidades de promoción inferiores. Se han buscado causas de todo tipo y probablemente todas colaboren a que la situación sea la que es. Se habla del antagonismo entre la vida familiar y la profesional, de los efectos de la socialización de género, de la asignación de roles donde el papel tradicional de la mujer es el de secundaria. Son causas generales que afectan a la mujer en todos los campos y a los que no escapa, por supuesto, el de la actividad científica. Pero además en el mundo científico concurren una serie de circunstancias que es preciso analizar con detalle. La Ciencia ha sido tradicionalmente una actividad androcéntrica, un coto masculino en el que han entrado un número muy escaso, casi testimonial, de mujeres. Solo en los últimos años la mujer está irrumpiendo en el mundo científico y la situación comienza a cambiar. Los obstáculos han pasado de ser patentes a sutiles y se ha dicho, no sin razón, que más que un número pequeño de grandes desventajas las mujeres debemos hoy en día hacer frente, en el campo científico, a un número muy grande de pequeños y a veces imperceptibles obstáculos. La discriminación no es ahora, como en otro tiempo, abiertamente beligerante y activa pero si hay una discriminación inconsciente, basada en un sistema sesgado de selección y promoción. Hay unanimidad a la hora de establecer los criterios generales que deben regir la selección del personal investigador. Nadie duda que el criterio fundamental es el de la calidad científica de los candidatos; éste debe imperar sobre todos los demás. Lo que no está tan claro son los parámetros que se deben utilizar para evaluar esa calidad y, es muy probable, que en la aceptación casi dogmática de una serie de ellos esté la raíz de la discriminación. ¿Cómo determinar la calidad de un científico dado? Parece que la respuesta habría que ir a buscarla por los derroteros del interés y novedad de sus objetivos, en el rigor de su trabajo, en la excelencia de sus resultados y, en algún valor algo menos tangible y general, como la honradez para consigo mismo y con su trabajo. Es curioso que esta última sea una cualidad más apreciada por las científicas que por los científicos, un 24% frente a un 9% (cf. Holton in http://www.sciam.com/explorations/ 1998/051898women/gender.hrml]. Pero la calidad en realidad se determina sobre la base de otros parámetros de valoración relacionados más, con el modo de enfrentarse a los problemas, la manera de resolverlos y, sobre todo, como abordar la difusión de los resultados, que con la calidad Una visión de género en el Área de Recursos Naturales propiamente dicha. En suma, están más relacionados con el cómo que con el qué. Hay una visión estereotipada del científico y el modelo es claramente masculino. En el modelo imperante, forjado a lo largo del tiempo, cualidades como la competitividad y la rivalidad que suelen traducirse en un nivel más alto de productividad, con un mayor número de trabajos publicados, juegan un papel muy relevante. Un buen número de publicaciones en revistas de alto impacto es el pasaporte seguro para una rápida promoción. Por el contrario, un menor número de publicaciones, aunque de ellas se puedan extraer conclusiones más interesantes, publicadas en revistas con menos repercusión pueden retardar o incluso colapsar una carrera. No quiere esto decir que no sea posible tener éxito en el campo de la investigación científica para aquellas personas menos competitivas, solo quiere decir que el sistema recompensa a aquellos individuos con este tipo de rasgos. Es, este modo de concebir las cosas que por razones culturales se adapta mejor a la psicología masculina que a la femenina, lo que perjudica seriamente a las mujeres. La discriminación, por tanto, hay que pensar que no es ni consciente ni intencionada, sucede que se aplican criterios de selección basados en estereotipos, con frecuencia, irrelevantes para determinar la competencia científica de los individuos, pero que afectan negativamente a la promoción de las mujeres. La desigual situación del área de Recursos Naturales El área de Recursos Naturales tiene en su plantilla uno de los porcentajes más bajos de investigadoras de todo el Organismo. La distribución de las mismas por escalas es francamente atípica, con un tanto por ciento por encima de la media en la escala más alta. Profesores de Investigación, y bastante por debajo en la de Investigadores y Científicos Titulares. La desproporción de género está ya en el punto de partida, a la hora del ingreso en la escala de Científicos Titulares. En aquellos periodos en que el número de plazas ha sido mayor y, por tanto, los porcentajes más significativos -como por ejemplo los años 86, 87 y 90-el número de mujeres que ha ingresado en esta escala apenas si supera el 20%. La estructura de la plantilla en el área es piramidal pero, si comparamos por separado la plantilla de varones y mujeres, vemos que en el caso de los primeros el 59% son Científicos Titulares, el 29,38% Investi-gadores y el 11,37% son Profesores de Investigación, mientras que en el de las mujeres es porcentualmente superior el número de Científicas Titulares, con un 67,14%, en detrimento de las Investigadoras Científicas que son el 21,42% y está prácticamente igualado en la escala más alta de Profesores de Investigación. Bien es verdad que en este último caso los porcentajes lo son sobre un número muy bajo de datos ( 24 hombres frente a 8 mujeres) lo que puede hacerlos poco significativos. Hemos dicho también que el área de Recursos Naturales es competitiva y heterogénea y hemos hecho, así mismo, algunas consideraciones sobre la investigación científica como una actividad tradicionalmente androcéntrica; se trata ahora con todos estos factores y algunos más de lanzar alguna hipótesis que ayude a explicar la, en parte, atípica situación de las mujeres investigadoras en nuestra área. Las estadísticas del Ministerio de Educación, Cultura y Deporte avalan la total equiparación entre universitarios y universitarias. Según los últimos datos [http://www.mec.es/mec/estadistica/p__estadist.html], relativos al curso 2000-2001, el porcentaje de alumnos en todas las universidades españolas es de un 52,68% de mujeres frente a un 47,32% de varones que, en los estudios de tercer ciclo, se sitúa en un 50,34% para las primeras frente al 49,66% para los segundos. En el mundo académico y universitario los parámetros de valoración están basados en criterios claros: es necesario probar que se tienen una serie de conocimientos previamente fijados por un programa. Mediante un sistema, más o menos continuo de evaluaciones, se llega a la consecución del objetivo: acreditar una competencia, certificada por una titulación, que ha de permitir a los candidatos desarrollar una determinada actividad. El sistema es sencillo y no está sujeto, en principio y de un modo muy general, a ningún estereotipo. Un análisis a fondo de la situación, realizado bajo el prisma de las diferentes ramas del conocimiento, probablemente nos daría una mayor riqueza de matices a este asunto, pero creo que eso es, en este momento, irrelevante para el caso que nos ocupa. En la carrera científica la cosa es diferente. Con un nivel de especialización cada vez mayor, es prácticamente imposible establecer criterios de valoración que juzguen la calidad del trabajo en sí. Con demasiada frecuencia, en el proceso de selección y de promoción, el candidato o candidata tiene un conocimiento más profundo de la materia de la que se trata que los propios miembros del tribunal que han de juzgar la propuesta. Es necesario, entonces, establecer unos criterios generales de evaluación que sean objetivos y cuantificables y que tengan una aplicación general y aparentemente igualitaria. ¿Cómo se establecen estos criterios? En mi opinión más sobre la base de la forma que del fondo. Una visión de género en el Área de Recursos Naturales 651 Se utilizan para ello unos parámetros que, por un lado, están basados en estereotipos que como hemos dicho más arriba se ajustan mejor a una concepción masculina de la ciencia y, por otro, en un trato dispar de una líneas respecto a otras lo que marca una desigualdad entre disciplinas. Hemos dicho varias veces que el área de Recursos Naturales es muy amplia. Podríamos decir que Recursos Naturales engloba muchas 'subáreas' diferentes; diversas por la naturaleza de las líneas de investigación que abordan, líneas que no son comparables unas con otras y, diversas también, por el diferente modo de entender como hacer Ciencia. Es un área heterogénea. De ello da cuenta su producción científica que está, por el lado de las publicaciones con un mayor nivel de impacto en los puestos de cabeza de entre las del Organismo y, por otro, también está a la cabeza de las que publican más libros y asimilados lo que la coloca junto a otras áreas que se consideran menos competitivas. No tiene un papel menor en todo ello el hecho de que dentro del área hay disciplinas de moda y otras conceptuadas de anacrónicas. Me refiero a ellas no en un sentido peyorativo, pretendo únicamente contraponer dos enfoques de una situación por la que unas líneas de investigación o técnicas de trabajo tienen una mayor actualidad o atractivo y, en consecuencia, gozan de una mejor cabida en las revistas de más impacto. Esto, en demasiadas ocasiones, marca políticas científicas de apoyo a unas líneas en detrimento de otras. Pero además es un área muy competitiva. El elevado número de publicaciones que la sitúan, como hemos dicho anteriormente, en el primer lugar entre las del CSIC si hablamos del número total de las producidas y la cantidad de recursos generados para investigación parece también avalar esta afirmación. Amplitud, heterogeneidad y competitividad es el marco en el que hay que situar el problema de género que estamos abordando para tratar de explicar la situación tan atípica como peculiar del área. No hay, en mi opinión, una explicación general que nos permita interpretar de modo único la situación de las investigadoras en las tres escalas pues, sin lugar a dudas, obedecen a causas y a circunstancias distintas. Circunstancias que no son ajenas a la propia evolución de las diferentes líneas de investigación y a coyunturas personales. La cuestión de género en las escalas de Investigadores Científicos y Científicos Titulares sigue, en el área Recursos Naturales, la tónica más o menos general del CSIC con una desigualdad mayor pues los niveles están bastante por debajo de la media del Organismo. Lo que requiere un análisis especial es el caso de las Profesoras de Investigación donde, como venimos apuntando, el porcentaje de un 22% M. Teresa Tellería está muy por encima de la media del Organismo que se sitúa en un 13,3%. Es, por lo general, mediante un proceso de promoción interna como se accede a la escala de Profesores. El número de plazas ha sido muy escaso hasta ahora, lo que obliga a competir por una misma plaza a un buen número de investigadores de diferentes disciplinas científicas. Líneas de investigación, en suma, que no son comparables por la naturaleza de los trabajos que generan y la posibilidad de colocarlos en las revistas de mayor impacto. La disparidad de líneas no comparables es, en mi opinión, el primer factor discriminante. Solo los individuos cuyas líneas de investigación se adecúan mejor a los parámetros establecidos pasan la primera criba y sólo, en segundo lugar, está la discriminación de género. De tal modo que una investigadora que desarrolla su labor en una línea científica más en boga tiene mayores posibilidades de promoción que sus compañeros varones que trabajan en líneas menos competitivas. Podría ser ésta una de las causas que ayuden a explicar la situación atípica del área en este aspecto. No olvidemos, en cualquier caso, que cuando estamos tratando con un número tan poco representativo como es el de ocho profesoras de investigación en un área con 306 investigadores pueden concurrir circunstancias personales, trayectoria científica o valía sobresaliente que no se pueden desestimar en absoluto, hasta tal punto que pueden trastocar por completo lo adecuado del anterior análisis a la realidad de los hechos. No hay una solución única al problema de género en el área, ni es un problema específico de Recursos Naturales, mas bien es una cuestión aún por solucionar hasta en los países económicamente más desarrollados (cf. Dewande, Science 295: 278-279. A problemas generales es deseable buscar soluciones generales pero, a veces, sólo es posible conseguir pequeños remedios parciales que, al complementarse unos con otros, ayuden a romper el círculo vicioso que la situación genera. Un estudio a fondo de la realidad de las investigadoras del CSIC, una mayor sensibilidad por parte de los estamentos de decisión de la Política Científica que se plasme en actuaciones concretas sería un primer paso en el largo camino que aún queda por recorrer. Hasta que ese momento llegue, dejamos algunas preguntas que, entre muchas otras, podrían servirnos de punto de partida a la reflexión desde dentro del CSIC: ¿En que proporción dirigen las mujeres equipos y/o proyectos de investigación? ¿Cuan-tas forman parte de comisiones de evaluación y tribunales de selección? ¿Cuantas dirigen o al menos forman parte de los estamentos del Organismo que rigen su política científica? Notas ^ Pues se relacionan en el área una serie de Institutos que también se incluyen en la de Ciencias Agrarias, a saber: Ciencias Medioambientales (CCMA), Centro de Edafología y Biología Aplicada del Segura (CEBAS), Estación Experimental del Zaidín (EEZ), Instituto de Recursos Naturales y Agrobiología de Salamanca (IRNASA) y el Instituto de Recursos Naturales y Agrobiología de Sevilla (IRNASE). En el área de Tecnología de los Alimentos se incluye el Instituto de Agroquímica y Tecnología de los Alimentos (LATA) y, en él de Ciencias y Tecnologías Químicas, el Instituto de Productos Naturales y Agrobiología de Canarias (IPNA). ^ Los datos han variado ya que, hasta junio de 2001, el total de personal investigador se había incrementado en un 2% [cf.www.csic.es], incremento que en el área de Recursos Naturales ha sido del 4%. ^ La fuente de datos consultada corresponde a las listas de personal investigador del Organismo hasta 1999.
La subdirección General de Recursos Humanos del CSIC preparó por encargo de la Presidencia la elaboración de estadísticas del personal científico por sexo, que se presenta a continuación y que está disponible también en la página web de este organismo,
El monográfico de ARBOR que en estas líneas presentamos está dedicado a ese tema siempre dinámico, siempre vivo, que es la Educación en España. Cuestión de amplia y densa problematicidad, resulta obviamente inabarcable en su totalidad. El encargo realizado al coordinador del número, por tanto, debía materializarse en una opción acotada, lo más definida y coherente posible, que orientase la lectura de un conjunto de trabajos de procedencias necesariamente diversas, escritos desde puntos de vista (deseablemente) complementarios, y con unas perspectivas y unas metodologías enriquecedoramente dispares. Podríamos habernos centrado en los temas coyunturalmente de más actualidad; y ésta es, en el período inter secular presente, de crisis, cambio y reforma. A la Ley de Reforma Universitaria y posterior Ley de Ordenación General del Sistema Educativo les ha seguido la Ley Orgánica de Universidades y consiguiente Ley de Calidad. A un Plan de Estudios reformado, le sucede otro adaptado, al que a su vez seguirá el nuevamente reformado cuando indefectiblemente cambien las directrices generales. A unos postulados pedagógicos fruto de un contexto sociopolítico concreto, les siguen otros igual de puntuales, propios de la nueva realidad particular conocedora de su carácter caduco, pero deseosos de alcanzar una longeva vida que los aproxime a la imposible perennidad. Pero la coyuntura es intrínsecamente efímera y pierde todo su sentido al poco tiempo; en suma, debe integrarse en una estructura que le dé perspectiva y sentido. Esa es, por tanto, la primera idea que subyace a la colección de estudios particulares que constituyen esta obra: construir un marco general a la globalidad del fenómeno educativo. La opción así planteada no deja de seguir teniendo grandes problemas de materialización. Sólo en el ámbito universitario, con el profesorado dividido en áreas de conocimiento más o menos artificiales, el mundo educativo se aborda desde muy diferentes puntos de vista. Unos, generales (Teoría e Historia de la Educación, Psicología de la Educación, Didáctica y Organización Escolar, Métodos de Investigación y Diagnóstico en Educación, Sociología de la Educación,...); otros, particulares (las Didácticas Específicas: de las Ciencias Experimentales, las Ciencias Sociales, de la Lengua y la Literatura, de la Matemática,...). Y ello en el contexto de la obvia dedicación a la Enseñanza del profesorado de todas y cada una de X Presentación las Facultades y Escuelas Técnicas, con los consiguientes derechos a (y obligaciones de) reflexionar sobre sus tareas docentes, sobre las técnicas y métodos de enseñanza y aprendizaje, sobre los procesos de adquisición de conocimientos, etc., etc., etc. Pero esa última consideración sí sirve para ir centrando la elección: invita a dividir este trabajo colectivo en dos partes. Una primera dedicada a contextos-marco generales y una segunda en la que se aborden los principales ámbitos disciplinares. En cada una de ellas, seis autores aportan colaboraciones originales al conjunto de doce temas concretos, con sus numerosos problemas asociados, enraizando las consideraciones de futuro en la experiencia pretérita. Y es que conocer el presente de los problemas para adelantarse a lo porvenir puede hacerse solamente si se conoce el pasado; y el fenómeno educativo no es excepción. Comienza este monográfico, por tanto, con el estudio de los grandes movimientos en la Historia de la Educación occidental desde los umbrales de la Modernidad hasta nuestros días, con el prólogo perfecto que supone el trabajo de Isabel Gutiérrez Zuloaga «Modelos educativos paradigmáticos en la Historia de la Educación», simbiosis de la tradición de su trayectoria investigadora -adaptada a la tarea colectiva-y el trasfondo denotativo de las aportaciones terminológicas kuhnianas. Las consideraciones educativas para los años venideros deben realizarse en el contexto de un mundo globalizado consecuencia de la proyección universal de la civilización occidental. Así, «La actividad educativa en la Sociedad de la Globalización» de Félix E. González Jiménez nos sitúa rápidamente en el complejo panorama de la realidad social, económica y moral que caracterizan y caracterizarán, condicionan y condicionarán, el interés por la Educación durante el siglo que comenzamos. Pero ese modelo occidental implícito y explícito en la sociedad del conocimiento se manifiesta especialmente en el núcleo que lo originó, en la Europa que busca todas las posibles vías de unión tras dos guerras mundiales que parecían haber quebrado de raíz todo posible proyecto unificador. Europa occidental cerró el siglo XX, el de los grandes conflictos internos proyectados al resto de la Humanidad, con el propósito de planificar un siglo XXI en paz. Para materializar esa idea hace falta concretar una identidad común en el que la dimensión educativa probablemente jugará un papel articulador capital. En «Tendencias en la Política de la Educación de la Unión Europea» José Antonio Ibáñez-Martín analiza los intentos realizados en este sentido desde la firma del tratado de Maastrich hasta los últimos refinamientos finiseculares. El marco europeo, sin embargo, no ha podido aportar, de momento, la solución unificadora a las problemáticas particulares de cada una de las identidades nacionales no siempre coincidentes con las fronteras entre estados. El caso de nuestro país, donde la mayoría de las competencias están transferidas a las Comunidades Autónomas, el problema se exagera aún más, tal como desarrolla Sofía Juaristi Zalduendo en «La Educación en la estructura autonómica del Estado Español», desde los debates acerca de la Reforma de las Humanidades hasta el sentido del concepto de Universidad en el contexto de las Comunidades Autónomas. La planificación, las reformas, el conjunto de decisiones más significativas para cualquier sistema educativo se toman -con mayor o menor atención a otros niveles previos-en y desde la Universidad, otrora un mundo de tradición y constancia, freno para las aventuras poco meditadas, pero hoy origen de los cambios más importantes. En «Tendencias de la Educación universitaria en el siglo XXI» Vicente Ortega Castro se adentra en el futuro de este estamento educativo desde el conocimiento de su complejo presente político, económico y social. Pero conviene llegar (y desde el punto de vista del coordinador esto debía hacerse a modo de colofón del primer conjunto de artículos) a la situación de los niveles básicos, y por ello fundamentales, del sistema educativo. La tarea le corresponde a Julio Ruiz Berrio con el desarrollo pormenorizado de los avatares históricos en su artículo «Vida, fulgor y crisis del sistema escolar español», como vía para reorientar estas cuestiones en nuestros días. La segunda parte comienza con el estudio sobre «Lenguaje y conocimiento científico: perspectivas para una educación española», concebido a modo de prólogo general para los cinco ámbitos del saber destacados consecuentemente por su significación disciplinar especial en la historia, en un denso estudio de Francisco González de Posada sobre las relaciones de la Lengua (en general, y la española en particular) con la génesis y la transmisión del conocimiento humano. El primero de esos mundos disciplinares lo aborda Joaquín Díaz-Corralejo en sus «Reflexiones sobre la Didáctica de la enseñanza / aprendizaje de la Lengua y la Literatura», estudiando intrínsecamente el papel vertebrador que estos elementos instrumentales tienen en unas sociedades cada vez más multiculturales. En su contribución no sólo proporciona un análisis de la compleja realidad de las distintas lenguas, sino que aporta nuevas perspectivas y nuevas soluciones desde (y para) ese sistema educativo que se tiene que enfrentar con el problema. Por otro lado, transcurridos más de 35 años desde su primera colaboración en las páginas de esta revista, José Aguilar Peris enfronta por segunda vez el tema de «Las ciencias físico-químicas y su enseñanza». Con la perspectiva que da el tiempo transcurrido, en esta nueva aproximación se estudia la adecuación de las tendencias educativas más actuales a las peculiaridades de las ciencias de la especialidad, recapitulando numerosas experiencias y aportando un tratamiento pedagógico acorde con (e integrado en) el presente. Sin embargo, las épocas de laxitud y crisis como las actuales tienen entre sus ingredientes constitutivos una falta de estima por las diferentes disciplinas científicas, lo que se manifiesta de manera muy especial en el ámbito educativo que pasa a ser, en muchas ocasiones, de simple adoctrinamiento pseudocientífico. Así lo detecta y trata Mercedes de Unamuno Adarraga, centrándose en el caso concreto de la Biología, en «Reivindicación de la Ciencia. La enseñanza de las Ciencias Naturales». Pero los problemas en la enseñanza no se limitan a las que tradicionalmente se denominan «ciencias». Las humanidades, por sus implicaciones más tangibles en la realidad social, se encuentran sometidas a continuo debate, sobre todo en una democracia joven como la nuestra después de un siglo XX tan complicado. Uno de los temas (si no «el tema») más peliagudos en nuestro estado autonómico es el que analiza Javier Cermeño Aparicio en «El concepto de España en Didáctica de las Ciencias Sociales», toda una llamada de atención si de organizar la convivencia entre los españoles del siglo XXI se trata. El último trabajo es el estudio del coordinador de este volumen titulado «Sobre la naturaleza histórica de la Matemática y su enseñanza». La primera aportación novedosa que contiene es un modelo historiográfico para el estudio de la evolución histórica de las diferentes disciplinas hasta que alcanzan un estadio realmente científico, tomando como punto de partida para el resto de los saberes el caso de la Matemática. Delimitando posteriormente las fases de la época propiamente científica de ésta, se analizan las estrechas relaciones entre los procesos históricos y los de adquisición de conocimientos por los escolares con diferentes consideraciones educativas.
En este trabajo se analiza el proceso histórico de la Ciencia de la Educación, en cuanto que nos ayuda, no sólo a conocer y superar el pasado, sino también a iluminar el futuro. Para ello, se seleccionan algunas de las aportaciones histórico-educativas occidentales más influyentes desde el comienzo de la Edad Moderna, Son considerados como modelos paradigmáticos, a partir de la Edad Moderna: el Humanismo, el Realismo y el Naturalismo pedagógicos, así como la consideración científica de la Pedagogía; y en el siglo XX: la Pedagogía sociológica, el Movimiento de la Escuela Nueva, el Personalismo pedagógico, la aplicación de la Tecnología a la enseñanza, y la propuesta europea de Educación ante el futuro. Se consideran sus principales aportaciones. El proceso histórico de la Educación ha sido considerado por varios autores como una revisión evolutiva y perfeccionista del fenómeno pedagógico a través de los tiempos, de los países y de los grandes pensadores. Porque no podemos considerar el presente como algo absoluto, puesto que lleva en sí las virtualidades del pasado. Los problemas de origen, génesis y complejas influencias que plantea el mundo actual, sólo se hacen patentes a la luz de su consideración histórica. Así lo entiende Herbart, para quien cada época trasmite a las siguientes sus pensamientos más elaborados, el tesoro de su lenguaje, y Isabel Gutiérrez Zuloaga considera que en cada uno de nosotros vive el pasado por entero. Según Durkheim, la Ciencia de la Educación es precisamente un estudio de la evolución de los factores que, a través del tiempo, determinan el hecho educativo. Romagnosi afirma que el sujeto de la educación no es el hombre en cuanto individuo, sino en cuanto ser social, formado a través del desarrollo histórico de un pueblo. También en Estados Unidos se valora la visión histórica de la educación, como medio de explicar los complejos problemas que la Pedagogía se ha planteado a través de los siglos y de analizar sus soluciones. Porque, si bien la Historia de la Educación nos sirve para conocer y superar el pasado, también nos ayuda a iluminar el futuro. Nos enseña a comprender el proceso pedagógico, para poder utilizar en su justo sentido las valoraciones esenciales y para adaptar los valores pasajeros a las concretas exigencias de cada momento histórico. Por ello, nos hemos propuesto tratar las corrientes más destacadas que han influido en la Historia de la Educación y sus personajes-clave. Para lo cual, ha sido preciso realizar una selección de las aportaciones que pueden considerarse más significativas y de una mayor trascendencia posterior. Aunque, para ello, haya debido prescindir de otras propuestas que también considero de sumo interés. De entre las aportaciones más influyentes que han dejado su huella en el proceso educativo occidental, a partir de la Edad Moderna -desde el siglo XVI hasta el siglo XIX inclusive-recordaremos las siguientes: el Humanismo pedagógico (siglo XVI); el Realismo pedagógico (siglo XVII); el Naturalismo pedagógico (siglo XVIII); la Sistematización científica de la Pedagogía (siglo XIX). Y del siglo XX destacamos: la Pedagogía sociológica; el Movimiento de la Escuela Nueva; el Personalismo pedagógico; la Tecnología de la Enseñanza; y la propuesta europea de la Educación ante el futuro. La orientación sobre educación y enseñanza dada en el siglo XVI, siglo del Renacimiento y del Humanismo, está caracterizada -ante todopor su enfoque humanista, siendo su figura más representativa el valenciano Juan Luis Vives (1492Vives ( -1540) ) quien, siendo nombrado profesor de la Universidad de Lovaina, instala su residencia en Brujas (Bélgica). Su obra pedagógica principal es el Tratado de la enseñanza, en cuya segunda parte, titulada «Sobre las disciplinas», aporta todo un programa para restaurar los estudios. Señala como objetivo de los estudios el hacer al joven más instruido y mejor. Expone la conveniencia de examinar las dotes mentales de los alumnos, y cómo los maestros deben observar y deliberar entre sí -en meses alternos y aún cada tres-sobre las cualidades de éstos, para poder orientarles con acierto y dedicarles a aquello para lo que demuestren más aptitudes. Aunque admite que, para deducir el ingenio del alumno, no basta la simple y esporádica observación del profesor. Se precisa también, ponerle en ocasión de actuar y comprobar los resultados. Para realizar tales pruebas son útiles, tanto las matemáticas como el juego. Sobre el resultado de dichas técnicas exploratorias fundamenta Vives su división de los ingenios. Su concepto de centro de enseñanza es muy amplio, ya que solicita la instrucción para todos los seres humanos. 49) que debe constituirse la «verdadera Universidad» como un encuentro o convenio de personas doctas y buenas «reunidas para hacer iguales a ellas a cuantos acudiesen allí para aprender». Defiende también la formación del gobernante y la de la mujer. En su tratado sobre La educación de la mujer cristiana destaca la importancia de la formación de la doncella, y señala entre sus fines el de la «adquisición de la cultura». Watson ha calificado a Vives como padre de la Psicología moderna. Además, ha ejercido gran influencia en la Pedagogía posterior. Y quizás, lo que más ha trascendido de su obra haya sido, no tanto su parte teórica -sino más bien-la acertada aplicación de su teoría a los problemas pedagógicos. La gran figura del Realismo pedagógico en el siglo XVII es Juan Amos Comenio. Natural de Niewniz (Moravia),. Nos ha legado una gran obra, la Didáctica Magna, en la que ofirece como ideal la Pansofía o saber universal. Esta Gran Didáctica, destacado ensayo pedagógico, parte de este principio fimdamental: un confiado optimismo sobre la perfectibilidad del género humano, y sobre el poder de la educación para mejorar al hombre y a la sociedad. Concibe toda la realidad desde el punto de vista de la perfección humana. No trata sólo de la educación familiar y escolar, sino también de la solidaridad social y de la realidad natural. Ambas -naturaleza y sociedad-deben contribuir a la superación humana. Comenio propone la elaboración de una sabiduría universal capaz de abarcar toda clase de conocimientos, reducidos a sus principios funda-Isabel Gutiérrez Zuloaga mentales. Esta pansofía será la panacea que ha de apresurar el progreso moral, intelectual y espiritual de toda la sociedad. Dicha Ciencia universal debe darse a conocer en diversas etapas; en cada etapa se debe comunicar un conjunto completo de conocimientos, que será cada vez más elevado, profundo y extenso. Propone que la educación alcance a todos los hombres. Todos deben acceder a la instrucción, que los capacita para su perfección y para su felicidad. Porque considera que la inquietud y la violencia que se dan en el mundo tienen por causa la desigualdad en la educación. El primer ejercicio intelectual debe ser la observación de las cosas reales y sensibles, porque sólo los sentidos nos pueden dar a conocer las obras de la naturaleza. Deben ser los objetos, las cosas mismas, las que aparezcan tal como son ante la mente del discípulo. Por eso, el maestro debe procurar que el alumno se encuentre directamente con la naturaleza, ya porque ésta se trae a la escuela, o porque se utilicen imágenes que muestren lo que se pretende enseñar. Y para que resulte eficaz este contacto del alumno con la naturaleza, debe aplicarse el principio del orden; orden, no sólo en la distribución de la enseñanza, sino también en la presentación de las cosas. En cuanto a la organización escolar, piensa que la enseñanza debe distribuirse en cuatro grados, según la edad de los alumnos y su programa de estudios, y que cada etapa debe durar seis años. Para el segundo grado -escuela elemental-señala como metas: el cultivo de la inteligencia, la imaginación y la memoria. El Gimnasio -tercer grado-es el adecuado para los ciudadanos que van a ejercer una profesión liberal. El cuarto grado corresponde a la Universidad. Propone también la fundación de un Colegio didáctico, dedicado al cultivo de las Ciencias y a fomentar el progreso de toda clase de descubrimientos que puedan servir para mejorar la vida humana. Comenio es considerado como el padre de la Pedagogía moderna y el organizador y propagador de la escuela nacional. Porque acierta a integrar en su obra ideas de pedagogos anteriores a él y elabora un plan pedagógico de gran influencia posterior. Promueve formas educativas que hoy conservan su vigencia, como el empleo de la imagen, y da forma a una didáctica basada en los conceptos de naturalidad, intuición y autoactividad. De él nos dice A. Heyberger (1928) que «este educador... anima su obra con todos los sentimientos sublimes de un alma consagrada al servicio de la humanidad». Su aportación pedagógica es muy destacada. En el siglo XIX se crea la «Fundación Comenio», y después aparece la «Sociedad Comenio» con carácter internacional. Asignar a la naturaleza un papel decisivo y constituirla en ideal de la Humanidad, es el objetivo de Juan Jacobo Rousseau. Nace en Ginebra (Suiza),. Perteneciente al grupo de la Enciclopedia francesa, es uno de los mejores escritores del siglo XVIII; con él la Ilustración se supera a sí misma y da un paso más. Su obra pedagógica fundamental es el Emilio o sobre la educación, publicada en 1762. Rousseau hace de la naturaleza el fin y el método de la enseñanza. Propone la reacción a todo artificio, porque considera que se debe dejar hacer al alumno y que deben ser respetadas las etapas de su propio desarrollo. El concepto rousseauniano de naturaleza humana hace referencia a todo aquello que es común a los seres humanos, de todos los lugares y de todos los tiempos. Supone, por tanto, una racionalización del concepto naturaleza. El Emilio presenta el ideal de hombre racional hacia el que debe tender toda educación: el hombre-naturaleza requiere una formación centrada en lo constitutivo de la naturaleza humana. Debe educarse, no para ejercer una determinada profesión u oficio, sino para ser verdaderamente hombre. Lo que realmente le interesa es la condición humana. Una de sus principales aportaciones es el respeto a la naturaleza del niño, a la idiosincrasia infantil. Nos dice: «Dejad madurar la infancia en los niños». Solicita del educador que considere que el niño tiene maneras propias de ver, pensar y sentir, y que es insensato imponerle las nuestras. La educación debe ser progresiva, teniendo en cuenta el movimiento evolutivo y gradual de la naturaleza infantil. Señala varias etapas: educación corporal o física, hasta los 2 años; educación sensorial, de los 2 a los 12; educación del espíritu, de los 12 a los 16; educación del corazón y la razón, de los 16 a los 20; cumplidos los 20 años, educación en la virtud y en la libertad moral. Progresión irreversible, porque cada etapa está montada sobre la anterior y prepara -a su vez-la siguiente. 89) lo que llama educación negativa, como opuesta a la educación positiva. Ésta es -para él-la que tiende a formar prematuramente el espíritu del niño y a instruirle en los deberes que corresponden al hombre. Educación negativa es la que tiende a perfeccionar los órganos, como instrumentos del conocimiento, antes de dar contenido alguno, y que procura preparar el camino a la razón, por el adecuado ejercicio de los sentidos. Tal concepto de educación negativa no supone mera pasividad del profesor, sino una vigilancia constante y oportuna, para ir preparando las situaciones propiamente educativas. No propugna la inactividad del educador, sino que le asigna una difícil mi-Isabel Gutiérrez Zuloaga sión. Éste no debe imponer ninguna virtud, pero debe proteger del vicio; no debe inculcar la verdad, pero sí proteger del error. Debe preparar al niño para seguir el camino de la verdad, en cuanto llegue a la edad de comprenderla, y el camino de la bondad, cuanto pueda reconocerla y amarla. Esta teoría rousseauniana de defensa de la humana naturaleza ha tenido una considerable influencia en la historia de la Educación. Entre sus principales seguidores contamos, ya en el siglo XVIII, con Pestalozzi en Suiza y con Basedow en Alemania. Ambos intentan plasmar sus ideas, no sólo en la teoría, sino también en instituciones de enseñanza, obteniendo un reconocido éxito. Sistematización científica de la Pedagogía La elevación de la Pedagogía al rango científico es un objetivo y un logro de Juan Federico Herbart. Se propone investigar cuál es el principio ñindamental del que parte la ciencia pedagógica, y lo encuentra en la moralidad, como fin mismo de la educación. Tal es el planteamiento que nos ofirece en su obra pedagógica más importante, titulada Pedagogía general derivada del fin de la educación, publicada en 1806. Acierta a elevarse desde los aspectos empíricos e intuiciones dispersas, a los conceptos y a la sistematización lógica. Toma postura entre las dos perspectivas desde las que puede ser considerada la educación -ciencia o arte-para adoptar la primera, afirmando: nuestra esfera es la Ciencia. Su actitud es realista, serena, equilibrada, racional. Según Ortega y Gasset, es una expresión coherente -desarrollada y evolucionada-del optimismo intelectualista de la Ilustración. Desde esta perspectiva, Herbart defiende que la instrucción tiene como misión el construir desde fiíera y -por medio de estímulos externos-la personalidad del niño. Los dos pilares que sustentan y condicionan la Pedagogía son para él: la Psicología y la Ética. Esta plantea unos fines y la Psicología proporciona los medios. La misión del educador consiste -para él-en edificar el espíritu infantil, en construirle una experiencia determinada y claramente intuida; no en actuar como si el niño tuviese ya experiencia, sino cuidar de que obtenga esa experiencia. Y afirma que el educador cuenta, para cumplir su misión, con tres grandes instrumentos, que son: la instrucción, la cultura moral y el gobierno de los niños. Su idea de instrucción educativa está ligada al concepto de interés, que considera (Herbart 1935, pp. 60-61) el «concepto cardinal de la instrucción». Defenderá que la Pedagogía es la ciencia que necesita el educador para sí mismo. Pero -añade-que éste también debe conocer la ciencia para comunicarla. Porque no se puede concebir la educación sin la instrucción, y tampoco hay instrucción que no eduque. De aquí que el educador deba cuidar «la forma en que se establece el círculo de ideas en su discípulo, pues de éstas nacen los sentimientos, y de éstos los principios y modos de obrar». El capítulo más difundido de su Didáctica es el de los grados formales de la educación. Estos pasos o grados son: claridad, asociación, sistematización y método. Su Pedagogía general es una importante aportación pedagógica porque, es a partir de su aparición cuando comienza a considerarse la Pedagogía como una Ciencia. Entre sus numerosos discípulos, recordamos a T. Ziller, W. Rein y L. Strumpel. Representante destacado de la Pedagogía que podemos denominar como sociológica es John Dewey. Dewey forma parte del movimiento de la «Educación nueva», movimiento que no se reduce a soluciones meramente didácticas, sino que ha contado también con pensadores teóricos, los cuales han logrado aportar a esta corriente serias bases de pensamiento. Así, dentro de esta línea, contamos con Dewey, principal teorizador de la «Educación nueva», en su doble línea de pedagogo de la acción y pedagogo de la experiencia. Destacamos entre sus obras, la publicada en el año 1916, que lleva por título Democracia y Educación, Su reforma está fundada sobre la base del ideal educativo democrático. Los principios de su concepción ideológica se basan en tres tipos de revoluciones básicas: la de la ciencia, la de la industria y la de la social democracia. Esta última es la que -para él-supone una nueva y profunda concepción de la vida. Por eso afirma que han sido revolucionadas las condiciones radicales de la vida y que sólo una reforma pedagógica radical puede satisfacerlas completamente. Propugna una socialización total de la educación y considera que, mediante la educación, debe desaparecer la distinción de clases. La escuela debe convertirse en una institución creada por la comunidad para mantener la vida y favorecer la prosperidad social. El sentido de la coopera-Isabel Gutiérrez Zuloaga ción se despierta en el niño con la vida social. Los fines educativos tendrán su origen en las actividades reales de la vida, y serán tantos y tan variados como la vida misma. La experiencia educativa debe ser una constante reconstrucción de la actividad del niño. En su obra Democracia y Educación deja claro su criterio de lo que debe ser la educación en una sociedad democrática. Se trata de una sociedad que procura la participación de todos sus miembros en términos iguales y que asegura un reajuste flexible de sus instituciones, mediante la interacción de las diferentes formas de vida asociada. Dicha sociedad debe contar con un modelo de educación que proporcione a los individuos un interés personal en las relaciones y el control social, y unos hábitos espirituales que aseguren los cambios sociales sin introducir el desorden. Piensa que sólo una reforma pedagógica radical puede satisfacer el cambio en la concepción de la vida, y considera evidente que la relación entre democracia y educación sea «recíproca, mutua y vital». Ya que la propia democracia es un principio, una medida y un procedimiento educativos. Su práctica es un asunto educativo, porque pone ante nosotros la responsabilidad de considerar lo que deseamos como individuos. También propugna Dewey (1933) un concepto pragmatista de la educación, cuando defiende el «enseñar por medio de la acción» -learning by doing-porque, según él, «sólo la acción manual y la intelectual promueven la experiencia», y la educación no es sino «una reconstrucción de la experiencia». La «Escuela Dewey» de Chicago tiene como punto de partida las actividades del niño que -de modo natural y espontáneo-se producen en la casa y en la comunidad social en que se halla inserto. Porque, la escuela debe ser un instrumento adecuado para la especialización funcional de los intereses de los educandos. El maestro debe adaptar su actividad al estado actual del desarrollo del educando, tal como lo revelan sus intereses. Varios pedagogos defenderán el ideal democrático y social propugnado por Dewey, quien es considerado como el principal representante de la defensa de una educación para la democracia. El movimiento de la Escuela nueva Entre los defensores de la Escuela Nueva, basados en la Psicología y el puerocentrismo, ocupa un destacado lugar María Montessori. Entre sus obras destaca El descubrimiento del niño, publicada en 1952. Montessori comienza trabajando con niños deficientes, lo que le lleva a reflexionar sobre la posibilidad de trasladar las conquistas de la Pedagogía de los subnormales y deficientes mentales, en medios para perfeccionar los métodos en la educación de la infancia normal. Para ello organiza -en un barrio de Roma-escuelas para niños en edad preescolar, que no habían podido ser atendidos por sus familias. Comienza así a funcionar la primera «Casa dei Bambini». Su método se basa en su propio concepto del niño, como ser particular, cualitativamente distinto del adulto, dotado de maravillosas energías latentes que tienden al autodesarroUo. Piensa, además, que éste posee un amor puro y profundo, carente de dureza y de cálculo. Defiende que la humanidad, que se manifiesta ya con todos sus esplendores intelectuales en la tierna infancia, debe ser respetada con religiosa veneración. En su obra El método de la pedagogía científica (Montessori 1932, pp. 92-93) defiende que el método pedagógico de la observación tiene por base la libertad del niño y que libertad ha de ser sinónimo de actividad. Llama disciplinado al individuo «que es dueño de sí y puede, por lo tanto, disponer de sí mismo cuando sea preciso». Y añade: «La libertad del niño debe tener como límite el interés colectivo; como forma de lo que llamamos la educación de las buenas maneras y de los actos». Defiende que la única acción educativa eficaz «será la que tienda a ayudar al completo desarrollo de la vida». Sus postulados pedagógicos y su fe en el dinamismo de la infancia, se anticipan a la ciencia antropológica y pedagógica de nuestro tiempo. María Montessori ocupa actualmente un puesto privilegiado en la historia de la Educación infantil. El pensamiento personalista es un pensamiento rebelde a una sistematización formal, a una unidad autoritaria. Su principal representante es Emmanuel Mounier. Su obra más destacada es El Personalismo, publicada en 1949. Mounier define el personalismo como aquella doctrina que afirma la primacía de la persona humana sobre las condiciones materiales y sobre las estructuras colectivas que sostienen su desarrollo. Para él, la persona es una unidad de vocación siempre capaz de superarse. Es la presencia y la unidad de una vocación intemporal, que urge a superarse indefinidamente a sí mismo y que opera, a través de la Isabel Gutiérrez Zuloaga materia que la refleja, una unificación siempre imperfecta, siempre comenzada de nuevo. La primera misión de todo hombre consiste, pues, en descubrir de modo progresivo, esa cifra única que señala su sitio y su deber en la comunicación universal. Son tres los ejercicios esenciales para la formación de la persona: la meditación, como búsqueda de la propia vocación; el compromiso, reconocimiento de su encarnación; y la depuración, como iniciación a la entrega de sí y a la vida en los demás. Cree que la persona sólo se encuentra dándose a la comunidad superior, que llama e integra a las personas singulares. El personalismo se presenta como una pasión por el ser humano, y debe ofrecer líneas de conducta. La educación debe procurar una formación total de la persona humana. De aquí que los comentaristas de Mounier hayan destacado el carácter pedagógico de su pensamiento. Así, Paul Ricoeur (1950, pp. 862-863) nos dice que el personalismo es en su origen una pedagogía de la vida comunitaria, unida a un despertar de la persona. También Jean Lacroix califica a Mounier de educador. En realidad, el personalismo supone en Mounier un esfuerzo para comprender y superar la crisis del siglo XX. Porque considera debe preparar la auténtica liberación del hombre. Dicho personalismo difundido por Mounier -desde 1932, a través de la revista Esprit-es defendido por muchos pedagogos actuales, que centran la atención educativa en los valores que autentifican a la persona humana. De ellos podemos recordar entre los pedagogos italianos, a L. Stefanini, M. Cassotti, G. Nosengo, G. Galo; entre los franceses, a J. Maritain; de los españoles, a J. Tusquets y a V. García Hoz. La Tecnología de la Enseñanza Se trata de utilizar las máquinas como técnica para aplicar los principios del aprendizaje. Figura pionera ha sido Burrhus Frederic Skinner, profesor de la Universidad de Harvard. Se propone realizar una investigación del comportamiento, como hecho plenamente científico. Piensa que todo lo que podemos conocer en el campo del aprendizaje deriva del comportamiento, y que la mayor parte de la conducta y del aprendizaje humanos tiene un carácter operante. Aplica a dicho comportamiento operante la ley del refuerzo, entendida como resultado de un acontecimiento exterior que actúa sobre el organismo, fortaleciendo la conducta ante ciertos estímulos procedentes del ambiente. 969) las máquinas como técnica para aplicar esos principios de aprendizaje. La máquina ofrecía la solución al problema de dar compensación inmediata -durante cada uno de los pasos-del estudio de un programa. Piensa Skinner -en 1956-en una máquina que combinase las posibilidades de un computador electrónico con la modalidad de una respuesta escrita a máquina. Perfeccionando la idea, se van presentando máquinas que incluyen combinaciones audiovisuales. Basándose en los trabajos experimentales de la escuela de Pressey, Skinner se propone realizar una investigación del comportamiento, considerado como hecho plenamente científico. Defiende que todo lo que podemos conocer en el campo del aprendizaje deriva del comportamiento. Aplica al comportamiento operante la ley del refuerzo, entendida como resultado de un acontecimiento exterior que actúa sobre el organismo, fortaleciendo la conducta ante ciertos estímulos procedentes del ambiente. Un colaborador de Skinner, Holland, nos da la mejor definición de lo que puede llamarse técnica de programación de Skinner y sugiere (Fry 1962, p. 67) ocho reglas básicas para los programadores. Skinner obtiene -en 1968-el Premio Nacional de la Ciencia. Es considerado como la figura contemporánea más polémica en el campo de la ciencia de la conducta humana. La Educación ante el futuro La Comisión Internacional para el desarrollo de la Educación, establecida por la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) publica -en 1972-una obra titulada Aprender a ser, cuya finalidad es llegar a soluciones de conjunto aplicables a las grandes cuestiones que plantea el desarrollo de la educación en un universo en devenir. El Presidente de dicha Comisión y uno de los autores del trabajo es Edgard Faure, nacido en Francia (1908-1988). Faure escribe el «Preámbulo», en el que parte de la formulación de cuatro postulados (Faure 1972, p. La existencia de una comunidad internacional que se expresa por la comunidad de aspiraciones, de problemas y de tendencias; 2. La creencia en la democracia, concebida como el derecho de los hombres a realizarse plenamente; 3. El desarrollo tiene por objeto el despliegue completo del hombre; 4. La educación debe ser global y permanente. Debe preparar al hombre para que elabore -a todo lo largo de su vida-un saber en constante evolución y de «aprender a ser». En la segunda parte del libro -titulada «Porvenires»-se intenta adivinar y preparar el progreso de la Educación. Se presentan como hechos portadores de porvenir los tres siguientes: 1. las nuevas investigaciones de laboratorio en diversas ciencias; 2. el desarrollo de la Pedagogía como ciencia y su relación con el ordenador, con el análisis de sistemas y con las nuevas tecnologías; 3. la modificación del papel de los enseñantes, del concepto de educación permanente y del proceso educativo global. En el capítulo denominado «Trascendencias» se intenta adivinar las consecuencias que traerán para la Educación los nuevos descubrimientos y cambios a nivel mundial. La tercera parte -titulada «Hacia una ciudad educativa»-enfoca el camino abierto hacia el futuro, y finaliza con una propuesta de solidaridad. La obra concluye con una seria propuesta por la mejora mundial de la Educación: «Proponemos que las instituciones de ayuda a la educación... examinen el estado presente de la «Investigación y Desarrollo» en materia de educación, con el fin de incrementar la capacidad de los diferentes países para mejorar su sistema educativo, concibiendo, organizando y comprobando experiencias educativas apropiadas a su cultura y a sus recursos». 357) confiando en que «si se otorga prioridad... al reforzamiento de sus capacidades y sus medios, muchos países estarán en situación de dar los primeros pasos por el camino que conduce a la «Ciudad educativa». Edgard Faure ha realizado grandes aportaciones en el campo educativo. Es también de interés la publicación -en 1968-de la obra titulada La educación nacional y la participación. Hacia iina Ciudad educativa Recordemos los elementos educativos especiales que -a lo largo de la historia de la Educación-han aportado cada una de las corrientes seleccionadas en este estudio. El humanismo pedagógico se propone hacer al joven más instruido y mejor. Solicita que el profesorado lleve a cabo -de modo periódico-una orientación escolar. Proclama una educación para todos, sin distinción de personas ni de edades. Defiende -en especial-la formación del gobernante y la formación de la mujer. Promueve una Pedagogía deferencia! Renueva los métodos de enseñanza y manifiesta la necesidad del contacto con la vida práctica. El realismo pedagógico confía en el poder de la educación para mejorar al hombre y a la sociedad. Reclama una sabiduría universal como pa-Modelos educativos paradigmáticos nacea para el progreso moral, intelectual y espiritual de la sociedad. Defiende que todos los seres humanos deben acceder a la instrucción, y propaga la escuela nacional. Le preocupa el método, como medio más seguro para descubrir la realidad y para trasmitirla. El naturalismo pedagógico defiende un nuevo enfoque de la naturaleza y un nuevo enfoque del ser humano y de la sociedad. El ideal se pone ahora en el concepto de «hombre natural». Trata de una «educación negativa», la cual consiste en procurar la perfección de los órganos, que son los instrumentos del conocimiento humano, antes de darles contenido alguno. La sistematización científica de la Pedagogía, supone el intento de convertir en Ciencia la variada y compleja suma de elementos que contribuyen al fenómeno pedagógico. La Pedagogía se hace Ciencia y se diferencia claramente del arte de la educación. Porque, una Ciencia sólo se considera tal, cuando presenta su contenido debidamente sistematizado y fundamentado en principios teóricos y generales. El concepto cardinal de la instrucción será el interés. La Pedagogía sociológica propugna una sociedad democrática, que procure la participación de todos sus miembros en términos iguales. Pedagogía de la acción y de la experiencia, que estimula el interés personal en las relaciones y el control social. El Movimiento de la «Escuela nueva» considera al niño cualitativamente distinto del adulto. Defiende el derecho a su libertad, admitiendo sólo como límite el interés colectivo. Nos presenta una variedad de métodos y de orientaciones. El Personalismo pedagógico presenta a la persona humana como una realidad siempre capaz de superarse. Defiende los valores que hacen auténtica la realidad de la persona. Destaca la primacía de la persona sobre las condiciones materiales y las estructuras colectivas. La Tecnología de la enseñanza aplica la Tecnología a la conducta y al aprendizaje humanos. Emplea la ley del refuerzo para fortalecer la conducta, ante ciertos estímulos procedentes del ambiente. Defiende la enseñanza programada. La Educación del futuro es una publicación de la UNESCO, en la que se defiende la importancia del desarrollo humano, así como la necesidad de una educación permanente y de un proceso educativo global. Se confía en el desarrollo de la Pedagogía como Ciencia, su relación con el ordenador, con el análisis de sistemas y con las nuevas tecnologías. Propugna un humanismo científico, el desarrollo de la creatividad, el compromiso social y la formación del hombre completo. Propone a los países que se conduzcan por el camino que conduce a lo que denomina como «Ciudad educativa».
En una sociedad que presume de ser la «sociedad del conocimiento» y de tener potencialidad para generalizar aquellos aspectos que le sean de más interés a quienes la constituyen, parecería lógico que la educación fuera uno de esos aspectos más extendidos. Pero no es así: el interés general por la educación no encuentra buena correspondencia con la realidad de su extensión. El uso bastante universalizado del pensamiento débil, la codicia por la propiedad de bienes tangibles e inmediatos y la desconsideración de los intangibles y trascendentes evidencian la debilidad de una sociedad en la que el conocimiento y el conocer sólo son interesantes como fuente de dominio de las materialidades que satisfacen de manera rápida. Los símbolos que pertenecen a la singularidad personal, habitan los signos, que son entidades convenidas; los símbolos constituyen los soportes de la función de significar; debilitado el símbolo al que ocultan imperiosos mandatos y transferidos los signos a puras operaciones algorítmicas, la imaginación se anula y padece sepultada por el poder que se encarga de por todos y para todos imaginar. Cambian y a veces finiquitan en sus usos los significados de las palabras y eso no siempre conviene con la pervivencia de objetos, funciones, actividades y fenómenos que, a pesar de ello, perviven aun cuando cambie, mude o se altere el significante. Así, más que nunca debía ser necesario el caduceador, pero ya no existe, ha perdido su misión, como el caduceo su sentido: predicar la paz Félix E. González Jiménez el primero y ser símbolo de ella el segundo. Éste, el segundo, ha pasado ahora a simbolizar el comercio. El profesional de la educación tampoco es ya un noble mensajero de noticias importantes, de conocimientos trascendentes, se ha perdido en la abundancia babélica de la globalización, sus mensajes son meros instructos para pasajeros débilmente necesitados. La razón anda perdida en el laberinto de su propia enjambre. Y sin embargo, como la paz, la educación es más necesaria que nunca para que la racionalidad no se desentienda, umversalmente, del necesario bienestar. Sobre los dos que, básicamente están en el título de éste artículo, merece la pena una pequeña reflexión en torno al significado que distingue, perseverantemente, al primero -actividad educativa-y acota, desde hace poco tiempo, al segundo -globalización-. La intención no es otra que situar a la educación en el exigente puesto para el que la razón la reclama y las formas de vida la necesitan; desnaturalizada se globaliza como un requerimiento cuya solicitud proliféra en su agonía. Entender la actividad educativa exige situarse en la reflexión crítica sobre aquello que significa y sobre qué y cómo se ejercita. La convencionalidad de su denominación viene matizada, en este caso y en su utilización, por el precedente aspecto de que esa pura denominación está condicionada por el ejercicio que de ella se hace. Así, entender a la educación como conviene con los hábitos de la sociedad, es hacerla una actividad encaminada a dirigir, dirigida a encaminar, incluso a doctrinar -como instruir o inculcar ideas o creencias-pero con esas acciones no puede ser orientada a desarrollar y perfeccionar facultades, ni aún utilizando preceptos, ejercicios o ejemplos, ofrecidos oportunamente, ni predicando sobre la bondad de determinadas actitudes o aptitudes, entendidas estas últimas como cualidades, se consigue un suficiente efecto para entender lo que significa educar. En todo ello, además, se esconde una redundancia tautológica. Ese conjunto de acciones y cuanto en ellas se implica es un pretexto para enseñar, y de enseñar se trata. Y enseñar es poner al conocimiento en adecuada forma para que en la comunicación que a otros se dirige, lo adquieran. La enseñanza es el efecto de un dominio del conocimiento y de la pertinente forma de su comunicación, conocimiento y La actividad educativa en la Sociedad comimácación tales que, constituidos en el alumno, dejen en él un depósito de fundamentos y métodos suficiente para que la acción de seguir conociendo -incluso en su forma de descubrimiento-se instale en el aprendiz como un impulso directivo de la totalidad entre las pautas de su conducta. Pautas sucesivamente generadas en cada ser humano en ajustada dependencia con el conocimienteo poseído y que se va adquiriendo en el tiempo. Pero el conocimiento lo adquiere cada persona y no se transfiere contenido meramente si ha de haber educación; se comunica en el doble sentido que imprimen los imperativos de aprender -y el ser humano aprende siempre-y de entrañar lo aprendido como componente esencial para la ejecución de un comportamiento inexorablemente derivado. Ha de evitarse, en educación, la generalizada tendencia a entenderla como un catálogo de obligaciones a cumplir, para sustituirla por la enseñanza que proporcione, en cada circunstancia, el conocimiento que el desarrollo vital singularizado demande para una satisfactoria integración en las formas de vida a las que se acogen, en cada caso, todos los participantes en los procesos educativos, es decir, en enseñanza y aprendizaje. De no ser así, pareciera como si con la educación se estimara alcanzable el ajustado cumplimiento de una normativa impuesta y de extensión globalizada, que llegaría a ser una pretensión posible. Pero entonces, los mensajes de esa manera impuestos, derivados de una inevitable y convenida enseñanza, pondrían también en evidencia su carecer de la necesaria recreación crítica que el avance del conocimiento precisa y que la perspicacia de la razón reclama; y, junto a esa carencia, la incompleción que produce y manifiesta. Con ello, el efecto globalizante se resquebrajaría y las diferencias ocuparían su puesto natural en el conjunto, forzosamente heterogéneo, de toda agrupación de seres humanos. El catálogo de perfecciones y virtudes que en cada concreción de las formas de vida se ofrece es el resultado de una convención que, en primera instancia, podría suponerse un buen punto de partida en educación. Pero por más pasión que se pusiera a la hora de mostrarlo, varias condiciones y elementos esenciales deberían estar presentes si ha de hablarse de actividad educativa. El ejercicio de la enseñanza como tal, y su resultado, el conocimiento, las formas de su comunicación y la receptividad de los mensajes, los llevan a efecto personas que contribuirán a su eficacia o malversación. El conocimiento objeto de comunicación está sujeto a dos limitaciones propias de la razón en su ejercicio: la posesión, de rango subjetivo, que cada profesional tiene del conocimiento pertinente a su actividad particular -lo que conlleva el esfuerzo de un profundo dominio y la atenta tensión para que se manifieste su capacidad de compromiso con los alumnos-, y la resistencia a las presiones convencionales para, más allá de posturas eclécticas, conseguir que la actividad educativa no sea subsidiaria de las aspiraciones sociales, sino que desde ella se fragüe la acción reflexiva y crítica que dé forma al progreso en el vivir, formas de vida, en que aquella actividad se realiza. La comunicación educativa, enseñanza en su práctica, didáctica por tanto, es una compleja acción en la que cada profesional deja, da, de sí, en amplia manifestación, lo que es, equivalente a decir lo que conoce, puesto que sus manifestaciones las genera y orienta el conocimiento que posee. Y el conocimiento del profesional de la educación acumula exigencias continuamente, de tal manera que ya debe permitir superar la dicotomía expresa en la admirada manifestación de Herder (1967, p. 404) cuando, refiriéndose a Kant, escribe que «todo hallazgo era hábilmente utilizado para mejor explicar el conocimiento sobre la naturaleza y el valor moral del ser humano». Es necesario que el docente entienda y dé a entender que el conocimiento sobre la naturaleza se proyecta en una continuidad sin fisuras en el obrar humano, obrar en sí moral, puesto que el conocimiento es una unidad en su esencia aunque múltiple en sus manifestaciones, y no es posible conseguir conductas consecuentes sin esa concepción unitaria. Y tampoco es mantenible que sin esa unidad, la educación se manifieste eficazmente en comportamientos matizados profundamente por la tensión del esfuerzo ecológico hoy inolvidable. Entendiendo, claro está, que el conocimiento -acción y efecto de conocer-es el fruto del ejercicio de la razón, dotación singular y diferenciada del ser humano, fruto único del que se deriva toda manifestación y conducta -desde la exigente concentración que precisa la solución de problemas o desvelar de los descubrimientos, hasta las más variadas expresiones que caracterizan al mundo de los afectos-. De aquí que convenga, como el mismo Herder (1967) expone en el antedicho texto, que se agregue la historia, entendida como evolución, las ciencias de la naturaleza, las matemáticas y la experiencia, fuentes de inagotable caudal en los discursos del filósofo de Konigsberg; a lo que habría que añadir hoy, en la comunicación habitual del docente, la inexcusable presencia y riqueza propia de las otras lenguas, además de las matemáticas, en su conjunto y en un sentido próximo al atribuido por Chomsky (1989) a su gramática universal -GU-, junto a la ética y la política, y la estética; todas en un apretado haz que la razón entiende y como tal lo ejerce aglutinando en su unidad la diversidad de las formas del conocimiento, pero para lo que la razón debe ser educada. Es inevitable citar el hecho incuestionable de que aquello que se educa es la razón y se educa porque, en la amplitud de sus opciones, no todas convienen igualmente en cada circunstancia tiempoespacial. La op-La actividad educativa en la Sociedad cionalidad es una necesidad a la vez que una insuficiencia; saber elegir es tanto como haber sido acostumbrados a hacerlo con y desde unos determinados criterios, la manifestación de los cuales es fi:"uto de un ejercicio concreto de la razón en secuencia fiel y adecuada al ritmo de su adquisición. Y, de tal manera, que también en las nociones comunes están presentes elementos normativos y teleológicos, aunque en aspectos de su tratamiento científico se olviden (Chomsky 1989, p. 30), sólo posibles como efecto de una aplicación concreta de la razón que dispone a aquellas nociones para su uso como convenciones. Convenciones cuya interpretación hace singulares la razón en la unidad personal que cada sujeto de conocimiento aporte; de tal manera «que tanto el espíritu como el sentimiento se ven liberados -simultáneamente-de las cadenas del eudemonismo egoísta y elevados hasta la autoconciencia de la voluntad libre», en expresión -adaptada-de Jachmann, discípulo de Kant, referida a las lecciones de ética impartidas por el filósofo, tal y como recoge Vorlánder (1924). Unidad personalizada a la que Kant atiende desde la liberación que conduce a la libre voluntad. Pero que aún es más consistente si se entiende que esa llamada libre voluntad no es otra cosa que una manera de manifestarse la conducta que se deriva, inexorablemente, del conocimiento, es decir, del ejercicio de la razón en su expresión fiel a los criterios que ella misma ha ido y va conformando, conformación en ajustada respuesta a la actividad que la propia razón concreta en el conocimiento derivado de la experiencia analizada y generada; análisis, descubrimiento y estructuras lógicas que proceden de la enseñanza y se constituyen en aprendizajes; todo lo cual se realiza a través de la educación. La educación es una actividad mediante la cual se logra que el conocimiento se constituya en principio de toda acción conformante de la personalidad del ser humano o de las manifestaciones expresas de su conducta, es decir, en el ser y hacer de cada persona: se es lo que se conoce, se com.unica lo que se es, incluso en el hermetismo y la mentira aunque, quienes son observadores de esas posturas o manifestaciones de la conducta, no sepan identificarlos com.o tal hermetismo o hipocresía de manera inmediata. Incluso también se es lo que se conoce en las manifestaciones de la equidad difícilmente separables del conocimiento que las genera e inconcebible fuera de lo inducido por una enseñanza, comunicación educativa, en la que sin enunciarse expresamente, ni hacerse objeto de prédica alguna, sí está presente en el conocimiento comunicado, en la forma de su comunicación y en el ser expreso del docente que su conducta explicita. Y la equidad es una manera singular de ser del derecho cuyas razones de ser y manifestarse -uso expreso de la razón como distintivo diferenciado exclusivamente en cada ser hum.ano-son válidas ante la propia razón que las genera, ante la manifestación de la razón educada que se suele llamar conciencia. La educación es tal que, al decir de Kant (1795Kant (, 2002, pp. 301-302), pp. 301-302), la suprema perfección moral, como el fin universal de la humanidad, se alcanzaría con ella si todos los seres humanos se comportaran de tal manera que su conducta fuese ajustada a esa finalidad universal; pero ese ajuste sólo es posible desde un uso generalizado de la razón, fi: uto de una educación universal -sólo parcialmente podría recibir hoy el nombre de globalizada-que consiguiera igualar a todos los hombres. Ocurre que esto es contrario al ser natural que nos caracteriza y hay por ello que recurrir a otra manera de argxmaentar: la singularidad que toda persona es obliga a pensar en tantos tipos de conducta como seres posibles, y estimar a aquel ajuste, como una aproximación sucesiva y unlversalizada hacia su sentido, desde la singularidad personal; para ello no existe otro camino que la educación, aunque, como puede colegirse, con sentido distinto al expuesto por Kant: pues «la verdad -en la aproximación deseable a aquel fin universal-como objetivo permanece en el uso establecido del término y convengo en ello como una vivida metáfora para los constantes ajustes de nuestra imagen del mundo a nuestra entrada neuronal» (Quine 2001, p. Imagen del mundo que, en la totalidad pretendida, contiene lo que la razón educada va alcanzando e implica, más allá de la metáfora que lo expresa, la realidad del proceso educativo y, consecuentemente, consiste en el conocimiento alcanzado que se constituye en guía exclusiva de la conducta, conducta y conocimiento entendidos como proceso, difícilmente asimilable con un fin universal anticipado. Los seres humanos pueden ser tomados en su conjunto a efectos de unidades superiores de carácter social, pero nunca confundidos entre sí: el átomo no puede ser indiferenciado. Englobarlos sólo es posible si se estima su sola unidad externa, incluso contando con su voluntad favorable, la unidad conseguida es sólo aparente, convencional. Este es el sentido, la referencia, semántica al fin, que el adjetivo «global» toma al agregársele el sufijo «izar», puesto que el verbo correspondiente viene a significar una acción en la que se conserva el sentido básico del núcleo en la composición, sentido en el que sería tomado aquel aspecto de las formas de vida que en cada caso se consideraran; y como la terminación «ado» vuelve a actualizar la presencia del significado principal, «globalizado» es aquello, o así está, que se toma en su conjunto de manera que globalizada; corresponde a una situación ya alcanzada como proceso de extensión La actividad educativa en la Sociedad o de generalización durante el que la misma globalización no está conseguida; de modo que la globalización no es un proceso, sino una situación final de la que pueden analizarse sus elementos y procedimientos pero en la que no se consideran los momentos de su generación; sólo se constata como realidad o se supone como ficción. Tomar a los seres humanos en su conjunto, globalizados, es una convención en la que no es reducible el significado particular que en cada persona alcanza y, consiguientemente, como en toda tendencia a la objetivación, la crítica singular es inevitable y el valor de la acción de globalizar no trasciende la pura duración de una convencionalidad en sí relativa a su estado tiempoespacial. En este caso, la perdurabilidad está limitada por el ejercicio de una reacción contraria inmediata, puesto que los intereses que pueden forzar su permanencia, intereses duros y poderosos, son espurios en su esencia. El sentido cosmopolita, que al ser humano pertenece, es progresivo y tiene muchas posibilidades de desarrollo interesantes para la equidad y su generalización en cuanto se apoya y es consecuencia de la actividad educativa. La imposición que la equívocamente llamada sociedad globalizada conlleva se deriva de la fuerza de los imperativos económicos, pero esa sociedad no tiene suficiente consistencia para cambiarlos, siempre han sido los mismos, posiblemente la evolución los necesita como manifestación, una más, del sentido dialéctico de su proceso. «Hasta la fecha, ningún príncipe ha contribuido jamás en algo a la perfección de la humanidad, a la felicidad interior o al valor del género humano, ocupándose únicamente del florecimiento de su estado que para él es lo más importante» (Kant 1795, p. Esto mismo hace débil y mutable la acción de los poderosos y, en cambio, la necesidad introduce la aspiración a la suficiencia que desborda, por la acción crítica de la razón, los limitados horizontes de la codicia. Cierto que el proceso es desesperadamente lento para la paciente equidad, pero de la razón es, y a su ejercicio pertenece la única posibilidad de eludir el precipicio a cuyo borde permanece. El fruto de la globalización, iniquidad, diferencias contra razón educada, lo impone el capitalismo financiero, usando los nuevos procedimientos técnicos a favor de empresas asentadas internacionalmente y una economía que hace global la limitada extensión de sus poseedores y, no menos la codicia, a veces necesidad en quienes el poder está disminuido como con frecuencia ocurre en el proceder de ciertos acaparadores y rentistas. Es la codicia la que produce desigualdad y exclusión y ese defecto, la codicia, es fruto de ausencia de educación, única actividad con potencialidad de alcanzar el remedio a la iniquidad. Porque «algo agradable subyace a la mera posesión de la fortuna, dado que mediante ella puedo tener acceso a cuanto quiera cuando lo desee» (Kant 1795, p. 220) y es tal el disfrute de este placer que por ser de pensamiento puede prolongarse en intención y extensión. Pero la incertidumbre de hasta cuándo y hasta dónde durará y llegará suele introducir moderación en el avaro, permitiéndole justificar sus vicios como virtudes, puesto que de su contención en el gasto los demás perciben beneficios. La debilidad del pensamiento que aquí se hace tan patente se genera y se reconforta en la búsqueda de inmediatez en la consecución de sus logros, la mediocridad de las convicciones, la comodidad y la rutina de las acciones y en la superficialidad de los conceptos. Todo lo cual, unido a la avaricia que como efecto conlleva, no son sino manifestaciones del natural egoísmo, natural en cuanto exigencia de la vida, vida cuya existencia hay que entenderla desde la evolución en la que la adaptación y la competencia son significaciones con las que la razón distingue elementos del proceso integral. Integral o global son denominaciones de un fenómeno observado por la razón, descrito y significado por ella, pero que no tiene, consiguientemente, como ya se ha anticipado, perdurabilidad en ninguna de las formas en las que se ha ido presentando. Es necesario que la razón, desde la guía del proceso evolutivo al que pertenece, conjeture su superación y más cuando de ello puede depender el propio progreso y permanencia del fenómeno vital, de la razón que desaliena la totalidad ciega del cosmos, como Hegel gustaba manifestar. Pues si, en efecto, el egoísmo es una condición natural y la avaricia es una de sus manifestaciones, es necesario una convención generalizada -ecológica-, que no sólo lo contrarreste sino que cambie el sentido de la proyección de ese egoísmo. Si el cosmopolitismo es un logro bastante avanzado y otras globalizaciones también progresan a buen ritmo, es esperable que la globalización de los mercados, los productos y las rentas de los capitales, también lo haga de manera que los lucros que facilita aumenten sin hacerlo a costa de los más débiles y necesitados, de los que tienen una razón no educada para entender bien y generar la fuerza de no aceptar cualquier imposición porque supieran sustituir, y pudieran hacerlo, el engaño por una verdad relativa pero más equipartida. Y esto es problema que se resuelve sólo con la educación pero, ¿cómo alcanzar el ejercicio de la actividad educativa necesaria y conveniente?, ¿cómo hacerlo si quienes tiene el poder para facilitarlo y con firecuencia hasta para permitirlo, no sólo no lo desean sino que lo cohiben con habilidad suficiente para, de hecho, prohibirlo? Atrincherados en una cohíta aparentemente bien rentable, los poderosos oponen y opondrán resistencia a soltar lo que es la fuente del mantenimiento de sus privilegios: la ignorancia de la mayoría que, en el fondo es lo que esos poderosos pretenden y, como ellos dicen, bien globalizada. El problema de la educación radica en entender cómo puede convenir bien con la plasticidad del encéfalo; y esta conveniencia afecta a la en-La actividad educativa en la Sociedad señanza y a la capacidad ya instalada de aprender. La formación de los profesionales de la educación es, una vez más, trascendente. Es tan así porque todas las llamadas virtudes pueden instalarse y convivir con defectos, imperfecciones y vicios, aserto que, lejos de un fácil parologizar, expone una evidencia de la dificultad de los procesos educativos y su ejecución; así como pone de manifiesto la existencia de complejos sistemas esquematizados, «cañamazo de las aciones susceptibles de ser repetidas activamente», en frase que Inhelder y Cellérier (1996) atribuyen a Piaget y que cobra su sentido más genuino al tomar los esquemas en su acepción de guías para los procedimientos decantados de las estructuras neuronales, procedimientos que constituyen el conocimiento ya poseído y, consecuentemente, la posibilidad de seguir descubriendo y asimilando más conocimiento. Uno de esos esquemas lo constituye la red de los soportes de aquello que se llama sentido común, una convención relativamente estable en la que convicciones previas singulares van siendo sustituidas por otras nuevas que, procedentes de la ñ*ontera del conocimiento en cada temática, se conforman en objeto de dominio generalizado -convención-dentro de las formas de vida. Este es un esfuerzo que desde la escuela elemental se va logrando cuando se utiliza el conocimiento almacenado, en cierto sentido cristalizado, en la historia, como efecto de conocer, constituyéndolo mediante la actividad educativa, en acción para seguir conociendo: fundamentos y métodos al servicio de la construcción de conocimiento sin solución de continuidad. De ese sentido común Descartes decía que cada uno estima tener el suficiente; la cuestión es, suficiente para qué; y la respuesta corresponde a la educación con la que debe conseguirse suficientemente generalizado, a través de la intervención educativa en el proceso de su generalización, como la llamada globalización exige para un potente ejercicio de la equidad. En las formas de vida se amplifica un sentir -sentido^ común que viene impulsado por quienes dominan la materialidad que las sustenta; desde el control de los bienes tangibles se consigue someter y orientar los fines para los que sirven aquellos otros inmateriales e intangibles. Ha ocurrido en la historia que ha cambiado la forma cómo ese dominio se ha ejercido, a la vez que en su misma manifestación: sucesivamente los poderes dominantes han ido cediendo en la privacidad del uso de lo material y del poder -de las reuniones de familia se ha pasado a los consejos de alta dirección o administración-dejando entender que todo iba cambiando para que nada se moviera, llegándose a esa hipotética globalización que consiste, esencialmente, en que unos pocos tienen la totalidad de los bienes y toman el conjunto de las decisiones para que esos bienes se incrementen a costa de sacrificios que no les afectan y, de tal manera, que han logrado incluso de los parlamentos que, al amparo de otra hi- potética generalización, la del llamado estado de bienestar, legislen y difundan información que favorece a los poderosos. Se ha llegado a globalizar la miseria de tal manera que, a unos se les permite alcanzar las materialidades que apetecen, en tanto que a otros se les mantiene en esperanzada expectativa, sucesivamente prorrogada, de que llegarán a cubrir satisfactoriamente sus necesidades básicas. A todos se les aleja del poder de reparto, de la toma de decisiones fundamentales: la alienación alcanza ahora a la totalidad de la vida, de las vidas humanas, en cierto modo ofertadas como mordiente para el consumo globalizado -unos incrementándolo hasta el punto de que su afán de poseer, gozar o cambiar, regula el flujo de capitales y el aumento de la rentabilidad del dinero; y otros, apeteciéndolo desde la más honda de las deshumanizaciones y la más completa vergonzosa y vergonzante miseria, forma de criminalidad encubierta que caracteriza el tiempo presente, se mantienen en aquella esperanzada expectativa-; y todos sumidos en un irresponsable despilfarro hijo directo de la ausencia de toda acción educativa que pudiera calificarse de consecuente. Generalizar la ignorancia para luego tomarla en su conjunto, globalizada, es la más rentable inversión para los poderosos. 2* La situación del conocimiento La educación es una de las manifestaciones del proceso evolutivo que deja ver bien las consecuencias de su ritmo, en este caso del ajuste a sus partes del proceso total de la lógica al que esas partes conforman. Tomar la lógica como un proceso es derivación justa de entenderla vinculada a la evolución, más, identificarla con su guía, identificación que permite atribuir significado a la expresión galileana de que la naturaleza está escrita en caracteres matemáticos (Galileo 1981). Proceso también en cuanto la citada guía de la evolución va desarrollándose y descubriéndose en sintonía y sincronía con el suceso evolutivo. La atribución de significados es cometido de la razón, razón educada al ritmo de su singular demanda; en ello se hace patente la necesidad de la educación, la generación de conocimiento. Pero el conocimiento no es una cuestión de deseo, como expusiera Aristóteles (1994, p. 69), es una necesidad de ineludible satisfacción: los seres humanos conocen inexorablemente, pero no todo lo conocido, cómo se allega hasta su domino por la razón, incluso en qué circunstancias personales, tiempoespaciales se hace, no sólo no es indiferente sino que trasciende a las vidas particulares y a las formas en que están integradas. ¿En qué y hasta dónde interesa esto en la llamada sociedad de la globalización? La actividad educativa en la Sociedad Conocer es el efecto del ejercicio de la razón, ejercicio orientado por medio de la actividad educativa: lo que se educa es la razón; así conocemos, como Dewey (1989) sugiere. La entidad del conocimiento poseído depende de lo que en la educación se ha hecho, de lo que se pretende, del conocimiento mismo objeto de la interacción educativa, de los procedimientos, medios y valoraciones utilizados con la intencionalidad de que la acción de conocer sea efecto inevitable del conjunto de actividades que acompañan a la comunicación exigida, exigencia del conocimiento propio de la temática comprometida en cada caso -todas las temáticas tienen potencial educativa, todo depende del dominio sobre ellas y la entidad de la comunicación que caractericen al docente comprometido-. Y es importante el momento porque, como escribió Feynman (2000), estamos comenzando; no obstante, conocemos con bastante aproximación en qué consiste conocer. En los sistemas educativos se han logrado introducir como fundamentación, concepciones ajustadas y los modos de cómo potenciar lo que deba serlo y se han regulado con leyes ambiciosas y prometedoras, quizá más lo primero que lo segundo. Pero el hecho de poder presumir un buen conocimiento sobre el propio conocer no conlleva un dominio generalizado de ese conocimiento, ni haber contado con el tiempo suficiente para haberlo utilizado con sosiego y confianza. El supuesto de que el hacerse evolutivo del mundo contenga una pautación interna, la lógica, a la que la razón pertenece, y que ésta, como componente intrínseco de la guía de la evolución haya aparecido tarde en el mismo proceso evolutivo -se ha tomado todo el tiempo que la misma evolución necesitó para encarnarla en las tramas neuronales que caracterizan a los seres portadores de racionalidad-, ha acumulado trabajo que ahora debe ser desarrollado con cierta simultaneidad (González 2001): lo suyo es entender el pasado evolutivo y obtener de ese entendimiento las coordenadas para su situación en el fugaz presente e incluso para anticipar, mediante conjeturas fiables, por dónde habrá de irse abriendo camino en el futuro. El soporte lo constituyen los fundamentos y métodos significados desde la atenta observación sobre lo sucedido, significados que se conquistan sucesivamente, de la misma forma que toda la evolución continúa su proceso cósmico y a la vez particularizado en cada uno de sus pormenores. Como el propio conocer que se perfecciona en lo pretérito a la vez que, desde esta percepción sucesiva, conquista lo por venir. De tal manera que el azar es una necesidad -cohabitación bien distinta de la que presumiera Monod (1988)-, y lo es en la recurrencia a los microprocesos en los que la causalidad se pierde -en realidad se oculta momentáneamente en tiempos que se repiten o suceden según la misma causalidad se va evidenciando o avanzando como proceso-, en consecuencia con Félix E. Gonzalez Jiménez la fragmentación de los fenómenos que permiten manifestarse a la evolución, de los que la propia estructura neuronal e interneuronal forman parte y cuya compleción se realiza sucesiva y simultáneamente con el propio avance del conocer, puesto que el conocimiento es nutriente más poderoso que los orgánicos en el procesos permanente de la neurogenesis -conformación sucesiva de los cuerpos, soma, neuronales en su totalidad constitutiva y estructural, para responder a las funcionalidad que los caracteriza, cuya acción y efecto son la razón y el conocimiento, respectivamente, conocimiento que se genera en la actividad de la razón, actividad que se continúa desde el conocimiento-. La inexorable fidelidad al proceso evolutivo hace de la necesidad un hecho dotado de cierta permanente imprecisión, en cuanto significado por la razón atribuido y cuya atribución carece, como efecto de capacidad falible, de certeza definitiva en su constitución permanente; lo caracteriza una incompleción sucesivamente superada puesto que la suficiencia es una aspiración. Esta limitación en su ejercicio y en el resultado obtenido hace de la razón una inquieta actividad que a ella misma se presenta como fiel identidad -fidelidad de coincidencia-con los procesos de neurotransmisión y cuanto los origina, mantiene y reorienta. Si la necesidad es un hecho y la suficiencia una aspiración en el imiverso, ambas están en relación dialéctica y su síntesis es el proceso evolutivo, proceso indefinido, aunque finito, como marca el propio tiempoespacio originado en ese mismo proceso. De lo cual la inquieta razón, laboreo prodigioso de la masa protoplasmática que constituye el encéfalo, ha producido anticipaciones dignas de su grandeza: las condiciones de necesidad y suficiencia constituyen los pilares para evidenciar la certeza de los enunciados formalizados -teoremas-dentro de las estructuras formales axiomáticas de conformación convenida que permiten esas formalidades cuyo valor limita la entidad de la convención que las soporta, limitación esencial y formal, como Godel (1987) evidenciara -evidencia propia del sistema, de cada sistema-, en los que la suficiencia no desborda la membrana de sus recinto -sufiencia que se alimenta por medio de la capacidad osmótica con su entorno, capacidad que auspicia su ampliación y revela la relatividad de su contenido: el conjunto de los conjuntos, conjetura russelliana, es una aporía insalvable-y hace de las demostraciones instrumentos de verdad relativa a su limitación y del imiverso un conjunto incompleto, pero en sucesiva compleción, en el que la suficiencia es, en efecto, una aspiración, y las certezas islas de confianza relativa en los sistemas para seguir caminando -son como los «absolutos» que Planck (2000) siempre anheló encontrar como resultado de la indagación en la física-. Anhelo que él satisfizo con las convencionales constancias atribuidas a elementos o fenómenos incluidos en teorías que, en sí, no eran sino explicaciones relativas también. La actividad educativa en la Sociedad Pero en ello radica la fortaleza del pensamiento: el buen uso de una exigente y esforzada razón que aspira a situarse en su ámbito con buen conocimiento de causa, conocimiento sólo derivable sucesivamente de la propia realidad de ese ámbito, objeto en sucesiva compleción, de los desvelos razonables; pero evidencia también de su debilidad, como debilidad de una razón que no alcanza lo que aspira a poseer y que, dado el carácter general y para ella perceptible del cosmos que se le ofrece, sólo alcanzará, justo y en buena lógica, cuando con ello desaparezca su propio sentido. Es así como su camino y caminar se le presentan de modo indefinido: amplio campo para la educación y dilatado fin para la historia. Fortaleza y debilidad como opciones -la actitud platónica y orwelliana que Chomsky (1989) aduce-, y que pueden ponerse enjuego, incluso llenas de malevolencia, a través de la necesidad de la razón, puesto que debe ser educada y, como en todo, en el interior de la evolución, necesidad que conlleva una insuficiencia que la mantiene. ¿Cómo se entiende, en relación con lo antes expuesto, el hecho de la educación de la razón? Conviene no olvidar que dentro del ámbito que acotan la postulación, la nomenclatura y las normas, la contradicción es imposible, así se construyen los sistemas y se determinan sus limitaciones -pero sólo dentro de ese ámbito entendido con precisión y al que la contradicción haría inviable desde su aparición-, esta relativa limitación afecta a la razón en sus usos que bien claramente manifiestan las producciones que la caracterizan. Para conocer, la razón necesita, se encuentra con ámbitos acotados y su ejercicio en ellos tiene, inicialmente, carácter nomológico -la propia evolución lo impone aunque esta imposición parezca meramente azarosa en la incompleción de su dominio-. Esa apariencia normatizada se constituye en una realidad en compleción dentro del recinto que la razón constituyó como amparo a su propio y débil desarrollo -debilidad de limitaciones-, la sociedad; ella misma subviene necesariamente a la extrema indolencia del recién nacido. Luego de ser educada la propia razón acota los recintos escolares y en ellos las normas son inevitables; las leyes regulan el funcionamiento de los sistemas educativos; normas que la propia razón elabora con claro objeto pero que la educación a la que van dirigidas condiciona desde su existencia precedente: evolución de nuevo. ¿Cuáles son los conocimientos intereses y compromisos de los factores de esas leyes? La educación debería ser un proceso sin solución de continuidad, evolutivamente comenzado hace aproximadamente unos quince mil millones de años -inicio de la planificación genética-, nos deja a cada uno un perfecto código de cuanto el genoma ha de ser y posibilitar; realizada la amorosa conjetura en la fusión de los afectos, allí empieza la escuela familiar y, en ajustada continuidad, su interacción con la escolarización como tal Félix E. González Jiménez en la que la socialización ha de ser continuada. La educación, constituida en apertura a la vida, en cuyo seno debe depositar a cada ser humano bien pertrechado para vivirla, y hacerlo desde un señorío en el que los demás cuentan tanto con su aportación como conlleva el singular significado personal, tiene en ello su inefable grandeza. Si los acontecimientos educativos siempre fueran así, la inquietud tendría poco ámbito para su ejercicio, pero ni los conocimientos alcanzados se disponen para una equiparación posible, ni los intereses a los que conducen y los compromisos que apoyan lo son en consecuencia. Una buena escuela, en su sentido general, propiciaría una formación ética y política, el mejor conocimiento para el ejercicio de la convivencia. Pero la buena educación es heredera directa de buena educación también; a la mala le ocurre otro tanto. Y como no hay aprendizaje sin enseñanza, entiéndase esto en toda su generalidad, el mal y su factura se aprenden porque se enseñan; y se enseñan intencional o descuidadamente; ambos casos conllevan un doble efecto negativo: lo malo enseñado y la actitud a la que se debe, que ambas cosas se aprenden. La maldad es mal ejercicio, torpe ejecución, de la lucha por la vida; una ignorancia dijo Aristóteles, en cuanto deja en blanco aquello que debiera ser ocupado por la bondad como ejercicio de la razón bien educada. Además, la maldad es tan fácil como poco gratificante, bien es verdad que quienes a ella se habitúan y de ella se lucran, no admiten esta alegación; cosa bien lógica puesto que el mal para ellos es aquello a lo que se dedican y de lo que viven. La maldad es hija de la comodidad, del pensamiento débil, de la búsqueda del egoísmo autosatisfecho; pensamiento poco vigoroso e inconsistente, servil y acrítico; es el pensamiento de la acomodación, la conservación en sí, la permanente delegación de funciones y de otras características ya enunciadas y, sobre todo las que conducen, para mal, a la posesión del conocimiento sobre el que se vertebra toda forma de conducta y el crecimiento del conocimiento mismo; lo que pone en evidencia el comienzo de la educación y aquellas convicciones desde las que nació y se alimenta constantemente. El abuso de la especialización hasta constituirse en abundantes casos en la única formación que muchas personas poseen es una forma de maldad solapada que se presta al uso de los seres humanos que la tienen y en la que los más poderosos encuentran el camino para esclavizarlos. Todo ello caracteriza al pensamiento débil en el fondo y en la forma; un pensamiento que se esconde ante los desafíos de la realidad y trata de resolver los problemas mediante el empleo sucesivo de tanteos y pruebas sin otra pretensión que el firacaso o el acierto en ese juego de probabilidad equilibrada y equipartida en el que la fuerte y consistente explicación y teorización previas brillan por su ausencia. La actividad educativa en la Sociedad 3, La comunicación educativa: enseñar y aprender para vivir La sociedad es, esencialmente, un ente de razón ya que se conforma en torno a convenciones que arropan a la singularidad en su desarrollo y que se generan como estructuras sucesivamente adaptadas en conformidad con los reclamos con los que se procura y consigue ese desarrollo, y también es el eco, permanencia igualmente adaptada, de la inexorable comunicación que el conocimiento impone, es decir del ser mismo y del ejercicio de la razón. La sociedad es el habitat de la singularidad diferenciada y de la alteridad requerida que la razón genera y regenera constantemente. La comunicación beneficiada de la existencia del conocimiento potencia con sus reclamos el uso de la razón, la comunicación educativa orienta en el rescoldo del recinto escolar, sociedad al fin, el irse haciendo el conocimiento en cada singularidad humana mediante el uso del efecto de conocer, efecto depositado en los anaqueles de la historia que el proceso evolutivo propicia y acoge. En tanto el ser humano es razón, razón para conocer; conocer es significar para entender y explicar, entender y entenderse como ser viviente. La limitación en el tiempo y espacio del ser vivo, de cada razón, precisa de la actividad comunicativa para esperanzar el alcance del vivir en la especulación que el otro es en el sentido de la vida misma. En ello encuentra el enseñar su razón de ser: no hay aprendizaje sin enseñanza ni enseñanza sin experiencia como soporte de progreso; ni evolución sin progreso, y la evolución es. La explicación es un contraste al servicio de la utilidad del conocimiento: aprender sobre lo desconocido desde lo que ya se conoce. Con la explicación se expone lo que la observación alcanza y lo que la experiencia dicta: del autoidiolecto a la gramática compartida (González 2001). La explicación enseña, se enseña lo que se es, manifestación de lo que se conoce, y todo ello acompañado de su inseparable incompleción. Lo que se observa se interioriza y el conocimiento es fruto de la interiorización como significado singular de los objetos, fenómenos y procesos que cada razón alcanza; el conocimiento alcanzado es lo que somos, de ello aflora compartidamente lo que exponemos, explicamos, enseñamos. El proceso de conocer se dirige, sucesivamente, hacia la causación más remota, como Aristóteles expuso, hacia los microprocesos según procedimiento ya anticipado: interacciones de partículas distintas o estados diferentes de la misma partícula, aquello de lo que las cosas están hechas, lo que está en íntima conexión con su funcionamiento, como en el ser humano el conocimiento y la conducta, es decir, de lo que estamos hechos en relación con el comportamiento. Los neurotransmisores son estructuraciones funcionales de partículas; estas estructuras son la forma en la que la esencia de la materia, la forma y la causación, se manifiestan como en proceso sucesivo, lo que es el conocimiento como uso de razón; la razón es esas estructuras mismas regidas por idéntico principio que aquel que guía la evolución: la lógica, el autoidiolecto en cada razón, cada razón como lógica pura. El maestro enseña lo que es: una aspiración comunicativa de en qué consiste en él el ejercicio de la lógica, cómo y con qué valor se han estructurado sus cadenas neuronales. La ética está en la raíz de esa estructuración y corresponde a los modos singulares como en cada persona se ha realizado. En lo uno y lo otro la educación es imprescindible, incontingente, inexorable. ¿Las cosas son independientemente del interés y el querer humanos? Esta es cuestión clave. La razón atribuye significado^ y en el proceso de esta atribución también hay causalidad: el conocimiento previo mediatiza al siguiente pues se conoce según la capacidad sucesiva de conocer. Conoce la razón, es decir, la estructuración neuronal y se sirve del conocimiento que es básicamente esa estructuración. Sus componentes básicos son los mismos que los del resto de la materia y esta no parece tener en sus microprocesos leyes diferentes para unas constituciones que para otras. Pero en la estructura fina de la materia aparecen principios -mecánica cuántica-que no muestran clara continuidad en los comportamientos macroscópicos, al menos no frecuentemente. Explicar lo grande desde lo pequeño está por hacer en amplios campos, pero éste es el esfuerzo más significativo en las ciencias en las últimas décadas. El proceso de la significación y la explicación, en su conjunto, tiene su causa; parece que en ello concordarían Hume y Kant: es como admitir la causalidad en el pensamiento. El problema es su existencia real y la explicación de esa existencia sólo es posible si se admite que el proceso del pensamiento que significa y explica es un proceso esencialmente coincidente con lo significado y explicado, lo que equivale a admitir que no hay, como defendiera Descartes, res cogitans y res extensa, sino estructuras fieles a un único proceso, el de la evolución que, en aplicación de las mismas leyes, conduce a estructuras de la materia en las que los efectos son distintos. En este sentido, la estructuración de la masa encefálica como razón conduce a interacciones cuya consistencia y remodelación permanente llamamos conocimiento; así como a la consistencia y remodelaciones de las moléculas y sus partículas integrantes -caracterización de matiz cinético-le damos el nombre de estado físico; estableciendo una cadena causal que llega al origen y conjeturando otra -forzosamente probabilística en tanto el pasado no está absolutamente conocido-que se proyecta hacia el futuro. La ciencia se construye con fundamentos y métodos todo lo consistentes que permiten las contrastaciones posibles, pero sin poder utilizar ni La actividad educativa en la Sociedad una más de esas contrastaciones en cada situación tiempoespacial: la ciencia es un conocimiento progresivo como lo propicie la conjetura y lo avale la contrastación experimental; sin olvidar la diferencia de experiencias posibles; y tanto en el campo de la naturaleza directamente o de la historia, cuyo sentido radical pertenece a la evolución, ambos sucesivamente transformados en cuanto el conocimiento lo permite, conocimiento que constituye la experiencia histórica y personal. En este sentido «la ciencia es un lenguaje» (Pérez Ballester 1982, p. 151), como todo conocimiento en cuanto convención expresa, pero lo es desde un hacer en el que interesa la constitución y funcionalidad de las cosas en sí, en una explicación sucesiva y aproximadora. Pero el estado físico.citado antes nada se pregunta sobre sí mismo, no tiene capacidad para ello -la potencia desalienadora corresponde a la razón como Hegel expresaba-, y la causa última de este hecho no es accesible a la razón; los hechos no se significan más que mostrándose, mostrarse que le viene impuesto como su ser mismo. Pero el coloide encefálico se muestra a sí mismo, contiene la posibilidad funcional de conocer su existencia, lo que lleva indefectiblemente aparejado la pregunta sobre ella, en realidad eso es el autoconocimiento, encontrándose con que su indiferenciada esencialidad constitutiva con el resto del mundo exige de una respuesta válida para lo demás como requisito propedéutico en el entender de sí: la explicación contiene lo explicado como soporte de significación progresiva. Este profundo sentido de la racionalidad, esencialmente ecológico, necesita la educación para que las explicaciones sean sucesivamente más satisfactorias. Esta es la esencia y el cometido que caracterizan al conocimiento llamado científico -en realidad no hay otro aunque con ciertas extravagancia se pretenda negarlo-en sí capaz de contener toda ambición estética, incluida la ética como proyección de la singularizada equidad -«coram foro interno», como quería Kant (1785Kant ( -2002, p. 257)-hecha derecho, norma convencionalmente aceptada -«coram foro externo»-a través de la educación generalizada, no globalizada puesto que al ser tomada en su conjunto podría admitir principios e interese espurios, educación como base de un estado de bienestar universalizado; admitiendo que todo es un proceso y las consecuciones son progresivas. Y esto es forzosamente así en cuanto la moral sólo es característica de la razón y lo es tanto más educada es cada razón singular -en su concreción encefálica personalizada, en justa distribución como potencialidad, incluso por encima de los efectos de determinadas afecciones patológicas, puesto que en ellas la equidad no queda afectada, nadie percibe por encima de su capacidad perceptiva-, de tal manera que, contra la opinión de Kant, la equidad no se asienta sobre algo contingente puesto que la moral estriba en la educación, a su decir, y la educación es absolutamente incontingente para la razón, incluso como fundamento del poder en cuanto éste, el otro soporte que el filósofo de Konigsberg le asigna a la moral, es también fruto de la educación. Claro está, la razón es aquí otra cosa, como se va exponiendo (González 2001). Es necesario revisar explicaciones y explicar de nuevo desde el convencimiento de la falibilidad de la razón explicadora y de la consiguiente incompleción de lo explicado, limitaciones ambas que hacen claramente incontingente a la educación. En ello la causalidad como determinación no puede entenderse a modo de explicación que contenga a su origen, es sólo efecto de observar lo existente, contenido y continente de la explicación en la unidad del discurso, más basada en la trama lógica que la sustenta, entrañada en la misma que rige la evolución, que en aquello que la va llenando sucesivamente. Ahora bien, perteneciendo la razón a esa trama que no evidencia su acontecer sino a través de lo ya acontecido, el referente de lo existente -semántica al fin-es el único apoyo que la razón -lógica desde una consideración distinta de la expuesta por Piaget (1987, p. 55) que la fundamenta en lo que él llama las «leyes del espíritu»-tiene para elaborar aquel discurso con consistencia fiable desde la contrastación experimental que va mostrando el significado asignable sucesivamente a lo que existe. Así parece que, en la evolución, las estructuras se conforman desde las ya preexistentes en una secuencia determinada -causalidad-en lo que lo trascendente -en sentido kantiano-es el significado que la razón puede ir asignando a lo que se le ofrece a la interpretación posible a su accesibilidad, posibilidad en cadena con lo preexistente, hasta el fin de las causaciones que se esconde, definitivamente, al escrutar racional en su existencia coexistente con las estructuras tiempoespaciales. Así la res cogitans y las res extensa son procesos indiferenciados en la explicación posible de la sintonía, asintóticamente manifiesta, en la que se funden sucesivamente como conjetura anticipada de su finalidad. Procesos diacrónicos -en la intuición de Hegel la razón llega tarde-como tales, son esencialmente una sola realidad fundidos en el proceso único de la evolución que los envuelve y genera sin admitir contradicción entre secuencia y significado: su ser consiste en estar siempre en una determinación cuyo sentido se puede concebir como su punto final. En tanto, «las preguntas parten de nosotros, las respuestas no pueden entonces por principio agotar una realidad histórica que no las ha esperado para poder existir» (Merleau-Ponty 1974, p. 14); ¿sería mejor decir realidad evolutiva? Desde éstas perspectivas las premoniciones de pensadores como Fukuyama, evidenciadores de conjeturas propias del pensamiento débil, tienen difícil justificación; otras le son posibles como soporte de sus argu- La actividad educativa en la Sociedad mentaciones, pero están fuera del apoyo incontingente de la educación como tal (González 1998), para ellos, en el fondo, la educación no existe, puede ser sustituida y de hecho lo es por cualquiera de los procesos que la niegan desde sus mismos enunciados. Educar significa dotar de cualidades a los seres humanos para que, entendiendo los límites dentro de los que se realiza el ejercicio de la razón, las dependencias consiguientes desde las que se mueve y los hábitos en los que puede desarrollarse, entendimiento aprendido como orientación para el ejercicio de las libertades, y considerando a la educación como el marco axiomático y a las convenciones legales propias de las formas de vida de cada circunstancia como las reglas de cimiplimiento reñexivo y crítico, de tal manera que puedan realizarse una serie de acciones que, ya determinadas por el conocimiento previo -genético como potencialidad, procedente del conocimiento como educación-, constituyen los movimientos que suelen llamarse libres. Bien entendido que toda determinación tiene su causa, estando como efecto predeterminada. Las causación está en el conocimiento y es este el que, debiéndose a la educación, requiere de ella que se haya manifestado como una enseñanza para aprender a vivir, lo que exige un ejercicio de los profesionales competentes en el que su conocimiento, interés y compromiso dejen claro todo lo anterior como no contingente. El poder generador de cada causa es necesario, la causa tiene «algún poder» (Bakker y Clarke 1994, p. 49), pero no es suficiente, como todo en el proceso evolutivo; alguna forma de precedencia debe darse para que el citado proceso y su determinación existan con el carácter evidente de lo evolutivo en el cosmos. Pero la enseñanza como causa indudable de aprendizaje -lo uno no existe sin lo otro, aunque siempre antecede la enseñanzaexige de una explicación causal de distinta índole. Es una explicación en la que la pregunta sobre si las cosas son independientes del interés y la voluntad de los seres humanos sólo admite una respuesta: no hay independencia posible entre entidades que están entrañadas comúnmente en un todo cuyo alcance sólo es determinable conceptualmente por la razón, en una determinación progresiva que le da su único sentido al ser y hacer de esa razón, una razón educable para conseguirlo pero cuya consecución sólo es posible enfrentando, con un trabajo de pensamiento consistente y decidido, fuerte, la enorme y hermosa tarea que le corresponde, aún viviendo al borde del precipicio y sin conocer, en forma alguna, el fin de su historia.
deseando acrecentar la solidaridad entre sus pueblos, dentro del respeto de su historia, de su cultura y de sus tradiciones» y «resueltos a crear una ciudadanía común a los nacionales de sus países» ^, en el igual respeto a «la identidad nacional de sus Estados miembros» ^, decide que la Unión Europea adquiera ciertas competencias en el ámbito de la educación -por encima de las que ya tenía en la formación profesional-y en el de la cultura. Concretamente, se determina que la acción de la Comunidad implicará «una contribución a una enseñanza y a una formación de calidad, así como el desarrollo de las culturas de los Estados miembros» ^, terminología con la que se significa que no nos encontramos, en este asunto, ante un ámbito de competencia exclusiva de la Comunidad, por lo que en él, ésta «intervendrá, conforme al principio de subsidiariedad, sólo en la medida en que los objetivos de la acción pretendida no puedan ser alcanzados de manera suficiente por los Estados miembros, y, por consiguiente, puedan lograrse mejor, debido a la dimensión o a los efectos de la acción contemplada, a nivel comunitario» ^. La concreta especificación de los objetivos que se plantea el nuevo Tratado en estos ámbitos se encuentra en los artículos 126, 127 y 128, hoy 149, 150 y 151 ^, en donde también se precisa que para tomar decisiones comunitarias -siempre «en el pleno respeto de sus [de los Estados miembros] responsabilidades en cuanto a los contenidos de la enseñanza y a la organización del sistema educativo, así como de su diversidad cultural y lingüística» ^-se seguirán ciertos procedimientos de codecisión o de exigencia de mayorías cualificadas para adoptar medidas de fomento o Recomendaciones. Ahora bien, realmente, la comparación entre las metas señaladas en lo que hemos llamado Preámbulo del Tratado, su concreta especificación en los artículos citados y las numerosas iniciativas que se han desarrollado basándose en ellos, es bastante descorazonadora, si bien muy expresiva de los problemas de fondo de la Unión Europea y de las dificultades que hoy entraña toda acción verdaderamente educativa. Una interpretación de las nuevas metas del Tratado de Maastricht desde un punto de vista educativo Comencemos reflexionando sobre las nuevas metas. Pienso que es bastante indiscutible que si verdaderamente se quiere sentar unas bases (c) Consejo Superior de Investigaciones Científicas Licencia Creative Commons 3.0 España (by-nc) El Tratado de la Unión Europea firmado en Maastricht en 1992 introdujo cambios revolucionarios en las competencias de la Comunidad, pues, por vez primera, se admite que la acción de la Comunidad implicará «una contribución a una enseñanza y a una formación de calidad, así como el desarrollo de las culturas de los Estados miembros». La evolución de esta nueva situación no ha sido satisfactoria por los problemas de fondo de la Unión Europea y por las dificultades que hoy entraña toda acción verdaderamente educativa. El artículo analiza los intentos que se realizaron a partir del 1992 para introducir una profunda dimensión europea de la educación, con las implicaciones axiológicas que ello comporta, y cómo estos intentos se encontraron ante diversos obstáculos poderosos que les han reducido a un estado de hibernación. A partir de fines del 1999 se consolida una nueva tendencia funcionalista en la política de la educación europea, que ha sido refinada en estos dos años, encontrándonos ahora, por mucho que sean limitados sus horizontes, ante unas pautas de trabajo que pienso serán beneficiosas para introducir mayores cotas de racionalidad en la política educativa de los Estados miembros.!• La revolución de Maastricht Han pasado diez años desde la firma en Maastricht el 7 de febrero de 1992 del Tratado de la Unión Europea, que introdujo cambios revolucio-Tendencias en la Política de la Educación firmes para la construcción de una Europa unida, en la que todos tengan una ciudadanía común, será precisa una reflexión sobre lo que nos une a los europeos -no olvidemos que los intereses económicos son más frecuentemente causa de división que de unidad, precisamente porque no pueden igualmente ser disfrutados por todos-, lo que facilitará la determinación de los grandes objetivos educativos comunes, y lo que ayudará a promover una ciudadanía que no se reduzca al pasivo goce de derechos, sino que se manifieste igualmente en la preocupación por trabajar activamente por el bien de la ciudad que nos acoge y tenemos por propia, también estudiando cuáles son los derechos que debemos establecer y luchando luego para su aprobación y realización efectiva. En pocas palabras: una interpretación pertinente y profunda de las metas señaladas, mueve al pensamiento de que, a partir de la firma del Tratado de Maastricht, la Unión Europea se empeñaría en analizar los elementos básicos de la identidad europea y en movilizar los medios pertinentes para fomentarla, siempre dentro del necesario respeto a las identidades nacionales de los Estados miembros. Por ello, cuando leemos que «la acción de la Comunidad se encaminará a desarrollar la dimensión europea de la enseñanza» ^, así como que la Comunidad se esforzará en poner de relieve «el patrimonio cultural común» ^, cabría pensar que en verdad hemos comenzado una etapa nueva. Más aún, podríamos incluso recordar que tal etapa no se debería calificar, estrictamente, de nueva, pues tiene diversos antecedentes, entre los que citaremos la Resolución del Consejo de 24 de mayo de 1988, cuyo objetivo era: «fortalecer en los jóvenes el sentido de la identidad europea y aclararles el valor de la civilización europea, de las bases sobre las cuales los pueblos europeas pretenden hoy en día fundar su desarrollo, concretamente la salvaguardia de los principios de la democracia, la justicia social y el respeto de los derechos humanos» ^, para lo que consideraba necesario incluir «la dimensión europea en sus programas escolares en todas las asignaturas pertinentes, por ejemplo, en la literatura, los idiomas, la geografía, las ciencias sociales, la economía y las artes» ^^. Indudablemente era una Resolución ambiciosa, pues conjugaba una llamada a la investigación sobre los fines, con la promoción de los medios pedagógicos operativamente imprescindibles, siendo evidente la necesidad de empeñarse ya desde la escuela en la tarea de superar los prejuicios que existen en todas las naciones europeas sobre los restantes Estados miembros de la Unión y los estereotipos imperantes sobre el carácter de sus ciudadanos. Una propuesta, después del Tratado de Maastricht, acerca de los fines la encontramos, por ejemplo, en el Dictamen del Consejo Económico y Social sobre «La Europa de los Ciudadanos» del 23 de sep-José Antonio Ibáñez-Martín tiembre de 1992, donde se afirma que «Una Europa de los Ciudadanos no constituye un 'retrato robot', ni un 'crisol' en el que cabe todo. La clave para una Europa de los Ciudadanos reside en la unidad y la diversidad de sus culturas, su pluralismo de pensamiento y tradiciones, su herencia cristiana y apreciación de otros credos, así como los valores y principios humanísticos y cívicos, y su identificación fundamental con la libertad, la paz, la justicia social, la tolerancia, los derechos humanos y el imperio de la ley. El 'espíritu' de Europa está en efecto impregnado de los principios humanistas -especialmente el derecho de la Persona al respeto de su dignidad-que constituyen la base y el motor de la Democracia. La 'idea' de la Europa de los Ciudadanos se encuentra firmemente enraizada en dichos valores democráticos comunes y en el respeto de la dignidad humana. Estos valores comunes inspiraron la mentalidad europea contemporánea y el concepto de democracia transnacional que, frente a las limitaciones del nacionalismo intransigente, pueden ofrecer un respeto absoluto de la diversidad, de la posibilidad de elección y de la calidad, además de garantizar mejor un entendimiento verdadero y pacífico entre los pueblos» ^^. También cabe recordar que, sobre los medios pedagógicos, hubo un empeño por promover -a partir de esta Resolución-un texto común de historia, materia especialmente importante para facilitar una reconstrucción de la historia europea no basada en las diferencias bélicas que hemos tenido durante siglos sino en los elementos comunes que, como bien reconocían los originarios de otros continentes, nos identificaban como europeos. Así un conocido historiador francés editó, junto con colaboradores diversos, un texto de historia europea, que fue traducido a diversas lenguas para que pudiera usarse en la mayor parte de Europa ^2. En esta línea -tendencia-que acabamos de señalar, se encuentran también diversos textos no oficiales, de los que voy a referirme solamente a dos. El primero es el informe del Grupo de estudio sobre educación y formación que se nombró por la Comisión en julio de 1995 con la función de requerir a un conjunto de asesores independientes -veintidós personas de los diversos Estados miembros, presididos por el Prof. Jean-Louis Reiffers-para que estudiaran el tipo de educación que exigiría la sociedad del futuro, dándoles un plazo de dos años. Este Grupo emitió su primer informe provisional en 1996, publicándose el 3 de febrero de 1998 el informe final. El análisis de este largo documento es muy interesante por el equilibrio que manifiesta. En efecto, la tesis defendida es que es preciso conjugar el fortalecimiento de la competitividad económica de Europa con el respeto a los principios básicos de la educación «cuyos fines van mucho más allá que los que se descubren desde una perspectiva puramente utilitarista»^^. Por ello, la nueva ciudadanía europea exige, en Tendencias en la Política de la Educación primer lugar, «afirmar y transmitir los valores comunes en los que se fimda su civilización», valores que el Grupo estuvo de acuerdo en afirmar eran los siguientes: -derechos humanos/dignidad humana -libertades ñmdamentales -paz y rechazo al uso instrumental de la violencia -respeto a los demás -espíritu de solidaridad (dentro de Europa y con el resto del mundo) -desarrollo equitativo -igualdad de oportunidades -los principios del pensamiento racional: la aceptación de la evidencia y la prueba como exigencia ética -preservación del ecosistema -responsabilidad personal ^"^ Algunos de estos valores aparecen en numerosos documentos. Pero otros no suelen citarse, cuando son muy importantes. Hoy vemos la importancia del rechazo al uso instrumental de la violencia, pero quizá no valoramos la trascendencia que tiene subrayar la responsabilidad personal, tanto por encima de un Estado asistencial que fomentara la desresponsabilización del individuo sobre su propia suerte, como de una mística identitaria de grupo en la que el individuo no pasara de ser un elemento de un engranaje superior; quizá no valoramos suficientemente, debido a la marea del pensamiento débil, los principios del pensamiento racional y la capacidad de comprometer la propia vida según las evidencias que proporciona el entendimiento, olvidándonos que es aquí precisamente donde se encuentra una de las raíces más fecundas de la huella que la civilización europea ha dejado en la historia de la humanidad. El segundo es un trabajo mío que expuse en una Mesa Redonda sobre la política educativa en la Unión Europea después de Maastricht, para cuya coordinación fui invitado por la Presidencia de la reunión anual de Isi American Educational Research Association, que se celebró en 1995 en San Francisco, y que luego publiqué en España. Tal trabajo tenía como punto de arranque unas palabras de Ortega y Gasset acerca de la «conciencia cultural europea» ^^, que, según él, se caracterizaba por la aspiración a alcanzar «la manera más perfecta de ser hombre» ^^, y que yo desarrollaba en una interpretación de lo que considero es la identidad específica de la cultura europea, analizando los tres elementos esenciales que caracterizan a una cultura en sentido objetivo, que son el modo como se define al ser humano -y el juego entre lo que recibe de la sociedad y el futuro personal que proyecta-, la forma como se entienden las relaciones entre los hombres, y el tipo de presencia/ausencia que la divinidad tiene en la vida de la persona y de la sociedad ^^, entrando, por consiguiente, en una reflexión sustancialmente axiológica, cuyos términos exactos no puedo desarrollar aquí. Ahora bien, los hechos muestran, a todas luces, que esta tendencia ha tenido escasa importancia, hasta el punto que me atrevería a decir que hoy se encuentra en estado de hibernación oficial. Expongamos las causas de esta situación. 3, Las ambigüedades de un articulado y los problemas de fondo de la Unión Europea en la formulación de una Política de la Educación Sería ingenuo creer que hay una aceptación irrestricta al proceso de unión de las distintas naciones de Europa. Casi nadie pone en tela de juicio la conveniencia de arbitrar sistemas que faciliten el crecimiento económico de todos, que proporcionen una imagen colectiva más fuerte, especialmente frente al poderío de los Estados Unidos, que mejoren la defensa, disminuyendo a la vez -gracias a los efectos de sinergia producidos por la unidad de acción-sus costos etc. Pero otra cosa muy distinta es desarrollar políticas que deterioren o comprometan la especificidad e identidad del propio país. Para no pocas personas «el compromiso con el proyecto europeo tiende a ser monopolio, esencialmente, de una amplia clase media de cuadros (y sus hijos) en el ámbito académico, profesional, de negocios o de empleados públicos» ^^, que «contrasta con el sentido de la identidad de los ciudadanos ordinarios», lo que mueve a la idea de que «la emergencia de una identidad europea ampliamente compartida me parece sumamente improbable» ^^. Las consecuencias de estos planteamientos reticentes las observamos ya en el mismo articulado de Maastricht, en los números dedicados a la educación y a la cultura. En ellos se habla de la «dimensión europea de la educación», concepto que queda inmediatamente aguado cuando se le añade «especialmente a través del aprendizaje y difusión de las lenguas de los Estados miembros» ^^, o cuando se especifica, como gran finalidad, «favorecer la movilidad de estudiantes y profesores» ^^ o el incremento «de animadores socioeducativos» ^^. Como es obvio, esa cierta esquizofrenia entre metas del Preámbulo y concreciones del articulado, ha llevado a que bastantes autores se hayan limitado a interpretar la «dimensión europea» según mediocres aspiraciones de promover proyectos pedagógi-Tendencias en la Política de la Educación cos comunes a realizar entre persona de distintos países europeos, animándoles a trabajar en equipo, dentro de unas vagas referencias a la democracia y el interculturalismo ^^, lo que, por otra parte, venía a ser sustanciosamente apoyado por los programas comunitarios de mayor dotación económica. Pero, a todo ello, es preciso sumar los problemas que actualmente surgen cuando alguien desea empeñarse en una acción auténticamente educativa, impregnada esencialmente de aquellos valores que se consideran configuran el escenario de nuestra plenitud humana. No tengo duda alguna que esa es una empresa epistemológicamente complicada, como vemos ya en el caso de Ortega: es significativo que el manuscrito de la conferencia citada nunca llegó a acabarse, en el fondo porque a pesar de los clamores de numerosos intelectuales tras la Primera Gran Guerra -y cuánto más tras los horrores de la Segunda Guerra Mundial-pidiendo un cambio en los ideales sociales ^^, que sustituyeran el eficiencismo y el afán de dominio por un nuevo ideal de respeto a la dignidad de la persona, de solidaridad y de servicio, no ha habido vigor social y argumentativo para que se impusiera un nuevo paradigma axiológico, por lo que el ambiente espiritual de nuestros días, como diría Jaspers, es de considerable indigencia. Obviamente, el conjunto de estos problemas ha tenido unas consecuencias políticas claras, pues quienes se encontraban en los órganos de gobierno comunitarios eran conscientes del peligro de naufragio de la Unión Europea -por mucho que se acudiera al principio de subsidiariedad-si se pretendiera involucrarla realmente en el ámbito educativo y cultural, si se quisiera, por ejemplo, orientar la actividad comunitaria a promover esa común identidad que, usando las citadas palabras de Ortega, expresara esa «manera más perfecta de ser hombre» que defendemos los europeos. La conclusión de todos estos problemas ha sido doble: por una parte la tendencia anteriormente descrita fue hibernada, y, por otro lado, la política de la educación europea ha ido dando tumbos durante largos años, careciendo de un norte claro. Pero como no hay mal que cien años dure, creo que el horizonte hoy ha cambiado, habiéndose producido una mayor reflexión sobre lo que la Unión debería hacer en el ámbito de la educación y la formación -teniendo también en cuenta las aportaciones del documento titulado «Agenda 2000»-y lo que realmente podía hacer, considerando las dificultades que acabamos de exponer y considerando igualmente que la Unión sólo está llamada a proporcionar una contribución, siendo los Estados miembros quienes tienen la responsabilidad de facilitar a sus ciudadanos una educación realmente integral. 4, Las nuevas tendencias en la Política de la Educación europea Tal cambio se inicia con la Resolución del Consejo de 17 de diciembre de 1999 «Hacia el nuevo milenio»: elaboración de nuevos procedimientos de trabajo para la cooperación europea en el terreno de la educación y la formación. En el Preámbulo de esta Resolución, leemos que el objetivo buscado es organizar el trabajo del Consejo en el terreno de la educación y la formación según un programa continuado -es decir, determinar una auténtica política, que exige el mantenimiento de determinados empeños a lo largo del tiempo-que durara varias Presidencias que buscara atender ciertos «asuntos prioritarios (que) se tratarían de un modo cíclico» ^^, destacándose que «el principal objetivo de crear un marco de este tipo es dar mayor continuidad, eficacia, eficiencia y fuerza a los efectos políticos de la cooperación comunitaria en el terreno de la educación y la formación. El nuevo marco de cooperación permitiría un intercambio más eficaz de la información y las buenas prácticas» ^^. Al final de la Resolución, se precisa que los asuntos prioritarios, para empezar, serán: «papel de la educación y la formación en las políticas de empleo; desarrollo de la calidad de la educación y la formación, en todos los niveles, y fomento de la movilidad, incluido el reconocimiento de las cualificaciones y las temporadas dedicadas al estudio» ^^. Considero que esta decisión, aun limitada en sus pretensiones, ha sido altamente clarificadora, pues desde este momento se han ido tomando decisiones concretas, que han incidido sobre las prioridades del 17 de diciembre de 1999, y que muestran una profundidad hasta ahora desconocida en el empeño por formular una auténtica política de la educación. La primera reunión del Consejo Europeo que se mantuvo tras la Resolución citada fue en Lisboa, en marzo de 2000. En las Conclusiones del Consejo leemos que «el nuevo objetivo estratégico para la próxima década: convertirse en la economía basada en el conocimiento más competitiva y dinámica del mundo, capaz de crecer de manera sostenible con más y mejores empleos y con mayor cohesión social» ^^, lo que se desarrolla en una petición al Consejo de Educación para «que emprenda un reflexión general sobre los futuros objetivos precisos de los sistemas educativos, centrada en intereses y prioridades comunes y que respete al mismo tiempo la diversidad nacional» ^^. Tal reflexión se produjo en un Informe de la Comisión de fecha 31 de enero de 2001 ^^ que, tras analizar las respuestas de los Estados miembros, concretaba determinados objetivos -que en el punto 7 dice que son cinco, pero que, en realidad, terminan siendo seis-que se consideran podrían ser la base de la colaboración eu-Tendencias en la Política de la Educación ropea en los próximos diez años. Estos objetivos son: mejorar la calidad en Europa, facilitar y ampliar el acceso al aprendizaje a cualquier edad, actualizar la definición de capacidades básicas de acuerdo con la sociedad del conocimiento, abrir la educación y la formación al entorno local, a Europa y al mundo (obsérvese que abandonamos la dimensión europea), aprovechar al máximo los recursos, y crear nuevas relaciones con los centros escolares. Estos grandes objetivos son oportunamente desglosados y así se considera que: 1) Mejorar la calidad del aprendizaje significa: a) mejorar la formación de profesores y formadores, teniendo en cuenta que ya no son la única fuente de conocimientos, pero que deberían motivar a sus ^ alumnos no sólo para que aprendan las capacidades profesionales necesarias sino para responsabilizarse también de su propio camino; b) aumentar la alfabetización y la formación aritmética elemental, base para poder acceder al empleo y que no pocos pierden una vez abandonan el contexto del aprendizaje formal. 2) Facilitar y ampliar el acceso al aprendizaje a cualquier edad implica: a) que los sistemas educativos se adapten a las necesidades de las personas de todas las edades y sepan atraer a gente de cualquier edad, lo que pienso es una nueva reñexión actualizada sobre las implicaciones del derecho a la educación, que no debe reducirse a un rígido marco de edad, procurando que el sistema educativo se muestre acogedor con estudiantes de circunstancias muy diversas; b) hacer más atrayente el aprendizaje, de forma que se contrarreste el aliciente que muchos jóvenes -en mi experiencia, especialmente los varones-encuentran en incorporarse tempranamente a un trabajo en busca de una remuneración que les proporcione una cierta independencia; c) coherencia interna de los sistemas educativos, con flexibilidad y facilidad de cambiar las trayectorias formativas, permitiendo el acceso a la enseñanza superior desde formaciones muy distintas; d) educación como medio de cohesión social, adaptándose a las necesidades de los diversos grupos sociales y transmitiendo a través de los planes de estudio y de los materiales de la enseñanza la imagen de la sociedad a la que aspiramos, es decir la sociedad en la que reine la igualdad de oportunidades y se haya desterrado el racismo y la discriminación. Este conjunto de objetivos considero debiera ser especialmente atendido en España, donde por muchos años estamos sometidos al dogma del currículo único, al imperio del bachillerato como único medio ordinario para acceder a la Universidad y a la obsesión por creer que la formación profesional tendrá calidad y reconocimiento social endureciendo las exigencias académicas para acudir a ella. Confiemos en que los actuales proyectos de reformas en nuestro sistema educativo nos permitan salir de esos hechizos. 3) Actualizar la definición de capacidades básicas de acuerdo con la sociedad del conocimiento, que debe comprender tanto las de carácter profesional como las de carácter personal o social, que permiten trabajar con los demás y llevar una vida feliz y fructífera. Así se considera necesario: a) poner las tecnologías de la información y la comunicación al alcance de todos; y b) revisar el significado de las capacidades básicas, conscientes de la importancia de capacitar para el aprendizaje autónomo, pero también capacitar para la tolerancia con los demás y con la autoridad, para adaptarse y trabajar en equipo, resolver problemas y asumir riesgos etc. 4) Abrir la educación y la formación al entorno local, a Europa y al mundo, lo que exige a) una mejor enseñanza de los idiomas, con presencia de profesores de idiomas nativos; b) aumento de la movilidad y los intercambios, ampliando la gama de centros escolares que participan en los programas europeos, donde las instituciones con alumnos menos favorecidos tienden a estar infrarrepresentadas; c) intensificación de las relaciones con las empresas, cambiando tradicionales actitudes de protección de la escuela contra las influencias externas, para descubrir qué lecciones se pueden extraer de la participación del sector empresarial; d) desarrollo del espíritu de empresa, como espíritu activo y reactivo que la sociedad debiera valorar y apoyar. 5) Aprovechar al máximo los recursos, lo que obliga a: a) establecer sistemas que aseguren la calidad para que el sistema funcione eficazmente y que faciliten la publicidad de sus resultados, aumentándose así la confianza social sobre los centros escolares; b) adaptar los recursos a las necesidades reales, lo que exige que las autoridades competentes conozcan lo que va bien y lo que va mal, de modo que se orienten los recursos en las direcciones apropiadas, lo que sin duda alguna disgustará a todos aquellos que temen que la calidad sea reconocida y valorada. 6) Crear nuevas relaciones de la autoridad con los centros escolares, sin obligar a que en todos se tenga el mismo grado de intervención, que debiera depender del éxito de la institución, sin que se cuestionara la actuación de los directores de los centros que tuvieran resultados brillantes. Tendencias en la Política de la Educación El siguiente documento de interés es la Comunicación de la Comisión de 21 de noviembre de 2001 titulada «Hacer realidad un espacio europeo del aprendizaje permanente», fruto de la consulta a más de 12.000 personas sobre las exigencias del objetivo 2), previamente señalado. Es también un documento largo, que señala seis prioridades de actuación a la hora de actuar con estrategias coherentes y globales de aprendizaje permanente. Ahora bien, considero que el trabajo de mayor relevancia que se ha hecho, y cuya importancia iremos viendo en los próximos años, es el Programa de trabajo para el seguimiento de los objetivos de educación y de los sistemas de formación europeos, de 20 de febrero de 2002 ^^, presentado al Consejo Europeo de Barcelona, de marzo de 2002. En este documento, tras una reflexión sobre el conjunto de prioridades que se han venido manejando desde el 17 de diciembre de 1999, el acuerdo es que los objetivos estratégicos en educación y sistemas de formación sean los tres siguientes: 1) Mejorar la calidad y eficacia de la educación y de los sistemas de formación en la Unión. 2) Facilitar el acceso a todos a la educación y a los sistemas de formación. 3) Abrir la educación y los sistemas de formación a un mundo más amplio. La diferencia fundamental con las prioridades del 1999, consiste en que entonces la primera se refería al papel de la educación en las políticas de empleo, lo que suscitó considerables críticas por parte de quienes -como vimos en las conclusiones del Grupo de estudios-entendían que la educación no podía enfocarse desde el punto de vista del empleo, pues se desvirtuaba su esencia e incluso se comprometía su eficacia a largo plazo. Por ello, el término empleo no aparece entre los grandes objetivos, aunque no se encuentra ajeno a algunos de los trece objetivos asociados, que se detallan. Pero, además, el documento señala que, en beneficio de los ciudadanos hay cinco criterios generales de actuación cuya operatividad debiera alcanzarse antes del 2010 y que son: 1) Conseguir la más alta calidad en educación y en formación, de forma que Europa sea reconocida como un punto de referencia mundial por la calidad y relevancia de sus sistemas e instituciones. 2) Hacer compatibles suficientemente la educación y los sistemas de formación, de modo que los ciudadanos pueden moverse entre ellos y obtener las ventajas de su diversidad. 3) Establecer convalidaciones efectivas de las cualificaciones, conocimientos y habilidades que se hayan adquirido en cualquier país de José Antonio Ibáñez-Martín la Unión, con el fin de establecer una carrera y un aprendizaje continuo. 4) Facilitar el acceso al aprendizaje permanente a los europeos de todas la edades. 5) Abrir Europa a la cooperación con todas las otras regiones, para beneficio mutuo, de modo que sea el destino más solicitado de los estudiantes, profesores e investigadores de todo el resto del mundo. El conjunto de este documento -que sólo está en versión inglesa-no puede ser descrito en este artículo, ya que tiene unos cincuenta folios de extensión. Pero sí me parece conveniente señalar que su principal novedad no radica tanto en sus principales objetivos, que expresan un nuevo acercamiento, algo diverso a los ya señalados en el citado Informe de la Comisión de fecha 31 de enero de 2001, cuanto en el esfuerzo que realiza por determinar indicadores cuantitativos de los objetivos, fechas del seguimiento desde la Comisión y temas que pueden ser motivo de intercambio de experiencias y de buenas prácticas. El primer objetivo estratégico -mejorar la calidad y eficacia de la educación y de los sistemas de formación en la Unión-tiene cinco objetivos asociados, de los cuales el segundo es desarrollar las habilidades precisas en la sociedad del conocimiento, que se desglosa en tres elementos centrales en los que se establece la necesidad no de sólo identificarlas sino también de determinar cómo se pueden promover mediante el currículo escolar, unidas a las restantes habilidades básicas, y cómo se pueden mantener a lo largo de la vida. Pues bien, este conjunto de objetivos se traduce en una serie de indicadores, esencialmente cuantitativos, que deben expresar el progreso que se va consiguiendo en su realización, y que en este caso son: personas que completan la enseñanza secundaria, formación permanente de profesores en el ámbito de las habilidades emergentes necesarias, niveles de resultados en las ciencias humanas y sociales (PISA, evaluación realizada en los países miembros, cuyos resultados primeros se dieron a conocer en noviembre de 2001), niveles de resultados en las ciencias exactas y naturales (PISA), aprendizaje para progresar en los niveles de resultados y porcentaje de alumnos que no han llegado a la enseñanza secundaria última y que han participado en alguna forma de enseñanza de adultos, según grupos de edades. Cada país deberá realizar los estudios pertinentes, según estos criterios, de lo que ha ocurrido cada año, pero, además, se precisan algunos temas para intercambiar experiencias y buenas prácticas, que en este objetivo asociado son, concretamente, los modos de actuar y los resultados conseguidos en la enseñanza de la lengua materna, de las lenguas extranjeras y de las matemáticas. Tendencias en la Política de la Educación hasta la finalización de la enseñanza obligatoria, así como los medios propuestos para conseguir la alfabetización ñmcional tanto en la escuela como para los adultos. Es evidente que, en la medida en que no se quiere limitar el proyecto de la Unión a configurar una Europa de los mercaderes, es preciso comprometerse en una actividad educativa y cultural común, como se deseó establecer en Maastricht. Ese compromiso tiene una traducción axiológica indeclinable, y en tal sentido se orientaron diversos esñierzos a partir del 1992. Desgraciadamente, la extendida oposición de fondo a una real unidad europea, sumada a los problemas que hoy entraña embarcarse en una acción educativa auténtica, llevaron a hibernar esos propósitos, que han sido cambiados, a partir del 2000, por otros de carácter funcionalista, depositándose en los Estados miembros la responsabilidad de la necesaria orientación axiológica del sistema educativo. Estos dos últimos años han visto un refinamiento de los primeros objetivos marcados a fines del 1999, y, por mucho que sean limitados en sus horizontes, han marcado unas pautas de trabajo que pienso serán beneficiosas para introducir mayores cotas de racionalidad en la política educativa de los Estados miembros. Notas ^ Tratado de Maastricht, Declaraciones iniciales, sin título, que llamaremos Preámbulo. 3, hoy art. 6. ^ Idem, art. 3, p), hoy art. 3, q) del Tratado de Roma. ^ ídem, art. 3. b, hoy art. 5 del Tratado de Roma. ^ Como es sabido, el Tratado de Amsterdam del 2 de octubre de 1997 aprobó unos cuadros de equivalencias de los nuevos preceptos sucesivamente aprobados para adscribir una nueva numeración en las versiones consolidadas de los Tratados. A partir de ahora nos referiremos sólo a la numeración de esta última versión. 1. ^ Resolución del Consejo y de los Ministros de Educación reunidos en el «Consejo sobre la dimensión europea en la enseñanza» de 24 de mayo de 1988 (88/C 177/02), I. Objetivos. Aquí cita la Declaración de Copenhague, de 8 de abril de 1978. Esta cita es poco afortunada. El documento en cuestión es la «Declaración sobre la democracia» del Con-Tendencias en la Política de la Educación el que se basan numerosos estudios, que no citaré, irrelevantes y confusos, que se han editado bajo esa bandera. El 23 de noviembre de 2000 fui convocado como Experto a una audiencia en el Comité Económico y Social, en Bruselas, para evaluar un documento que estaban preparando sobre la Dimensión Europea de la Educación: naturaleza, contenido y perspectivas. El documento era tan malo como el Libro Verde^ y allí defendí la posición de que tratar sobre ese asunto exigía, al menos, tocar cuatro aspectos: los elementos básicos de la identidad cultural europea, sin limitarse a vaciedades y generalidades, los derechos y deberes de los ciudadanos europeos, cómo comprometerse en el mutuo conocimiento entre los jóvenes europeos, superando el turismo ilustrado que propiciaba ahora el Programa Erasmus y pasando a convertirse en una actividad realmente formativa dentro de un itinerario curricular propio europeo, más algunas propuestas imaginativas que, dentro del principio de subsidiariedad, colaboraran en el desarrollo de tal dimensión europea. Un repaso a las consecuencias de las nuevas tendencias de la política de la educación europea me lleva a la conclusión de que se ha ido dejando en una discreta penumbra tal dimensión europea, al haberse, lamentablemente, diseñado como un constructo lleno José Antonio Iháñez-Martín José Antonio Ibáñez-Martín
A pesar del consenso logrado en materia educativa durante la transición política española con motivo de la aprobación de la Constitución, aún existen divergencias notables entre los partidos políticos sobre el modelo educativo, como se ha podido comprobar en el debate de la Reforma de las Ciencias, la Lengua y las Humanidades, Así, aparecen diferencias significativas entre los curricula de las diferentes Comunidades Autónomas que debieran desparecer con el fin de que los alumnos y alumnas no las sufran en sus traslados de una Comunidad a otra. En este sentido, resulta de suma importancia que el profesorado de cada una de ellas participe en su elaboración, pues de nada sirve la función legislativa si el estamento docente no asume como propias las reformas que se han de aplicar en las aulas. Finalmente, aún valorando positivamente la función que tuvo la L,R,U,, se constata que la L,0,U, introduce un sistema adecuado para la evaluación y la acreditación de la calidad, articula los distintos niveles competenciales de las Universidades y las administraciones, diseña un mayor autogobierno de las Universidades y permite impulsar la movilidad de estudiantes, profesores e investigadores tanto dentro de la estructura autonómica española como en la Unión Europea, Quizás, en estos nuevos tiempos en los que vive el Estado Español, los intereses «ideológicos» de los agentes sociales con implantación tanto na- Sofia Juaristi Zalduendo clonal como autonómica, están provocando demasiada información mediática que difumina el trabajo diario, la reflexión, la organización, la investigación y la formación permanente que la educación requiere. Esto sucede, especialmente, en unos momentos en los que, en la sociedad del conocimiento, los cambios de las diversas sociedades se amalgaman y acrisolan en una inmensa aldea global donde las diferentes culturas se influencian las unas de las otras, aunque existan evidentes anacronismos entre las mismas. -^ Raro es el día en que los Medios de Comunicación no abordan un tema educativo ya sea sobre la Ley de Universidades, la Ley de Calidad o la Ley de Formación Profesional, la política de conciertos, la homologación salarial, la convivencia escolar, y mil y un temas de suma importancia que nos llevan a reflexionar sobre ¿qué educación es la más conveniente para los jóvenes del Siglo XXI? Las viejas teorías parecen desmoronarse ante los acontecimientos de los últimos tiempos. El modelo familiar evoluciona según lo requiere la sociedad, y las fórmulas de convivencia y de relación interpersonal son múltiples, provocando diversos modos individuales de pensar y de sentir, tan heterogéneas y, en ocasiones, tan discordantes, que obligan al profesorado a adoptar posiciones eclécticas en las aulas en lo concerniente a la multiplicidad de valores. Por todo ello, en muchos casos, el alumnado no encuentra los referentes que necesita ni en la familia, ni en la escuela, por lo que debe buscar sus modelos en los medios de comunicación y en la calle, modelos que suelen coincidir con sus mitos favoritos y con los de su pandilla. En la actualidad, tras la puesta en práctica de la L.O.G.S.E., muchas son las voces que se alzan a favor, en contra y por la reforma de la misma, publicándose recientemente dos Reales Decretos ^ por los que se establecen las enseñanzas mínimas de la educación Secundaria Obligatoria y del Bachillerato, dentro de un gran debate sobre la necesidad de potenciar y reforzar las Ciencias, la Lengua y las Humanidades. Lo cierto es ^ue en el Estado Español aún continúan existiendo muchos ciudadanos que añoran una educación que, a la manera de la que presumía la Institución Libre de Enseñanza, sea completamente ajena a todo interés de comunión religiosa, escuela filosófica o partido político. De acuerdo con esta posición, se proclamaría tan solo el principio de libertad e inviolabilidad de la ciencia y de la consiguiente independencia de su indagación y exposición respecto de cualquier otra autoridad que no sea la de la propia conciencia del profesor, único responsable de su doctrina. Pero también existen otros ciudadanos que consideran que la educación ha de basarse en una escuela filosófica o comunión religiosa La Educación en la estructura autonómica que inspire su ideario, con el fin de que los padres puedan elegir el centro que desean de acuerdo con los valores en los que quieren que se eduquen sus hijos, lo que evidencia un mapa heterogéneo que se repite en todas las Comunidades Autónomas, donde algunos profesores de la Escuela Pública y de las Cooperativas, especialmente, continúan perfeccionando la ya vieja escuela de la denominada «nueva educación» de María Montessori 2, Ovide Decroly ^ y Freinet ^, adecuando los métodos a los tiempos actuales con la utilización de las tecnologías. Sin embargo, este no es el tema principal de debate, aunque en estos momentos sería de enorme interés, porque se plasmarían de forma evidente las razones pedagógicas y didácticas de los métodos más adecuados para una educación innovadora del nuevo siglo. El debate suele estar más centrado en conseguir que los Partidos lleguen a consensuar y, si no es así, retrasar las Leyes de Universidades, Calidad y F.P., promovidas por grupos políticos (hoy el Partido Popular ) que cuenten con la mayoría absoluta. No olvidemos que uno de los grandes éxitos de la transición política fue el consenso de la derecha y de la izquierda en torno a la Constitución; acuerdo básico sobre el punto de partida de nuestro ordenamiento jurídico que no se consiguió sin un gran esfuerzo político, especialmente, como afirma Manuel de Puelles Benítez (1991, pp. 484-485), «cuando hubo que regular derechos llenos de una gran carga ideológica. Así ocurrió con la educación, materia extraordinariamente controvertida que estuvo a punto de quebrar el deseado consenso». El artículo 27 fue fruto, pues, de una complicada arquitectura dialéctica, y de este modo el Partido Socialista aceptaba el derecho de los padres a que sus hijos recibieran formación religiosa y moral de acuerdo con sus propias convicciones (apartado tercero), resolviéndose el viejo pleito del laicismo escolar, si bien el Partido centrista aceptaba el principio de la voluntariedad de la religión en las escuelas y no su imposición. Además el Partido Socialista aceptaba no sólo la existencia de una red privada de centros docentes, sino también el que los poderes públicos asumiesen la obligación de ayndar a los centros privados siempre que reúnan los requisitos que la ley establezca (apartado noveno). 485), al afirmar que «el artículo 27 no es más que el difícil equilibrio entre los principios de igualdad y libertad en educación. Mientras la izquierda hacía énfasis en el principio de igualdad -y por tanto en el derecho a la educación y en la participación e intervención de la comunidad escolar-, la derecha hacia hincapié en el principio de libertad centrado fundamentalmente en la creación de centros privados. En todo caso, se trataba de un pacto constitucional de difícil ejecución». En tomo a la organización territorial del Estado español La Constitución Española, sancionada por el Rey ante las Cortes el 27 de diciembre de 1978, fue publicada en el B,0,E el 29 de diciembre, y en el título VIII, «De la organización territorial del Estado», aborda una nueva configuración de España, e implanta las vulgarmente llamadas «vía rápida» y «vía lenta» para acceder a la autonomía en los artículos 151° y 143°. En la actualidad las transferencias en materia de Educación son una realidad en Andalucía, Aragón, Baleares, Canarias, Cantabria, Castilla y León, Castilla la Mancha, Cataluña, Comunidad Valenciana, Extremadura, Galicia, Madrid, Murcia, Navarra, País Vasco, Principado de Asturias y La Rioja. Consecuencialmente, el Ministerio de Educación, Cultura y Deporte, con más de cien años desde su creación como Ministerio de Instrucción Pública y Bellas Artes en 1900, ha visto reducido su ámbito de competencias plenas en materia educativa a Ceuta y Melilla, por lo que la heterogeneidad legislativa de las Comunidades Autónomas pueden potenciar una desvertebración del sistema educativo en el Estado Español. No es cuestión de hacer una comparación normativa entre las diferentes Comunidades Autónomas desde que asumieron las transferencias en materia educativa, pero si preguntamos a los docentes de la Enseñanza Pública, enseguida se referirán a las diferencias salariales entre las distintas Autonomías, hecho peculiar, de muy difícil explicación, y en los distintos Cuerpos a los que se accede con idéntica titulación. Por ello, es necesario destacar la fijación existente de las cuotas de participación de las diversas Comunidades en la elaboración de los curricula. De esta manera, el Ministerio fija los contenidos mínimos, comunes para todos los escolares españoles, cualquiera que sea el lugar en donde residan, suponiendo esos mínimos el 55% del curriculum en aquellas Comunidades Autónomas con lengua propia, y elevándose, en las demás al 65%. El resto del curriculum, 45% en unos casos, 35% en otros, corresponde a las Autonomías. Y he ahí la preocupación de los ciudadanos, pues de utilizarse la educación como materia de discordia política, en vez de intentar lograr amplios acuerdos, estables y duraderos entre todos los Gobiernos de las distintas Autonomías, se corre el peligro de que los alumnos de unas Comunidades Autónomas no adquieran niveles semejantes de conocimientos, procedimientos y destrezas en diversas materias. Puede llegar a producirse tal heterogeneidad en el % del curriculum diseñado por las Autonomías, que pueda darse el hecho de que los conocimientos adquiridos La Educación en la estructura autonómica en un nivel de la Enseñanza Obligatoria en una Comunidad Autónoma, necesariamente deban ser mayores, menores o diferentes que en otra Comunidad Autónoma dentro del mismo territorio español. El debate sobre la Reforma de las Htimanidades en Educación Secundaria Donde más ha surgido la polémica, especialmente por el clamor de las Comunidades llamadas «históricas», ha sido con motivo de la Reforma de las Humanidades, hasta el punto que Esperanza Aguirre, primera Ministra de Educación del Partido Popular en la Democracia Española en el nuevo período constitucional, se vio obligada a retirar el proyecto de Decreto de Reforma de la Humanidades en la Educación Secundaria Obligatoria en el pleno del Congreso de los Diputados el 16 de diciembre de 1997. El tema lo retomará Pilar del Castillo, Ministra de Educación, Cultura y Deporte, tras la mayoría absoluta del Partido Popular en las Elecciones Generales del 2000, cuando pueda llevar al B.O.E. los Reales Decretos de «Enseñanzas Mínimas de la Enseñanza Secundaria Obligatoria y del Bachillerato». Jon Juaristi, Director del Instituto Cervantes, ha afirmado en el II Condeso de la Lengua celebrado en Valladolid que «debemos afrontar juntos los riesgos y las esperanzas de los tiempos nuevos, porque como pueblo no tendremos otro destino que el de nuestra lengua común» ^; lengua que une y vincula a todas las Comunidades Autónomas del Estado, incluidas las que poseen su lengua propia. Porque como ha aseverado el escritor mexicano Carlos Fuentes en el mismo Congreso, «contra una globalización unificadora, prefiero el mestizaje (...) El español es una lengua impura y en su impureza reside su valor y su comunicabilidad (...) La ma-' ^or parte de los que hablamos español no pertenecemos a una sola raza, no que somos descendientes de indígenas, negros, europeos y todos los >stizajes de por medio. Y en Europa, España es acaso el país más mestizo: celtíbero, fenicio, griego, romano, godo, judío y árabe» ^. Por ello, es difícil de explicar la polémica surgida (especialmente en las Comunidades Autónomas), hasta la culminación de la publicación en el B,O.E. de los Reales Decretos citados, cuando una vez alcanzado el objetivo de extender la Educación Obligatoria hasta los 16 años y tras diez años de aplicación de la L.O.G.S.E., estudios realizados por diferentes instituciones ponían de relieve un conjunto de disfunciones que aconsejaban una decidida revisión de los planes de estudio, encamina a asegurar la mejora de la calidad en la sociedad del conocimiento del siglo XXL Sin embargo, seis meses antes de que la Ministra, Pilar del Castillo, resolviese, mediante la oportuna medida legislativa, una cuestión que en la legislatura anterior había provocado una sonada derrota parlamentaria del Gobierno y había agitado tanto a la opinión pública como a los medios de comunicación con la publicación de más de setecientos artículos sobre la materia, Javier Tusell afirmaba «el problema crucial no se plantea en este terreno general sino en relación con la pluralidad de España y la enseñanza de la Historia (...) De ahí que un mero calificativo -el propósito de explicar la Historia «unitaria»-levantara barricadas. Los historiadores, sin embargo, estamos mucho más de acuerdo de lo que pueda pensarse. Ninguno negará, por ejemplo, que existe una trayectoria común a lo largo de los siglos, pero tampoco que eso que llamamos España ha sido una sociedad más plural desde hace mucho tiempo que ninguna otra de Europa occidental. No hay una nación europea en que más del 40% de sus habitantes convivan con otras tres lenguas oficiales, aparte de la más difundida, y en que, al mismo tiempo, quienes tienen una cultura más diferenciada -vascos y catalanes-se sientan en su mayoría españoles» ^. Y en el mes de julio de 2000, en el Monasterio de Yuso, cuna del castellano, los portavoces en el Congreso y en el Senado del Partido Popular, con Javier Arenas, Secretario General del Partido Popular, al frente, hacen pública la declaración de San Millán de la CogoUa en favor de las Humanidades aseverando que «creemos necesario asegurar a los alumnos el dominio oral y escrito de la lengua castellana y, en su caso, de la lengua oficial propia de la Comunidad Autónoma, así como un suficiente conocimiento de la literatura de las lenguas españolas y de la literatura universal; familiarizar a nuestros estudiantes en el uso de bibliotecas y otras fuentes de información, con la utilización de las nuevas tecnologías; reforzar el estudio de la historia, con respeto a los hechos históricos mismos y con la necesaria dimensión cronológica, que ha de incluir el estudio del pasado común de España y abrirse a una visión universal; dar a conocer la realidad plural de España y de Europa, y facilitar el estudio de sus lenguas; potenciar la enseñanza de la filosofía, sin prescindir del enfoque histórico; asegurar la presencia efectiva de la cultura clásica, así como del latín y del griego en el Bachillerato; promover la enseñanza de la historia del arte, de la formación musical y de la danza; mejorar las enseñanzas de contenido científico y tecnológico. Todo ello con un debido apoyo al profesorado y a su dignidad profesional». A principios de ese mes de julio de 2000 los principales medios de Comunicación nacionales se habían hecho eco de la extraordinaria polémica política desatada por el informe de la Real Academia de la Historia La Educación en la estructura autonómica sobre el contenido de los libros de texto de esta materia dirigidos a los alumnos de la E.S.O. y el Bachillerato, en el que se afirma que «en el proyecto de reforma de los años ochenta, se insistía en la necesidad de asegurar las bases pedagógicas de la actividad docente. Esta idea, en principio loable, tuvo, no obstante, efectos negativos en lo que se refiere al ámbito educativo. La tradicional enseñanza de la historia del bachillerato, se repetía por doquier, se había caracterizado por estar ayuna de elementos didácticos. Era la «historia sin pedagogía», como se la ha calificado recientemente. Pero la conveniencia que en absoluto negamos, de que el profesor de enseñanza secundaria conozca los fundamentos de la psicopedagogía fracasó en lo que se refiere a la enseñanza de la historia. Partiendo de las ideas que se recogían en el folleto «Los presupuestos didácticos de la reforma», en los que podía leerse que «se trata de ir más allá de las enseñanzas académicas tradicionales y de atender a otros aspectos que suponen desarrollo de capacidades, de hábitos, de actitudes», se criticaba la denominada «historia académica». Se la consideraba centrada en la cronología y en los acontecimientos. Se pensaba que lo importante no era saber más o menos cosas del pasado, sino adquirir las destrezas propias de la disciplina, lo que se podía conseguir tanto si se estudiaba la revolución francesa como la historia de la iglesia contigua al centro de enseñanza de que se tratara. Ante tales planteamientos, se podía objetar que «no es posible conseguir una visión general del pasado mediante una disciplina convertida en historia local, discontinua y particularista» ^. En la Introducción al libro de Julio Rodríguez Frutos (1989, p. 10), ya se recogían estas opiniones, llegando a asegurar que «las nuevas visiones de evaluación difícil y definitiva parecen estar cargadas, igualmente, de innumerables lastres: la enseñanza activa se convierte en activismo desenfrenado; el abuso de los medios, técnicas y métodos, carentes de cualquier investigación, no sólo no entretienen a los alumnos sino que se convierten en desconcierto y frustración para muchos profesores y alumnos que, al final, retornan a los viejos métodos; se merman los contenidos desvirtuando el conocimiento histórico hasta hacerlo irreconocible; se lleva la enseñanza de la historia local hasta lo grotesco». Reformas legales y realidad escolar Pensar que el debate pedagógico y didáctico sobre el que se sostenía el debate político en el área de las Humanidades, como en otras áreas, se ha disipado, sería de una ingenuidad casi irresponsable. De nada sirve Sofía Juaristi Zalduendo publicar en el Boletín Oficial del Estado dos Decretos estableciendo las enseñanzas mínimas de la Educación Secundaria Obligatoria y el Bachillerato, si la metodología a aplicar no es asumida por el profesorado que, al final, será quien abordará día a día los contenidos de acuerdo con su criterio, y potenciará de manera subjetiva las destrezas y los hábitos; de ahí que sea tan importante en la aplicación de cualquier reforma el contar con la opinión mayoritaria de los docentes que, al final, van a ser los que van a llevar a cabo el currículo aprobado. Por ello, las Comunidades Autónomas, que tienen la responsabilidad de desarrollar el diseño curricular de las mismas, en su tanto por ciento correspondiente, es lógico que el diseño que elaboren sea entregado al mayor abanico de agentes sociales, a los miembros de la Comunidad Educativa, y dentro de ésta, principalmente al profesorado, con el fin de que no vuelva a reproducirse en cada Comunidad Autónoma la dialéctica surgida anteriormente a nivel estatal con la reforma de las Humanidades. Sin embargo, siendo este proceso vital para la búsqueda de un diseño curricular propio que cuente con el mayor consenso posible, no es menos cierto que las Comunidades Autónomas deben igualmente consensuar uno que se articule bajo los mismos parámetros, y cuyos contenidos no difieran de tal manera que parezcan sistemas educativos diferentes. Que no se haga realidad la frase de Francisco Javier Jordán, profesor de psicopedagogía, de «enseño, luego sobrevivo»^, en unos momentos donde la participación democrática es una realidad y en los que todos los días pueden deparar nuevos descubrimientos, que nos permitan mejorar aún más la calidad de la enseñanza teniendo la excelencia como objetivo, sin olvidar que únicamente una escuela vanguardista con visión de futuro es capaz de desarrollar una educación previsora que, anticipándose al nuevo devenir, consigan que los Centros de Enseñanza continúen siendo los faros del Saber, de la Ciencia y de la Convivencia; y más, en unos momentos donde los medios de Comunicación no buscan la excelencia en su programación, sino que, cogiendo el tajo más corto, renuncian en demasiadas ocasiones a la calidad, en su desaforada búsqueda por la máxima audiencia, sin detenerse a pensar en el deterioro social que provocan, y por el que acaban resintiéndose la familia y la escuela. 4, Concepto de Universidad y estructura autonómica del Estado El derecho fundamental de la autonomía de las Universidades que reconoce la Constitución española tuvo en la ley orgánica de Reforma Uni-La Educación en la estructura autonómica versitaria (L.R.U.) 11/1983, de 25 de agosto, su norma de desarrollo que se ha visto completada por los Estatutos de las Universidades. Las características principales de dicha Ley pueden fijarse en la consideración de la Universidad como institución educativa prestadora de un servicio público; la consideración de la Universidad como un sistema autónomo en su conjunto; la consideración de los departamentos, no de la cátedra, como la base del sistema universitario. Y con su aprobación las Universidades se dieron a sí mismas sus estatutos o normas de gobierno; elaboraron sus propios planes de estudios de acuerdo con las directrices que, emanadas del Consejo de Universidades, aprueba el Gobierno; expidieron los títulos académicos; elaboraron sus propios presupuestos y adquirieron una autonomía de personal por el que pudieron seleccionar tanto al personal administrativo como al docente, pero especialmente la L.R.U. tuvo también otros fines que es necesario destacar, como son la delimitación competencial entre el Estado, las comunidades autónomas y las propias Universidades, y, sobre todo, la aproximación de la Universidad a la sociedad mediante la creación del Consejo Social Todos somos conscientes que la nueva sociedad del conocimiento en la que nos encontramos exige una Universidad moderna y activa, capaz de renovarse constantemente con el fin de estar permanentemente en perfecta sintonía con las nuevas vías de progreso y, a la vez, ser garantía de conservación de un acervo científico y humanístico sin el cual, la sociedad perdería el verdadero sentido de su continua evolución, que no debe ser otro que el de una justicia social que sea capaz de mantener la paz y la prosperidad de los pueblos. La Universidad Española, las diversas Universidades del Estado Español, han sufirido progresivos cambios en poco tiempo, y donde la L.R.U. abría nuevas esperanzas e ilusiones al final del pasado Siglo XX, a principios del Siglo XXI y del III Milenio se convertía en un infiranqueable muro que impedía la renovación cotidiana capaz de mantener el espíritu universitario de acuerdo con los tiempos, que justifica su derogación y la aprobación por las Cortes Generales de la Ley Orgánica de Universidades 6/2001, de 21 de diciembre, ya que la reforma era necesaria y existía una base de consenso suficiente como para afirmar que responde a una exigencia de la sociedad española mayoritariamente sentida. Si hacemos una revisión de la historia, los que hemos vivido la evolución de la Universidad en los últimos años 20, 25 o 30 años, entendíamos que era necesario una serie de cambios y de reformas concretas. Pero, sobre todo y muy fundamentalmente, entendíamos que había que introdu-Sofía Juaristi Zalduendo cir procedimientos que facilitasen la eficacia y la agilidad de la gestión, y que fomentasen el desarrollo de la actividad investigadora. Concretamente, respecto de esta actividad, la Universidad de Cantabria se encuentra en la mejor posición dentro del conjunto de las 60 Universidades públicas. Aquí entendíamos que era necesario insertar mecanismos de colaboración de las empresas y de la sociedad, que proporcionasen a la Universidad algunos medios de financiación para continuar impulsando esta actividad. Para un Gobierno que busca la gestión equilibrada de una Comunidad el problema de los recursos es una causa de seria reflexión, no solamente política, sino también moral. El problema de la gestión de los recursos que llegan a la Universidad es una preocupación constante dentro de la autonomía y las responsabilidades de la Comunidad Autónoma, y la L.O.U. introduce fundamentalmente un sistema adecuado para la evaluación y la acreditación de la calidad, objetivo prioritario de reconocimiento de la actividad de tantas personas que trabajan dentro de la Universidad a las cuales la sociedad debe pedirles unos resultados concretos. No olvidemos que la L.O.U. articula los distintos niveles competenciales, los de las Universidades, las Comunidades Autónomas y la Administración General del Estado; a la vez que diseña un mayor autogobierno de las Universidades y supone un incremento del compromiso de las Comunidades Autónomas, lo que implica para las primeras una mayor eficiencia en el uso de los recursos públicos y nuevas atribuciones de coordinación y gestión para las segundas. Esto implica dotar de nuevas competencias a las Universidades y a las Comunidades Autónomas respecto a la anterior legislación, con el objetivo de plasfnar en el texto de forma inequívoca la confianza de la sociedad en sus Universidades y la responsabilidad de éstas ante sus respectivas Administraciones educativas. Y, principalmente, la nueva Ley Orgánica de Universidades permite e impulsa la movilidad, tanto de estudiantes como de profesores e investigadores, dentro del sistema español, pero también del europeo e internacional, ya que las políticas de movilidad deben ser determinantes, especialmente en la España de las Autonomías, para que los estudiantes puedan escoger libremente los centros y titulaciones más adecuados a sus intereses personales y profesionales, elección real que tienen reconocida como un derecho y está a su alcance a través del distrito universitario abierto, que va a redundar sin duda alguna en la mejora global del sistema universitario en cada una de las distintas Universidades ubicadas en todo el territorio nacional dentro del nuevo marco internacional y europeo.
El cambio de milenio ha propiciado muchos informes, libros y conferencias sobre la situación de las Universidades y los posibles cambios que se avecinaban como consecuencia de las tendencias de cambios en la sociedad, entre los que se encuentran el predominio del conocimiento, laglo- Vicente Ortega Castro universidad sobre el futuro de la misma, que son muy numerosos, lo destacable es que desde instancias políticas y empresariales se han promovido y publicado informes en los que la sociedad no estrictamente universitaria ha tratado de ir delineando sus propuestas para el futuro de la enseñanza superior a la vista de los cambios sociales y económicos que se están produciendo en la sociedad y siempre con dos ideas fundamentales latentes: que la educación superior es un factor de primordial importancia para el desarrollo de la sociedad del conocimiento y que, por lo tanto, las instituciones encargadas de la enseñanza, la investigación y la formación de profesionales deben estar atentos a las necesidades de dicha sociedad, no vivir de espaldas a ellas y por lo tanto deben ser innovadoras en sus tareas y en su organización. También las Universidades han hecho sentir su voz casi siempre con más énfasis en la defensa de su autonomía institucional. El 18 de septiembre de 1988 con motivo del noveno centenario de la creación de la Universidad de Bolonia, la más antigua de Europa y del mundo, numerosos Rectores de Universidades firmaron la «Magna Charta Universitatum». En 1996 la UNESCO publicó el llamado Informe Delors: «La Educación encierra un tesoro. Informe para la UNESCO de la Comisión Internacional sobre Educación para el siglo XXI». En julio de 1997, el Comité Nacional de Evaluación de la Educación Superior de Gran Bretaña a instancias de los Secretarios de Estado de Educación y Empleo de Gales, Escocia, Irlanda del Norte e Inglaterra publica el informe «La Educación Superior en la Sociedad del Aprendizaje», informe mas conocido como Informe Bearing. En mayo de 1998 y, por encargo del Ministro de Educación de Francia, Mr. Claude Allègre, se publica el informe «Por un Modelo Europeo de Enseñanza Superior», conocido como Informe Attali por ser Jacques Attali el presidente de una Comisión constituida. En mayo de 1999, 30 Ministros y Secretarios de Estado de 30 países europeos firman la «Declaración de Bolonia», relativa a la promoción de un Espacio Europeo de Enseñanza Superior. En España, siguiendo la moda europea, la Conferencia de Rectores de las Universidades Españolas, encarga un informe a un Comité de expertos, presidido por Josep M^ Bricall, informe que es publicado con el título Universidad 2000 y que pretendía ser un documento para el debate con vistas a una futura Ley de Universidades que se presumía próxima. Los citados anteriormente, son algunos de los documentos más significativos publicados en el ámbito europeo. Supongo que en otras regiones del mundo se habrán producido debates e informes de naturaleza parecida, como el denominado «Higher Education in 21st Century: Global cha- Uenge and national responses», publicado en abril de 1999 por el Institute of International Education. Sin embargo, yo me referiré, principalmente, a las tendencias en Europa, que muestran una fuerte preocupación por el estancamiento de los sistemas universitarios frente a la rápida evolución de la sociedad en los últimos años y la falta de competitividad de las Universidades europeas frente a las norteamericanas. Partiendo de los documentos e informes mencionados trataré de obtener los conceptos claves que aparecen en todos ellos, conceptos generales que caracterizan las previsiones para la sociedad del siglo XXI y derivando de los mismos las fortalezas y debilidades de las Universidades actuales e indicando los cambios que deben introducirse, pero no solo para adecuarse a los cambios sociales sino para anticiparse e influir en la deriva de los mismos. Esta denominación de la sociedad actual ha calado profundamente en toda la literatura de análisis y previsión social, queriendo enfatizar el hecho de que lo que define el liderazgo y el desarrollo de los países no es ya la producción de bienes materiales y el intercambio de mercancías, sino la generación de conocimientos y su transformación en bienes y servicios, la mayor parte de ellos de carácter inmaterial. Lo que hoy es un concepto aceptado fue anticipado hace ya casi treinta años, en 1973, por Daniel Bell, profesor de Sociología de la Universidad de Harvard, quién en su libro El advenimiento de la sociedad postindustrial escribía: «La sociedad postindustrial significa, ante todo, un cambio de carácter de la estructura social en una dimensión, y no de la configuración total de la sociedad. Se trata de un tipo ideal, de una construcción acoplada por el analista social, de los diversos cambios de la sociedad que, al reunirlos, resultan mas o menos coherentes contrastados con otras construcciones conceptuales. En la descripción aparecen tres componentes principales: en el sector económico, un giro de la industria a los servicios; en la tecnología, la centralidad de las nuevas industrias basadas en la ciencia; en el terreno sociológico, el crecimiento de nuevas élites técnicas y la introducción de un nuevo tipo de estratificación. Desde aquí, se puede volver atrás y afirmar, de forma más general, que la sociedad postindustrial implica el brote de nuevas estructuras y principios axiales: el paso de una sociedad productora de bienes a una sociedad de información o de conocimiento; y, en los modelos de conocimiento, un cambio del eje de abstracción desde el empi- rismo o la chapucería de la prueba y el error a la codificación del conocimiento teórico para dirigir la innovación y la formulación de programas políticos». La producción de conocimientos, la producción de resultados de la investigación científica, la creación de conocimientos o cualquier otra denominación que quiera darse es una de las ñmciones de una Universidad moderna y así está formulado en todas las leyes y disposiciones que señalan las funciones o misiones de la Universidad. Como ejemplo, léanse los primeros artículos, tanto de la Ley de Reforma Universitaria (LRU) de 1983, como de la reciente Ley Orgánica de Universidades (LOU), de diciembre de 2001. Cuando Daniel Bell escribió su libro, en las Universidades españolas se investigaba muy poco. Hoy la realidad es otra: la investigación científica y técnica constituye una parte importante de la labor ordinaria de las Universidades y, aunque no haya alcanzado, en términos cuantitativos, los niveles medios de producción, se puede afirmar que la mayoría del profesorado universitario se aplica a la producción del conocimiento. Sin embargo, en la actualidad, las Universidades no son las únicas instituciones que producen conocimiento. Nunca, desde su creación en el medievo, lo han sido en exclusiva y en épocas de fuerte crisis de las Universidades, como en el siglo XVIII, gran parte de la creación técnica se realizó al margen de las mismas. Pero es a partir del segundo tercio del siglo XX y, sobre todo, después de la Segunda Guerra Mundial, cuando la investigación científica es abordada de manera sistemática por las empresas y otras instituciones no universitarias, produciendo tanto o mas conocimiento que en las Universidades. Las Universidades no tienen, pues, la exclusiva en la creación de conocimiento, en la investigación científica y técnica y en la creación artística y es bueno que así sea. Precisamente, la denominación «sociedad del conocimiento» parece indicar también que éste no es exclusivo de ninguna institución y que se ha socializado. La pregunta entonces puede ser: ¿seguirán las Universidades teniendo un papel importante en la producción del conocimiento o se verán relegadas a un segundo plano por otras instituciones?. La situación se complica más si consideramos, no solo el aspecto de la creación, sino los de almacenamiento y acceso al conocimiento. Las fuentes de información están extendidas por todo el mundo y por muchas instituciones y su acceso a las mism.as, con el uso de las tecnologías de la información y de las comunicaciones, es hoy muy sencillo y rápido. En el depósito y acceso a las fuentes del conocimiento también la Universidad ha perdido protagonismo. Si damos un paso más y consideramos la innovación, es decir, la puesta en el mercado de los resultados de la investigación, concepto clave y de honda preocupación en la sociedad, el futuro papel de las Universidades se vuelve a complicar. En efecto, en Europa preocupa mucho lo que se ha dado en llamar «la paradoja de la I+D, de la investigación y el desarrollo», pues siendo la financiación de la I+D similar a la de Estados Unidos o Japón la innovación tecnológica va detrás de la de estos países, lo cual lleva a pensar que algo no funciona bien en la cadena investigación/desarrollo/sociedad/mercado y convendría pensar en que medida y proporción le corresponde al sistema de enseñanza superior la existencia de esta anomalía, pues hay un consenso en el papel primordial que debe jugar la educación en la sociedad del conocimiento y, dentro de todas las etapas de un sistema educativo, la superior o universitaria es decisiva en el asunto que tratamos. Señalaba anteriormente que la Universidad no tiene ni mucho menos la exclusiva de la investigación, de la producción de conocimientos y que cada vez más hay otras instituciones de la sociedad que llevan a cabo estas funciones. Observemos, sin embargo, que en las empresas las personas que llevan a cabo tareas de innovación son profesionales formados en las Universidades. Y aquí, en esta función de formación de profesionales, entre los cuales están los investigadores, si que la Universidad tiene prácticamente la exclusiva, lo cual nos lleva a preguntarnos por la importancia de la formación de profesionales para la sociedad del conocimiento. La formación de profesionales La Declaración de Bolonia afirma que: «Está ampliamente reconocido que una Europa del Conocimiento es un factor insustituible para el crecimiento social e individual y un componente indispensable para consolidar y enriquecer la ciudadanía europea, capaz de proporcionar a sus ciudadanos las competencias necesarias para encarar los desafíos del nuevo milenio». Reconocida, pues, la importancia de la educación y de la cooperación educativa, continua diciendo: «Debemos prestar particularmente atención al objetivo de aumentar la competitividad del sistema europeo de educación superior. La vitalidad y eficiencia de una civilización puede medirse por la atracción que su cultura ejerce sobre otros países. Tenemos que asegurar que el sistema europeo de educación superior adquiere un alto grado mundial de atracción que iguale nuestras extraordinarias tradiciones culturales y científicas». Preocupaba a los Ministros de Educación europeos, como antes a los de Industria o Innovación, la falta de competitividad del sistema educativo y, en particular, de las Universidades. En función de estos diagnósticos, la Declaración plantea seis objetivos generales que tienen que ver, principalmente, con la enseñanza, con la formación de profesionales. Así, el primero señala la necesidad de «adoptar un sistema de grados fácilmente entendible y comparable para promover la empleabilidad de los ciudadanos europeos y la competitividad del sistema europeo de educación superior». Y el segundo objetivo marca un sistema cíclico cuando indica que hay que «adoptar un sistema basado en dos ciclos: pregraduado y graduado. El acceso al segundo ciclo requeriría completar con éxito las enseñanzas del primer ciclo que durarán un mínimo de tres años. El grado obtenido después del primer ciclo debe ser relevante para el mercado de trabajo como un nivel apropiado de cualificación. El segundo ciclo debe conducir a los niveles de master y doctorado». El primer objetivo tiene que ver con otro concepto clave de la actual sociedad: la globalización. Los sistemas educativos de cada país europeo se han quedado pequeños y un tanto cerrados sobre si mismo y hay que buscar una dimensión mayor para competir con otros sistemas, el norteamericano principalmente, más claros y más extensos. El mundo educativo debe seguir el camino emprendido del espacio económico europeo. El segundo objetivo trata de dar relevancia a la formación de profesionales cualificados para el mercado laboral con el primer grado o título que se obtenga, que debe tener una duración corta. Actualmente, en la mayor parte de los países europeos las enseñanzas se desarrollan de tal modo que los estudiantes obtienen un primer diploma entre los 23 y los 26 años, incluso para carreras cuya duración oficial es de tres años. Las tasas de fracaso son bastante altas y la incorporación al mercado laboral es tardía. Además con el intricado sistema de títulos se producen conñictos de competencias profesionales que a la postre tienen un reflejo en el mundo académico. La difícil, y por ello nunca bien resuelta, polémica entre formación liberal y formación profesional sigue presente en la concepción de las enseñanzas y los planes de estudio. Encontrar un modelo único para todo tipo de formación es equivocado pero los mensajes que las Universidades reciben de la sociedad son inequívocos en el sentido de reforzar los objetivos de adecuación al mercado laboral. Basta analizar la demanda de estudios por parte de los estudiantes en los últimos diez años en España para comprobar que ésta se dirige hacia las carreras que, según la percepción del estudiante, tienen mayor y mejor proyección en el mercado de Tendencias de la Educación universitaria trabajo. Las Universidades no pueden mirar hacia otro lado, pensando que la sociedad se equivoca y seguir amparándose en una libertad académica y en una autonomía mal entendidas. Creatividad, enseñanza y aprendizaje Recordando el poco éxito de la producción o creación de conocimientos y la escasa innovación tecnológica de la sociedad europea frente a la norteamericana, cabe pensar si en alguna medida la formación de profesionales tiene que ver con ello. La formación actual está centrada principalmente en el desarrollo de contenidos disciplinares, en asignaturas diseñadas por los profesores en función, no solo pero si de manera importante, de sus puntos de vista y, lo que es peor, de sus intereses. El resultado es una acumulación de contenidos, unos curricula muy densos que convierten el trabajo del estudiante en un ejercicio de repetición de lo explicado por el profesor dejando apenas espacio y tiempo para el desarrollo de su creatividad. La creatividad no es una disciplina, una asignatura que pueda ser explicada en el aula. La creatividad no se enseña, se aprende, y depende de las condiciones en que se desarrolla la enseñanza. La creación, además de libertad, que ya se tiene, requiere reflexión y ésta requiere tiempo, lo cual debe llevar a las Universidades a prestar más atención al fomento de la creatividad en los estudiantes mediante la innovación en los contenidos curriculares de las enseñanzas y en los métodos de concebir la formación. En un mundo que experimenta cambios rápidos, se percibe la necesidad de una nueva visión y un nuevo paradigma de la enseñanza superior, que tendrá que estar más orientadas al estudiante. Es lo que se denomina de manera esquemática el cambio de énfasis de la enseñanza al aprendizaje. Como señala la Declaración de la conferencia Mundial de la UNESCO de octubre de 1998: «Para conseguir estos objetivos es posible que haya que reestructurar los curricula, implantando métodos nuevos y adecuados que vayan más allá del dominio cognoscitivo de las disciplinas. Se han de fomentar nuevos puntos de vista pedagógicos y didácticos para facilitar la adquisición de técnicas, competencias y capacidades de comunicación, creatividad y análisis crítico, pensamiento independiente y trabajo en equipo en contextos multiculturales, donde la creatividad también implica combinar el saber y los conocimientos locales y tradiciones con la ciencia y las tecnologías avanzadas». Una de las claves, pues, del estancamiento de la innovación en Europa está en el proceso formativo de los graduados superiores. El proceso Vicente Ortega Castro cíclico marcado por el segundo objetivo de la Declaración de Bolonia parece buscar el necesario equilibrio entre la formación creativa orientada al mercado, la especialización concreta y la formación de investigadores. El medio plazo lo fijarían las tendencias y la evolución del mercado y se cubrirían con un primer grado suficiente poco especializado donde el método fuera tal que se fomentará el aprendizaje y la creatividad; el corto plazo se desarrollaría mediante el grado de master, flexible y cambiable según las demandas del mercado; y el largo plazo se liaría mediante la formación de doctores, de investigadores donde la creatividad y la producción de conocimientos sería lo fundamental. Es en suma, aunque cueste reconocerlo como tal, el modelo de las mejores universidades norteamericanas. 4, Movilidad, intemacionalización y cooperación Todo lo anterior debe hacerse teniendo en cuenta otra de las características que definen la sociedad del siglo XXI y que ya se mencionó anteriormente: la globalización. A ello apuntan los cuatro objetivos siguientes a los dos analizados, de la Declaración de Bolonia, cuando establece: «La promoción de la movilidad removiendo los obstáculos para el ejercicio efectivo del libre movimiento de los estudiantes y de los profesores y del personal de administración, reconociendo y valorando los periodos atendidos en otras Universidades realizando tareas de investigación, enseñanza y aprendizaje». O cuando habla de «La promoción de la dimensión europea de la educación superior, particularmente en el desarrollo de los curricula, la cooperación interinstitucional, esquemas de movilidad y programas integrados de estudio, aprendizaje e investigación». Para facilitar estos objetivos la Declaración de Bolonia propone: «La adopción de un sistema de créditos -tal como el sistema ECTS-como un medio adecuado para promover la movilidad estudiantil lo más amplia posible, considerando que los créditos pueden obtenerse en contextos no universitarios, incluyendo la formación durante toda la vida». El sistema ECTS -European Credit Transference System-ha sido ensayado con éxito relativo en el programa ERASMUS de movilidad de estudiantes. Se trata de un sistema de valoración de las enseñanzas basado en el esfuerzo y el trabajo del estudiante, es decir, en el aprendizaje, más que en la carga horaria lectiva, basada en las horas de clase del profesor. Créditos que deben ser transferibles entre instituciones y acumulables para la obtención de los diversos grados. Para ello, la unidad de medida, el crédito, Tendencias de la Educación universitaria debe ser lo más homogénea, cuantitativa y cualitativamente, en todos los países europeos. Un ejemplo nos ayudará a entender la importancia del establecimiento del sistema ECTS. Si se parte de que la jornada laboral del estudiante es de 1800 horas al año y se define el crédito como el equivalente a 30 horas de trabajo un curso se compondría de 60 créditos. Si se estima que el número de semanas efectivas de trabajo, incluyendo exámenes y periodos de prácticas, es de 40 semanas esto implica una media de 1,5 créditos por semana. Compárese esto con el caso español con una media de 2,5 créditos -25 horas de clase-por semana para comprender que debe hacerse un esñierzo por reducir los contenidos, la explicación clásica en las clases presenciales, y aumentar la labor de orientación, de tutoría, de fomento y valoración de trabajo personal y en equipo de los estudiantes. Esto requiere un cambio de cultura y de hábitos del profesorado, que, experiencias recientes, muestran que es muy difícil. Permítanme que cuente mi experiencia personal. En mi etapa de estudiante en la Universidad Politécnica de Madrid el número de horas de clase rondaba las 25 semanales y el esfuerzo para aprobar era notable. En mis estudios de postgrado en una prestigiosa universidad de California las horas de clase no pasaban de 12 a la semana y sin embargo mi esfuerzo personal era mayor que el que tuve que hacer en España. Esto es el método basado en el aprendizaje, distinto al basado en la enseñanza. En lo referente a la cooperación institucional -incluida la cooperación con el mundo empresarial y las administraciones públicas además de con otras universidades-la movilidad y la innovación, el ejemplo de la gestación, desarrollo e implantación de INTERNET es un modelo paradigmático de un éxito sin precedentes del modo de hacer de las universidades norteamericanas. Queda fuera del contenido de este artículo relatar esa historia reciente pero recomiendo estudiarla en la amplia bibliografía existente, entre la cual citaré el libro, recientemente publicado, «La Galaxia de INTERNET» del profesor y sociólogo español Manuel Castell, de cuyo libro tomaré las siguientes citas: «Así pues, la cultura de Internet radica en la tradición académica de la investigación científica compartida, la reputación obtenida gracias al prestigio académico, la evaluación por parte de los colegas y la apertura y publicidad de las investigaciones. Históricamente, Internet se construyó en los círculos, tanto en las atalayas de los catedráticos, como en las trincheras de los estudiantes de doctorado, cuyos valores, hábitos y conocimientos se transmitieron a la cultura hacker». El papel de las universidades, la cooperación entre ellas, la movilidad del personal entre las universidades, Vicente Ortega Castro los centros de investigación de grandes empresas y la cooperación y financiación de departamentos de la administración USA muestran un ejemplo de los valores que estamos señalando. En otra página del libro escribe: «Si existe una idea compartida sobre las consecuencia sociales del creciente acceso a la información es que la educación y el aprendizaje a lo largo de la vida constituyen herramientas esenciales para el éxito en el trabajo y el desarrollo personal. Lo fundamental es cambiar el concepto de aprender por el de aprender a aprender (...) En otras palabras, el nuevo aprendizaje está orientada hacia el desarrollo de la capacidad educativa que permite transformar la información en conocimiento y el conocimiento en acción». Nuevos métodos^ nuevas tecnologías? nuevas demandas La alusión a Internet como ejemplo de creatividad y cooperación institucional llevado a cabo por Universidades norteamericanas nos conduce directamente a la importancia creciente de las Tecnologías de la Información y de las Comunicaciones (TIC) en todas las fases y ciclos de la enseñanza superior. Empieza a ser un tópico manejado en todos los informes pero, si la sociedad del conocimiento ha sido posible gracias a estas tecnologías que alteran notablemente las formas de producción, de almacenamiento, acceso y difusión de la información, parece claro que las Universidades tendrán que utilizarlas de forma sistemática en sus funciones de creación, transmisión y almacenamiento de la información y en sus procesos de investigación y formación de profesionales. A pesar de ello, las Universidades se muestran muy lentas en la adaptación de sus métodos, normas y formas organizacionales a esta nueva realidad mientras que otras instituciones no universitarias se muestran muy activas en segmentos de la educación donde las legislaciones nacionales les permiten operar sin restricciones. La Conferencia de Rectores de las Universidades Europeas (CRE) lanzó en 1996 un proyecto para explorar el impacto de las TIC en la Universidad y publicó, posteriormente, un documento titulado «Reestructurando la Universidad: el desafío de las nuevas tecnologías». En dicho documento se recogen, entre otras muchas las siguientes conclusiones: falta de estrategias institucionales claras para suministrar un marco de trabajo para el desarrollo y utilización de las nuevas tecnologías en la enseñanza; fuerte resistencia tanto de los profesores como del personal de administración para usar estas tecnologías; problemas para estimar los costes de estas actividades, que son a menudo infraestimadas. Los pro-Tendencias de la Educación universitaria pios Rectores reconocen que se avanza poco al tiempo que intuyen que es necesario dar pasos rápidos hacia delante. No se trata tan solo de un uso meramente instrumental de estas tecnologías en los procesos docentes, como cambiar la pizarra y la tiza por el cañón de vídeo o el programa «Power point», o enviar documentos en formato clásico vía Internet. Se trata de cambiar las formas de organización de la enseñanza, desde la matriculación y seguimiento de los estudiantes, la preparación y presentación de materiales, la tutoría permanente, el concepto de horario y de tareas, el coste de las enseñanzas, la valoración y acreditación de las mismas, las condiciones para la obtención de un grado y otras muchas mas. No se trata solo de crear Universidades abiertas, o a distancia, o virtuales, sino que todas las Universidades combinen procesos presenciales con procesos a distancia usando las tecnologías de la información y de las comunicaciones con nuevos métodos apropiados al uso de tan poderosa herramienta. A todo lo anterior se une la necesidad de atender una creciente demanda de formación superior de individuos y grupos que no son las cohortes tradicionales de bachilleres de 18 años procedentes, principalmente, del entorno geográfico próximo al campus universitario. En efecto, en los últimos años no solo se ha estancado el número de estudiantes que solicitan ingresar en la Universidad, sino que está disminuyendo a un fuerte ritmo que continuará, por lo menos, hasta que los hijos de la creciente población inmigrante llame a las puertas de la Universidad. Este fenómeno, reciente en España, junto con el aumento del número de centros universitarios ha empezado a preocupar seriamente a las Universidades que, lenta y reactivaraente, comienzan a modificar sus actitudes de contención de la demanda a realizar campañas de información para atraer estudiantes a sus aulas. Sin embargo, otros tipos de demanda están creciendo. La más importante es la denominada formación continua, formación posgraduada o formación durante toda la vida («long life learning»). Se acabó ya hace años el concepto de que una vez obtenida la graduación en una Universidad solo había que dejar correr a la experiencia en el puesto de trabajo. Aprender con la experiencia sigue siendo obvio pero, además, en todas las profesiones basadas en el conocimiento la necesidad de la actualización es imperiosa. Hay un gran mercado de la formación continua en el que participan muchas empresas de sectores no educativos o empresas educativas surgidas de empresas industriales o comerciales que realizan su actividad y su negocio en este gran mercado. Las Universidades también han entrado en este mercado, en parte para obtener recxirsos financieros adicionales, pero me temo que la mayor parte del mercado no está en las Universidades. Ya señale anteriormente Vicente Ortega Castro que la investigación y el desarrollo no eran exclusivas de las Universidades. Tampoco lo es, ni debe serlo, la formación continua y ésta tiene una demanda creciente en la que las Universidades tienen que competir con otras instituciones muchas veces más adaptadas a procesos competitivos, con formas de organización adecuadas al tipo de demanda y con estructuras más ágiles y flexibles que las que poseen las Universidades que no acaban de integrar de forma eficaz este tipo de formación dentro de sus estructuras organizativas tradicionales sin establecer por ello nuevas estructuras. Otro tipo de demanda, aun incipiente, pero que puede aumentar en el futuro próximo sobre todo si se hace una oferta atractiva, es la derivada del aumento de la población de jubilados que buscan una oferta de tipo cultural para llenar tiempo de ocio, satisfacer anhelos no satisfechos en su edad joven u otras causas. Evidentemente, los métodos y los contenidos de los estudios no pueden ser los mismos que los empleados para los bachilleres. Y por último otro tipo de demanda lo constituye el contingente de estudiantes extranjeros tanto en los ciclos de pregraduación como en los de graduación. En España, el porcentaje de alumnos extranjeros en las Universidades apenas alcanza el 0,5% en los estudios pregraduados y el 8% en posgrado y doctorado, cifras ridiculas si las comparamos con las existentes en muchas Universidades norteamericanas. Ya vimos al comentar la Declaración de Bolonia la preocupación existente en Europa por la falta de competitividad del sistema europeo de educación superior en el mercado global de dicha educación. La educación superior, factor de suma importancia en la sociedad del conocimiento, es por ello mismo un sector con implicaciones económicas y sociales en el desarrollo de una sociedad que se rige por reglas de mercado, hasta tal punto que empieza a ser considerada como sector a regular por la Organización Mundial del Comercio. Esto no quiere decir que las Universidades tengan que regirse por reglas de mercado pero tampoco puede aislarse y orientar sus actuaciones fuera de las grandes tendencias sociales. Es necesario que emprenda nuevo métodos basados en el aprendizaje con la incorporación de las tecnologías de la información y de las comunicaciones y que cambie sus esquemas, tradicionales de organización de la enseñanza y de la investigación teniendo en cuenta las nuevas demandas y las nuevas necesidades en un mundo globalizado y competitivo. 6o Calidad y rendición de cuentas Hasta la década de los noventa en Europa no preocupaba demasiado la promoción y la medición de la calidad en las Universidades. Con muy Tendencias de la Educación universitaria poca tradición en procedimientos de evaluación y acreditación de las enseñanzas, la investigación y los resultados de los procesos, la única calidad percibida era la resultante de la antigüedad o de la dimensión de la institución universitaria. Situación ésta muy distinta de la existente en Norteamérica, donde instituciones externas a las Universidades, incluida la prensa especializada, se ocupan de evaluar las actividades de las Universidades, acreditar sus programas y grados y establecer, incluso, clasificaciones para informar a los ciudadanos a la hora de tomar decisiones. Las Universidades tienen, y deben tener, un alto grado de autonomía de organización, de gobierno y de gestión. Son, en su mayoría, instituciones públicas financiadas en más de tres cuartas partes por presupuestos de las Administraciones Públicas, es decir, con los impuestos de los ciudadanos. El propio concepto de «servicio público de la educación superior» lleva a que la contrapartida a la autonomía sea el correcto ejercicio de su responsabilidad social, para que la Universidad pública pueda rendir a la sociedad lo que ésta tiene derecho a exigirle: calidad docente e investigadora y utilización eficaz y eficiente de los recursos públicos puestos a su disposición. A su vez, los gobiernos democráticos tienen la obligación de rendir cuentas a los Parlamentos de sus políticas y de la utilización de sus presupuestos. El interés que tienen los procesos de evaluación y acreditación para la sociedad es claro y se debe centrar en un triple aspecto: informar a la sociedad (familias, empresas e instituciones) para una mejor toda de decisiones; orientar las políticas de asignación de recursos públicos y estimular a las propias Universidades en sus procesos de permanente perfeccionamiento y mejora. Decía que en Europa, siguiendo una vez mas el modelo de Estados Unidos, la preocupación por los temas de evaluación de la calidad dan paso a la acción en 1991, cuando se elevó a consideración una propuesta de recomendación del Consejo, relativa a la «cooperación europea en materia de garantía de la calidad en la enseñanza superior. En España, después de un «Programa experimental de evaluación del sistema universitario» puesto en marcha por el Consejo de Universidades en 1992 y de la participación en el «Proyecto Piloto europeo de evaluación de la calidad de la enseñanza superior» en el bienio 1994-95, se puso en marcha el Plan Nacional de Evaluación de la Calidad de las Universidades que, actualmente, y con modificaciones, continua desarrollándose. En Europa ha ido calando el concepto y las prácticas de evaluación de la calidad de modo que la Declaración de Bolonia, ya citada anteriormente, recoge explícitamente la importancia de la medición de la calidad Vicente Ortega Castro cuando en el punto quinto recomienda: «La promoción de la cooperación Europea en la garantía de la calidad con vistas a desarrollar criterios y metodologías comparables». Así pues, la medida del equilibro entre la autonomía universitaria y su responsabilidad social a través de, entre otros factores, la evaluación, la acreditación y la certificación de la calidad se revela como una de las tendencias del nuevo milenio y cobra mayor importancia, en el nuevo mercado de la educación superior, en el que las Universidades tendrán que competir entre ellas y con otras instituciones docentes e investigadoras. Complejidad, multifuncionalidad y financiación En el último cuarto de siglo se ha pasado de una Universidad de élites a la Universidad de masas. El crecimiento de casi todos los parámetros de los sistemas universitarios: número de estudiantes, número de centros, número de graduados, etc., ha sido espectacular. También la financiación pública ha crecido pero en menor proporción que los otros crecimientos y, últimamente, tiende a estancarse. Ahora que la demanda tradicional de enseñanza, la de los bachilleres, tiende a disminuir, nuevas demanda educación superior surgen. La sociedad pide a las Universidades que forme profesionales válidos para el mercado laboral; que forme individuos creativos e innovadores; que cree conocimientos a través de una investigación que sea a la vez básica y orientada a las necesidades de la sociedad; que atienda nuevas demandas de formación durante toda la vida; que se internacionalice y que sus profesores y estudiantes se muevan entre universidades y empresas y cooperen con otras instituciones sociales; que lo hagan todo con unos estándares altos de calidad, rindiendo cuentas a la sociedad; y todo ello dentro de un mercado cada vez mas globalizado, mas abierto y más competitivo donde la creación de conocimientos y la formación ha dejado de ser exclusiva de las Universidades. Es decir, a las funciones clásicas de las Universidades se les añaden otras nuevas y se demandan nuevos métodos para llevar a cabo las antiguas. En suma, las Universidades han de desarrollar sus funciones en un panorama complejo y múltiple con esquemas de multifuncionalidad difíciles de implementar por falta de una cultura organizacional adecuada a estas múltiples tareas que, a veces, parecen incluso contradictorias. A las dificultades intrínsecas de esta complejidad y de esta multifuncionalidad se suma la extrínseca de un estancamiento en las formas tra-Tendencias de la Educación universitaria dicionales de financiación pública y de la exigencia de que sean cada vez más importantes los recursos obtenidos del sector privado, sea por un aumento de los precios públicos a los estudiantes, por servicios de investigación al mundo empresarial o por otras prestaciones de servicios. Es lo que algunos movimientos estudiantiles han llamado exagerada e impropiamente la privatización de la Universidad. Se ha llegado a discutir el concepto tan arraigado en Europa de la enseñanza superior como servicio público y en todos los países se discuten los problemas de equidad ligados a quién debe pagar el coste del servicio. Temas de honda raíz política que seguirán dando que hablar en las próximas décadas. Pero una tendencia parece evidente, independiente del color más liberal o más social de los gobiernos de turno: la financiación pública ha alcanzado, o está a punto de alcanzar, su techo y los esquemas clásicos de financiación indiscriminada tienden a ser sustituidos por políticas de financiación basadas en programas competitivos y en los resultados obtenidos. Dicho de otro modo, la financiación pública crecerá poco y será más exigente. En este panorama, que tiene aspectos positivos y negativos, las Universidades tendrán que diseñar estrategias de búsqueda y de gestión de recursos para la institución como un todo, combinando políticas de incentivo para los departamentos y profesores más competentes, con políticas de subsidio cruzado para la Universidad en su conjunto. Las Universidades, dentro de la multiplicidad de funciones que la caracterizan tendrán que examinar sus fortalezas y otear sus oportunidades y ajustar sus actividades en función de ellas y de sus recursos. No todos las Universidades podrán abordar con éxito todas las funciones y se producirá inevitablemente una diferenciación entre Universidades, circunstancia que en Europa empieza a producirse pero que en los Estados Unidos es moneda corriente desde hace mucho tiempo. Las nuevas formas de creación, almacenamiento y transmisión de la información del conocimiento, y de formación de profesionales en un mundo globalizado, más desregulado y más competitivo en un escenario de nuevas formas de financiación plantea desafíos a las Universidades que deben ser aprovechados haciendo un esfuerzo de imaginación para actuar proactivamente ante la situación y no reactivamente como lo han hecho en ocasiones anteriores. Como decía Albert Einstein: «en épocas de crisis solo la imaginación es más importante que el conocimiento».
MISIÓN Y CONCEPTOS CLAVE S. Bennet inicia su libro [3], dedicado a la historia de la Ingeniería del Control, con la siguiente cita de Aristóteles del capítulo 3 del primer volumen de "Política"... Si cada instrumento pudiera llevar a cabo su propia función, respondiendo o anticipándose al trabajo de otros... Si la lanzadera tejiese y la púa tocase el arpa sin una mano que los guiara, los patronos no necesitarían ni sirvientes ni capataces. Esta idea, expresada con enorme acierto por Aristóteles, refleja de manera transparente lo que ha sido el motor de la Ingeniería del Control y de su teoría matemática: la automatización de los procesos para la liberación y mejora de la calidad de vida del ser humano. La palabra "control" implica "actuación" y refleja el esfuerzo humano para intervenir en el medio que le rodea para garantizar su supervivencia y una permanente mejora en la calidad de vida. Muchos de los problemas de control pueden analizarse a través de un modelo matemático que describe el sis-tema físico en consideración a través de la ecuación de estado A (y) = f (v). Aquí, y es la solución, el estado, la variable que proporciona información sobre el "status" del sistema y v es el control, la variable que podemos elegir con libertad en U ad (el conjunto de controles admisibles) para actuar sobre el mismo. En la práctica (1.1) es una ecuación o sistema algebraico o funcional (integral, diferencial ordinario, en derivadas parciales, etc.), eventualmente completado con condiciones iniciales, de contorno u otras. "Controlar" el sistema (1.1) es hallar v en U ad tal que la solución de (1.1) verifique un objetivo prefijado. Cuando esta propiedad se cumple se dice que el sistema es controlable y, cuando lo es, con frecuencia, existe más de un control que satisface el objetivo. En estos casos es natural seleccionar un control óptimo, de talla mínima en una determinada norma. Esta formulación puede parecer sofisticada e incluso oscura a los lectores no familiarizados con este tema. Sin embargo, ha surgido de manera natural a lo largo de la historia de esta disciplina y posee la gran ventaja de unificar el planteamiento de problemas de naturaleza muy distinta. La disciplina del Control ha existido desde hace mucho tiempo, incluso antes de haber recibido esa denominación. Ciertamente, en el mundo de los seres vivos, los organismos están dotados de mecanismos que regulan las diferentes tareas que realizan. Esto garantiza que las variables esenciales pertenezcan a regímenes óptimos y las especies se mantengan con vida y capaces de crecer, desarrollarse y reproducirse. Así, las ideas clave de la Teoría de Control son familiares a todos, dado que tienen su origen en la Naturaleza. La primera de ellas es el concepto de feedback (o retroalimentación). Este término fue incorporado a la Ingeniería del Control en los años 20 por el "Bell Telephone Laboratory" pero en esa época estaba ya consolidado en otras áreas, como por ejemplo la Economía Política. En el contexto de (1.1), llamaremos feedback a toda ley que permita determinar el control v a partir de la solución asociada de (1.1). Dicho de otro modo, un proceso en feedback es aquél en el cual el estado del sistema determina en cada momento el modo en el que debe actuar el control. Esta estrategia está relacionada con la noción de control en tiempo real, muy importante en las aplicaciones. Hoy día, los procesos en feedback son ubicuos y aparecen en disciplinas tan diversas como la Economía, Biología, Psicología, etc. De acuerdo con ello, en muchas áreas diferentes, el clásico principio de causa-efecto ya no se entiende como una ley estática, sino que se observa desde una perspectiva dinámica. Así, debemos hablar más bien del principio de causa-efecto-causa. Para una discusión sobre el tema, véase por ejemplo [15]. Una segunda idea clave está recogida en el siguiente párrafo, escrito por H. R. Hall en 1907 y tomado de [3]: La necesidad de permitir las fluctuaciones propias de un sistema corresponde a nuestra experiencia diaria. Por ejemplo, cuando conducimos un vehículo a gran velocidad y deseamos frenar, generalmente tratamos de hacerlo intermitentemente, intentando mantener el vehículo bajo control en todo momento. En el contexto de las relaciones humanas, es también claro que insistir en exceso en la misma idea no es necesariamente el mejor modo de convencer a alguien de algo. La misma regla se aplica para el control de un sistema: Con carácter general, es preferible repartir o distribuir la acción del control, renunciando incluso a actuar en determinados instantes, y no actuar ininterrumpidamente desde el momento inicial sobre el sistema 1. Muy a menudo, es mucho más eficiente controlar tratando de mantener una armonía que permita evolucionar hacia la situación deseada sin brusquedad. En efecto, un exceso de control podría conducir a un coste inadmisible y también a daños irreversibles en el sistema en consideración. En la Teoría de Control, otro concepto importante es el de "optimización". La Optimización se caracteriza por ser una rama de las Matemáticas cuyo objetivo es mejorar una variable con vistas a maximizar un beneficio (o minimizar un coste). Esto se puede aplicar a muchas situaciones prácticas distintas (la variable puede ser una temperatura, un campo de velocidades, una medida de la información, etc., véase [12]) y la Teoría de la Optimización y sus técnicas constituyen un campo de trabajo de tal magnitud que es imposible hacer aquí una presentación unificada. En la práctica, un problema tipo en optimización es aquél en el que se desea conducir la solución (1.1) a un estado objetivo y d y para ello se minimiza la distancia entre y e y d. Así, con este planteamiento, un problema de control se reduce al cálculo de puntos extremales con restricciones (y esto explica la íntima conexión de la Teoría de Control con la Optimización a la que nos hemos referido). Con frecuencia también se utiliza la denominación de Ingeniería del Control y cabe preguntarse si esta disciplina y la llamada Teoría Matemática de Control son verdaderamente distintas. Pero el que haya una doble denominación es más bien una prueba del vigor de un campo genuinamente multidisciplinar y transversal en el que intervienen numerosas técnicas de la Ciencia y la Tecnología. Con el objeto de entender mejor la coexistencia y el uso de estos dos términos, conviene adoptar un punto de vista histórico. En los trabajos de Ch. Huygens y R. Hooke sobre la oscilación del péndulo a finales del siglo XVII, cuyo objetivo último era una medición precisa del tiempo, aparecen de nuevo elementos de lo que hoy conocemos como Teoría de Control. El objetivo entonces era proporcionar instrumentos que sirviesen a la navegación y, en particular, al control del posicionamiento de los navíos. Estos trabajos fueron después adaptados a la regulación de la velocidad en los molinos de viento, utilizando un sistema mecánico de bolas que giraban en torno a un eje cuya velocidad de rotación fuese proporcional a la de las aspas del molino. Cuando la velocidad de giro aumentaba excesivamente, las bolas se alejaban del eje, frenando las alas del molino a través de ingeniosos mecanismos y manteniendo de ese modo una velocidad aproximadamente constante. James Watt adaptó este principio a la máquina de vapor, dando así un enorme impulso a la revolución industrial. El astrónomo inglés Georges Airy fue el primero en intentar describir y explicar el comportamiento del regulador de bolas de Watt en términos matemáticos. Pero fue sólo en 1868 cuando el físico escocés J. C. Maxwell realizó el primer análisis teórico convincente, explicó algunos de los comportamientos un tanto erráticos que se observaban en las máquinas de entonces y propuso diversos mecanismos de control. A través de la revolución industrial, las ideas propias de lo que hoy se denomina Teoría de Control fueron tomando cuerpo y haciéndose más y más presentes. De este modo, la Ingeniería del Control germinó y empezó a ser reconocida como una disciplina científico-tecnológica con entidad propia. En los años 30 se comenzó a asumir que la Ingeniería del Control formaba parte importante del entramado de la Ingeniería de Sistemas Complejos. Paralelamente, se produjo un importante avance en todo lo relacionado con el control automático y las técnicas de diseño y análisis. Las aplicaciones eran numerosas: amplificadores en sistemas telefónicos, el sistema de distribución de plantas eléctricas, la estabilización de aviones, los mecanismos eléctricos para la industria papelera, química, del petróleo y del acero, etc. De este modo fueron surgiendo gradualmente nuevos y sólidos conceptos y para finales de esa década se contaba ya con dos métodos emergentes, pero diferenciados: un primer método basado en la utilización de ecuaciones diferenciales y otro, de carácter frecuencial, basado en el análisis de la relación entre la amplitud y fase de la entrada (el "input") y de la salida (el "output"). Ya para entonces las instituciones comenzaban a tomar conciencia de la relevancia de la disciplina del control automático. Era el caso, por ejemplo, de la Sociedad Americana de Ingenieros Mecánicos (ASME) en Estados Unidos y de la Institución de Ingenieros Eléctricos (IEE) en Gran Bretaña. Durante la Segunda Guerra Mundial y los años que la siguieron, los ingenieros y científicos tuvieron que afinar su experiencia en los mecanismos de control de seguimiento de aviones y de proyectiles antiaéreos y en el diseño de baterías antiaéreas. A partir de 1960, todo lo que acabamos de describir comenzó a conocerse como la Teoría de Control "clásica". En la década de los 60 comienza una nueva era en la que se hace frente a algo que se había puesto de manifiesto con claridad en los desarrollos previos: los modelos utilizados hasta ese momento eran inadecuados para representar la complejidad del mundo real, puesto que éste, con frecuencia, tiene un comportamiento no lineal y no determinista. Las contribuciones de R. Bellman (programación dinámica), de R. Kalman (filtrado y análisis algebraico de problemas de control) en los Estados Unidos y de L. Pontryagin (principio del máximo para problemas de control óptimo no-lineal) en la Unión Soviética establecieron los pilares fundamentales de la investigación en Teoría de Control de las últimas décadas. A esta lista es adecuado añadir el nombre de J.-L. Lions 2, ilustre matemático aplicado francés, que influyó de manera decisiva en el desarrollo de esta disciplina y en particular en sus conexiones con las Ecuaciones en Derivadas Parciales (EDP), el Análisis Numérico y las aplicaciones industriales. El papel de las Matemáticas no ha hecho más que crecer en las últimas décadas en el mundo del Control. R. Kalman, uno de los grandes protagonistas de la Teoría de Control moderna señaló en 1974 en su artículo [10] que, en el futuro, los avances en la Teoría de Control y la Optimización de sistemas complejos vendrían de la mano de progresos matemáticos más que tecnológicos. Hoy en día es tan fuerte el impulso de las nuevas tecnologías que resulta arriesgado mantener esta afirmación. Lo que En este artículo no pretendemos, ni mucho menos, hacer un repaso exhaustivo de la Teoría de Control ni presentar el estado del arte en el campo. Se trata de una disciplina tan rica que esta tarea excede con creces las dimensiones del mismo. Los lectores interesados podrán aprender más sobre estos temas a través de la bibliografía presentada al final. ALGUNAS APLICACIONES: DE LA CISTERNA A LOS ROBOTS Son numerosas las aplicaciones de la Teoría de Control tanto en la vida diaria como en los procesos tecnológicos e industriales más sofisticados. En el libro editado por W. S. Levine [11], se recoge un buen número de ellas. Algunas son tan simples como el mecanismo de funcionamiento de la cisterna de nuestro cuarto de baño. Son muchas las variantes (existen patentes que datan ya del año 1886), pero todas ellas funcionan sobre los mismos principios básicos. Lo que es más sorprendente es que en un mecanismo tan simple y cotidiano encontremos ya algunos de los elementos básicos de todos los procesos de control. Efectivamente, la cisterna está dotada de válvulas reguladoras, de mecanismos que desencadenan el proceso de control que, en función del nivel de líquido captado por los sensores, suministran más o menos agua al depósito y de otros que, en el caso de algún fallo, evitan las siempre desagradables inundaciones. Los mecanismos de control del ruido en las aeronaves modernas, a pesar de ser mucho más sofisticados desde el punto de vista tecnológico, funcionan sobre principios semejantes. Como hemos dicho, la lista de ámbitos industriales en los que la Teoría de Control interviene de manera decisiva es muy larga: la industria papelera, la automovilística, la seguridad nuclear, los sistemas de defensa, los sistemas de calefacción, ventilación y aire acondicionado en los grandes edificios, los lectores de discos compactos, las redes de generación y suministro eléctrico, los dispositivos de reducción del ruido, etc.; sin olvidar las crecientes aplicaciones en la Medicina actual como el diseño de corazones artificiales o de mecanismos de suministro de insulina. Con frecuencia, los sistemas a los que se tiene que hacer frente son sumamente complejos e incluso pueden presentar dinámicas caóticas. De hecho, el control del caos es un tema de gran actualidad. En efecto, la naturaleza caótica de un sistema puede ser un serio obstáculo para su control, pero también puede convertirse en un aliado. Por ejemplo, las impresionantes piruetas en las trayectorias de aviones de combate, están basadas en el control a lo largo de trayectorias inestables. Es también en el campo de la Aeronáutica, donde el control de la turbulencia juega un papel fundamental; véase por ejemplo [13,16]. En este campo, además de estos aspectos relacionados con el control activo de trayectorias, se realiza permanentemente un importante esfuerzo también de control pasivo, consistente en el diseño óptimo u optimización de las formas de las aeronaves, para que éstas sean más seguras, silenciosas, rápidas, para que consuman menos combustible, etc.; véase [14,17]. Esto exige la combinación de sofisticadas técnicas de modelado, Mecánica de Fluidos Computacional, Optimización, y Computación y es un ámbito en el que los países líderes en Ciencia y Tecnología hacen importantes inversiones. Podríamos ampliar esta lista de importantes aplicaciones. Las estaciones espaciales que incorporan plataformas, reflectores ópticos de grandes dimensiones, los sistemas de comunicación mediante satélites, etc., son ejemplos aún más sofisticados pero que van a ser cada vez más frecuentes y relevantes. El control de robots, desde los más simples, hasta los bípedos que reproducen la capacidad locomotriz del ser humano, es otro de los temas que atrae buena parte de la atención de la Teoría de Control hoy día. La Teoría Matemática subyacente a éstas y otras aplicaciones es también impresionante. Para una introducción a la misma en la que se abordan algunos ejemplos prácticos como el péndulo, un modelo simplificado de automóvil, el diseño molecular y algunos problemas relacionados con el medio ambiente, véanse los artículos más extensos [8] y [24]. El lector interesado en una introducción a las técnicas matemáticas básicas en la Ingeniería del Control y sus aplicaciones más comunes podrá consultar los libros [6] y [19]. LA BARRERA DEL TÁMESIS: UN EJEMPLO DE CONTROL AMBIENTAL En los últimos años es creciente la presencia de las Matemáticas en los diversos ámbitos de las Ciencias de la Vida. Así, las Matemáticas a través de sus especialidades más aplicadas como pueden ser las Ecuaciones en Derivadas Parciales y el Análisis Numérico no se ocupan ya sólo de los modelos clásicos de la Mecánica del Continuo, sino que también abordan cuestiones relacionadas con la Biología, la Medicina, la Metereología, etc. La barrera del Támesis, que describimos brevemente en esta sección, es sin duda un ejemplo excelente de aplicación de las Matemáticas y en particular de la Teoría de Control al medio ambiente. Recientemente, el trágico "tsunami" 3 que devastó el sur de Asia nos ha recordado hasta qué punto es importante desarrollar también teorías que nos permitan predecir y mantenernos al abrigo de las posibles catástrofes naturales. depresiones de varios metros en el nivel del mar en un período de tiempo que puede ir de varias horas a dos o tres días. Los vientos también generan olas con períodos de hasta veinte segundos y longitudes del orden de decenas de metros. El efecto combinado de estos dos factores puede entrañar un importantísimo riesgo de destrucción e inundación. La amplitud del desastre depende frecuentemente de un posible efecto de acumulación. Si estas elevaciones y olas se producen cuando la marea es alta, el riesgo de inundaciones es evidentemente mucho mayor. Este problema ha llegado a ser considerado como una verdadera prioridad en muchos lugares de nuestro planeta. Sin ir más lejos, en Londres se tiene constancia desde la Edad Media de inundaciones regulares, algunas de ellas muy importantes, debidas a elevaciones inesperadas en el nivel del Támesis. La elevación del agua puede incluso superar en más de dos metros el nivel medio esperado. Por otra parte, el nivel medio del agua en el puente de Londres se eleva unos 75 centímetros cada siglo a causa del derretimiento de los hielos polares y esto hace que el problema sea cada vez más grave. El proceso por el que se producen estas inundaciones es en grandes líneas el siguiente. Con las bajas presiones atmosféricas en la costa de Canadá, el mar se eleva unos 30 centímetros en una zona de unos 1.600 kilómetros de diámetro. Esta elevación de agua se propaga a través del Atlántico a una velocidad de 80-90 kilómetros por día, hasta llegar al norte de Inglaterra. Ocasionalmente, los vientos septentrionales pueden empujar esta elevación a lo largo del Mar del Norte, inyectando en el Támesis millones de toneladas de agua adicional, que son empujadas río arriba. En ese momento el Gobierno Británico decidió constituir un comité de expertos que puso entonces de manifiesto la necesidad de desarrollar algún tipo de mecanismo de defensa. Pero no hubo consenso sobre cuál era la mejor solución. Finalmente, en 1970 se tomó la decisión de construir una barrera que se cierra cuando las previsiones indican un Para los que viven y trabajan cerca de las costas la importancia de ser capaces de predecir el estado del mar con el objeto de protegerse de posibles inundaciones es evidente. Éstas se producen a través de complejas interacciones de las mareas, olas y tormentas. Los vientos y las variaciones de la presión atmosférica debidas a una tormenta pueden producir elevaciones o ENRIQUE FERNÁNDEZ-CARA Y ENRIQUE ZUAZUA peligroso aumento en el nivel medio de agua. Tras ocho años de trabajo en el que intervinieron más de 4.000 personas, la barrera fue inaugurada en 1984. La barrera está constituida por diez enormes compuertas de acero construidas sobre estructuras de hormigón y ancladas en el lecho del río, dotadas de una maquinaria que permite el tráfico con normalidad cuando están abiertas y su cierre en caso de necesidad. Desde que se construyó, la barrera ha sido cerrada en tres ocasiones. En las Figuras 4 y 5 4, se muestra un esquema del mecanismo utilizado y del funcionamiento del mismo. dos están igualados, siendo el tiempo medio de cierre de unas ocho horas. Por otra parte, el proceso de cierre dura unas dos horas, de modo que no se puede esperar a tener constancia visual del aumento del nivel del agua para proceder al mismo, sino que éste debe iniciarse sobre la base de predicciones. Con el objeto de tomar la decisión de cerrar la barrera sólo cuando es imprescindible se necesitan métodos de previsión sumamente fiables que se realizan a partir de un modelo mixto que incluye un sistema para las mareas en torno a las Islas Británicas y un sistema de previsión meteorológica. De este modo, se obtienen previsiones cada hora con 30 horas de antelación en puntos seleccionados en torno a la costa. Este modelo es simulado en el supercomputador de la Oficina Metereológica Británica y los resultados se tranfieren al ordenador de la Barrera del Támesis. A su vez, estos datos se trasladan a otro modelo a mayor escala, en el que intervienen el Mar del Norte, el Estuario del Támesis y la parte baja del río a la que afectan las mareas. Los resultados obtenidos se comparan con las previsiones medias. En base a este análisis, la autoridad de la barrera está habilitada a tomar la decisión de cerrarla. Los modelos que en la actualidad se utilizan son sistemas de EDPs que se resuelven mediante métodos numéricos de tipo diferencias finitas. Desde los años sesenta, tanto los modelos como los métodos numéricos han ido evolucionando, lo cual, junto a la enorme capacidad de cálculo de los ordenadores de los que hoy se dispone, permite cálculos sumamente fiables. A pesar de que la barrera responde a las necesidades de hoy, el problema no está resuelto a largo plazo. En efecto, tal y como decíamos, el nivel medio del río sube 75 centímetros cada siglo de modo que, con el tiempo, este método dejará de ser eficiente. Algunas observaciones adicionales y perspectivas futuras Son muchos los campos de la Ciencia y Tecnología donde se presentan retos para la Teoría de Control. Obviamente, conviene cerrar la barrera tan pocas veces como sea posible, puesto que esto interfiere en la navegación, causando pérdidas económicas y trastornos importantes. Una vez cerrada, la barrera no puede volver a ser abierta hasta que los niveles de agua de ambos la- En algunos casos se confía en ser capaces de resolver éstos mediante avances tecnológicos que permitan la implementación de controles más eficientes. Es el caso por ejemplo del control molecular mediante tecnología láser; véase [4]. Pero tanto en ésta como en otras muchas aplicaciones se necesitan también importantes avances teóricos. En esta sección mencionamos brevemente algunos de estos temas. El lector interesado en una discusión más detallada puede consultar los dos informes de la sociedad SIAM sobre el tema [21] y [18]. La Robótica es una de las áreas de la Tecnología que presenta los retos más estimulantes para los próximos años y la Teoría de Control está también en el centro de gravedad en este campo, puesto que su desarrollo depende de manera fundamental de la eficiencia y robustez de los algoritmos computacionales de control. A este respecto, no resulta difícil imaginar la complejidad del proceso de control que hace que un robot camine de manera estable o sea capaz de coger con sus "manos" un objeto. En la página web del "Robotics and Automation Laboratory", de la Universidad de Tsinghua, Japón 5 puede encontrarse más información a este respecto. En la página web de de R. Kennaway 6, de la Universidad de East Anglia (Norwich, Reino Unido), se muestran varias simulaciones adicionales. En la Figura 6 mostramos una imágen ilustrativa del bípedo BIP2000 diseñado en el "Institut National de Recherche en Informatique et Automatique" (Rocquencourt, Francia) 7. En [5] se describe una panorámica de la investigación en este campo hoy día. • Control de Fluidos. La interacción de la Teoría de Control con la Mecánica de fluidos es en estos momentos muy intensa. Tal y como hemos mencionado, se trata de un tema particularmente importante en Aeronáutica; véase [17]. Desde una perspectiva teórica, muchas dificultades están ya presentes cuando se analiza la controlabilidad de las conocidas ecuaciones de Navier-Stokes (véase [7] para un sumario de resultados conocidos). en el flujo en torno a un obstáculo. En la página web 9 de la Universidad de Kentucky, Estados Unidos, puede verse una serie de experimentos relacionados con el control activo de alas de avión realizados por N. J. Pern and J. Jacob. En las Figuras 7-9 se muestran resultados experimentales que ilustran el efecto del control. Éste se activa desde el interior del ala y consiste en un mecanismo que modifica adecuadamente el perfil. Compárense las líneas de corriente en la Figura 9; en el segundo caso, el punto de separación de la capa límite ha sido considerablemente retrasado, el perfil se vuelve aerodinámico y el flujo en torno al obstáculo se estabiliza. • Control de la combustión. Gran parte de la energía que consumimos procede de la combustión. Por éste y otros motivos, los avances en el diseño de mecanismos de combustión más eficientes poseen grandes repercusiones económicas y medioambientales. Así, el control de la combustión es un tema en el que se realizarán importantes esfuerzos en los próximos años. Para detalles concretos sobre este ámbito de aplicación, véanse por ejemplo [2] y la página web del "Japanese Institute of Aerospace Technology" 10. Recientemente, ha recibido gran atención el control de sistemas de EDPs que modelan el crecimiento de tumores. En este contexto, aparecen de manera natural complicados problemas de frontera libre cuyas propiedades teóricas no son por el momento del todo conocidas; véase por ejemplo [9,22]. Tiene entonces perfecto sentido plantear problemas de control óptimo donde el control es una variable que determina el tipo e intensidad de la terapia a emplear (estimulación de la inmunoterapia, radioterapia, quimioterapia, etc.) y el funcional coste que se desea minimizar mide la patología del tumor. También tiene sentido preguntarse por la controlabilidad de estos sistemas. En otras palabras, conviene saber responder a la pregunta ¿Es posible conducir el sistema desde una situación inicial desfavorable (en un instante inicial t = 0) hasta una situación final deseable (en el tiempo t = T) con una elección apropiada del control? Obsérvese que una respuesta positiva a esta cuestión, seguida de una estrategia de elección de controles adecuados abre el camino al diseño de nuevas terapias. Para consideraciones sobre estas cuestiones y otras similares, véase por ejemplo [1] y las referencias allí citadas. • Investigación biomédica. El diseño de terapias médicas adecuadas depende en gran medida de una buena comprensión de la dinámica fisiológica y el control de los procesos de este tipo constituye un campo sumamente activo, donde casi todo está por hacer desde un punto de vista matemático. Como ejemplo ilustrativo, merece la pena mencionar el diseño de mecanismos de suministro de insulina equipados de "chips" de control. Para comprender la complejidad y el interés de las cuestiones que surgen en este ámbito, véase el artículo de E. Sontag (Universidad de Rutgers, Estados Unidos) 11 y la bibliografía que en él se da. ENRIQUE FERNÁNDEZ-CARA Y ENRIQUE ZUAZUA
Los sistemas escolares nacionales han entrado en crisis, tras los cambios científicos, tecnológicos, informáticos, de aprendizaje, de producción de conocimiento, de nuevos modelos de educación, etc, que han tenido o están teniendo lugar en el mundo, A la vez hay que desmitificar falsas identificaciones en ellos como «sistema escolar» y «educación», por ejemplo. Es la hora de revisarlos, bien para sustituirlos o bien para reorientarlos correctamente, Pero para decidir mejor sobre su porvenir es aconsejable recordar su biografía. Por ello en este trabajo se hace una rápida revisión histórica del sistema escolar español, contemplado en cuatro fases decisivas de su vida: las de su génesis, su consolidación, sus reformas y su crisis. En este mismo año de 2002, en el mes de julio, va a celebrarse en la universidad de Londres un coloquio cuyo tema general es una interrogante sobre el fin de los sistemas escolares. Está organizado por la Sociedad europea de Educación Comparada, y se trata de su vigésimo congreso, lo que significa de entrada una competente organización científica internacional y una perspectiva mundial del problema, que autorizan a pensar en la pertinencia e interés de tal debate. Por supuesto que en estos meses previos no podemos saber la contestación que los especialistas darán a la gran pregunta, pero en cambio sí que podemos afirmar ya que la crisis ^ en que han entrado los sistemas escolares nacionales en los diez o veinte últimos años es real, tangible, y avanza de modo imparable. Es debida a causas tan diversas como el ere-Julio Ruiz Berrio 84 cimiento económico, el desarrollo de la sociedad de la información, los nuevos procesos de socialización del individuo, los nuevos lugares de aprendizaje, la diversidad de agencias educativas, la utilización de las nuevas tecnologías, los nuevos modelos de educación, la producción del conocimiento, o el avance de la globalización (por supuesto que hay que poner en marcha «las otras globalizaciones», como dice Federico Mayor Zaragoza). A esos y otros factores de cambio, de nuevo escenario, en España hay que añadir además el de la nueva estructura política y administrativa que supone la existencia y funcionamiento de las Comunidades Autónomas. En fin, todo ello colabora a un replanteamiento de los sistemas escolares, empezando por el que se ha iniciado en los estudios de Educación Comparada, hasta ayer preocupados en exceso por tales sistemas y hoy decididos a dejarlos en un segundo o tercer plano, para ceder el paso al análisis comparativo de problemas educativos y pedagógicos en espacios más amplios que las naciones clásicas. Pero, justamente porque es la hora de revisar qué hacemos con los sistemas escolares, es también un momento muy adecuado para echar una ojeada a la historia de sus características, intentando reconstruir su génesis, los contextos de su consolidación, las notas de su desarrollo, la evolución temporal de sus objetivos, las principales reformas, la falsa identificación entre sistema escolar y educación, etc., en una palabra, de reconstruir su memoria; lo que se puede hacer de modo resumido. Y si esto conviene en general a muchos de los sistemas, estimo que es muy procedente en el caso del sistema escolar español, un sistema escolar de y para una sociedad compleja. La génesis del sistema escolar español se efectuó en España mediante procesos semejantes a los de otros países europeos^, y en un tiempo paralelo, aunque no exacto, ya que la configuración definitiva de ese sistema se retrasó un par de décadas debido a la oposición frontal de Fernando VII a un régimen constitucional. Unido ello a los años que fueron necesarios para lograr el consenso para una ley general, nos lleva a mantener que el sistema educativo español quedó instituido sólidamente en un tiempo tan amplio como el que va de las Cortes de Cádiz ^ a la promulgación de la primera Ley general de Instrucción Pública en España'*. Como bien puso de relieve el historiador francés F. Braudel en su día, la historia no cambia de la noche a la mañana, de unos días para otros, por hechos singulares o accidentales, sino que se va configurando a Vida, fulgor y crisis del sistema escolar español través de procesos de larga duración. Ello nos ayudará a comprender en nuestro caso que, bastante antes de que las Cortes reunidas en Cádiz debatieran y aprobaran una serie de cambios de signo social, económico, político, educativo, etc., se había iniciado un proceso de renovación de la sociedad española en distintos órdenes, aunque, como es lógico por su carácter antecedente, sin conseguir resultados efectivos ni alcanzar metas concretas. Pero es ahí, en la etapa reformista de los ilustrados, en la segunda mitad del siglo XVIII, donde encontramos los primeros pasos que se dan en España hacia un sistema escolar. Desde un régimen despótico, las minorías ilustradas en el poder intentaron regenerar el país a partir de un planteamiento económico que exigía la liberación del comercio, de los precios o de las producciones, el levantamiento de los monopolios, la creación de una infraestructura viaria nacional, la modernización de los puertos, la renovación de la agricultura y la ganadería, o el desarrollo de la industria. Para llevar adelante una política de tales características las autoridades consideraron necesario el aumento de los derechos y prerrogativas del poder civil ^, y por ello su administración tuvo un sello claramente uniformador, centralista, secularizador, sacrificando la autonomía de que gozaban muchas instituciones, regiones, personas, en aras de la modernización del país. Por otra parte, como fieles creyentes en el poder de la instrucción^, estimaron que aquellos procesos de renovación serían más eficaces y alcanzarían antes sus metas promoviendo las ciencias, las técnicas, las letras y las artes, a la par que extendiendo la instrucción elemental a todos los habitantes, con el doble objeto de que fueran trabajadores con una mínima cualificación y personas virtuosas y felices. Y para conseguir esta promoción y difusión del saber aquellos políticos pusieron en marcha una serie de reformas científicas y escolares que por su distanciamiento de la realidad social, económica y cultural de la nación, así como por su elaboración autoritaria, se quedaron en muchas ocasiones en meros proyectos. Primero se intentó la reforma de la institución docente por excelencia en aquellos tiempos, la universidad, en el convencimiento de que una vez modernizada sería el mejor motor para la renovación de otras enseñanzas y de la ciencia y la técnica. Pero la fiscalización estatal de toda la vida universitaria que se legisló por una Real Cédula de marzo de 1769, provocó de momento efectos contrarios, y los grupos más reaccionarios y retrasados se defendieron mediante la resistencia pasiva, animada y sostenida por los cuerpos y escuelas que llevaban más de dos siglos dictando sus lecciones y sus privilegios. Los nuevos -y verdaderamente actualizados-planes de estudio cuyas directrices se impusieron a los claustros no fueron cumplidos, sirviendo sólo para que el profesorado joven y los alumnos conocieran qué ciencias se estudiaban en otras universidades de Europa, qué metodología se seguía en su enseñanza, qué manuales se habían hecho en aquellas décadas, qué temas eran los que centraban los debates científicos del momento. Más tarde se aceleró la actividad legislativa en torno a las escuelas de Gramática y a las de primeras letras, con medidas que iban desde una obligada reconversión de los antiguos gremios profesionales ^ en pretendidas nuevas academias^ hasta el establecimiento de un currículo, de unos requisitos para ejercer el magisterio desde instancias nacionales, o de la indicación gubernamental de libros adecuados para la lectura en la escuela, pasando por la elaboración de Ordenanzas para los preceptores de Latinidad y Humanidades o por decretar de forma indirecta la obligatoriedad escolar^. Medidas, unas y otras, que en su mayoría no alcanzaron los objetivos previstos en los reinados de Carlos III y Carlos IV, pero que adelantaron las preocupaciones nacionales por el saber y la enseñanza, y que mentalizaron en una nueva perspectiva de sociedad, política, cultura y educación a un sector más amplio de la población española, cada vez más dispuesto a sacar a España del oscurantismo, de la ignorancia, del despotismo, en una palabra, de un régimen sometido a los privilegios de algunos estamentos. El paso del Antiguo Régimen al orden constitucional en España fue lento y complicado. Por diversas razones, unas personales y otras de grupos, no se logró definitivamente hasta casi mediado el siglo XIX, lo que terminó originando un Estado liberal muy centralista y estatalizador, pero poco liberal. Características que reflejan las ambiciones de las fuerzas sociales predominantes y que condicionaron en un sentido determinado el sistema escolar (Puelles 1997, pp. 35-67) que al final quedaría configurado. Ahora bien, ese sistema «de Instrucción Pública» se había diseñado por primera vez en una situación histórica especial, de guerra, de la guerra contra las huestes napoleónicas, que tuvo también facetas de guerra civil ^^ entre nosotros y que permitió a las Cortes legislar con bastantes márgenes de libertad porque no se apreciaba otro poder (aparte el del gobierno intruso) que el suyo. Recordemos que, constituidas las Cortes en Cádiz, se instauró el principio de la soberanía nacional y se estableció la división de poderes, se procedió a la abolición del régimen señorial ^^ y se suprimió el Tribunal del Santo Oficio, mientras que se declara la libertad de imprenta entre otras medidas de cambio. Y en 1812 se pudo proclamar la Constitución, basada en esa idea de la soberanía nacional, y que consideraba la educación como una/tarea principal de la nación a la vez que exigía un sistema escolar nacidnal. Por ello no nos debe extrañar Vida, fulgor y crisis del sistema escolar español que esa Constitución dedicara un título entero -por única vez en nuestra historia-, el IX, a la Instrucción pública. En él se mandaba abrir una escuela de primeras letras «en todos los pueblos de la Monarquía», para enseñar a leer, escribir y contar, a la vez que las verdades cristianas del Catecismo y una síntesis de las «obligaciones civiles». Se creaba un organismo nacional para todos los ramos de la enseñanza, la 'Dirección General de Estudios', y se decretaba la uniformidad en esa instrucción pública, encargando a las Cortes y a la mencionada Dirección el desarrollo de estos artículos y la estructuración de aquella. Estrategias y acciones que a nuestros ilusionados doceafíistas les parecieron suficientes para superar en poco tiempo la situación calamitosa en que se encontraba España respecto a su índice de alfabetización (en torno al diez o quince por ciento) y de cultura básica, por lo que en la misma Constitución insertaron otro artículo, el 25, en un título diferente, advirtiendo a los españoles de que «desde 1830 deberán saber leer y escribir los que de nuevo entren en el ejercicio de los derechos de ciudadano». ¡Y no nos podemos olvidar de que para aquellos liberales la ciudadanía era el valor supremo! Dicho de otra modo, soñaron con que en dieciocho años exactamente habrían alfabetizado a unos diez millones de personas, y eso antes de organizar instituciones, formar profesorado, arbitrar medios económicos, etc., o aún peor, antes de diseñar el mismo sistema de instrucción pública. Muy pronto, de acuerdo con aquel encargo de las Cortes, el Gobierno encomendó a una comisión de sabios, presidida por Manuel José Quintana, un documento sobre la organización de los estudios públicos. Y así nació el Informe de la Junta creada por la Regencia para proponer los medios de proceder al arreglo de los diversos ramos de instrucción pública (M.E. C. 1979,1, pp. 370-414), de fecha 9 de septiembre de 1813. En él se parte de que la nación ha recobrado su soberanía y ello exige un «sistema de instrucción pública digno y propio de un país libre». La instrucción nos enseña cuáles son nuestros derechos y «nos manifiesta las obligaciones que debemos cumplir», y su objetivo es hacer de cada español un perfecto ciudadano, persiguiendo un régimen constitucional, que es el que se entendía que correspondía a un pueblo libre y civilizado. Se esperaba de la instrucción que indicara el puesto que cada uno debería ocupar en la sociedad, y se insistía en que «su objeto es que vivamos felices para nosotros» al tiempo que «seamos útiles a los demás». En consecuencia se debía organizar una instrucción igual y completa, universal (a todos y de todo), uniforme, pública, gratuita y libre, e impartirse en castellano. Creo que así se ponía de manifiesto lo que afirmaba hace pocos meses el historiador Alvarez Junco (2001, p. 545), que «ningún mecanismo era tan 88 Julio Ruiz Berrio necesario para la construcción nacional como algo que constituía, además, un servicio público: un sistema educativo estatal, obligatorio y gratuito». Se contemplan tres niveles de enseñanza: primera, segunda y tercera. Y se instituye una Universidad Central en la que se cursarán todos los conocimientos en su máximo grado. Además habrá una enseñanza profesional y técnica, a impartirse en las 'Escuelas particulares'. En la cúspide del edificio del saber figuraría la Academia Nacional, que haría las funciones de lo que hoy denominamos Instituto de España. Al frente de toda la instrucción pública estaría un organismo administrativo, la Dirección General de Estudios. Un agujero negro destaca entre otros en este Informe, el de no contemplar a la mujer en el sistema. Se disponía que hubiera una escuela primaria por cada quinientos vecinos, o una en cada pueblo si es que aquel la podía sostener; pero no se reflejaría este nivel de enseñanza en los presupuestos del Estado, como en cambio pasaría con la instrucción secundaria y la universitaria. No obstante se indicaron unos contenidos a impartir por esa escuela: leer con sentido, escribir con claridad y buena ortografía, reglas elementales de aritmética, dogmas de la religión y máximas de buena crianza, y los principales derechos y obligaciones de un ciudadano. Si alguna población tuviera medios para abrir también una escuela para muchachos mayores, añadiría a los conocimientos mencionados otros de carácter aplicado. Los maestros posibles quedarían habilitados mediante un examen hecho en las capitales de provincia. La segunda enseñanza, concebida para «preparar el entendimiento de los discípulos para entrar en el estudio de aquella ciencias que son en la vida civil objeto de una profesión liberal», y para «sembrar en sus ánimos la semilla de todos los conocimientos útiles y agradables que constituyen la ilustración general de una nación civilizada», pasó a ocupar un puesto muy importante en el sistema escolar, convirtiéndose a la vez en un poderoso instrumento de clasismo, al servicio de la clase social que lideraba el cambio en España y en Europa: la burguesía. El currículo se agrupaba en torno a tres núcleos de conocimientos: los de Física y Matemáticas (teóricos y aplicados), los de Literatura y Artes, y los de Ciencias morales y políticas. Habría un centro de segunda enseñanza en cada capital de provincia, que recibiría el nombre de 'universidad de provincia' (son los centros que a partir del Plan del Duque de Rivas se bautizaron como Hnstitutos^), La tercera enseñanza debería impartirse en las 'Universidades mayores', que quedaban limitadas a nueve en la Península y una en Canarias. Sus estudios se reducían a Derecho y Teología. Los de Medicina pa-Vida, fulgor y crisis del sistema escolar español saban a estimarse como propios de 'Escuelas particulares', como los de Veterinaria, Farmacia, Comercio, Navegación, etc. En pleno apogeo de la competencia profesional asegurada mediante la selección escolar, las cátedras se otorgarían únicamente mediante oposición. Es cierto que el Informe de Quintana debe mucho a Condorcet, tanto el del Rapport como, lo más importante, el de las Memorias (Condorcet 2001), hasta el extremo de reconocerse en el Informe que se apoya bastante en el filósofo-matemático francés (Condorcet 2001, pp. 16-39). Es más, en un cotejo literal de los dos documentos, se constata la existencia de cuatro grandes párrafos copiados por Quintana, a la vez que diversos principios, orientaciones y convoyes semánticos. Pero en ese seguimiento del plan de Condorcet lo fundamental es que el Informe se inspira en el pensamiento político, filosófico y científico del francés, así como en la utilización del diseño de la organización de los estudios públicos. Sin embargo, hay notables diferencias entre el Informe y el Rapport (Condorcet 2001, pp. 231-338), como lo son la estatalización de la enseñanza que favorece Quintana frente al rechazo frontal de la misma que condiciona el plan de Condorcet; o la ausencia de un plan de igualdad de oportunidades en el español frente al esbozo de un plan de protección a los «alumnos de la patria» en Condorcet; o la presencia de una sensibilidad especial respecto a la educación popular mediante las conferencias semanales en el caso del Rapport, o, para no alargarnos más, la despreocupación por la mujer que se da en el Informe frente al valor concedido a la instrucción de la mujer y a sus capacidades que inspiran al revolucionario francés. En fin, creo que Quintana, en sus principios como en su diseño, tiene en cuenta las aportaciones que sobre la instrucción y política se hicieron en los veinte años que separan un plan de otro, y, sobre todo, se ajustó a las limitaciones que le imponían la Constitución de 1812 por un lado, y la realidad ideológica, económica, política e histórica de España por otro. Además, para 1813 Quintana no sólo conocía el plan de Condorcet, sino también otros muchos -entre ellos el de Tayllerand-de los que se elaboraron durante los diversos periodos de la Revolución francesa, así como durante el Consulado y el Imperio. Quintana recibió también la influencia de varios reformistas españoles contemporáneos, como Jovellanos, Alberto Lista, José de Vargas y Ponce, Meléndez Valdés, Narganes, Cabarrus, Marchena, etc., tanto en sus presupuestos filosóficos y políticos como en algunos de sus escritos, especialmente los que recogían intentos de organizar la instrucción pública en España, como la Memoria sobre educación pública (1802) y las Bases para la formación de un Plan general de Instrucción pública (1809) de Jovellanos (1963), la Carta segunda sobre los obstácu-Julio Ruiz Berrio 90 los de opinión y el medio de removerlos con la circulación de luces y un sistema general de educación (1802), de Cabarrus (Negrín 1979), o las Tres cartas sobre los vicios de la instrucción pública en España (1809), de Narganes de Posada (Ruiz Berrio 1983y 1984). La verdad es que así quedó articulado el edificio de la enseñanza pública en España, prefijándose ya tanto la mayor parte de nuestras instituciones docentes actuales como el tipo y grado de saberes a impartir. En 1814 una Comisión dio expresión jurídica al Informe, convirtiéndolo en Proyecto de Decreto (Ruiz Berrio 1970). Pero la abolición del régimen constitucional y la persecución de los liberales por Fernando VII impidió que se sometiera a las Cortes. Fue siete años más tarde, durante el paréntesis del Trienio liberal, cuando su expresión legal, como Reglamento general de Instrucción Pública (M.E.C. 1979, II, pp. 43-60), ñie aprobada; reglamento que se tomó como punto de partida para el desarrollo del sistema y de la administración escolares en los debates y decisiones posteriores a 1834, una vez que el Liberalismo asumió el poder de forma definitiva. Superado definitivamente el Antiguo Régimen en 1834, los gobiernos liberales se preocuparon por el desarrollo del sistema escolar en España ^^, para lo que fiíeron dictando o aprobando diversos planes de estudio, reglamentos, nuevas instituciones docentes ^^, organigramas de la administración escolar, etc., disposiciones que unas veces superaban unas a otras o en ocasiones llegaban a contradecirse, según el grado de variación política de unos gobiernos a otros. Iban buscando todos ellos la promulgación de una ley general que facilitara la regulación y el control de la enseñanza en todos sus niveles, pero las circunstancias, y los vaivenes políticos, fueron limitando sus ambiciones a la aprobación de planes de estudio para un nivel de enseñanza solamente; es más, en muchas ocasiones fueron los «arreglos» para una situación de emergencia como era la proximidad del comienzo de curso los que resolvieron aquel nivel de enseñanza durante tres o cinco años. De toda esa literatura legislativa merece la pena recordar tres planes por diversas singularidades de cada uno. El primero de ellos, cronológicamente hablando, fue el Plan general de Instrucción Pública ^^, en 1836 (M.E. C. 1979, II, pp. 118-144), en el que se define la enseñanza secundaria como los estudios «que son necesarios para completar la educación de las clases acomodadas» y se introduce en la literatura española el térmi-Vida, fulgor y crisis del sistema escolar español no «Instituto» para designar al centro donde se imparten tales estudios; se fundan las Escuelas Normales para maestros y una Normal específica para profesores de secundaria ^^; y se crea un «Consejo de Instrucción pública». En 1838 se ordenó el segundo, un «Plan de instrucción primaria planteado provisionalmente», en donde se sientan las bases de la institucionalización de la enseñanza primaria, se legalizan las escuelas de adultos y se crean las escuelas de párvulos. Su inspiración se debe a Pablo Montesino, que al desarrollar el plan mediante un Reglamento (M.E. C. 1979, II, pp. 155-190) nos dejó el documento pedagógico más importante del siglo XIX. El tercer plan a destacar es el Plan General de Estudios ^^ de 1845 (M.E. C. 1979, II, 191-239), ocupado en regular solamente la enseñanza media y la universitaria, por el que su autor, Antonio Gil de Zarate (Viñao 1996), representante típico de los afanes burgueses, caracterizó definitivamente nuestro sistema escolar como secular, centralista (Naval 1999) y uniforme (Puelles 1991), dejando su administración y control de una vez para siempre en manos del Estado. Por supuesto, declara la libertad de enseñanza, permitiendo la creación de centros privados, pero entiende que el permiso correspondiente lo debe otorgar el Estado, como expresión y reconocimiento de la soberanía popular: «las corporaciones que quieran fundar algún establecimiento de segunda enseñanza deberán también obtener para ello autorización expresa del Gobierno, lo cual exigirá los requisitos que se estimen convenientes» (artículo 95). Tan tarde como en la última década de la era Isabelina, es decir, unos cincuenta años después del Informe de Quintana, y casi treinta años después de llegar el Liberalismo al poder, se consiguió articular una ley que fuera aceptada por las Cortes. El hábil político que lo logró fue el ministro de Fomento Claudio Moyano Samaniego, que recurrió a una estrategia legal y parlamentaria para alcanzar el objetivo. En 1857, antes de que las Cortes se fueran de veraneo, les sometió una Ley de Bases, con sólo tres artículos, autorizando al Gobierno para formar y promulgar una ley de Instrucción Pública. Esta Ley contempla todos los niveles de enseñanza, con un enfoque típico del moderantismo (Vega 1998), preocupada ante todo por un desarrollo completo y coordinado de la administración escolar, eliminando del sistema las características sociales más avanzadas que había defendido Quintana, y reconociendo los privilegios y derechos que a la Iglesia se le habían reconocido por el Concordato de 1851. Aunque el Estado controle toda la enseñanza, no se ocupará de financiar más que la enseñanza su-92 Julio Ruiz Berrio perior y profesional; la primaria correrá a cargo de los municipios y de la secundaria se ocuparán las autoridades provinciales. En cuanto a la enseñanza primaria la declara obligatoria entre seis y nueve años, aunque permite la enseñanza doméstica; reduce su gratuidad a los pobres que no puedan pagarla; reconoce varios tipos de escuela -escuelas elementales completas, elementales incompletas, escuelas de temporada y escuelas superiores-abriendo la puerta oficialmente a la existencia de miles de escuelas con un currículo recortado y un maestro o maestra sin estudios. Pero las diferencias en el currículo no se terminan ahí, pues mientras que un niño de ciudad puede aprender, además de Doctrina Cristiana e Historia Sagrada, lectura, escritura, gramática, principios de aritmética y nociones de agricultura, industria y comercio, una pequeña formación preprofesional (principios de geometría, dibujo lineal y agrimensura, rudimentos de historia y geografía y nociones generales de física e historia natural), una niña también de ciudad se verá privada de los conocimientos de agricultura, geometría, dibujo, física e historia natural, aunque se le «recompense» con «labores propias de su sexo», elementos de dibujo aplicados a esas labores y ligeras nociones de higiene doméstica. Y dado que la única escuela obligatoria en toda población en cuanto reúna quinientos habitantes es la «elemental», los niños y las niñas de las zonas rurales (la mayoría), sin escuela superior, no recibirán el currículo preprofesional. Eso sí, los manuales de la escuela los fijará el Gobierno cada tres años, y también los libros de lectura, procurando que los que se usen, además de inspirarles «sanas máximas religiosas y morales», «les familiaricen con los conocimientos científicos e industriales», pues no en balde la sociedad estaba dirigida por burgueses a los que les interesaba especialmente que los jornaleros y empleados fueran obedientes y estuvieran mejor calificados para su trabajo. Se determinó la creación de una Escuela Normal para maestros en cada capital de provincia, y se anunció que «se procurará que establezcan Escuelas Normales para maestras». Y, de acuerdo con el espíritu centralista de la ley, se creó una Escuela Normal Central en Madrid, en donde se quería impartir un curso superior para «maestros de Escuela Normal e inspectores de primera enseñanza». La enseñanza secundaria podía seguirse también en el hogar doméstico ^^, y comprendía estudios generales y estudios de aplicación. Los estudios generales, o Bachillerato propiamente dicho, se comenzaban a los nueve años y se estructuraban en dos ciclos: el primero, en el que se impartían materias que venían a ser una sencilla ampliación de las de la escuela; el segundo, en la mejor línea tradicional de la antigua Facultad de Artes, ofrecía unos conocimientos predominantemente de corte huma-Vida, fulgor y crisis del sistema escolar español nista. Habría un instituto en cada capital de provincia, y alguno más en ciudades de muchos habitantes, como Gijón o Vigo, por ejemplo. De ahí que de allí en adelante se situara el número de institutos en España en una cifira cercana a los sesenta, cifira que apenas se modificó hasta la tercera década del siglo XX, mientras que durante la Restauración aumentó considerablemente la enseñanza privada. Por cierto, la libertad de enseñanza de la ley Moyano permitía la creación de establecimientos de segunda enseñanza, siempre que se cumpliera con una serie de requisitos y exigencias académicas, morales y financieras. Solamente se eximió del «título y fianza que exige el artículo 150» a los Jefes y Profesores de los institutos religiosos de ambos sexos «legalmente establecidos en España». En el nivel académico más alto se situaron las «Universidades», la «enseñanza superior» y las «enseñanzas profesionales». Aunque fueran pocas las cabezas de distrito universitario que tuvieran casi todas, las diez universidades existentes ofrecían diferentes carreras: Farmacia, Medicina, Teología, Derecho (Leyes, Cánones y Administración), Ciencias (exactas, físicas y naturales) y Filosofía y Letras (Lengua, Literatura, Historia y Filosofía). La denominada «enseñanza superior» comprendía los estudios de ingeniería y arquitectura; y las «enseñanzas profesionales» abarcaban estudios de veterinaria, profesorado mercantil, náutica, magisterio, etc. Los estudios de doctorado y el grado de doctor sólo se podía obtener en la Universidad Central, que era la de Madrid Podemos asegurar que la Ley Moyano dejó atado y bien atado todo el sistema escolar hasta el más mínimo detalle, basándose en un organigrama piramidal y jerárquico que colocaba al frente de la enseñanza al Ministro de Fomento, asistido por un Consejo de Instrucción Pública como órgano asesor, y por la Inspección como institución de control y ejecución. A su vez el Rector ocupaba la jefatura suprema de toda la enseñanza de un distrito universitario, asesorado por un 'Consejo universitario'. Y las Juntas de Instrucción pública provinciales y locales se encargaban de cumplir y hacer cumplir las disposiciones del Ministerio, a la vez que de elevar al mismo las necesidades escolares de sus zonas. Ni siquiera los programas de las asignaturas universitarias quedaron a la libre iniciativa. Desde 1857 hasta 1970 no hubo en España otra Ley general de Instrucción Pública, o de Educación si utilizamos términos actuales. necio vigente, pues, o como punto de referencia al menos, más de un siglo entero. Es cierto que a lo largo de esa centuria fue modificada con diversas intenciones y diferentes enfoques en muchas ocasiones, pero no lo es menos que las nuevas disposiciones de menor rango tuvieron a veces vida efímera, y que aunque permanecieran no dejaban de suponer una maraña legislativa intrincada y a veces desconocida, ya que como auténtico espíritu de la administración escolar se reconocía al de la Ley. No obstante, lo peor fue que muchas de las metas que se trazaron Moyano y sus colaboradores en aquella Ley tardaron más de medio siglo en ser cumplidas, y aun otras tantas no se alcanzaron ni después de un siglo entero. Si se hubieran observado las pautas marcadas en la Ley, por ejemplo, hubiera disminuido el analfabetismo de modo notable antes de finalizar el periodo decimonónico, o hubiera desaparecido en la primera mitad del siglo XX (Vilanova y Moreno 1992), o se hubiera escolarizado a gran parte de la población correspondiente antes de la primera guerra mundial, o las condiciones de los espacios (Escolano 2000), los tiempos, los manuales, los métodos o los profesores de las escuelas hubieran tenido el nivel pedagógico de la Europa de la época (Ruiz Berrio 1999). Pero, como decía, sí que en esos cien años largos se hicieron cambios y se llevaron a cabo reformas del sistema escolar. Se aprobaron leyes y reglamentos, se decretaron órdenes, se emitieron circulares, y se diseñaron muchos más proyectos; pero dados los límites de este escrito y su intencionalidad no interesa el registro/catálogo de unos y otros. Tan sólo voy a recordar algunos de ellos como testimonio de la existencia de pretendidas o reales modificaciones del sistema escolar en aquellos ciento trece años. Por ejemplo, y en primer lugar, se puede citar la efímera Ley de instrucción primaria de Severo Catalina (junio 1868), o los Decretos de Ruiz Zorrilla sobre libertad de enseñanza (octubre 1868) o los revolucionarios planes de Uña y Chaos para el Bachillerato (1873). Después, durante la Primera Restauración se generó para la enseñanza una tupida producción legislativa, pero dada la continua presencia de planes o ideas opuestas, como fruto de la alternancia en el poder de los conservadores y los liberales, su resultado fue pobre por no decir nulo. Los intentos de actualización y modernización exigidos por el desarrollo industrial en la coyuntura intersecular, mucho más que el pretendido desastre del Noventayocho, provocaron una notable atención de los poderes públicos a las cuestiones de la enseñanza, comenzando por la creación de un Ministerio de Instrucción Pública y Bellas Artes en 1900 (Alvarez Lázaro 2001), y destacando la especial actividad que nada más comenzar este siglo desplegó uno de los titulares de ese nuevo ministerio, D. Alvaro de Figueroa, Conde de Romanónos. No es que transformara el Vida, fulgor y crisis del sistema escolar español sistema escolar, pero hizo algo más positivo, enmendar la pésima situación de muchísimos asuntos del mismo, como lograr que por fin se pagara a los maestros haciéndose cargo el Estado de sus gastos, o que se renovaran los programas de la enseñanza primaria y de la secundaria de acuerdo con el tipo de sociedad que se estaba construyendo en Europa. Hasta el comienzo de la primera Guerra Mundial otros ministros fueron sucesivamente, aunque no de modo sistemático, contribuyendo a ordenar nuestro sistema, renovando o creando diversas instituciones administrativas, científicas y escolares ^^, Durante la dictadura del general Primo de Rivera se fi:*enaron muchas de las iniciativas docentes y científicas diseñadas o ideadas anteriormente, procurando las autoridades gubernamentales centralizar al máximo el sistema escolar para asegurarse su control, bien minorizando o cerrando presupuestos, o bien decretando medidas como la del «texto único» en el Bachillerato. La falta de sensibilidad social y cultural del dictador jerezano originó, cuando menos, un gran estancamiento en la enseñanza pública, paradójicamente en un tiempo en que la sociedad, viva y creativa, se modernizaba a pasos rápidos en sus comportamientos, en sus mentalidades, en sus apetencias culturales y científicas. Esa situación de conflicto entre la España oficial y la España real, entre los gobernantes y los gobernados, entre el crecimiento económico y sociocultural, entre un conservadurismo trasnochado y una necesidad popular de ampliar los ámbitos de libertad, fue lo que, junto a otras razones más específicas, condujo a la amplia victoria de las candidaturas republicanas en las grandes poblaciones en las elecciones municipales del 31, e, inmediatamente a la proclamación de la Segunda República española. En el primer bienio de esta República (Molero 1977), con tomas de postura novedosas y con reformas progresistas en la enseñanza, sobre todo en la primaria y en la popular, se despertaron las expectativas de los españoles en este mundo de la enseñanza y de la cultura, aunle algunas medidas de exclusividad (Rodríguez Coarasa 1998) decretadas, como la prohibición de la enseñanza a las órdenes religiosas bajo cualquier condición, le retiraron el apoyo de un importante sector de la población. La contrarreforma educativa del bienio radical-cedista paralizó de raíz el fruto posible de las medidas innovadoras, atizó el desencuentro de otra mayoría de españoles y cerró el sueño de renovación escolar que se tenía en los años veinte. Las leyes de enseñanza primaria, secundaria y superior que había diseñado Fernando de los Ríos durante su ministerio en Instrucción Pública, para culminar el proyecto reformista del sistema escolar por parte de los primeros republicanos, no llegaron a cobrar vida legislativa, reduciéndose todo el parto de los políti-Julio Ruiz Berrio 96 cos a un plan de Bachillerato ecléctico y con lastre (el de Filiberto Villalobos, en 1934). Obtenida la victoria militar por las tropas del general Franco en 1939, hubo una imposición del nacional-catolicismo en la enseñanza (Cámara 1984) durante los primeros años de la nueva Dictadura, años caracterizados por un claro retroceso en el desarrollo del sistema educativo (Mayordomo y Fernández 1993). El nuevo régimen, liderado por una burguesía terrateniente, se ocupó en primer lugar y ante todo de los estudios de sus hijos, por lo que se aprobó un enésimo nuevo Flan de Bachillerato -el de Sainz Rodríguez (Alted 1984)-antes de terminar la guerra, en 1938, plan clasista, humanista, cíclico, enciclopédico, con la vista puesta en el «pasado glorioso español», con la imposición de una «formación del espíritu nacional» y con un aprendizaje de idiomas modernos de acuerdo con el que se creía entonces próximo imperio de las potencias del Eje. Hasta 1943 no se aprobó una ley para la universidad, y todavía hubo que esperar dos años más para regular las cuestiones de la enseñanza primaria según los criterios del «nuevo Estado». La situación política internacional al principio de los años cincuenta, y el nuevo valor concedido a España en esa estrategia, obligó a una cierta apertura del régimen y también de la enseñanza. El ministerio de Ruiz Giménez hizo varios intentos en esa línea, y ello permitió que durante las etapas de sus sucesores, especialmente la de Jesús Rubio y García Mina, comenzara la extensión definitiva de la enseñanza primaria y los inicios de la popularización de las enseñanzas medias, mediante la apertura de varias Secciones Delegadas, Secciones Filiales, Estudios Nocturnos, etc. Tras los Flanes de Desarrollo los gobiernos tecnocráticos se empeñaron y consiguieron el despegue industrial de nuestro país, que estimaron sólo podía ser presentable en un contexto moderno de la sociedad en todas sus dimensiones. Tales pretensiones exigieron dedicar una atención pedagógica y social a la enseñanza pública (Fuelles 19919) y se consideró que había llegado el momento, después de más de cien años de vigencia, de renovar la Ley Moyano. El Ministerio de Educación elaboró un Libro Blanco en el que se expusieron con bastante crudeza los defectos de nuestra enseñanza a la vez que se esbozaban los nuevos caminos que debía tomar. La Ley General de Educación de 1970, o Ley Villar Palasí, fue la expresión legal de aquellos afanes de desarroUismo económico y escolar, pero fueron más modernas sus intenciones que sus realidades, ya que algunos sectores conservadores del régimen se opusieron firmemente y desactivaron la Ley desde el momento y hora en que la separaron de la normativa de financiamiento que debía acompañarla. Vida, fulgor y crisis del sistema escolar español Es verdad que escribo estos párrafos en un momento en que la Ministra de Educación, Cultura y Deporte ha anunciado que en breves meses someterá a las Cortes para su aprobación una nueva ley sobre el sistema escolar, «Ley de calidad de la enseñanza» según la expresión oficial, y cuyo anteproyecto es aún desconocido. Ello asegura que importantes cambios afectarán al sistema escolar dentro de poco. Pero yo no hablo de crisis por esa información -que también podría hacerlo, por supuesto-. Sino que lo hago en el sentido del punto de partida de este artículo, en el sentido que afecta a los sistemas escolares clásicos en el mundo actual, a todos y no tan sólo a uno de ellos en particular. Si no fuera así, si me preocupara solamente el cambio legislativo que un partido político en el poder puede decidir en virtud de su mayoría absoluta, hablaría de reforma. Pero considero importante dedicar, aunque sólo sea un párrafo, a ese término de reforma, ya que el abuso del mismo o la falta de clarificación en sus connotaciones mejor dicho, está produciendo en la última década beneficiosas reflexiones en torno a sus características y significados. Son análisis que necesitábamos para ser más rigurosos en la utilización del lenguaje. Y para comprobarlo, no hay que irse muy lejos. Precisamente yo mismo he bautizado el apartado anterior como REFORMAS, sin establecer diferencia alguna entre todas aquellas a las que me he referido. Pues las que surgen entre reformas que perfeccionan el sistema o las que no lo perfeccionan; entre las que logran cambiar sustancialmente dicho sistema y las que no; entre las que tienen éxito y las que no, etc. Por ejemplo, entre las que he mencionado: ¿podemos atribuir el mismo significado a la Ley de instrucción primaria de Severo Catalina, que suponía una rotunda involución educativa, consumando la desaparición de las Escuelas Normales entre otros retrocesos, que a los Decretos de libertad de enseñanza de Ruiz Zorrilla, que concedía sin cortapisas a los españoles tanto la libertad de creación de centros como la de enseñanza en la cátedra?... En sentido estricto, las dos causan una modificación apreciable del sistema escolar, pero con un sentido muy diferente. Pero hay más, ¿podemos dar tanto a una como a otra, la de junio del 68 o la de octubre del mismo año, la misma importancia por sus efectos que al Decreto de octubre de 1901 del Conde Romanones? O, ¿es que es lo mismo conseguir una duración de tres meses, que de cinco años, que de treinta y seis años ^^? En esta línea creo que es bueno recomendar que los políticos, los comparatistas o los historiadores de la educación, antes de hacer propuestas o antes de valorar las de otros, presentes o pasadas, estudien con deteni- miento el carácter polisémico de la palabra reforma y manejen un concepto claro de la misma. O lo que es más, «al referirse a los fines y objetivos de una reforma educativa y la señalización de sus efectos y consecuencias, el historiador debe distinguir entre fines explícitos y fines no declarados o implícitos, incluso en algunas ocasiones negados. Es decir, distinguir entre el discurso teorético de la reforma y los objetivos ocultos cuando se detecten. En este escenario, el éxito o el fracaso no debe ser considerado en relación con los fines expresados, sino más bien con aquellos a los que se aspira pero que no se manifiestan» (Viñao 2002). Por otro lado, también es conveniente no confundir lo que se puede entender en el mundo académico internacional por reforma ^^, y ser conscientes de que la misma, promovida por instancias políticas, afecta al gobierno y administración de la educación, su estructura o financiación, el contenido, la evaluación del currículo, la enseñanza, la selección o evaluación del profesorado y la evaluación del mismo sistema educativo (Viñao 2002). Sin embargo, no afecta a lo que podemos denominar verdaderamente cambios profundos en la educación, ligados a las grandes innovaciones, como las de las ideas o de los métodos de educación, y promovidos por asociaciones o individuos: método Decroly, pedagogía institucionista, sistema preventivo de Dom Bosco, método de Probel, etc. Una vez apuntadas las distinciones anteriores, creo que es más fácil comprender qué se puede entender por crisis de nuestro sistema escolar. En primer lugar, que no se trata de que sobre el viejo armazón del mismo se hagan arreglos, chapuzas, o apaños, sino que pienso que puede afectar a los mismos principios en que se basa el todopoderoso sistema. Quizá en las reformas llevadas a cabo durante la democracia, la más famosa de las cuales es la que ha supuesto la LOGSE, se ha procurado adaptar el sistema a la nueva situación política que vivía el país, recuperando las décadas de retraso, pero cada vez se pone más de manifiesto que en esos veinticinco años, mientras tanto, ni España ha permanecido inamovible, ni la humanidad ha permanecido quieta. Hasta sería acertado decir que los cambios se han sucedido con un ritmo de progresión geométrica: la evolución de las ciencias, de las técnicas, de las tecnologías, de las gentes y de sus relaciones. Sin querer entrar a recoger todos esos cambios, sí que podemos mencionar algunos de ellos. En España, por ejemplo, el traslado de varias competencias del Estado a las Autonomías, y especialmente las de la educación; el alargamiento en unos cuantos años de la vida y la calidad alcanzada para varias personas en la llamada tercera edad; el descenso radical del índice de natalidad; el fenómeno de la inmigración en " cantidades que se acercan al millón de personas con otras culturas y Vida, fulgor y crisis del sistema escolar español otras costumbres; el abandono por parte de los españoles de los trabajos manuales, con el tiempo libre que ello deja y las habilidades que en cambio exigen las nuevas actividades; el crecimiento económico con el aumento y la innovación constante de empleos y profesiones que conlleva; la modernización de la infraestructura viaria nacional; el desarrollo espectacular de los mass-media; Isi puesta en marcha de una sociedad de la información; o la integración de España en una Unión Europea que avanza lenta pero significativamente hacia una sociedad europea integrada en los asuntos económicos, financieros, de enseñanza, de producción de conocimiento, donde los títulos deben estar homologados para que no haya límites a los empleos. Y si nos fijamos en el mundo del aprendizaje, de la enseñanza, o de la socialización de los niños y jóvenes, comprobamos también que los cambios en este caso se están produciendo a un ritmo trepidante, transformando el papel y las funciones del profesor; ofreciendo la información en cualquier ámbito rural o urbano al mismo tiempo que se produce; disponiendo de varios medios para instruir y también para socializar a los pequeños; o convirtiendo a la educación permanente en el sector más grande, más activo y más importante de la enseñanza. Así el presente y el futuro inmediato, ¿podemos mantener la misma idea del sistema escolar que hace dos siglos, cuando no llegaba a diez el porcentaje de los que sabían leer y escribir, cuando el sistema sirvió para cohesionar una nación, cuando no se podía escolarizar ni a la tercera parte, cuando las primeras maestras no sabían leer ni escribir, cuando no había manuales escolares, cuando la población activa se dedicaba casi exclusivamente a la agricultura y ganadería, cuando el traje de los domingos era para toda la vida, o cuando más del noventa por ciento de los españoles vivían en pequeños pueblos? Esta es la situación de crisis que digo que afecta al sistema escolar en el momento presente. De los factores que la originan he mencionado sólo unos pocos, unos conocidos ya y otros que desconocemos el «día de antes». Ante ella opino que merecería la pena reconsiderar o reorientar radicalmente el sistema escolar, que ha prestado grandes servicios, a pesar de sus defectos, pero que hace agua por mucho agujeros. Notas ^ En una publicación moderna de la UNESCO (1997, paragraph 111-112) se habla del carácter global de la crisis de la humanidad, recordando que «nuestra cultura incluye nuestro sistema completo de creencias, valores, actitudes, costumbres e instituciones. Conforma nuestro género, raza y otras relaciones sociales, y afecta al camino que observamos nosotros mismos y el mundo, y a cómo nos inter accionamos con otras gentes y con el resto de la naturaleza. Además, la crisis global frente a la humanidad es un reflejo de los valores colectivos y de los estilos de vida, es, sobre todo, una crisis cultural». ^ Sobre características semejantes o específicas de algunos sistemas escolares europeos en su nacimiento puede verse el artículo de Barreiros (1988). ^ La fecha más representativa de estas Cortes es la de 1812, porque el 19 de marzo de ese año proclamaron la primera Constitución de España. ^ Fue aprobada el 9 de septiembre de 1857, y es conocida como «Ley Moyano», ya que fue Claudio Moyano el ministro que la propuso y defendió. ^ Lo que entonces se llamaba las regalías, o prerrogativas del rey, que encarnaba el poder civil. ^ Durante bastante tiempo se defendió, por ejemplo, que el que conoce el bien lo amará, por lo que se convirtió también la instrucción en fuente de moral. ^ Sobre la constitución de un cuerpo de examinadores para maestros de primeras letras puede consultarse Ruiz Berrio (2001) ^ Así, por ejemplo, la transformación de la Hermandad de San Casiano en Colegio académico del noble arte de primeras letras en 1780. Cédula de 12 de julio de 1781. ^° La historiografía de finales del siglo XX hace tiempo que modificó la interpretación clásica de la mal llamada «Guerra de la Independencia», insistiendo en la complejidad e interés de aquellos seis años para la historia posterior de España. El caso de publicación más reciente en este sentido es el libro de Alvarez Junco (2001), especialmente el capítulo IIL ^^ Se suprimen las facultades jurisdiccionales de los señoríos, sus monopolios, las prestaciones personales, los derechos de caza, pesca, etc., pero se reconoce el «dominio de la tierra», lo que dio carta de naturaleza en el nuevo régimen a la propiedad privada. ^2 Para una visión moderna del marco social y cultural de la España del siglo XIX, así como la del XX, puede consultarse, entre otras, la reciente obra de Jover Zamora et al. (2000). ^^ En torno al nacimiento e implementación de las nuevas instituciones docentes en los niveles primario y secundario de la enseñanza pueden ampliarse datos en Ruiz Berrio (2002). ^^ Conocido como Tlan del Duque de Rivas', ya que fue este Ministro el que lo aprobó. ^^ Pablo Montesino fue el principal inspirador de este plan. Para mayores detalles sobre esta cuestión puede leerse Ruiz Berrio (1990). Sobre su ideario pedagógico ver Montesino (1992). ^^ También conocido como «Plan Pidal», ya que éste fue el ministro que lo planteó. ^^ No olvidemos que en el Antiguo Régimen los hijos de la nobleza solían realizar los estudios previos a la Universidad en sus hogares, costumbre que imitó también la alta burguesía. Hasta el mismo Rousseau, cuando en 1762 nos lega un plan revolucionario de educación, sitúa a su discípulo, Emilio, en su casa, con un preceptor. ^^ Una publicación reciente que aborda capítulos importantes de la educación en España en el siglo pasado es Labrador (2000) ^^ Me permito recordar al lector, que ya lo sabe, que el plan de estudios para la escuela primaria de 26 de octubre de 1901 estuvo vigente en España hasta 1937, en que el Ministro de la zona republicana, Jesús Hernández, decretó un plan distinto. ^° En una obra de hace pocos años Pedro y Puig (1998, p. 44) entienden, siguiendo un criterio actual, que es «un cambio fundamental en las políticas nacionales de educación».
Con el horizonte de una marcada preocupación ante el problema que se le plantea a la Lengua española por el abandono a que la somete el imperio de la Lengua inglesa en la creación y uso de términos científicos, y por el exilio lingüístico de los científicos españoles, en este trabajo se tratan los siguientes problemas: 1) la dificultad del Lenguaje para la Filosofía, para la conceptualización y la designación; 2) la participación de los científicos españoles en las tareas de la Academia Española, particularizada en Leonardo Torres Quevedo y Blas Cabrera; 3) el panorama del Español científico ante la creación y el uso de términos; para terminar con 4) la exposición de algunas vías para detener el proceso de deterioro de la Lengua española. El título que se me ha asignado consiste intrínsecamente en una expresión copulativa: «lenguaje» y «conocimiento científico». Contextualmente se inserta en un monográfico dedicado a «educación» referida a España, en español y para españoles, es decir, «española». En consecuencia, los matices y la orientación de la expresión copulativa titular deben concretarse en la lengua española y dirigirse a la educación. En esta tarea nos situaremos. Con un aviso: considero ciencia a las ciencias de verdad: matemática, física, química, biología y afines. Y un lamento: ¿por qué tanta obsesión en otros saberes -tan dignos como los científicos-por ser 106 Francisco González de Posada considerados ciencia? Desde mi condición intelectual híbrida que cree separar naturalmente ámbitos que considera como obviamente separables, este problema no existe. No obstante, el marco delimitado, como puede comprenderse fácilmente, es de una extensión inabarcable y serían muchísimos los temas a desarrollar y los problemas a enunciar. Pero me referíré, y sin penetrar a fondo en ninguno de ellos, a los siguientes: 1) acerca del Lenguaje en sí: en torno a Wittgenstein, en la celebración del Cincuentenarío de su muerte; 2) sobre las relaciones entre los científicos españoles y la lengua española: en torno a Blas Cabrera, haciendo un poco de historia de la prímera mitad del siglo XX; 3) el Español científico: xerca de la creación y el uso de términos; y finalmente 4) unas sugerencias de acciones. En el Cincuentenario de Wittgenstein: el filosofar sobre el Lenguaje El filósofo austríaco es cita obligada cuando se enfrenta uno con temas de la naturaleza del que se nos ha propuesto. Wittgenstein es uno de los filósofos más significativos del siglo pasado, y dejó su príncipal impronta en el ámbito que puede denominarse del análisis lingüístico, de la lógica del lenguaje. Parece, pues, oportuno que le dediquemos el prímer capítulo de este breve estudio por razones intrínsecas y también de actualidad conmemorativa ^. Wittgenstein pasa también por ser, para algunos -a mi juicio, demasiados-, el cénit del filosofar si no de la Filosofía. Aunque no pertenezco a este grupo, reconozco que la obra del tan afamado como desgraciado filósofo merece una atención especial en su condición de filósofo del lenguaje, ámbito en el que se ha situado en la cima. En torno a la Filoso fia Wittgenstein fue autor de dos obras singulares de la filosofía producida en el siglo XX: el Tractatus Logico-Philosophicus (1921) y las Investigaciones filosóficas (1953), que se consideran que revolucionaron los cimientos de la Filosofía en la plenitud del siglo XX. Como referente de estas líneas se utiliza un trabajo tan sorprendente como demoledor. El País conmemoró el cincuentenarío de la muerte en el Lenguaje y conocimiento científico «extraordinario» Babelia del 28 de abril de 2001, con unos artículos de Isidoro Reguera. El texto principal puede caracterizarse como'de los tres despueses\ Reproduzcamos tres afirmaciones rotundas de sentidos negativos. Primera: «Después de él [ de Wittgenstein] ya no se puede pensar como antes. Conmovió los ñmdamentos y certezas tradicionales del pensar por excelencia, la filosofía, y a su destrucción dedicó consciente y heroicamente la vida». Segunda: «Después de Wittgenstein no se puede hacer filosofía como antes, o no se puede hacer filosofía de ningún modo, si se la entiende como antes». Y tercera: «Desde Wittgenstein nada puede ser universal, no puede haber principios categoriales o imperativos generales, hay que despedirse definitivamente de todo ñmdamento». Con cierto atrevimiento pueden hacerse dos consideraciones: una de carácter consecuencial de las precedentes afirmaciones de los despueses, y otra de manifiesta discrepancia. En primer lugar, la consecuencial, que puede catalogarse, a los efectos que se desean destacar, como relativa al ambiente sociológico de la Filosofía en España. Tanto tanto que no es que nos dejara sin Filosofía, con mayúsculas, sino que convenció a (muchos de) los filósofos profesionales de que no podía existir Filosofía; pero como había filósofos profesionales que tenían que trabajar contribuyó de manera singular, aunque obviamente sin proponérselo, al pulular de las «filosofías-de» y de las «filosofías adjetivadas» (formalmente, no personalmente), todas con minúsculas, y de casi todo, como si el hecho concreto tempóreo de que no pudiera existir una sola y auténtica Filosofía obligara a que tuvieran que existir muchas, cuantas más mejor. Así los planes de estudio de la mayoría de nuestras Facultades de Filosofía manifiestan que se estudian en ellas casi todos estos tipos de filosofía de casi todo menos propiamente Ciencia (al modo filosófico propuesto por Ortega en su Misión de la Universidad) y Filosofía, menos Física (a dicho modo filosófico) y Metafísica. En segundo lugar, la discrepancia. Puede afirmarse rigurosamente que se ha hecho Filosofía, con mayúsculas, después de Wittgenstein y no de menor rango que la que se hizo antes de él. Ahí están mis maestros, que también lo son de otros muchos, Xavier Zubiri y Mario Bunge. Pero, obviamente, nuestra convicción no quita mérito alguno al filósofo austríaco ni el merecido reconocimiento al trabajo del autor del artículo conmemorativo que me honro -honrándolo a él-en utilizar como referente. Puede avanzarse un poco más para que se entienda un poco mejor Francisco González de Posada 108 otro aspecto de lo que deseo dejar constancia expresa y múltiple. Reguera cita junto a Wittgenstein a otros tres pensadores germánicos de indudable relevancia en la Historia de la Filosofía, ya reconocidos e integrados en el plano académico, como son Freud, Nietzsche y Heidegger, y marginalmente a Russell. Sin duda me perdonará que haya citado ya a dos pensadores hispánicos, más recientes, aún no integrados en el saber profesionalizado del ámbito académico y para cuyas citas, y además con el énfasis que acostumbro, hace falta más osadía y quizás mucho atrevimiento; con los suyos no se naufraga, ciertamente, pero conviene *ir sabiendo' que con los míos tampoco. No debemos avergonzarnos de leer en español, ni tener miedo de citar a los que son españoles o escriben en español. Y esto tiene mucha importancia intrínseca pero también y especialmente en y para el trabajo que se me ha solicitado. En síntesis, puede afirmarse que hoy sí hay -y puede haber, y debe haber, y es conveniente que haya-Filosofía, con majrúsculas. Filosofía primera o Metafísica. Otro problema es que no la hubiera en tiempos de Wittgenstein y si se me apura que ni siquiera pudiera haberla. Pero Filosofía primera o Metafísica no tiene por qué ser una doctrina, conviene que sea sólo respuesta al (a los) problema (s) fundamental (es). Por mi parte, me atrevo a hablar, como es mi obligación, en el ámbito de la Naturaleza y de las Ciencias de la Naturaleza y puedo decir que es posible -y no sólo deseable-a la luz de las concepciones actuales de las ciencias físicas y biológicas una Metafísica de la Naturaleza, y aún más, que existe: la conjunción de Sobre la esencia y Estructura dinámica de la Realidad de Zubiri que, como digo, no es una doctrina sino lo que clásicamente podría considerarse como una Filosofía de la Naturaleza. (Denominándola con más rigor -ya que no se corresponde propiamente a ella, dado que abarca bastante más-sería Metafísica de la Realidad). Wittgenstein sí constató la realidad intelectual de su época: el vacío filosófico, por una parte, y la imposibilidad (la suya y la de sus coetáneos) de llenarlo, por otra. Las ciencias físicas y biológicas no permitieron más en aquellos momentos de crisis generalizada del pensamiento. Pero en la década de los cincuenta se cerraron las radicales revoluciones de la Física al mismo tiempo que se abrían las también radicales de la biología. Con Wittgenstein no se acabó el filosofar. Y contra sus criterios no sólo puede hacerse Filosofía sino que se ha hecho. No será la última vez que deba hacerse dadas las ignorancias científicas actuales y las revoluciones en marcha, y es de esperar, en consecuencia, que también en el futuro se haga. No es extraño que Zubiri no le prestara atención al filósofo austríaco. Y sí se la dedicara a la Matemática, a la Física y a la Biología junto a las Lenguaje y conocimiento científico Lenguas. Eligió otro camino, sin duda más duro y difícil pero abierto hacia una meta que se ve aunque nunca se alcanzara, alcanzándola. Pero, la filosofía -si así se nos deja llamarla-de Wittgenstein pasa por ser, con razón, entre otras cosas, praxis analítica y crítica del lenguaje; es decir, se presenta por ello como de sumo interés para el tema que nos reúne. La filosofía es para Wittgenstein, según Reguera: 1) praxis analítica; 2) crítica del lenguaje; 3) estilo de vida y de pensar; y 4) no es una doctrina. Esto más que filosofía parece que corresponde al filosofar, a la acción intelectual filosófica, al ejercicio de la racionalidad. Y Wittgenstein detectó, mejor que nadie hasta entonces, la problemática inherente al lenguaje, su irracionalidad, su inducción a la confusión. En este sentido, su obra adquiere un extraordinario y significativo valor, pero sólo en este ámbito. Si en el parágrafo anterior se ha manifestado una radical discrepancia, ahora no hay inconvenientes para tomar prestado del autor del trabajo conmemorativo de El País unas frases haciéndolas en algún sentido nuestras, como introducción para la posterior exhibición de un elenco de problemas. «Toda la racionalidad que puede haber pertenece al lenguaje, y el lenguaje consiste en mil juegos y contextos diferentes, con reglas diferentes cada uno. El uso diario de las palabras genera todo y cualquier sentido en el mundo. Cualquier significado y sentido de las cosas es relativo siempre a esta modesta e infranqueable coyuntura. Lo demás son fantasmas. La duda creadora de problemas filosóficos trascendentales desaparece en cuanto uno retorna al punto de vista del sentido común, y tales problemas con ella». Demasiado fuerte por lo que respecta a la racionalidad, a los problemas filosóficos pero no precisamos más en estos ámbitos. Y por lo que respecta a la crítica del lenguaje estamos de acuerdo, ¡cómo no!, con Wittgenstein y con Reguera, aunque fueran precisos algunos matices. Dos consideraciones complementarias se presentan como de sumo interés. Primera, como glosa y recuerdo de las palabras de Wittgenstein: «Desconfianza de la gramática es la primera condición para filosofar». Segunda, para el laudator: «antes de saber si es verdadero o falso lo que decimos hay que saber si siquiera decimos algo cuando hablamos. Y Francisco Gonzalez de Posada 110 si decimos algo, qué decimos y desde dónde lo hacemos, desde qué juego lingüístico, qué contexto, qué forma de vida». Podemos dar por concluida esta densa, quizás extensa y aparentemente periférica presentación del problema fundamental que nos atañe. Es momento de centrar nuestra atención en el cuadro sintético adjunto en el que se distinguen al modo clásico ^, en primer lugar, los niveles correspondientes a la Realidad y al ámbito de la Lógica, subdividido éste a su vez en dos subniveles: el conceptual y el lingüístico (mediante ^términos' y, en su caso,'expresiones' para designar a referentes y/o conceptos) ^. De esta manera clásica, y a falta de consideraciones críticas y de detalles, puede decirse que el concepto describe el referente (la cosa, el objeto) y el término lo designa constituyendo referente, concepto y término la trilogía de elementos fundamentales que hemos de considerar. Y con los tres tiene que habérselas «nuestro» humano lenguaje. Pues bien, aunque sea sólo como síntesis puede hacerse un breve catálogo inicial de problemas concretos, ahora con la única finalidad de clasificarlos y denominarlos. Primero, la importancia del lenguaje. Segundo, la dificultad del lenguaje, de su uso adecuado, por su esclavitud al contexto, complejo, versátil, tempóreo, espacial. Tercero, la necesidad del lenguaje, que se hace inexcusable. Y cuarto, el desplazamiento continuo de nuestra atención desde el término al concepto y viceversa, el tránsito del nivel lógico lingüístico al nivel lógico conceptual (que, en parte principal, es también lingüístico). Antes de acabar esta primera parte, y aunque sólo sea a título de pequeño apéndice, dado que este tema inicial afecta al lenguaje con tratamiento filosófico, deseo dejar otras dos pinceladas como esbozo. Una relativa a Ortega, usador como pocos del español, maestro del arte de escribir y filósofo. Otra, para citar de nuevo a Zubiri, ahora considerándolo como creador, quizás el que más, de lenguaje español. Numerosas voces adquieren con él nuevas acepciones, y, sin rubor, genera una pléyade de nuevos términos con los que designa nuevos conceptos referidos Lenguaje y conocimiento científico a nuevas visiones de la realidad y consecuencias de su estudio de la misma. Finalmente, y como resumen, debe afirmarse que el Lenguaje es un problema para la Filosofía, pero no problema de la Filosofía que hartos problemas tiene o, mejor dicho, que sólo tiene problemas y que ella misma ya es problema y que como problemas enuncia y estudia sus quehaceres. Pero el Lenguaje no sólo es problema para la Filosofía sino que lo es también intrínsecamente -a\m.que de manera menos proñinda-para la Ciencia. Pero aquí y ahora la perspectiva que interesa es otra: la de los problemas que la Ciencia y la Técnica en sus vertiginosos desarrollos crean extrínsecamente a las lenguas, y, en concreto, a la Lengua española. Los científicos españoles y la Lengua: en torno a Blas Cabrera Está bien lo anterior, pero debe escribirse no sólo sobre el Lenguaje (vocabulario y gramática), su problemática y su inexcusibilidad, sino sobre el Lenguaje científico y en español. Se tratarán en adelante algunas cuestiones puntuales. Cuestiones de historia, pero de historia reciente, de aproximación a la actualidad en la relación entre cientíñcos españoles y la lengua. Centraremos la atención en la figura de Blas Cabrera por mediación de su Discurso de ingreso en la Academia Española. Científicos académicos de la Española Hagamos, en primer lugar, un excurso para recordar a algunos de los más notables científicos españoles del siglo XX que tuvieron unas relaciones especiales con la lengua, refiriéndonos sólo a los más famosos que ingresaron en la Real Academia Española: serán los más conocidos y quienes adquirieron mayor responsabilidad. En consecuencia, no se pretende hacer un catálogo de los científicos españoles que se han ocupado de este tema, tampoco hacer un pequeño tratado de historia. Y menos aún hacer crítica del presente respecto de la atención que aquellos dedicaron y de la que dedican por exceso o defecto los actuales, y la que a ellos le dedican los restantes. Como contexto del trabajo lingüístico de aquéllos, conviene recordar que, en general, los científicos españoles mayoritariamente dedican poca atención a la lengua española, ya que parece que está en paralelo la importancia que se autoconceden con el desprecio que al menos implícitamente hacen de nuestra lengua. Francisco González de Posada El catálogo integraría a José de Echegaray, José Rodríguez Carracido, Leonardo Torres Quevedo, Santiago Ramón y Cajal, Blas Cabrera, Julio Rey Pastor, Esteban Terradas, Julio Palacios, Gregorio Marañón y Pedro Lain Entralgo. La opción personal elegida se ha orientado principalmente por tres personajes singulares de la ciencia española: Leonardo Torres Quevedo, Blas Cabrera y Julio Palacios. En esta ocasión, 2002, debe tenerse un nuevo recuerdo de Torres Quevedo con motivo del centenario de su participación en «La conquista del aire» (González de Posada y González Redondo 2002) y glosar de manera específica las relaciones de Blas Cabrera con la Academia Española, utilizando estas relaciones como ñiente principal para hacer un nuevo y breve catálogo de problemas ya más próximo al interés presente. Torres Quevedo puede considerarse como el pionero del actual e importante Vocabulario Científico y Técnico de la Real Academia de Ciencias Exactas, Físicas y Naturales. En ocasión anterior he escrito sobre Torres Quevedo y la Lengua. En Leonardo Torres Quevedo (1992), le dediqué el capítulo final destacando cuatro aspectos de la obra del genial inventor español. Primero, como creador de una nueva lengua simbólica para la descripción de las máquinas con la propuesta de algunas reglas para su gramática y algunos símbolos de su diccionario. Segundo, como usuario ejemplar de la lengua ordinaria (española y fi:'ancesa) en ciencia y técnica. Tercero, como ideador -y proponente de la realización-de un Diccionario Tecnológico Español en el marco de una «Unión Internacional Hispano Americana de Bibliografía y Tecnología Científicas». Y cuarto, como académico de la Lengua. A esta obra se remite al lector para más detalles. Notas en torno a Cabrera 1) Su participación en el Diccionario Blas Cabrera, que ftie elegido académico de la Española para suceder a Cajal el 14 de diciembre de 1934, tomó cierto interés en las tareas de la Academia, aunque no consta que ñiera mucho. Incluso antes de tomar posesión de su sillón, escribió una carta el 18 de febrero de 1935 a Emilio Cotarelo, secretario, colaborando en la edición del Diccionario, entonces en elaboración: «Si no encuentran Uds. que sea excesivamente técnica pudiera adoptarse la siguiente definición de la palabra Protón: "Núcleo del átomo de hidrógeno donde se concentra la casi totalidad de su masa material y que tiene una carga eléctrica positiva Lenguaje y conocimiento científico numéricamente igual a la negativa del electrón. Debe su nombre a que se le considera el elemento generador de todos los demás átomos". Se me ocurre si no consideran Udes. conveniente incluir en el diccionario los nombres: Neutrón, Positrón, Deutón de importancia también grande. Está siempre a la disposición de la Academia». Pueden apreciarse tres aspectos: a) La dificultad de toda definición de un término nuevo (el protón ya era antiguo), intrínseca y por razones de lugar y tiempo, que Cabrera salva bastante bien. b) El retraso de los términos científicos para penetrar en los diccionarios de la Lengua. c) El interés de Cabrera por acelerar este proceso de presencia oficial sugiriendo introducir otros términos relativos, en este caso, al neutrón y positrón que se habían 'descubierto' sólo unos dos años antes. 2) Título y tema de su Discurso Cabrera leyó el preceptivo Discurso de ingreso el 26 de enero de 1936, de título harto significativo para nuestro tema: «Evolución de los conceptos físicos y lenguaje». Acerca de la Realidad, que en el ámbito de la Física puede sustituirse por Naturaleza, suelo decir que, de acuerdo con Newton, la realidad «es lo que es», «es como es» («y tanto mejor si puede expresarse matemáticamente», que no siempre se puede); y, más allá -es decir, más acá-de Newton, que la realidad «funciona como funciona», y, en general, lo que sería más correcto, pero aún faltan términos precisos lingüísticos, «esfunciona o funciona-es como es-funciona o funciona-es» (González de Posada 2001). Y esto, que sólo es un ejemplo, entre muchos posibles, pero que no debe olvidarse, constituye un gran problema, que presenta dos caras: la deficiencia y la insuficiencia del lenguaje actual para expresar el conocimiento científico. De manera análoga, y también como otro caso tan elemental como radical para describir la situación presente, puede afirmarse que no existen términos que, por ejemplo en forma interrogativa, sustituyeran al ¿dónde-cuándo? o ¿cuándo-dónde? que exigiría la Relatividad Especial contextualizada formalmente en el espacio-tiempo de Minkowski en el que se sitúan los sucesos que considera esta relatividad^. Y podría llenarse todo un diccionario que mostrara las insuficiencias de términos 114 Francisco González de Posada para designar nuevos conceptos. Con esa insuficiencia se presentaría el problema complementario ya citado, la deficiencia de los mismos como objeto de definiciones; no sólo número (sería la insuficiencia) sino también la cualidad. El cuadro esquemático del parágrafo anterior lo conocía perfectamente Cabrera aunque no lo utilizara formalmente. Y a él se refiere en su Discurso, Los conceptos físicos evolucionan, cambian, se modifican, adquieren nuevos contenidos, presentan diferentes y más o menos notas caracterizadoras. Los conceptos científicos se refieren a la Naturaleza y se denominan mediante voces o términos lingüísticos. No obstante el Discurso no es propiamente tan técnico desde un punto de vista formal filosófico sino que propiamente es más bien de naturaleza histórica. Tratamiento de la evolución de la Física desde Newton hasta sus días con asombrosa actualidad: la evolución de las concepciones físicas acerca de la Naturaleza, principalmente en los dos planos tradicionales de la Filosofía de la Naturaleza y de la Física: Cosmología y naturaleza de la materia. Por lo que respecta a la Cosmología -el estudio, imagen y concepción del Universo-describe la evolución que corresponde al tránsito de las teorías newtonianas de la Dinámica y de la Gravitación hasta la Relatividad General de Einstein y los modelos de expansión del Universo, dedicando una especial atención a las concepciones del espacio y el tiempo newtonianos asociados a las categorías de la conciencia humana y al espacio-tiempo de Einstein con unas singulares consideraciones acerca de la inercia mental. 3) Ideas de Cabrera sobre la Academia En la «Presentación» de su Discurso escribe que la Academia «procura el perfeccionamiento de la lengua española, enriqueciéndola como instrumento de expresión de las ideas». Es decir: a) perfeccionamiento; b) enriquecimiento. Mejorar la expresión de las ideas e incrementar en la medida que sea necesaria el catálogo de términos. En el lenguaje popular y a los efectos de la vida tradicional un diccionario estático puede tener sentido. Las continuas revoluciones científicas y técnicas obligan a una atención y a una decisión valiente para abarcar con términos adecuados las nuevas realidades descubiertas y los nuevos conceptos elaborados. Ardua y extensa tarea la que corresponde a la Academia y, sobre todo, la que corresponde a los académicos científicos. Lenguaje y conocimiento científico 4) La Física y la lengua española: catálogo de problemas españoles Dadas la riqueza de ideas y la claridad de su exposición podemos limitarnos a enumerar y enunciar un conjunto de problemas que exhibe Cabrera en su Discurso destacando partes de sus párrafos o bien explicitando ideas concretas, sin comentarios complementarios que considero innecesarios en este punto. 1) La falta radical de tradición española en las Ciencias físicas que tuvo como consecuencia «la falta de colaboración española en el desarrollo de la Física, con la consiguiente depresión de la cultura». 2) El abandono y descuido del español: «[...] allá en los últimos años del siglo XIX y los albores del XX [...] los amantes de las ciencias físicas nos vimos forzados a descuidar la lengua materna en términos tales que casi llegamos a desconocerla. La simple información del estado de estos conocimientos era necesaria adquirirla en lengua extranjera, pues ni siquiera disponíamos de las buenas traducciones españolas de obras fundamentales que hoy abundan [...]. ¡Y si al menos se nos hubiese colocado en condiciones de utilizar idiomas extranjeros!». 3) Las ideas nuevas están en otras lenguas. En tiempos del joven Cabrera en francés y alemán; en el de su Discurso se abre camino el inglés como lengua principal hacia la práctica unicidad de la actualidad. 4) Ni siquiera existían buenas traducciones, a principios de siglo, que según él sí las había en su madurez, 1936. 5) La dificultad de expresar la ciencia en español que tenían los científicos españoles: «La versión en lengua materna de las ideas ya captadas planteaba problemas casi insolubles para quienes a la par carecíamos de conceptos suficientemente claros y de dominio del espíritu del idioma a que habíamos vuelto la espalda». 6) La contribución de las ciencias al desarrollo de las lenguas: «Es la lengua producto de la cultura toda de los pueblos que la hablaron, pues en ella va quedando el sedimento de la vida intelectual de las generaciones pasadas. Los diversos órdenes de ideas influyen en la medida de su intervención en la vida ordinaria. Es, por tanto, lógico que la literatura y las artes en general ocupen el primer rango por la importancia principalísima que en estos aspectos de la actividad intelectual tiene la vida interna del espíritu humano, pero sería un error fundamental desconocer la contribución de las ciencias en la formación del arsenal de medios de expresión, para los sentimientos e ideas elaborados por la inteligencia. Téngase presente que en cuanto el hombre se sintió espectador de la naturaleza aspiró a interpretarla y comprenderla, utilizando las ventajas Francisco González de Posada 116 que de este conocimiento pudo deducir para mejorar su condición vital. De este modo nacen los diversos capítulos de la ciencia cuyas aportaciones al patrimonio cultural contenido en el lenguaje son proporcionadas a la participación en que sus problemas afectan a los intereses y gustos de la humanidad, pues el lenguaje se constituye a impulsos de la necesidad de comunicar las ideas que reñejan las preocupaciones individuales». 7) La necesidad de introducir nuevos términos: su evolución y adecuación. «En primer término, las diversas técnicas que el hombre ha ido creando para auxiliarse en la satisfacción de sus necesidades físicas exigen la introducción de palabras para designar los nuevos artificios, cualidades o modos de actuar. La celeridad de su evolución durante el último siglo ha creado un problema de cierta trascendencia que ha obligado a atender con esmero a la selección de los términos adecuados. Y así en vez de dejar libre al genio del lenguaje se crean comisiones internacionales de especialistas que determina el vocabulario. C< mo es lógico en ellas tienen la hegemonía los pueblos que han contribuido más intensamente al progreso técnico». 8) El problema de los barbarismos. «Quienes se limitan a utilizar sus ventajas suelen cargar el idioma nacional de barbarismos innecesarios y excesivos sin ninguna atención al espíritu de aquél, que en ocasiones podría respetarse con sólo seleccionar convenientemente el origen del vocablo aceptado, y aun a veces se olvidan palabras bien castizas cuya significación cuadra exactamente con la idea que se quiere representar. En el mundo científico y en el industrial, sin distinción de razas, es frecuente aceptar un término extranjero para la designación de un fenómeno o de una de sus cualidades características, prescindiendo de palabras del propio idioma que designan exactamente la misma idea. Es ello un tributo pagado a los autores del descubrimiento y por consecuencia un poco excepcional». «El caso que criticamos es la invasión en masa de vocabulario de una técnica que es consecuencia del usufructo de sus ventajas materiales sin contribuir a su progreso. [...] En la industria como en las demás actividades humanas lo esencial son las ideas, cuya realización se encomienda a los organismos sociales adecuados para darles efectividad». 9) El alto grado de exigencia idiomática de las ciencias puras: «Las exigencias idiomáticas de la ciencia pura son más importantes que las procedentes de a vida industrial, porque se refiere a concepciones muy fundamentales que requieren un modo de expresión adecuado para transmitirlas fielmente. Concretando más puede afirmarse que las Ciencias físicas ocupan el primer rango como promotores de cultura moderna». Lenguaje y conocimiento científico 10) El daño a la Lengua española. «Así se comprende el daño que ha sido para el idioma español nuestro alejamiento del comercio intelectual en la época precisa en que nacieron y se constituyeron aquellos capítulos fundamentales del saber. Fueron entonces indispensables no pocos retoques de la lengua vulgar, que ciertamente no se prestaba para las nuevas preocupaciones. No sólo faltaron nombres adecuados para la designación de objetos reales o conceptos que no cabían en los moldes hechos; fue también necesario precisar relaciones que exigen flexibilidad y justeza del lenguaje utilizado en su exposición». A modo de conclusión-objetivo escribía Cabrera: «He querido en las páginas precedentes subrayar las concepciones generales introducidas para la interpretación racional del mundo físico desde Newton, cuyas exigencias dialécticas precisan y perfeccionan el lenguaje enriqueciendo sus posibilidades de expresión. No he pretendido trazar un cuadro completo de la evolución del pensamiento físico, porque sólo quería evidenciar la conveniencia, si no la necesidad, de que en la labor de esta casa esté presente la Ciencia que desde hace más de un siglo preside el desenvolvimiento cultural». En resumen, en esta segunda parte se ha expue'Sto u la colección de problemas propios del español que sólo se han destacado enunciándolos a partir de la selección de unos párrafos de Cabrera de 1936. Puede observarse que aunque antiguos no están demasiado anticuados. El panorama del Español científico: la creación y el uso de términos Pasemos a la tercera parte en la que pretendo exponer un poco más de cosecha propia, lo que no quiere decir original, mediante unas consideraciones de actualidad y la exhibición de algunos problemas acerca del panorama que se ofrece a la lengua española en su faceta de relación con la ciencia. En torno a las fuentes primarias: descubrimiento y creación Por lo que afecta a las fuentes primarias de terminología científica habría que decir que la primera está asociada al descubrimiento de objetos de/en la Naturaleza o a la creación de conceptos científicos, tareas propias de científicos que a continuación proceden a bautizarlos mediante su designación bien por un término, lo que sería deseable, bien por una expresión. Si hay invención hay novedad, implica evolución científica o Francisco González de Posada 118 técnica, supone innovación conceptual y/o de objeto o aparato, y, necesariamente, en consecuencia, hay que introducir una nueva voz. Por otra parte, la invención suele quedar plasmada en un artículo de una revista especializada o en un folleto de la patente correspondiente. No es fácil describir cosas nuevas con viejas palabras salvo que hubiera tal confusión que no explicara novedad, invención. De ordinario, la representación y la designación terminológica constituyen novedades. Para la ciencia sería lamentable que no se incorporasen continuamente a ella nuevos descubrimientos y que no se crearan nuevos conceptos. Para la ingeniería sería penoso que no se inventaran nuevos ingenios. Para el lenguaje sería dramático que no lo hicieran nuevas palabras que designaran aquéllos. Complementariamente la lengua ha de ser capaz de generar en tiempo real nuevas voces que denominen las igualmente nuevas creaciones que genera la evolución científica y técnica. Una lengua moderna viva debe extender su panorama de palabras a cualquier nueva realidad. Y la lengua que no sea capaz de llevar el paso de la innovación está condenada al estancamiento, a convertirse en fósil, y este proceso de vulgarización, de antigualla, no impedirá conversaciones familiares pero será incapaz de expresar ideas complejas, concepciones novedosas, trabajos de investigación... que exigirían en este caso la escritura y referencia a otra lengua. La tarea de creación científica y técnica precisa de un idioma, la lengua en la que se crean los términos lingüísticos con los que se designan aquellos objetos o conceptos. Desde este punto de vista, pues, lo primario -el descubrimiento y la creación-radica en la ciencia. Y lo secundario, su formalización lingüística, el término, pertenece a la lengua. Pues bien, ambos temas, primordialmente al menos, corresponden al científico. Aquí aflora ahora parte importante de nuestro tema. Esta tarea creadora se expresa usualmente en inglés. El descubrimiento de objetos y la creación de conceptos, aunque los hicieran españoles y en España, no se publica en español, no se difunde (de ordinario) en español. En la actualidad, en España faltan tradición y contexto. Blas Cabrera y Julio Palacios fueron de otra época: otro contexto, otra tradición. Los científicos españoles actuales se han acomodado rápida y eficazmente al nuevo contexto, generando un sistema que se ha establecido como tradición en un breve período de tiempo. No estoy hablando del problema de hacer ciencia en España, que es otro problema, y ya no tan grave ni tan generalizado como en otros tiempos, sino del problema del lenguaje científico español, que es otro ciertamente. La ciencia (nueva, la) que se hace en España se hace, aunque se considere escasa, como ciencia, pero no se hace en español, se hace en inglés. Y los científicos españoles que hacen esta ciencia «saben» (y hasta se alardea, e incluso sólo se alardea) que «debe hacerse en inglés», porque si no es como si no se hiciera ya que no existiría -dicen-. Pero, ¡claro!, el español no es, pongamos como ejemplos, ni el finlandés ni el bable; el español desempeña otro papel en la historia de la humanidad y en la cultura universal actual. No obstante, a los efectos de la ciencia parece como si no lo fuera: existe una creencia general de los científicos hispánicos que han penetrado individualmente o en pequeños grupos en el mundo de la ciencia que han asumido esta condición exacta y dócilmente. Y parece que sin retorno: entienden que es así, que debe ser así, que tiene que ser así. Y la lengua española paga las consecuencias. En torno al Diccionario de la Lengua Española La cuestión siguiente sería propiamente la de las fuentes de terminología científica española, la de los vocablos que terminarían (o quizás se iniciarían) en el Diccionario de la Lengua española. Este problema nos invita a hacer otras consideraciones. Un diccionario se construye con «voces», «vocablos», «términos», «palabras»,... ¡Cuántos términos he utilizado ya! ¿Para un mismo -único y preciso-objeto o concepto? ¿Son sinónimos (con una pequeña diferencia) o propiamente idénticos? El Diccionario básicamente recoge las «definiciones» de los referidos términos. Y complementariamente da cabida a etimologías, notas de uso, etc. La terminología conduce, a veces, a conñictos de muchos tipos (que suelen ser peligrosos en ocasiones por sus implicaciones jurídicas) ante las diferentes acepciones de un mismo vocablo o la existencia de diferentes vocablos (más o menos sinónimos) para la designación de un concepto. Desde una perspectiva racionalista cabría decir que cada objeto y/o cada concepto debería designarse por un término específico y... a ser posible de tal manera que existiera un solo término para cada concepto. Así exclamaríamos: ¡Qué bien si existiera una correspondencia biunívoca entre concepto y término, entre referente y término! Pero la realidad vital de las sociedades y con ella el lenguaje -o las lenguas-han seguido el curso que han seguido. Y de resultas se constata que esa deseada hipotética correspondencia... ni siquiera es unívoca. Los considerados sinónimos unas veces se manifiestan como identidades y otras auténticos inductores de confusiones. Dos términos (diferentes netamente) para un único concepto podría suponerse racionalmente absurdo, los sinónimos deberían representar más bien matices complementarios y ligeramente 120 Francisco González de Posada diferenciadores. Una voz designadora de diferentes conceptos (de ámbitos distantes) no crea problemas, pero si son de ámbitos próximos o del mismo sí y muchos. Suele considerarse, desde una perspectiva lingüística, riqueza de lenguaje lo que, desde otra que he sintetizado como racionalista, es también llamada a la confusión o al menos a una frecuente deficiente intelección (como se demuestra con harta frecuencia en el campo ya citado de la jurisprudencia). La autoridad del Diccionario, en última instancia, la constituye un conjunto de personas (a veces sin relación profesional con la «ciencia» del lenguaje) que se han elegido a sí mismas, pero muchos hablantes, la mayoría y formalmente la totalidad, se ven reconocidos en y por sus decisiones. Podríamos hacer una elemental clasificación de los individuos ahora implicados que fuera simplemente orientadora: en primer lugar, los profesionales del lenguaje (filólogos, gramáticos); en segundo lugar, los usadores excepcionales del lenguaje (literatos, ensayistas); y en tercer lugar, los creadores de lenguaje (filósofos, científicos). Nuestro tema afectaría primordialmente al tercer grupo, pero ya utilizo -para el caso español-el condicional, ya que en la tesitura actual afecta, principal y directamente, a los tres grupos, como habremos detectado y cuya necesidad seguiremos constatando a medida que avancemos en nuestro discurso. Pero el Diccionario posee una característica especial: es esencial y constitutivamente de carácter dinámico como lo es el propio lenguaje en sus debates, entre otros muchos, de enfrentamiento de voces vulgares y palabras nuevas. El lenguaje tiene, pues, naturaleza dinámica, evolutiva. Y el Diccionario, en consecuencia, análogamente. Pero esta naturaleza dinámica se manifiesta no sólo por la mejora intrínseca siempre necesaria por ser una obra tan compleja y amplia sino, y esto es lo más llamativo sin duda, por la acción creadora de las ciencias y de las ingenierías. Son miles los términos nuevos anuales en estos ámbitos. En el caso español los neologismos y los extranjerismos constituyen probablemente lo más problemático de nuestra lengua y de nuestro Diccionario, tanto por lo incorporado como por lo ausente. Así, entre las tareas pendientes, que serían de hecho tareas relevantes permanentes por su naturaleza, podrían destacarse, por lo que respecta al lenguaje todo pero especialmente al científico, las siguientes: a) suprimir las voces arcaicas y dialectales españolas o americanas en desuso; b) ordenar las acepciones con algún criterio válido; c) introducir las nuevas voces españolas; d) «traducir» al español, inmediatamente, los términos ingleses; y e) evitar duplicaciones y circularidades. El objetivo del Diccionario consiste en guiar al hablante nativo en la utilización de las palabras mediante unas definiciones claras y acerta-Lenguaje y conocimiento científico das. Y debe tenerse una preocupación especial con la relación entre la ciencia y la técnica, por una parte, y la lengua española, por otra, en general y especialmente en las Americas. Pero sin olvidar que este problema tiene otra cara: la necesidad de mantener viva la lengua. Y esto supone no olvidar que para que la lengua esté viva es básico que el universo de palabras crezca en paralelo con el de los descubrimientos y las nuevas ideas. Es fiíndamental, por tanto, que todo hispanohablante disponga de un vocablo en su lengua con el que designar cualquier realidad, concepto o idea. Y que no se le condene a recurrir a barbarismes para describir realidades o conceptos innovados en otros lares o incluso en el nuestro. Pero tampoco debe olvidarse que un diccionario pertenece también al ámbito de la política social: constituye una especie de pacto entre la instrucción y el uso. Y que de ninguna manera el pasado ha de dictar necesariamente el presente. Dinamismo abierto al ñituro, apertura a la innovación, innovación en la apertura. En torno a las fuentes sociales Las relaciones del español con la ciencia, el uso del español en la ciencia se manifiesta en diferentes foros, que pueden ser principalmente los siguientes, que se comentan a modo de rápida exhibición. En primer lugar deben considerarse los foros de creación de ciencia que se ubican en los ámbitos universitarios y en los específicamente científicos. Revistas propiamente científicas en español no existen (y por tanto no se escribe en ellas, y en consecuencia no se leen, etc.). Los científicos españoles que se preciaban desde hace unas tres o cuatro décadas «tenían» que escribir en inglés y desde hace dos el sistema imperante de consideración científica y complementos económicos «los obligan» a publicar en inglés. En consecuencia, estos trabajos originales no tienen absolutamente ningún valor positivo a los efectos del lenguaje español hablado o escrito; sencillamente, no existen. La producción científica tiene lugar en lengua inglesa. Así, metafóricamente, podría decirse que cuanto más índice de impacto (mejor consideración científica pero) menor españolidad. Pero, en segundo lugar, no debe olvidarse que la lengua es sobre todo uso y transmisión. Aquí se transfiere, o al menos se comparte, la responsabilidad del español científico a las ediciones de libros, revistas de divulgación, prensa, TV, radio, museos, exposiciones, etc. Hay que decir claramente que ni las bibliotecas ni las oficinas nacionales de patentes hacen Francisco Gonzalez de Posada 122 la lengua^ en absoluto. Y si la lengua es uso y es transmisión, la científica, por su especialización, dificultad y el estrecho margen social de su uso, lo es si se quiere más aún: ha de estar primero y sobre todo en el aula (el profesor de todos los niveles debe haber aprendido primero y transmitir en clase después los conceptos nuevos con palabras nuevas) así como en las publicaciones escritas y en los medios audiovisuales ya citados. Quiero dejar constancia de una realidad que en la actualidad vivo diariamente. A mí me ha sorprendido extraordinariamente el hecho de que el problema objeto de análisis y de crítica en el que estamos inmersos no afecte tan drásticamente al ámbito de la Medicina. Constituye un caso particular en la Ciencia el ámbito de las ciencias médicas. Tengo una directa relación con ella, por mi participación, aunque modesta y marginal si se quiere pero intensa, en la elaboración de un Diccionario terminológico médico ^. Dos notas caracterizan relativamente a la Medicina con respecto a las demás ciencias. Primera: una impresionante riqueza terminológica. Segunda: la no esclavitud tan descarada al inglés; sin duda por lo extendido e impuesto de sus raíces griegas y latinas. En tercer lugar, un caso singular lo constituyen los folletos de las patentes^ y a ellos, en consecuencia, debe dedicarse una atención especial. La novedad de la creación es precisamente la condición de patentabilidad. Y el folleto de una patente es, por definición, el primer contacto de la inventiva con el papel. El folleto constituye así el acto primero no propiamente de difusión pero sí de posibilitación de difusión. Las patentes son (deberían ser) un factor vigorizador del español científico y técnico, sobre todo un elemento impulsor del español tecnológico, ya que tienen su origen en la comunidad científica hispana y están redactados en nuestra lengua. Así una patente significaría un equilibrio entre el interés particular del inventor y el interés general de la comunidad. De hecho mucho menos de lo que consideran los inventores de artefactos o de procesos. Pero la Lengua es mucho más. Las revistas científicas tienen poca difusión, los artículos sólo los leen unos pocos, aunque sean los que van a seguir hablando de ello. En el caso de las patentes ocurre algo similar. A los efectos del lenguaje interesan tanto o más las fuentes secundarias ya citabas: revistas de divulgación científica, libros de texto, medios de comunicación usuales (TV, radio, prensa, etc.); en resumen las tareas que desde hace veinticinco años consideramos como de cultura científica. El contenido de las revistas científicas (vertido al español) y el de las patentes han de pasar a la Universidad, al aula, al apunte, al libro... y al Congreso, a los medios de difusión, etc,... ya que si no no pasa a la lengua, aunque pudiera pasar, en su caso, al Diccionario. No obstante, no olvidemos lo científicamente primario. Patentes (en español) y artículos en revistas (inglesas) son fiíentes de nuevos vocablos científicos y técnicos. Por eso hay que felicitar a los innovadores por crear ciencia e inventar técnica, pero a los primeros, además, por inventar o innovar lenguaje. Otro elemento que no debe olvidarse es el de las patentes extranjeras que también constituyen fuentes vigorizadoras del español científico y técnico. Las patentes deben traducirse al español, como condición sine qua non, para obtener protección en España. Somos importadores netos de patentes: parece que el impacto e importancia de las traducciones se refieren al hecho de que sólo el 0,52 % de las patentes europeas son españolas. Pero, ¡atención!, la Unión Europea está decidida por la no obligatoriedad de la traducción. En este caso el resultado sería análogo o quizás más grave aún para la lengua española que la costumbre de la publicación científica en inglés. En resumen, puede concluirse, claramente y sin necesidad de matices dulcificadores, que si la situación no cambia -es decir, no la hacemos cambiar-los hispanohablantes no pueden -y po podrán-seguir el progreso, el ritmo científico y técnico de los nuevos tiempos en su idioma. Esto supone anclar la lengua española en el siglo XX, al menos en las áreas de conocimiento que implican más novedad: ciencia y técnica. A modo de sugerencias finales De manera específica y directa es la primera vez que me enfrento a una tarea de la naturaleza de la presente. No obstante me atrevo a sugerir, como consecuencia de las reflexiones hasta aquí explicitadas, algunas consideraciones para la acción. Detectado el grave problema que pende actualmente sobre la lengua española pueden sugerirse algunas vías para detener el proceso y corregirlo. Dos líneas principales pueden seguirse: una primera mirada se dirige a los científicos; otra, a las instituciones. Podríamos titularlas acciones recomendables. Adquirir conciencia, todos los hispanohablantes pero especialmente los científicos, de la importancia que tiene en el mundo la lengua española, aunque ahora sólo la tengan acerca de la importancia científica de publicar en inglés. La española está llamada a ser la'segunda gran lengua de comunicación del siglo XXI. En medida importante los científicos hispanos tienen la responsabilidad de que sea segunda, detrás del inglés indiscutible primera, y no sólo primera de todas las demás, que Francisco González de Posada 124 adquirirían la condición de secundarias porque sólo hubiera de hecho una relevante. Complementariamente, adquirir conciencia también de que la lengua española no puede permitirse renunciar a las áreas de conocimiento de la ciencia y de la técnica que constituyen sin lugar a dudas las ñientes de mayor impacto en la producción de nuevas voces. Y en el presente la lengua española está amenazada de vulgarización, de anclaje, de petrificación. Hay que superar el 'exilio científico' actual, que conduce al deterioro y al empobrecimiento de la lengua y que constituye así un perjuicio difícilmente reparable para el resto, para la lengua toda. El español de la ciencia y de la técnica debe garantizar unas nuevas fironteras del español, hoy lugar de incertidumbres y peligros; se han disparado las señales de alerta, se hace precisa la organización de la defensa y la concepción de ideas fértiles para el ataque. Asumir una creciente responsabilidad en el uso y en la difusión de la lengua española en los ámbitos de la ciencia y la técnica mediante la dedicación de esfuerzos a las tareas asociadas que faciliten una mayor calidad del español de la ciencia y la técnica además de garantías para el español en la ciencia y la técnica. Y esto en los diferentes marcos citados: 1) los libros científicos y técnicos en español; 2) el papel de las revistas propiamente científicas; 3) el de las revistas de divulgación; 4) el del uso en los medios, prensa, televisión, radio, museos, exposiciones, etc.; y 5) un adecuado tratamiento de las patentes. Este español de la ciencia y de la técnica constituye hoy ciertamente, por su importancia, un aparte del español, pero un aparte que repercute en el español todo, como no podía ser de otra manera, por la respectividad entre las partes que componen el todo. Superar el 'desprecio' de nuestra lengua por los científicos hispanos que se manifiesta no sólo por el uso del inglés en exclusiva para sus publicaciones científicas «de prestigio», sino en la triste intelección de que así vale más el contenido ¡Qué barbaridad! Hasta ahí llega la perversión de las mentalidades. No se creen sólo que así son más leídos, que disfrutan de una mayor importancia formal y reconocimiento internacional, sino que establecen como dogma que así son mejores y sólo así son mejores. ¡Qué poca capacidad de criterio propio! ¡Qué poca confianza en H acunción de responsabilidades para atreverse a hacer juicios personales de valor científicos! Aquí debo traer a colación el singular ejemplo de Zubiri. Toda su obra original la escribió en español. Probablemente haya creado más conceptos y en consecuencia más términos y más acepciones que nadie. Fue libre, se hizo soberano de sí mismo, no se sometió a modas ni a modos. Lenguaje y conocimiento científico Quinta. Aprender sin rubor a citar a científicos (o pensadores en general) españoles por otros científicos españoles. Llama poderosamente la atención lo difícil que resulta encontrar trabajos científicos de españoles en revistas internacionales que citen a otros españoles. Y esto aunque no se leyera en el mundo. A modo de reñexión que hay que considerar en la totalidad de lo que escribo: ¿es tan importante lo que publicamos en inglés? Quizás aquí esté la cuestión. No parece que lo sea mucho ya que es prácticamente imposible leer una cita de un español en algo escrito por otro español, salvo la cita de uno mismo. Tampoco está de más hacer un llamamiento de acción política, mejor diríamos de acciones de gobierno, cuya perspectiva general debiera ser más abierta y de mayor responsabilidad que la de los propios científicos. Desde ahí debería decirse el «¡basta ya!» tan necesario y urgente: no a la invasión, no al sometimiento; sí al uso del español, sí al aflorar de éste en el mundo de la ciencia y de la técnica Y con acciones concretas. El Estado tiene que favorecer, financiar, fomentar la existencia de revistas científicas en español. Y premiarlas y premiar. Y con el Estado, las Autonomías, que tantas particularidades de tan diversos como estériles temas promocionan. Con carácter general conviene destacar la obligación de potenciar la expresión en español de los trabajos científicos originales. Finalmente, a modo de grito: ¡sin duda! ¡sin miedos!, sí, colegas científicos. Si somos ya tan buenos que hemos ganado nuestra presencia en revistas importantes, y algunos presumen de citación en los índices solventes: ¡escribamos en español! ¡Y que nos traduzcan! Y, ¡no lo olvidemos!,... citemos a españoles en nuestros trabajos, también en los de lengua extranjera. Notas ^ Deseo así dejar constancia de mi participación en la conmemoración de modo intelectual festivo, por una parte, y de modo crítico, por otra. Lo he citado en diferentes ocasiones en mis conferencias de ese año, pero que recuerde expresamente no he publicado, hasta ahora, una sola línea. La presente es una buena ocasión. Especialmente y con más extensión lo recordé en la de título «Blas Cabrera, académico de la Española: rigor conceptual, precisión lingüística» dictada en el III Simposio «Ciencia y Técnica en España de 1898 a 1945: Cabrera, Cajal, Torres Quevedo». En el momento de finalizar la redacción de estas páginas ya están publicadas las Acias del I (1999) y II (2000) Simposios, con edición de F. González de Posada, F. A. González Redondo y D.'Trujillo Jacinto del Castillo. ^ Con expresiones zubiríanas, diríamos que sin aterrizar en el problema de la entificación de la realidad, por una parte, ni en el problema de la logificación de la inteligen-
La Didáctica de las lenguas, de las literaturas y de las culturas debe ser el eje sobre el que se construya el sentido en el resto de las disciplinas. Las lenguas maternas y extranjeras son los elementos instrumentales necesarios en sociedades multiculturales con una inmigración importante. Toda cultura trata de equipar a sus fiíturos ciudadanos con modelos 130 Joaquín Díaz-Corralejo y procedimientos que perfeccionen esas habilidades, sin ellas no se podría desarrollar una cultura (Bruner 1990, p. La evocación mental con toda su complejidad es interpretada de forma incompleta y pálida por el lenguaje: «Pensar en castellano, inglés o catalán es una riqueza y un lío...; si me preguntan en qué idioma pienso, digo que lo hago en imágenes» (Graves 1999, p. El sistema escolar proporciona al niño, al adolescente, en primer lugar, un entorno humano representativo de la comunidad en la que se hará persona; en segundo lugar, la lengua materna y/o la lengua oficial, las distintas asignaturas que utilizan también dichas lenguas y las lenguas extranjeras conforman los procesos que van formando los criterios del juicio crítico que le permitirá analizar y valorar interpretando la realidad (Lipman 1991, p. Las lenguas llenarán de sentido para los estudiantes la relación entre las actividades, los ejercicios y las tareas que se les proponen para desarrollar las habilidades, los conocimientos y las conductas y su biografía personal. 75) es en la interacción donde se construye el sentido: «los seres humanos, al interactuar entre sí, crean un sentido de lo canónico y lo ordinario que se constituye en telón de fondo sobre el que poder interpretar y narrar el significado de lo inusual». Pero para interactuar en las mejores condiciones hace falta (Galisson 1991, p. 161): «A) Utilizar modelos de comportamiento (porque los comportamientos, actualizados en situación de uso, obedecen a reglas interiorizadas, organizadas según modelos, lo mismo que los discursos constituyentes de un enunciado ^). B) Movilizar las representaciones del mundo» ^. Es decir, para Galisson, los saber-hacer de interacción, la práctica cotidiana, necesitan de saberes multiculturales, representaciones del mundo, para comprender y expresar el sentido. En el aprendizaje de las lenguas, de las literaturas y de las culturas ambos aspectos tienen que ser tomados en cuenta en la planificación del currículo en las secuencias de aula. Hay que proporcionar elementos de reflexión y habilidades para analizar modelos y representaciones. Sin ellos, todo aprendiz carecerá de criterios para aceptar o rehusar la información que recibe o que envía. Algo cada vez más necesario pues los medios de comunicación transmiten hechos culturales de todo tipo con una intencionalidad siempre implícita, alienante y escasamente formativa. Ese diseño debe considerar la construcción del sentido en los tres ejes de la significación (Morris 1971y Jacques 1987): Eje de la referencia (de qué se habla, léxico-semántico y socio-cultural). Eje de la diferencia o de los materiales significantes (cómo se dice y con qué, lingüístico-fonético-fonológico). Eje de la comunicabilidad (qmén habla a quién y por qué, pragmático). Estos tres ejes también han sido estudiados por la psicolingüística, que propone también tres fases para la comprensión o la expresión del sentido. Hay que poner en relación la situación de comunicación y el sistema lengua con la realidad del enfoque perceptivo de los alumnos. Esta relación, en una primera hipótesis, podría tener un planteamiento en tres etapas que parecen ser las que los alumnos siguen en la práctica (García 1994): a) Búsqueda del sentido global: reconocimiento grafémico, fonológico y ortográfico en relación con el léxico. b) A esta primera hipótesis se añade el reconocimiento sintáctico y pragmático (actos de habla en relación con la situación de enunciación). c) Integración texto/discurso. No hay un orden obHgatorio en este enfoque perceptivo, aparentemente las tres etapas se activan a la vez en interacción constante. La implicación de todo esto en la transposición a los saber-hacer del profesor para su aplicación al aula sería esta: (Cuadro adaptado de Robert Martin (1983, 2^ ed.l992): Pour une logique du sens París: P.U.F., p. Que parte de las funciones para llegar a la enunciación en situación, integrando los cuadros anteriores. La realidad española demuestra, con su gran diversidad de lenguas, que hay una gran riqueza no sólo en los aspectos literarios y artísticos, sino en la generosidad, el talante abierto y comprensivo, estereotipo de los españoles, que es fruto de la convergencia y sincretismo de lenguas y culturas. Como todo currículo es un producto implícito de ciudadano, el aprendizaje de las lenguas debe servir, además de (re)centrar el ego del estudiante al entrar en contacto con otras culturas, para que dicho proyecto de persona se haga explícito. Esa puede ser la respuesta a la violencia egocéntrica, a la cerrazón comunitaria, al eurocentrismo y a la globalización. La sociedad está pidiendo al sistema educativo soluciones a hechos sociales que implican una sensibilización social: el paro, el hambre, la enfermedad, la contaminación, la guerra y el terrorismo, por no citar más que las más actuales y terribles. Ante la pérdida de poder de decision a niveles globales, parece que habrá que formar unas generaciones que lo recuperen a nivel de barrio, de ciudad. La Didáctica de las lenguas y de las literaturas debe ser el eje sobre el que se construya el resto de materias. La lengua materna y las lenguas extranjeras son los elementos instrumentales necesarios en sociedades multiculturales con una inmigración importante. Dichas lenguas servirán de elemento sincretizador a lo largo del currículo, pero si se quiere evitar lo que Berstein llama «barrera lingüística» (que implica que los estudiantes de clases desfavorecidas y de minorías marginadas fracasen en lenguas), hay que combatir las «estrategias restringidas» en la planificación verbal, tanto en la socialización primaria (grupo social) en la familia y en la escuela, como en la secundaria (trabajo) por medio de la diversificación de las interacciones sociales y del conocimiento de las habilidades metalingüísticas para observar el funcionamiento de las lenguas a fin de poder interiorizarlas. Por ejemplo, en Primaria y en la ESO se pueden emplear textos de referencia cultural: mitos, fábulas, cuentos, poemas, de diferentes culturas, más adelante, grandes textos literarios ^, así como la literatura infantil y juvenil, y textos documentales, al tiempo que se inicia el estudio de las metaestrategias elementales de análisis, reflexión y organización mental. Para los hijos de los inmigrantes habrá que proporcionar textos orales y escritos en sus lenguas maternas. Los profesores deberán recibir información y formación en otras culturas y en otras formas de aprendizaje cultural. Cuando haya grandes grupos de alumnos con una misma lengua materna u oficial, además de otros planes en marcha, se ha comprobado ^ que es más rentable, tanto a nivel educativo como económico, mantenerlos, durante los tres primeros años de incorporación al sistema, en contacto con esas lenguas ^ en las asignaturas fundamentales, lengua, matemáticas, y quizá ciencias sociales, dibujo, al tiempo que estudian español, esto les permite seguir avanzando a su ritmo cognitivo e incorporarse de forma más sencilla para una integración total al cuarto año. De no hacerse así, sufren un retraso general que es más difícil de recuperar después. Se trataría de fomentar un cierto bilingüismo en un entorno multicultural (Vez 1988). Paradigma educativo y currículo: hacia un nuevo paradigma La sociedad se encuentra en un momento en el que están coexistiendo dos visiones contradictorias del caos de la realidad. La visión mecanicista (cartesiana, lineal, optimismo irrealista). La mente es superior al cuerpo. El observador está separado y es neutral ante lo observado. Necesidad de dividir el conocimiento en disciplinas. El conjunto es la suma de las partes. Relación de causa-efecto: pensamiento analítico, lineal y monocausal. Vida humana superior a la naturaleza. La visión holista (sistemática, ecológica, pesimismo realista). La mente y el cuerpo en un todo integrado. El observador interactúa con lo observado. El todo es más que la suma de las partes. Red causal: pensamiento complejo, borroso, y helicoidal. Vida humana integrada en un universo complejo y caótico. En esta situación mundial se está (re)creando como nuevo el paradigma de los derechos humanos: la solidaridad mundial. Quizá la solución esté en un nuevo paradigma educativo: Disciplinas: esquemas lógicos para mejor comprensión de la información. Metodología hxmíanista y transversal: análisis de la información en situación dentro de una cultura. Cultura: sistema de juicio y de pensamiento creativo Enfoques bolistas y ecológicos Ética de mínimos Áreas de transversalidad Estrategias transversales Didáctica de las lenguas^ de las literaturas y de las culturas En el aprendizaje de las lenguas, las literaturas y de las culturas, el soporte básico es el texto en todas sus categorías. Dicho aprendizaje tiene como objetivo primordial el dominio funcional del lenguaje y como objetivos fundamentales (Bronckart 1997, p. La formación de la persona. La construcción de las funciones sociales. El análisis y la reflexión. La formación a la diversidad social La didáctica de la lengua y del texto deben ser solidarias y complementarias. Tanto el campo deja enseñanza/aprendizaje de las lenguas, como el literario se desarrollan epistemológicamente en la contradicción y la dialéctica de todo campo científico. Se trata de formar a la vez lo individual y lo social, la comprensión del texto en su función específica y de su relación diversa con los demás textos, el conocimiento social y cultural del entorno textual y literario y su relación con el resto de la humanidad, en fin, el dominio del sistema como paradigma y de la diversidad de relaciones y de producción textual. Todo esto implica que el paradigma de didáctica de las lenguas, de las literaturas y de las culturas debe ser el proceso de enseñanza I aprendizaje de acceso y construcción del sentido a través de las lenguas, las literaturas y las culturas, Y su finalidad mejorar las condiciones educativas de la transmisión, de la transposición y de la adquisición de lenguas, literaturas y culturas maternas, segundas y lo extranjeras. Dentro de ese paradigma, el docente necesita hacer un análisis de la situación de enseñanza/aprendizaje que le proporcione los datos de los alumnos y del centro en relación con el currículo del curso y del grupo clase concernido. Análisis situación de enseñanza I aprendizaje global Datos socio-antropológicos: Internos: La «situación», «distancia» (Dabène, 1990) entre LM, LO y LE "^ que posibilita/dificulta la introducción de la LM/LE como lengua «vehicular». El nivel sociolingüístico alcanzado en la lengua vernácula, o, en su caso, la lengua materna, es decir, si se elaboran en ella las ñmciones simbólica y conceptual. Externos: La extracción social de los alumnos. La pertenencia cultural y étnica de los alumnos. Las perspectivas de movilidad social de la zona. Las expectativas de la Asociación de Padres de Alumnos. Situación de E/A^ en clase: gestión y participación en la E/A: el contrato pedagógico (gestión de los conflictos cognitivo, Hngüístico y afectivo). Análisis situación de enseñanza /aprendizaje de una secuencia didáctica específica Objetivos y contenidos (Currículo y PEC ^) en el curso/nivel precedente y en el siguiente Objetivos y contenidos reales alcanzados (PA ^^) en el curso/nivel precedente (media grupo clase en relación con el PEC) Objetivos y contenidos previstos (Currículo y PEC) para el curso actual Objetivos y contenidos previstos (PA) para el aula Propuesta curricular de objetivos y contenidos Contrato didáctico. Primeras concreciones de las hipótesis previstas Criterios de secuenciación y de progresión helicoidal ^^ de unidades (base temática, por tareas, discursiva u otra) Criterios de secuenciación de tareas y actividades en la unidad Criterios de evaluación Negociación (Correcciones a la propuesta curricular con las objeciones y sugerencias de los alumnos) Proyecto curricular de aula (hipótesis de trabajo de aplicación directa) Todos estos datos vertebran la planificación para alcanzar el objetivo fundamental: la competencia de comunicación/realización de lenguas, literaturas y culturas. Para ello hay que pasar por una larga etapa que es el proceso de construcción del nuevo sistema, este largo proceso va conformando un sistema intermedio que llamamos interlengua. Estos análisis ponen de manifiesto que hay que saber aunar las distintas interacciones y relaciones para que el empirismo, con su buen sen-Reflexiones sobre la Didáctica... 137 tido común, no se convierta en bricolaje desordenado, ni la teoría se reduzca a un esqueleto pegado a la piel de los documentos oficiales, ni la síntesis de las problemáticas generales un globalismo perdido en las nubes. Es necesario que el caos de la variedad tenga un sentido preciso para toda la comunidad educativa. La progresión en la enseñanza/aprendizaje proporciona los criterios para avanzar desde la sensibilización hasta la conceptualización con los pasos necesarios de reflexión y de automatización para configurar la memoria a largo plazo. Ejemplo de progresión de una secuencia anual Progresión de los procedimientos y de las habilidades El desarrollo de la memoria En el desarrollo de la memoria se deben tener en cuenta los siguientes procesos (de la Garanderie 1982, pp. 79 y ss.) que se construyen a través de la lengua: La reflexión: Hay 4 tiempos en la reflexión: 1. percepción; 2. evocación; 3. rememorar las reglas, las nociones, los conocimientos; 4. aplicación de las reglas, las nociones, los conocimientos. La memorización: Actividades: vaivén entre lo percibido y lo evocado; proyección hacia el futuro formando representaciones visuales o verbales y anticipando la utilización de éstas. Memorizar: a) -estructurar, organizar la información -crear asociaciones, relaciones entre les imágenes actuales y las representaciones a largo plazo ~ reestructurar los conocimientos -construir su saber, apropiárselo -reutilizar en actividades de aprendizaje apropiadas a cada estudiante Memoria a corto plazo: Capacidad de retener durante algunos segundos grupos de elementos («chunks»: trozos), normalmente no se retienen más que de tres a siete elementos. Existe el efecto de primacía, se retienen los primeros, y el efecto de inmediatez, se retienen los últimos, si no hay distracciones. Hay varios módxxlos de la memoria a corto plazo (Baddeley y Hicht, 1994): -el bucle y la autorepetición (como una cinta Moëbius) -la pantalla visuo-espacial (las evocaciones aparecen bajo la forma de imágenes mentales visuales) -el input fonético de los datos (almacenamiento fonético en elementos [sin bucle]) -la unidad de gestión central y la coordinación de módulos (supervisión de las operaciones de los módulos, ejecución simultánea de tareas independientes) Memoria a largo plazo: Sistema complejo de memorias -memoria procedimental: conocimiento de ciertas habilidades motrices y cognitivas (p.e.: preparación y ejecución de una tarea escolar) -memoria preposicional o declarativa: • la memoria episódica: recuerdos autobiográficos (afectiva) • la memoria semántica: palabras, símbolos verbales, referentes, conceptos, reglas de operación de los símbolos y de sus relaciones; éstas pueden ser jerárquicas o en red, según la «distancia» semántica o mapa conceptual • códigos de la memoria a largo plazo ® el código acústico • el código simbólico, metafórico • el código semántico 142 Para la memorización, un aprendizaje intencionado, motivado, suscite una retención mejor que un aprendizaje incidental. Para completar los criterios de dicha progresión se pueden utilizar las propuestas de las guías del profesor, el análisis de los manuales de clase, las propuestas institucionales: el currículo, el proyecto de centro y, fundamentalmente, la capacidad del propio docente para elaborar hipótesis a partir de la síntesis de todos los datos pasados por el filtro de la experiencia y del saber hacer profesional. El diseño de las secuencias didácticas, para conseguir el objetivo básico de la competencia de comunicación y de cultura, debe establecer el porcentaje que tiene que tener específicamente en esa secuencia cada componente en relación con los objetivos didácticos, los contenidos y la evaluación. Componentes de la competencia / actualización de comunicación y de cultura Lingüístico: gramatical, sintáctico y fonético/fonológico Pragmático y discursivo: no verbal: a) gestualidad; b) proxémica, mímica, gesticulación verbal: a) situación de comunicación -> actos de enunciación; b) tipos de textos tipos de discurso actos de habla; c) articulación, modalización y coherencia del texto Referencial: a) nociones/temas; b) progresión semántica Sociocultural: esfera personal, esfera social, esfera cultural (actualidad, arte, historia, etc.) Estratégico: a) aprendizaje de metaestrategias: observación, comprensión, reflexión, estudio, etc.; b) estructuración de la reflexión: análisis, reflexión, argumentación, reformulación, síntesis, conceptualización, memorización; c) resolución de problemas: cognitivos, afectivos, sociales; d) rutinas, normas y dinámica del grupo clase; e) tratamiento de la información; f) gestión de los conocimientos y del proceso de enseñanza/aprendizaje: evaluación y autonomía Por fin llegamos a la estructura básica que recoge todos los datos y hace una hipótesis de transposición didáctica al aula: la unidad didáctica (UD). Se puede definir como: Un conjunto coherente de actividades o tareas que, tras la transposición didáctica efectuada por el profesor, llevan al alumno del descubrimiento y comprensión de elementos y nociones nuevos, a su conceptualización, a su asimilación, a su fijación y a su transposición. Dicho conjunto se inscribe en una sucesión de fases o se-Reflexiones sobre la Didáctica. cuencias unidas por las hipótesis surgidas del análisis de la situación de enseñanza/aprendizaje con la finalidad de una adquisición óptima, siguiendo un proceso didáctico de progresión de contenidos, de lo simple a lo complejo y de lo concreto a lo abstracto. Toda UD es el resultado de una opción metodológica. Todo profesor debe tener un conocimiento proñmdo de las distintas opciones para poder elegir con conocimiento de causa. En la «lección», el tiempo determinaba normalmente el contenido, en la UD son los contenidos los que determinan el tiempo, no tiene, por tanto, una duración preestablecida, ésta depende de los contenidos, de la metodología, de los niveles y del número de alumnos, etc. Toda UD refleja las opciones metodológicas propuestas por el centro, el profesor, los alumnos, la administración y se caracteriza por un conjunto de procedimientos pedagógicos. Estos varían según los niveles de aprendizaje y, en éstos, según las elecciones metodológicas, las condiciones de la situación de enseñanza/aprendizaje y las técnicas utilizadas. Tradicionalmente las UD se subdividían en dos fases: la «presentación» con varias etapas: presentación, repetición, memorización; y la «adquisición» con varias etapas también: explotación, fijación y transposición de las adquisiciones en la expresión personal y espontánea. Actualmente, las fases de la UD deben tener en cuenta tareas y actividades, cambios conceptuales y resolución del/los conflicto/s cognitivo/s, de acuerdo con las hipótesis del aprendizaje significativo (Ausubel 68), de las actividades intelectuales y afectivas que se movilizan ante un nuevo conocimiento, según la taxonomía de D'Hainaut (Dalgalian et al. 1981y D'Hainaut 1985), que adapta al contexto escolar los planteamientos piagetianos y vigostkianos, así como la tarea final y la evaluación formativa de todo el proceso. Fases de la Unidad Didáctica En primer lugar, se trata de encontrar los elementos que pueden desencadenar y potenciar la motivación, (teniendo en cuenta que ésta se desarrolla en el ámbito afectivo de los alumnos, mediante la creación de imágenes mentales significativas o agradables, dichas imágenes mentales no siempre se traducirán verbalmente, pero están condicionadas por el lenguaje, hecho fundamental en el aprendizaje de otras lenguas y de la propia). Por lo tanto, para que las imágenes sean significativas hay 144 Joaquín Díaz-Corralejo que tener en cuenta lo socioafectivo (familiar, amistoso, cercano, instintivo). Se trata de mantener y fomentar la ilusión de aprender, de tener curiosidad; para ello se debería incorporar a las funciones comunicativas el componente imaginario personal. No hay que olvidar que habrá aprendizaje cuando haya un deslizamiento del hedonismo evolutivo (en principio, pasivo) a una evaluación crítica de las perspectivas de futuro (en principio, activa). En segundo lugar, se deben analizar los prerrequisitos, es decir, aquellos conceptos, técnicas y estrategias, saberes y saber hacer, saber ser y saber devenir, que son necesarios para poder comprender e integrar los nuevos datos de la lengua extranjera en el sistema en construcción: la interlengua. Las actividades de sensibilización, de conocimiento de lo nuevo, suelen ser actividades centradas en la comprensión oral y escrita, y en la expresión oral, en lengua extranjera (o en lengua materna, dependiendo del nivel de los alumnos). Estas actividades ponen en contacto al alumno con lo que quiere o debe aprender y se concretan en enumerar, identificar, reconocer, repetir, describir y memorizar. Estas actividades tratan, cuando ya lo nuevo se ha hecho familiar para el alumno, de que éste lo incorpore a su propio sistema de lengua extranjera, mediante la interiorización, la memorización y la reconstrucción de sus propios conocimientos. A través de actividades y tareas analiza, clasifica y aprende a discriminar, rehusando y corrigiendo los enunciados que no correspondan al sentido en contexto. Sin conceptualización no hay verdadero aprendizaje, es decir, hay memorización a corto plazo y memorización por repetición. Aunque las actividades de producción pueden darse en cualquiera de las fases anteriores, adecuadas al nivel de conocimientos y a la fase, la producción que no parafrasea, sino que elabora variando los conocimien-Reflexiones sobre la Didáctica. tos adquiridos, en otras palabras, reutilizando los nuevos conocimientos y los antiguos combinándolos para responder a distintos contextos y en situaciones de comunicación diferentes, sólo puede realizarse, en principio, tras una buena conceptualización. Se concreta proponiendo al aprendiz lo que pueda ajmdarle a avanzar haciéndole esforzarse a partir de lo conocido, mediante la producción creativa oral y escrita, personal o colectiva. No hay que olvidar el proporcionarle también la posibilidad y el desarrollo de la capacidad de analizarse y de autocorregirse. La evaluación formativa sigue la progresión de las secuencias en sus distintas fases, observando y teniendo en cuenta los errores para analizar, diagnosticar y prescribir a los alumnos los elementos «obstáculo», sus propias limitaciones y las posibles correcciones o soluciones para conseguir las metas, los objetivos propuestos, las tareas finales acordados en el Contrato Pedagógico o Didáctico. Criterios de diseño de Unidades Didácticas Los criterios de desarrollo de la UD y su aplicación didáctica se plantean a tres niveles: a) Situacional: responde a las preguntas básicas de toda situación de comunicación (cuándo, dónde, cómo, por qué, etc.), así como a la implicación e intencionalidad comunicativas de los interlocutores de los textos a utilizar en el aula en dicha UD. Desarrolla los roles lingüísticos, pragmáticos, referenciales, sociales, psíquicos y antropológicos de la competencia de comunicación y de cultura. b) Secuencial: la progresión de la programación adopta una forma cíclica helicoidal, siguiendo como hilos conductores los elementos lingüísticos (grafémicos, fonológicos, fonéticos y morfo-sintácticos), pragmáticos (situación de enunciación, intenciones de comunicación, actos de habla, lo no verbal), referenciales (nociones y objetos del mundo creado), y textuales-discursivos (géneros de textos, tipos de discurso, coherencia, cohesión, modalización) teniendo en cuenta las secuencias establecidas por la administración (textos oficiales, proyecto educativo de centro) para la disciplina en ciclos y cursos, así como los análisis de la situación de enseñanza/aprendizaje. c) Didáctico: parte del análisis de las necesidades, motivaciones y conocimientos de los alumnos para llegar a establecer el Contrato Didáctico que servirá, tras su negociación, de elemento dinamizador de la progresión en los sucesivos cambios (rupturas epistemológicas) que se darán a lo largo de la unidad, del curso. La progresión de la/s UD: toda UD es una unidad de aprendizaje en la que los criterios de progresión deben basarse en su característica de desarrollar las competencias múltiples citadas en 1.a). Hay que tener en cuenta, en dicha progresión, que el objetivo general global es la formación del alumno en las competencias de comimicación y de cultura en la lengua estudiada y en las estrategias y destrezas de tipo transversal interdisciplinar. Debe haber una interrelación profunda de objetivos y contenidos (currículo, PEC, mínimos, conceptuales, procedimentales, actitudinales) entre las distintas unidades. La selección de material, debe tener en cuenta lo dicho en 1, 2 y 3, para la elaboración de tareas y actividades (motivación, prioridades a desarrollar, consignas y rituales metalingüísticos, estrategias didácticas y dinámicas de grupo, tareas finales). Las actividades y tareas serán organizadas, según los criterios de progresión citados anteriormente, en las fases del aprendizaje en una unidad didáctica: Motivación -Prerrequisitos; Sensibilización -Recepción -Fijación; Conceptualización -Asimilación -Adquisición; Producción -Transferencia -Variación; Evaluación formativa y formadora (durante todas las fases) 6. Imbricación de tareas y actividades entre si, con unidades anteriores y con unidades posteriores, según criterios de progresión. Selección, según los criterios citados, de tareas y actividades de evaluación formativa y sumativa. Previsión de actividades y tareas de refuerzo, según perfiles y estilos cognitivos de profesores y alumnos. Previsión de actividades laterales para situaciones inesperadas. Evaluación de la propia unidad, criterios correctores de los aspectos no desarrollados y preparación de la transición a la unidad siguiente. Las distintas culturas presentes en el aula deberán ser tenidas en cuenta en la elección de materiales de las lenguas y literaturas que proporcionarán unos textos y unos contextos ricos en experiencias significativas, funcionales y de contraste para todos los alumnos. Este planteamiento didáctico puede ser un elemento de motivación de interés y, fundamentalmente, de fusión y de mestizaje cultural, que ayuden al/los profesor/es y al/los alumno/s a adquirir una competencia en la «cultura de la desaparición» (Gruzinski 2000, p. 330) para sobrevivir en una sociedad en la que el recurso a modelos sociales pasados o actuales en mutación es imposible y se trata de generar nuevas prácticas para evitar situaciones sin salida. Estamentos, instituciones y familias de las diversas culturas presentes en el aula deberán proporcionar a los centros materiales e informa-Reflexiones sobre la Didáctica. ción para que el equipo educativo tenga los elementos necesarios para elaborar los criterios de culturas en contraste y en relación intercultural que den soluciones a los problemas cognitivos, afectivos y sociales. También se tienen que tener en cuenta las competencias transversales a todas las asignaturas: Capacidad de escucha Capacidad de atención Capacidad de organización/reorganización de actividades, ejercicios y tareas conceptos, procedimientos y actitudes tiempo y espacio memorización inducción, deducción e inferencia en el tratamiento de problemas sistematización de los elementos nuevos tratamiento de la información materiales Su dominio, así como la integración de objetivos y contenidos de la lengua materna, de la lengua oficial y de la/las lengua/s extranjera/s, tendrá como objetivo la adquisición de una competencia plurilingüe y pluricultural en el campo de los conocimientos, de las representaciones, de los comportamientos y de los valores. 5, ¿Crisis de la literatura? La enseñanza/aprendizaje de las lenguas, las literaturas y las culturas no debe olvidar unos hechos que forman parte de su historia educativa: a) Crisis de un tipo de lectura: rechazo de un canon clásico y en relación con el pasado y, por tanto, de sus valores, en parte, por su dificultad para los lectores actuales. Transición de los valores culturales estatales o de comunidad hacia un canon internacional y multicioltural. b) Crisis de un cierto tipo de interpretación: rechazo de una idea del sentido de los textos y aparición de nuevos métodos de análisis difíciles de transponer al aula. c) Crisis en los objetivos educativos: los enfoques que se centran en el alumno (tener en cuenta sus intereses, sus necesidades, sus capacidades,...) atienden más a sus gustos que a los conocimientos, y hay una escasa visión histórica. d) Crisis a nivel social e institucional: pérdida de estatus, de prestigio y de importancia para la formación o la selección en el mundo del trabajo. La consciencia de estos hechos ha llevado a las autoridades a aumentar las horas de lengua en el currículo para tratar de mejorar la situación. Esta decisión importante puede que dé resultado si parte de la constatación de que no hay método bueno para la educación de la inteligencia y que hay que preparar al estudiante en tres planos: culturas de la expresión, del aprendizaje y de la organización eficaz. Y, por supuesto, que saber lengua y saber literatura implica saber, en un caso, como usarla de forma espontánea, correcta e inteligente y, en el otro, el desarrollo de un canon personal, regional, nacional e internacional. Los objetivos generales de la enseñanza/aprendizaje de la literatura tratarían de conseguir una formación humanista, ideológica y que le permita dominar el texto y la.lectura. Estos objetivos se desarrollarían a través del placer de unas lecturas plurales, multidimensionales, multidisciplinares, multiculturales, informativas, formativas y experienciales integradas en la planificación de la que hemos venido hablando y con el siguiente tratamiento en fases. El texto en la percepción física, psíquica y cognitiva individual y grupal. b) Fase social: el texto en su función sociocultural. El texto como comunicación. c) Fase informativa: autor, argumento, tema, estructura. d) Fase analítica: estudio de los diversos planos, fónico-fonológicoprosodemático, morfosintáctico, semántico. e) Fase creativa: Intertextualidad, teatralidad, reescritura, producción lúdica, taller de escritura. Parece claro por lo planteado hasta aquí que la polémica entre lingüística aplicada y didáctica es considerada como algo secundario ya que lo consideramos basado en cuestiones de tipo léxico, en inglés didactics no tiene el mismo sentido que en español, alemán o francés, y en as-150 Joaquín Díaz-Corralejo Sin más pretensión que apuntar algunas posibles soluciones a la transposición en el campo de la didáctica de la enseñanza/aprendizaje de las lenguas, las literaturas y las culturas, y de seguir el debate sobre la investigación e innovación en el campo de dicha disciplina, valgan estas líneas para dejar abierto el tema. ^ En Estados Unidos y Francia. ^ Las lenguas de prestigio social además de la materia suelen ser las lenguas cooficiales.'^ LO: Lengua Oficial; LM: Lengua Materna; LE: Lengua Extranjera. ^ E/A: Enseñanza/Aprendizaje. ^ PEC: Proyecto Educativo de Centro. ^° PA: Proyecto de Aula. ^^ Se utiliza, cuando se habla de progresión, la metáfora de la espiral, pero ésta es una figura plana que sólo indica una progresión lineal y constante, para representar la progresión en el aprendizaje parece más correcto utilizar la imagen de la hélice que marca xma progresión en el espacio y en el tiempo, que no tiene que ser lineal, que puede ser más rápida o más lenta, que puede incluso retroceder, y que puede variar de amplitud. ^2 Recordemos un bello texto de López Parada: «im poema enseña la dimensión más privada de lo humano. Enseña al hombre el valor de su ser diferenciado y dibuja una huida hacia el rostro no común que es, en realidad, el deber de cualquier vida, la maduración hacia la propia conciencia y el papel propio».
El principal objetivo de la educación es enseñar a los alumnos los métodos para la realización de su actividad fundamental: el estudio. Es evidente que toda persona que desea ejercer una actividad profesional -oculista, músico o electricista-debe desarrollar las técnicas de aprendizaje apropiadas bajo una dirección y unas normas rigurosas y didácticas. Un requisito primario para cumplir este objetivo es poseer una actitud mental afectiva hacia la profesión en cuestión. El mismo requisito debe cumplir el profesor hacia la materia que debe impartir. Indudablemente los firmes propósitos no bastan, si no van acompañados de un trabajo coordinado, constante y firme entre profesor y alumno (Chapman, 1959). El propósito de este artículo es adecuar estas ideas a las peculiaridades de las ciencias físico-químicas y su enseñanza, de cara al nuevo siglo (y nuevo milenio), recapitulando sobre las experiencias del pasado e intentando superarlas con nuevas técnicas pedagógicas que reflejen el nuevo espíritu del tiempo en que vivimos. Hace ya muchos años publicamos en esta misma Revista (Aguilar, 1965) un artículo sobre la enseñanza de la física que tenía como objetivo ofrecer nuestra opinión sobre un texto estadounidense, Curso de Física del PSSC (Physical Science Study Committee), que pretendía ser un 154 José Aguilar Peris ejemplo actualizado de la didáctica de esta disciplina, en el que habían intervenido centenares de personas, en su mayor parte, profesores de física de enseñanza media y universitaria, durante un periodo superior a cuatro años. En la década 1960-70 fue un libro revolucionario que introdujo un espíritu nuevo en la enseñanza de la física. Las viejas agrupaciones estancas de la física -mecánica, calor, acústica, óptica y electricidad-con un apéndice de física moderna, desaparecían para ser sustituidas, no como un conglomerado de fenómenos, sino como un proceso continuo, subrayándose la universalidad de sus leyes y la unidad de la física en todos sus aspectos. Los temas tratados estaban ordenados y relacionados, desde los más simples a los más complejos, incluyendo datos sobre el desarrollo histórico de las ideas básicas, la lucha en el pasado y los pasos que tuvieron que dar algunos científicos para enunciar los principios fundamentales de la física. El texto se complementaba con un libro de prácticas de laboratorio y un equipo de aparatos modernos y económicos, un gran número de películas científicas, una serie de publicaciones escritas por especialistas sobre temas de divulgación y una guía para el profesor. Existían dos niveles del texto, uno destinado a la enseñanza media y otro a la física general universitaria. El curso PSSC costó de 8 a 10 millones de dólares (de la época). El proyecto era acertado y tuvo una gran difusión, tanto en España como en Sudamérica. Se tradujo a múltiples idiomas (español, italiano, francés, portugués, japonés, sueco, etc.). Sólo tenía un defecto. Al menos en España, no se ajustaba a los programas académicos de física de los años 60 y, como muchos de los proyectos ambiciosos de este estilo, era un libro excelente para completar la formación de los profesores de física media y universitaria, pero que éstos no podían impartir a sus alumnos, especialmente porque carecían en sus horarios oficiales del tiempo necesario para su desarrollo. Las películas didácticas y los libros de prácticas y demás complementos se ensayaron en algunos centros pilotos que se habilitaron con estos fines. Se hicieron varias ediciones sucesivas del PSSC y finalmente desapareció de los catálogos editoriales y fue sustituido por otros proyectos de la misma índole. ¿Por qué estudiamos las ciencias físico-químicas? La física es la ciencia básica de la naturaleza. Estudia sus leyes universales e intenta describir y entender las propiedades y el comportamiento de la materia y la energía. La química es la rama de la ciencia que trata de la constitución, propiedades y transformaciones de la materia, Las ciencias físico-químicas y su enseñanza así como de su estructura atómico-molecular. La relación entre ambas ciencias es tan íntima que existen disciplinas específicas como química física, física de los materiales, física del estado sólido, electroquímica, bioquímica, biofísica, termoquímica, etc, que son auténticas simbiosis. Las aplicaciones de la física y la química en la medicina y la farmacia son innumerables. Existe un libro clásico, titulado Medical Physics (Glasser, 1944) de 1744 páginas en donde se discuten unas 300 aplicaciones físico-químicas en temas relacionados con las ciencias de la salud, tales como mecanismos y defectos de la visión y la audición, metabolismo químico de los alimentos, presión arterial, viscosidad de la sangre, presión osmótica en las células, capilaridad de los vasos sanguíneos, tensión superficial y función respiratoria, la bomba sodio-potasio, los ultrasonidos, las propiedades eléctricas de las fibras nerviosas, los rayos X, el uso de trazadores radiactivos, etc. Comentando este libro, S. Chapman decía: «Durante varios años ofrecí pagar medio dólar a cualquiera de mis alumnos que fuese capaz de encontrar 10 páginas consecutivas de un texto general de física universitaria, entre las cuales no encontrasen nada aplicable a la profesión médica» (Chapman, 1959). En textos más modernos de física médica han ido incluyéndose nuevas aplicaciones a la medicina y a la biología, (Bouyssy, 1987) como la resonancia magnética nuclear, tomografías, microfotografías de neuronas, cámaras de positrones, contadores de centelleo, fotomultiplicadores para exploraciones cerebrales, difusión y difracción de neutrones, etc. Es cierto que las aplicaciones fisico-químicas a la ingeniería y a la telecomunicación son más directas que las correspondientes a las ciencias de la salud, pero no menos importantes. La enseñanza experimental de las ciencias físico-químicas Aunque la física es una disciplina del saber humano que se enseñaba ya en tiempos de Aristóteles (siglo IV a.C.) y en las primeras universidades que surgieron al final del Medievo, la verdad es que en sus comienzos no fue más que «filosofía natural», y hubo que esperar la aparición de Galileo y la introducción del método experimental para que se reconociera su valor como una ciencia de la naturaleza, en donde la observación, la medida y el razonamiento matemático van sustancialmente unidos. El estudio de los fenómenos naturales exige un diálogo vivo entre los físicos y la naturaleza, diálogo que se reduce casi siempre a observar, medir, razonar, calcular, comprobar y volver a observar, medir... El conjunto de estas etapas es la experimentación. Pero este método no se lleva a la Uni-156 José Aguilar Peris versidad hasta el siglo XDÍ, cuando comienzan a surgir los primeros laboratorios de física experimental y se sentaron las bases de las investigación moderna. La Universidad de Cambridge nos dio el modelo con su célebre Cavendish Laboratory, en donde se practicaba simultáneamente la enseñanza y la investigación. Su primer director fue Maxwell y desde entonces fue y sigue siendo unos de los centros más fructíferos de la física mundial, puesto de manifiesto por el gran número de Premios Nobel otorgados a sus investigadores durante el siglo XX. La química, como ciencia experimental (prescindimos de la antigua alquimia, esotérica, cuyo objetivo casi único era la transmutación de la materia en oro, la piedra filosofal, el elixir de la juventud, etc.) surgió en el siglo XVIII con los trabajos de Black, Cavendish, Priestley y especialmente del químico físico Antoine Laurent Lavoisier, padre de la química moderna y quien desde el comienzo de sus investigaciones reconoció la importancia de las mediciones precisas que realizaba siempre con gran exactitud. Estableció la naturaleza de la combustión, la composición del aire y del agua y estableció el principio universal de conservación de la masa, piedra angular de la química del siglo XIX. Los químicos aceptaron las ideas y métodos de Lavoisier, que coincidían en líneas generales con las planteadas por Galileo en el campo de la física. Hoy el profesor de cualquier disciplina científica o tecnológica conoce bien el valor didáctico de los medios audiovisuales y lo utiliza a través de diapositivas, transparencias, películas, vídeos, ordenadores, etc. Sólo una experiencia magistral de cátedra o el trabajo serio del alumno en el laboratorio puede superar al medio audiovisual. El viejo aforismo: «escucha y olvidarás, observa y recordarás, realiza y entenderás», sigue siendo de actualidad en la enseñanza de las ciencias físico-químicas o tecnológicas. Las demostraciones y experiencias de cátedra y laboratorio constituyen la mejor ajruda del profesor para que el alumno desarrolle su mente hacia la comprensión de un concepto físico y su relación con el mundo real. A pesar de ello, existen muchos argumentos en contra de estas demostraciones, tales como: «no tenemos presupuesto para ello», «se requiere mucho tiempo para su preparación», «hace falta personal auxiliar bien preparado», etc. Cierto es que algunas de estas afirmaciones son reales, pero los resultados que se obtienen merecen la inversión del tiempo utilizado, y muchas demostraciones de leyes o propiedades de la materia pueden realizarse con aparatos muy simples y de bajo precio. Con ello combatimos además el síndrome de que « la física y la química son muy difíciles», tan extendido entre los estudiantes. Cuando un concepto puede demostrarse mediante el uso de materias simples, no puede ser Las ciencias físico-químicas y su enseñanza 157 difícil de entender. Por ejemplo, el estudio termodinámico de la tracción de un hilo puede comprobarse experimentalmente tomando un pequeño aro de caucho en contacto con los labios (que son muy sensibles a los cambios de temperatura) y estirándolo rápidamente con las dos manos se detecta sensiblemente un calentamiento del caucho. Si bruscamente volvemos a la longitud inicial, se detecta un enfriamiento. Con estos antecedentes, la interpretación entrópica del proceso es inmediata y tiene todas las posibilidades de ser comprendida hasta por los alumnos más distraídos. Hay que hacer constar que al hacer estas manifestaciones no queremos restringirnos a las ciencias físico-químicas que se imparten a nivel de enseñanza media o primer curso de las facultades universitarias, donde realmente la experimentación debe jugar un papel preponderante. Las técnicas experimentales deben desarrollarse igualmente en los cursos avanzados. Hay excelentes experiencias catalogadas en el campo de la física superior que utilizan la holografía, los rayos X, el cuanto de acción de Planck, la medida de la velocidad de la luz o la medida de la carga eléctrica elemental. Igualmente, en el campo de la química avanzada pueden realizarse experiencias de laboratorio con métodos cromatográficos y espectroscópicos, electroquímica, radiactividad, síntesis de compuestos orgánicos, microscopía electrónica de barrido, metalurgia, nuevos materiales, etc. Los objetivos fundamentales de estos trabajos experimentales son: Introducir en el alumno el significado del enfoque experimental mediante el contacto y la ejecución de las manipulaciones necesarias. Es obvio que el estudiante cree en la estadística gaussiana más fácilmente cuando él acumula datos que cuando se le dice que aquellas medidas siguen una distribución gaussiana. Introducir al alumno en los métodos de análisis de datos, tan frecuentes en el mundo de la ciencia y la ingeniería, y desarrollar la «conciencia del error», de modo que el futuro científico sea conocedor del valor relativo de sus medidas. Apreciar el uso válido de las aproximaciones y no considerarlas como un método cómodo de obtener una respuesta fácil de un problema difícil ante la falta de una técnica apropiada. Este punto está en el corazón de nuestra filosofía sobre la enseñanza del análisis de datos. Consideramos que el fin no justifica los medios en ningún caso, y, por tanto, tampoco en las ciencias experimentales. Además existe el peligro de que la aplicación de métodos incorrectos para hacer más «tratable» un problema difícil dé lugar a una solución completamente falsa. Conceder la máxima importancia a los métodos de registro gráfico, análisis por diferencias, el uso del cálculo, etc. Registrar y analizar los resultados experimentales en formas gráficas y matemáticas y sacar conclusiones de las observaciones y los datos obtenidos son fundamentales. El uso del ordenador, tan extendido hoy entre las nuevas generaciones, simplifica estos cálculos (considerados en otros tiempos como tediosos, a base de tablas de logaritmos, abacos, reglas de cálculo, etc). Convencer al estudiante de que incluso un experimento que aparentemente es poco importante para su futuro profesional, puede contribuir directamente en su desarrollo mental, simplemente por la lógica, análisis o cálculo que lleva consigo. Mejorar la capacidad del alumno en su propia expresión a través de la presentación y exposición de sus resultados, para lo cual el ordenador es una pieza esencial (Aguilar, 1983). Las precauciones a observar en los laboratorios de química son de gran importancia, ya que van asociadas al riesgo de materiales peligrosos, pero necesarias para la experiencia y deben los alumnos ser advertidos por su monitor antes de iniciar la manipulación de los mismos. Sólo de este modo adquirirán un concepto real de la relación que existe entre la química de pizarra y la experimental (CBA, 1973). Si las enseñanzas físico-químicas se realizan con estas líneas de enfoque experimental, los alumnos que sigan con interés los cursos correspondientes, estarán en condiciones: a) de utilizar más eficazmente sus conocimientos teóricos y hacer con ellos predicciones que podrán ensayar en el laboratorio; b) considerar si una teoría se aplica a una situación particular y si son posibles ciertas aproximaciones e idealizaciones de la teoría; c) plantear una o varias experiencias para comprobar el cumplimiento de una determinada teoría; d) extraer conclusiones de las observaciones y datos obtenidos y evaluar las discrepancias que existen entre la teoría y la experiencia. Consideramos también que es fundamental para el buen funcionamiento del laboratorio, un equipo de instructores que realicen su trabajo con ilusión y entrega. Un equipo de instructores apáticos y con actitud simplemente mercenaria es el peor enemigo de la enseñanza experimental. Suele resultar fructífero el reclutamiento de instructores posgraduados o de últimos cursos, que son bien recibidos por los aliminos en razón de su edad y status, así como por el hecho de proporcionarles explicaciones a su propio nivel, a los cuales no tienen reparo en discutir o pedir más aclaraciones. Las ciencias físico-químicas y su enseñanza Desde Galileo y Lavoisier hasta nuestros días, la física y la química experímentales, con los pies puestos en el laboratorío, han sido enseñadas con éxito por los grandes maestros de estas ciencias. Es bien conocido que Hans Chrístian Oersted hizo su famoso descubrímiento del electromagnetismo en 1820 mientras explicaba una clase a sus alumnos rodeado de pilas, alambres e imanes y afirmaba que todos los avances científicos deben partir de la experimentación. En tiempos más recientes, las clases del profesor Scherrer, en Zurich, eran foco de atracción de todos los físicos amantes de la experimentación. Por último, quiero recordar que Highet en su libro The Art of Teaching (Highet, 1954) al discutir los métodos de los grandes maestros de la historia y, hablando de Jesús, dice: «Como todos los grandes maestros sabía bien el valor de las imágenes (parábolas) y que su pueblo aprendía rápidamente con hechos (milagros)». Era el método experimental llevado al más alto nivel espiritual. Ciencia fundamental y crecimiento industrial Las ciencias fisíco-químicas, con la biología y las matemáticas, constituyen hoy los ingredientes fundamentales de lo que se llama ciencia pura o fundamental. Si analizamos el desarrollo de las naciones industriales en los últimos 200 años, no hay duda de que en la primera mitad del siglo XIX, Inglaterra era la más destacada; los grandes científicos de la investigación fundamental eran ingleses: Maxwell, Faraday, Young, Davy, etc. En la segunda mitad del XIX y principios del XX, Alemania tomó la cabeza y los grandes científicos puros fueron alemanes en su mayoría: Helmholtz, Nernst, Roentgen, Planck, Sommerfeld, Heisenberg, etc. Después de la II Guerra Mundial, los EE.UU predominaron a escala industrial y sus mejores científicos puros fueron Fermi, Oppenheimer, Lawrence, Rabi, McMillan, Feynman, etc. La relación es evidente. El poderío industrial se nutre de grandes físicos, químicos y matemáticos. Estos no surgen por generación espontánea, sino de la excelente formación que recibieron en sus universidades de origen. Como decía V.F. Weisskopf, «la investigación fundamental fija las normas del pensamiento científico y crea el clima intelectual de la civilización contemporánea. Es el motor que hace circular la sabia de las ideas, no sólo en los laboratorios tecnológicos y las industrias, sino también en todas las actividades culturales» (Weisskopf, 1963) En el discurso pronunciado en el Vaticano, ante la Academia de las Ciencias, al cumplirse el I Centenario del nacimiento de Albert Einstein (10 de noviembre de 1979), el Papa Juan Pablo II (1980) decía: 160 «La investigación ñmdamental debe estar libre de la influencia de los poderes político y económico, los cuales deben cooperar a su desarrollo, pero sin entrometerse en su creatividad, ni someterla a sus propios fines... En cuanto a su segunda vertiente, la ciencia aplicada, debe aliarse con la conciencia del científico, a fin de que el trinomio ciencia-tecnología-conciencia sea la causa del bien verdadero del hombre, al cual va destinado». No olvidemos que la preparación no adecuada (de bajo nivel) en matemáticas y ciencias fisíco-químicas en aquellos alumnos que desean como fin último la investigación o la integración en una empresa de alta tecnología, dará lugar necesariamente a una finistración que contribuye finalmente a un alto grado de abandono en sus ilusiones. Cada día más, los centros selectos de investigación y las grandes empresas exigen un curriculum de excelencia en sus fiíturos técnicos y personal directivo, valorando incluso sus conocimientos de economía, ciencias sociales, idiomas, informática, contaminación ambiental, ecología, etc., para mantenerse como líderes en estos nuevos aspectos cada vez más importantes en nuestro entorno. Las ciencias físico-químicas y la tecnología Las ciencias ñmdamentales fisíco-químicas y la tecnología se apoyan mutuamente en formas muy diversas, a veces cíclicas, como en una simbiosis natural. Un ejemplo de grandes dimensiones, desarrollado en los últimos cien años y que sigue aportándonos ramificaciones sin fin, es el correspondiente al estudio de las partículas elementales y su influencia en el desarrollo de la tecnología más avanzada. En efecto, el descubrimiento crucial del electrón y los rayos X por J. J. Thomson y W. C. Roentgen no hubiera sido posible sin las bombas de alto vacío y los aparatos espectroscópicos que manejaban los químicos en los últimos años del siglo XIX con fines analíticos. Estos descubrimientos, unidos a la teoría cuántica, puesta en marcha por M. Planck al resolver el problema de la radiación térmica emitida por un cuerpo negro, permitieron que Bohr enunciase su modelo atómico y justificara el origen y la energía de las rayas espectrales. El tubo de rayos catódicos utilizado por Thomson para medir la masa y la carga del electrón constituye esencialmente el tubo y la pantalla de los aparatos de televisión. Podríamos decir, finalmente, que el televisor posee el acelerador de electrones más universal y popular de nuestro mundo. De estos descubrimientos surgió el concepto de probabilidad de la nube electrónica que rodea el átomo, base esencial que permitió explicar Las ciencias físico-químicas y su enseñanza la química moderna de los elementos, los láseres y la superconductividad. Con los imanes superconductores, la técnica de la resonancia magnética nuclear se ha convertido en un aparato importante de la medicina actual. Los cables superconductores podrán utilizarse algún día para el transporte de energía eléctrica con un mínimo de pérdida de calor, así como para su almacenamiento mediante bobinas. Las técnicas de detección de partículas, puestas a punto con estos mismos principios, tienen actualmente numerosas aplicaciones en industrias del petróleo, siderurgia, medicina y armamento. Gracias a los detectores de centelleo se apreció casi inmediatamente en toda Europa la explosión del reactor nuclear de Tchernobyl. Así se abrió la puerta hacia el progreso imparable de la electrónica, la astronomía, la informática y las comunicaciones y también como un efecto de retroalimentación, a profundizar más en el estudio de las partículas elementales. Así se construyeron los grandes colisionadores del CERN, gracias a los cuales se reproducen y se investigan los fenómenos que tuvieron lugar en los primeros segundos después del big-bang, la gran explosión que hace 15000 millones de años puso en marcha el universo. Actualmente los haces de partículas aceleradas se utilizan también en el tratamiento de alimentos, destruyendo todo tipo de bacterias y prolongando así el tiempo de conservación, así como en medicina y en la industria electrónica. La segunda ola de repercusiones fundamentales del estudio de las partículas elementales tuvo su origen en los trabajos de Becquerel y los esposos Curie, que dieron lugar al descubrimiento de la radiactividad y a nuevos elementos como el radio y el polonio. Hoy los isótopos radiactivos pueden obtenerse artificialmente con múltiples usos en medicina, agricultura e industria. Así por ejemplo, el cáncer de tiroides puede tratarse inyectando al paciente una pequeña cantidad de un isótopo radiactivo del yodo. Este selectivamente se fija en el tiroides y destruye con su radiación las células cancerosas. Igualmente, el camino seguido por un lubrificante en un proceso industrial o el de un fertilizante en un vegetal en crecimiento, pueden seguirse incorporando un isótopo radiactivo, que se localiza mediante un detector. Otra aplicación singular es la datación radiactiva, capaz de determinar la edad de una roca, una momia o unos restos arqueológicos (Courrier du CERN, 1988). En 1905, Einstein publica su teoría de la relatividad restringida en la que demuestra que la masa puede convertirse en energía e inversamente, fenómeno expresado por la famosa ecuación E= mc^, en donde c es la velocidad constante de la luz. Esta relación es la base de la fisión nuclear del uranio-235 y de su aplicación bélica en la II Guerra Mundial. Fi-162 José Aguilar Peris nalizada la guerra, y bajo los auspicios del lema «átomos para la paz», se construyeron los primeros reactores nucleares para la producción de energía eléctrica. Hoy, la esperanza del hombre está en los reactores de ñisión, que carecen de residuos radiactivos dañinos. Además, su materia prima, los isótopos del hidrogeno, se encuentra en el mar. Desgraciadamente, su puesta a punto avanza lentamente y los más optimistas piensan que la energía de ñisión no estará a disposición del hombre hasta la segunda mitad del siglo actual. 6, El método histórico en la enseñanza de las ciencias físicoquímicas En la mayor parte de los textos introductorios de física y química, es corriente encontrar frases como éstas: «la primera definición de elemento químico fue dada por Boyle en 1667»; «Roemer determinó por vez primera la velocidad de la luz en 1676»; «Lavoisier expuso el principio de conservación de la masa en 1770»; «en 1899 las primeras emisiones radioeléctricas (T.S.H.) ideadas por Marconi atravesaron el Canal de la Mancha»; «en 1905 Einstein publicó su teoría de la relatividad restringida», etc. Estos datos son necesarios, pero si no se amplían con algunas referencias más concretas sobre los hechos esenciales que rodearon el fenómeno en cuestión y las características humanas del científico citado, es decir, una pequeña historia del mismo, todo quedará pronto olvidado. El alumno, si es aplicado, superará los exámenes correspondientes, pero nunca llegará a comprender la importancia de la ciencia en el desarrollo histórico de la civilización occidental. Cierto es que hoy existen textos de «Ciencia para no científicos», en donde el método histórico es el núcleo fundamental de la exposición, pero naturalmente carecen del desarrollo científico y técnico que se exige a los alumnos que siguen los cursos de enseñanza media o universitaria. Incluir ambos contenidos bien desarrollados, ciencia e historia, en un solo texto, tampoco parece prudente. Sin embargo, existen también libros de texto de materias físico-químicas (como el citado PSSC, el proyecto Harvard, los textos de Tipler, etc) que poseen el nivel adecuado para la formación científica rigurosa, pero que introducen en forma de ensayos o preludios, lecturas útiles sobre biografías y descubrimientos, polémicas de carácter histórico, etc, que alivian esta falta de información y humanismo a los que nos estamos refiriendo. El mismo Pasteur, hace ya muchos años, decía (French, 1989): «Existen dos métodos diferentes para describir un descubrimiento científico. Uno consiste en presentar la ley de comportamiento y de-Las ciencias físico-químicas y su enseñanza mostrarla en su expresión actual sin detenerse en la forma en que se desarrolló. El otro es aquél que trata de transportar mentalmente a sus aliminos al periodo en que el descubrimiento se realizó, los primeros esfuerzos para la comprensión del fenómeno y su evolución experimental y teórica hasta el instante en que comprueba la aplicación universal de su propia teoría». Este método histórico es el que se expone en el texto de G. Holton (1988), sin olvidar un elevado rigor en el desarrollo de los conceptos científicos. La máxima responsabilidad de un profesor es transmitir con honestidad y entusiasmo sus conocimientos y experiencia a sus alumnos. Esta instrucción por medio de la acción docente, que dirige y desarrolla las facultades intelectuales del alumno mediante lecciones magistrales, ejercicios, proyectos, y una buena dosis de humanidad, es la base del éxito de la educación, lo mismo en ciencias jurídicas o económicas que en ciencias fisíco-químicas. Los educadores no solo tienen la importante misión de informar, sino también la de crear en su clases el clima necesario para que el estudio se convierta en una mezcla de curiosidad, deseo de aprender y satisfacción personal. Un joven universitario suele sentirse más atraído por los grandes enigmas de las ciencias de la naturaleza que por los problemas prácticos. Esta curiosidad, cultivada por su profesor y que es típica en los alumnos mejor dotados, si no se malogra por causas externas, fructificará en excelentes graduados. Para terminar quiero recordar las palabras que Einstein dirigió a un grupo de jóvenes universitarios que fueron a visitarle en su residencia de Princeton (N.J., EE.UU), poco antes de su muerte: «Nunca toméis el estudio como una obligación, sino como una maravillosa oportunidad de aprender. Si aprovecháis esta oportunidad, experimentareis una gran alegría personal, no comparable a ninguna otra de tipo material. Además, con ello beneficiareis a la sociedad, a la que pertenece vuestro trabajo futuro».
Mercedes de Unamuno Adarraga mación del carácter, en rigor se proponen limitar la adquisición de la Ciencia.!Es tan peligrosa ésta y es tan rebelde la inteligencia!». Parece la réplica a esa infravaloración actual del conocimiento, a las, casi podríamos llamar, ¿consignas? sobre la educación para los valores, como si el establecimiento de una escala de valores no fuera fruto de una maduración, de una reflexión personal. Una educación para los valores que no sea consecuencia de una formación integral, en la que la formación intelectual tiene una parte muy importante, corre el riesgo de convertirse en un adoctrinamiento. El conocimiento, la Cultura, la Ciencia, no son valores apreciados en la Sociedad. La Cultura se tacha muchas veces de elitista. Y, quizá para deshacer esa concepción, se manejan en la Sociedad las formas más anecdóticas, digamos, de la Cultura, las más periféricas, las más banales. La Ciencia se presenta, con frecuencia, como un dogma. Muchas veces, incluso, por los propios especialistas. Así, multitud de libros de texto, al explicar la teoría de la evolución biológica, aducen pruebas (pruebas embriológicas o morfológicas o paleontológicas...). Existen, evidentemente, muchos apoyos empíricos en los que se sustenta esta teoría, pero nunca pruebas. Se trata de una teoría científica, no de un dogma. Existen también, en la actualidad, corrientes (y dentro del mundo científico) que suponen una total contradicción al espíritu de la Ciencia. Me refiero a esas corrientes que valoran las interpretaciones apriorísticas, como puede ser la diferencia femenina (¿racionalidad masculina y racionalidad femenina?) o incluso la diferencia racial. El que estas corrientes tengan éxito, cuando no se basan en principio teórico alguno, sino en determinadas estadísticas, que no se analizan, supone una puerta abierta a la pseudociencia. Pues, es bien sabido, que en Ciencia las evidencias no las dan los datos sino las teorías, las interpretaciones de los datos. Estas peligrosas corrientes pseudocientíficas podría pensarse que pretenden suplantar el campo de la Ciencia. Voy a citar un ejemplo, recogido de un artículo publicado el 19 de junio de 1997 en el diario Le Monde, Se trata de un curioso proceso, en el que un profesor de Es importante reivindicar el papel de la Ciencia, el papel del conocimiento en la enseñanza. Se insiste mucho en la actualidad en la formación para los valores, pero parece claro que la adquisición de éstos debe ser consecuencia de una formación -en la que el aspecto intelectual tiene gran importancia-y no de un adoctrinamiento. La enseñanza de la Ciencia proporciona logros fundamentales en la formación humana, logros tan esenciales como aprender a pensar, desarrollar la creatividad y experimentar el placer de conocer. Y esto sólo se conseguirá con el instrumento más esencial de la Ciencia: su método. Plantear bien los problemas, elaborar conjeturas que ofrezcan soluciones a los problemas, criticar esas conjeturas y someterlas a control supone distinguir entre Ciencia y dogma. Todo ello -es decir, este enfoque-debería tenerse muy presente a la hora de elaborar el curricula de la enseñanza obligatoria. Existe en la actualidad un grave peligro que acecha a la enseñanza: el paulatino abandono del conocimiento, la escasa valoración de la Ciencia en todas sus facetas y, en consecuencia, la subvaloración de la formación intelectual. El problema, aunque ahora agudizado, tampoco es nuevo. Ya Unamuno en 1917 dice: «Es como los que al exaltar la educación sólo piensan en deprimir la instrucción, o los que, fingiendo poner sobre todo la for-Reivindicación de la Ciencia sulta relevante es, como afirma el profesor de Geología (que dice haber recibido el sostén de muchos hombres de Iglesia, de distintas creencias), por la alarmante importancia que están tomando estas tesis dentro de los medios universitarios. Tesis que suponen una marcha atrás, nada menos que hasta el origen de la Ciencia, que se originó, precisamente, al separarse de otras formas de entender el mundo. Intentar conjugar creencias, del tipo que sean, con planteamientos científicos, es crear confusionismo, es hacer pseudociencia. Bertrand Russell, en el prólogo de La perspectiva científica (1983), dice: «El conflicto entre Galileo y la Inquisición no es meramente el conflicto entre el libre pensamiento y el fanatismo o entre la Ciencia y la religión; es, además, un conflicto entre el espíritu de inducción y el espíritu de deducción. Los que creen en la deducción como método para llegar al conocimiento se ven obligados a tomar sus premisas de alguna parte, generalmente de un libro sagrado». Esta inteligente reflexión es válida para el contexto histórico de Galileo. En la actualidad, en la Ciencia, existe inducción y también deducción, pero ésta última se hace a partir del cuerpo de conocimiento científico que se ha construido como consecuencia de la inducción. En la actualidad se pretende entender la Naturaleza sólo con los datos que la propia Naturaleza proporciona. Es lo que llama Monod (19) el «postulado de objetividad de la Naturaleza». Que la objetividad total sea imposible, como la propia Ciencia ha reconocido, no quiere decir que no se siga intentando conseguir las mayores cotas posibles de objetividad. Toda la Historia de la Ciencia es un largo camino desde la subjetividad, el antropocentrismo, hasta la máxima objetividad posible. Por supuesto, de la misma forma que ninguna idea apriorística extracientífica ha de introducirse en la Ciencia, tampoco puede apoyarse ni combatirse ninguna idea ajena a la Ciencia con principios científicos. Tan deplorable es la pseudociencia como el cienticismo. Y aquí aprovecho la oportunidad para reivindicar el nombre de Darwin, que se usa tantas veces en vano, cuando se habla de darwinismo social. La teoría darwiniana de la selección natural, contrastada para tantos casos, es válida única y exclusivamente dentro del mundo vivo. Problemas de la Escuela y de la Sociedad Esta imagen deteriorada de la Ciencia, de la Cultura, esta falta de aprecio por el conocimiento, evidentemente repercute en la Escuela. Y es lógico que sea así. La Escuela no es una entidad cerrada en sí misma, sino que es un subsistema dentro del sistema social. Y sus relaciones con la Sociedad son profundos y se retroalimentan. Todos los problemas de la Sociedad inciden en la Escuela. Pero pretender que ésta los resuelva, no sólo es imposible, sino que es perder la perspectiva de cuál es su función. El paro, la violencia, etc. son problemas que la Escuela no puede resolver. E intentar resolverlos puede, por el contrario, incrementarlos. Ante la falacia del fracaso escolar se rebajan los niveles de exigencia. Y así, la igualdad de oportunidades que la Sociedad dice defender, es cada vez menor, dando lugar a un elitismo mucho mayor de las clases pudientes y a un total hundimiento de la Escuela pública. Otro enemigo de la formación intelectual es el agobio que parece representar en la actualidad para nuestras autoridades educativas el reto del enorme desarrollo tecnológico de nuestro tiempo. Pero preparar para un mundo en constante transformación, no significa adiestrar en innovaciones tecnológicas, quizá ya superadas cuando el alumno termine sus estudios. Significa, más bien, formar personas dotadas de una estructura mental que les permite adecuarse a cualquier mundo posible. La otra alternativa tiene el riesgo de formar analfabetos tecnológicos. Reivindicación de la Ciencia qué trata cada una de ellas. Objetivo imposible con este planteamiento confuso. En el mismo artículo de Investigación y Ciencia, el profesor Francisco Rodríguez Adrados se lamenta tanto de la desaparición del «Latín para todos» en el Bachillerato como de la oposición de Ciencias y Letras. Y añade: «Ahora han sido tanto las ciencias como las letras (y el latín y el griego sobre todo) las que han sufrido el embate de las ¿nuevas humanidades? Y de un pedagogismo igualitario por lo bajo que sólo propone una cultura elementalísima y luego especialismo. Y es de subrayar cómo un especialista en lenguas clásicas se lamenta del deterioro de la enseñanza no sólo de las Letras sino también de las Ciencias. Es admirable que sea precisamente Rodríguez Adrados quien señale la importancia de la formación científica, que es, no sólo complemento de la formación humanística, sino, casi podríamos decir, parte de ella. Nuestra sociedad confunde, en general, la Ciencia con la Técnica, como si la Ciencia no fuera una creación humana teórica, un intento de entender el mundo (aunque, naturalmente, de ese entendimiento se extraigan también consecuencias que redunden en un beneficio para la Humanidad). Y resulta muy estimulante la coincidencia entre Rodríguez Adrados, especialista del mundo clásico y un científico como Pedro García Barreno, que en su conferencia «Educación y Formación de cara al siglo XXL el papel de la Ciencia» (dictada dentro de la Jornada científica organizada por el Foro Cultural «Pablo Montesino» en la Facultad de Educación de la Universidad Complutense de Madrid, el 23 de mayo de 1999) dice: «Se necesita un concepto amplio de cultura que incluya las Ciencias naturales, la Tecnología y las Humanidades, y que se revele como la totalidad del trabajo y formas de vida humana. No hay nada que impida contemplar todas las Ciencias, incluidas las Humanidades, como expresiones particulares de la misma racionalidad que ha creado el mundo moderno. Esta racionalidad se expresa de varias formas, pero nada nos obliga a dividirlas en dos ni tres culturas». A la pregunta «¿qué enseñar en el bachillerato?» de la revista Investigación y Ciencia, contestan el profesor Antonio García Bellido, de Biología, y los profesores franceses Pierre Gilles de Gennes y Jean Marie Lehn, Premios Nobel de Física y Química, respectivamente. Las reflexiones de García Bellido y P. G. De Gennes son prácticamente iguales. Ambos marcan el énfasis en la necesidad de un estudio fundamental de los aspectos básicos de cada Ciencia, viniendo todo lo demás por añadidura. Así, García Bellido dice, refiriéndose a la Biología: «El conocimiento de los aspectos fundamentales es necesario para fundamentar nuestra acti-vidad diaria, para entender entre otras muchas cosas las causas de las enfermedades que nos afectan o las bases genéticas de nuestro comportamiento». Y de Gennes: «¿Qué hay que enseñar? Un poderoso grupo de presión instalado en el Ministerio de Educación Nacional opina que la escuela debe enseñar las técnicas modernas. El programa de física, en segundo, presenta los amplificadores operacionales, los altavoces y cierto número de aparatos similares. En mi opinión esto es catastrófico, porque se habla de joules y watios sin saber qué es la energía (...) Lo que hoy se propone confunde la técnica con la ciencia». No puedo evitar citar otra vez a Unamuno, que en el año 1915 decía sustancialmente esto mismo, en un artículo titulado «Nuestros pedagogos»: «El maestro debe enseñar todo lo que sepa y debe saber todo lo que pueda. El niño de la escuela tiene derecho a que se le den nociones fundamentales de matemáticas, de física, de química, de historia natural, de historia, de literatura, etc. La cuestión estriba en que sean fundamentales (...) Hay, en efecto, un prejuicio extendido de que lo fundamental se opone a lo elemental. Y es todo lo contrario (...) En la escuela no hay que hacer siderúrgicos, ni plateros, ni boticarios, sino hombres». Y Jean Marie Lehn dice: «Las artes expresan uno de los aspectos de la creatividad humana. Las ciencias otro (...) Mucho es lo que hay que hacer para no centrarse en el formalismo: la comprensión de que la química revela coherencias en la naturaleza, regularidades, leyes, constituye un gran placer». Logros que proporciona el conocimiento Esta reflexión sobre el placer que proporciona el conocimiento la hace también Darwin (1876) en su autobiografía: «tenía mucho entusiasmo por todo aquello que me interesaba, y sentía un placer especial en la comprensión de cualquier materia o cosa compleja. Un profesor particular me explicó Euclides, y recuerdo claramente la intensa satisfacción que me proporcionaban las claras demostraciones geométricas». Aquí se refiere Darwin todavía a su etapa de estudiante en Shrewsbury, su ciudad natal. De sus estudios de Cambridge dice: «Para el diploma final de B.A. (Bachelor of Arts) repasé mis clásicos, así como un poco de álgebra y de Euclides: este último me proporcionó un enorme placer, como ya me había sucedido en la escuela». Podemos sacar muy claras consecuencias. La importancia del estudio fundamental, la necesidad de lo fundamental en lo elemental. La necesidad de los fundamentos para poder entender las derivaciones, las aplica-Reivindicación de la Ciencia clones, las consecuencias, lo que significa, por supuesto, relacionar, es decir, aprender a pensar. Y también la Ciencia como fuente de creatividad y el conocimiento como fuente de placer. Si la Ciencia pretende entender el mundo, entender al hombre y todas sus manifestaciones, eso significa buscar interpretaciones. La tan traída y llevada «enseñanza significativa» cobra aquí todo su sentido, puesto que buscar significados es interpretar. Y buscar significados es desarrollar la creatividad y desarrollar la racionalidad: aprender a pensar. Se aprende a pensar pensando. En cuanto al placer de conocer es el placer de comprender. Y este placer será tanto mayor cuanto más esfuerzo haya costado desentrañar el misterio de que se trate. Aprender a pensar, desarrollar la creatividad y experimentar placer son, pues, tres logros que proporciona el conocimiento. Y esto es así gracias a un instrumento conceptual fundamental que es el método de la Ciencia. Reivindicar el conocimiento significa reivindicar el método. Como dice Mario Bunge (1975), «conocimiento científico es el que se ha obtenido mediante el método de la ciencia». Y también «si la sustancia (objeto) no es lo distintivo de la ciencia, entonces tiene que serlo la forma (el procedimiento): el método». Que el objeto no es lo distintivo de la Ciencia está claro. En Biología, por ejemplo, se pueden estudiar seres vivos (el objeto) desde un punto de vista descriptivo o utilitario -plantas medicinales o venenosas o comestibles, etc.-. Mientras no se establezcan hipótesis, teorías explicativas, interpretaciones, no se puede hablar de ciencia. La Ciencia no es una relación de datos sino un entramado de interpretaciones. Tampoco el objetivo de entender, de buscar representaciones de la realidad es lo distintivo de la Ciencia. El mismo objetivo tiene el mito. El binomio Ciencia-Método es inseparable. No insistiría tanto en un aspecto que parece tan claro si no fuera porque ahora también está de moda denigrar el método. Y no me refiero a filósofos de la Ciencia que, aunque se proclaman contra el método, realmente lo que cuestionan es la posibilidad de una determinada estructura de la Ciencia y señalan las incoherencias de la misma. Y esto, como toda provocación intelectual, es muy saludable. Que la Ciencia presenta incoherencias, que probablemente nunca se llegará a un producto acabado es innegable. El único producto intelectual totalmente definitivo y coherente es el mito. A lo que me refiero al hablar de la moda contra el método es a corrientes existentes dentro de la enseñanza. Y a la calificación de rigidez que se aplica, a veces, al método de la Ciencia. Pero esto es desvirtuar su significado. El método es un valiosísimo instrumento de racionalidad que sería lamentable abandonar. Plantear problemas, buscar datos relevantes para poder resolverlos, analizar estos datos, arriesgar conjeturas, criticarlas, matizarlas, reelaborarlas de manera que den lugar a nuevos problemas (...) Todo ello es no sólo un ejercicio de racionalidad sino también, y de una manera muy evidente, de creatividad. Una creatividad que esté sometida a reglas. No se trata de ciencia-ficción. Las conjeturas, las explicaciones han de ser sometidas a contrastación. No se trata de inventar mundos posibles, sino de interpretar el único que conocemos. Es decir, la creatividad se une al rigor intelectual en una perfecta combinación entre razonamiento lógico, creatividad y disciplina mental. Sin olvidar que esta racionalidad, que esta creatividad es una fuente de placer. Es importante en la Escuela conjugar estos dos ejes que hay quien se empeña en considerar contradictorios -racionalidad y placer-, cuando no lo son en absoluto. Pero, para ello, es necesario seleccionar los problemas a tratar. Aplicación del método de la Ciencia en la enseñanza Está claro que no se trata, en absoluto, de que los alumnos hagan en la Escuela investigación científica. Pero está fuera de toda duda que los alumnos preguntan. Un objetivo de la Escuela es satisfacer la curiosidad de los niños y, sobre todo, despertársela. Ciertamente, los alumnos plantean preguntas demasiado ambiciosas, comparables a las que el hombre se planteó en los orígenes del conocimiento, preguntas a las que se ajustan respuestas acabadas, míticas. Pero esas preguntas pueden remodelarse, pueden fraccionarse en otras más sencillas, es decir, se pueden transformar en preguntas pertinentes a las que poder aplicar el método. A este respecto puede recordarse que si Mendel (1866) alcanzó unos resultados tan sorprendentes para su época fue muy especialmente por la forma en que planteó el problema. Una época en que no sólo no se conocía mecanismo genético alguno, sino que ni siquiera se conocían los cromosomas, y los planteamientos sobre el misterio de la herencia eran del tipo de los que hacen los niños: ¿en qué consiste la herencia?, ¿qué razón hay para que los hijos se parezcan a sus padres?, u otras semejantes. Reivindicación de la Ciencia Mendel formuló, por el contrario, una pregunta pertinente: ¿cómo pasan de una generación a otra determinados caracteres -color, estructura de la semilla, longitud del tallo, etc.-en Pisum sativum (guisante)? Pregunta que, a diferencia de las anteriores, podía ser tratada por el método experimental y fue, a su vez, fuente de nuevas preguntas pertinentes. Pues bien, siguiendo a Mendel, no es tan complicado pensar cuáles son las preguntas, cuáles son los problemas pertinentes a cada nivel. O, dicho en otras palabras, ¿cómo podemos llegar a lo fundamental tratándolo de una manera elemental? Voy a seguir utilizando ejemplos de Biología, por ser mi campo, pero es evidente que cuando hablo de conocimiento me refiero a todo el conocimiento humano. Y es también evidente que las reflexiones que se pueden hacer desde una Ciencia, mutatis mutandis, son extrapolables a todas las ramas del saber. Una de las preguntas que más hacen los niños es ¿por qué?: ¿por qué lloramos?, ¿por qué late el corazón? Preguntas excesivamente ambiciosas y complejas. Hay que ser muy cautos en Biología en cuanto a la causalidad. Pero estos ^¿por qué?' pueden transformarse en ^¿para qué?': ¿para qué sirven las lágrimas?, ¿para qué late el corazón?, con lo que no sólo tenemos preguntas pertinentes, preguntas para las que podemos buscar interpretaciones, sino que con ellas llegamos a un aspecto fundamental en Biología: el concepto de función biológica, la constatación de que cada actividad vital desempeña un papel al servicio del organismo. Naturalmente que en la Escuela se buscarán las funciones a nivel macroscópico, aquéllas cuya observación puede hacerse a ojo desnudo. Buscaremos en lo elemental, lo fundamental. Merece la pena reflexionar sobre el término función, en el que se relacionan dos variables: una, la utilidad -el papel-que desempeña el acto fisiológico, la variables principal, y una variable subordinada, que es la estructura. Si el corazón sirve para recoger sangre y volverla a lanzar, toda su estructura tiene una clara adecuación para esa función. Si la mano sirve para agarrarse a los árboles la estructura tiene una clarísima adecuación para ello. Encontrar la relación entre la estructura y la función es, evidentemente, una forma de creatividad. Y claramente derivado del concepto de función está el concepto de adaptación. Concepto -hipótesis-fundamental también en Biología. Cuando un niño contempla -en una fotografía, en una diapositiva-la estructura de las patas del topo y las del grillotopo o alacrán cebollero (un insecto próximo al grillo que excava madrigueras en el suelo) podrá encontrar fácilmente la clarísima semejanza de estas patas con las excavadoras que él conoce de las obras: el modelo es el mismo. Puede inferirse que si la estructura es la misma la función también lo será. Y ¿cómo no relacionar la oruga de la mariposa hipócrita, de rayas amarillas y negras con las señales de tráfico? De donde puede sacarse la interpretación de que esta oruga saca alguna ventaja, no de camuflarse sino de exhibirse. Interpretación que se reforzará con otros datos, como el hecho de ser venenosa. De la misma forma, las aletas interdigitales del pato o de la rana son comparables con las aletas que usan los submarinistas. Pues bien, todo ello supone hacer inferencias, es decir, racionalidad. Y también creatividad, ya que una forma de creatividad es descubrir implícitos. Por cierto que tanto el ejemplo del topo como el de las aletas interdigitales del pato son ejemplos que utiliza Lamarck (1809). También Darwin (1859) utiliza el concepto de adaptación (la adecuación de las estructuras a las funciones) como uno de los puntos de partida de su teoría. La diferencia entre ambos es que Lamarck postuló, para explicarlo, mecanismos apriorísticos, vitalistas, no sólo incontrastables sino incluso inescrutables. Funcionalidad, adaptación, coherencia en el mundo vivo, son aspectos fundamentales en Biología que pueden estudiarse de una forma elemental. Toda esta forma de creatividad, de interpretar, de establecer relaciones lógicas, enseña a pensar. Y la comprensión del mundo vivo, de su coherencia, puede producir placer: el placer de conocer. El aprendizaje (y el placer de descubrir) nunca se termina Llegado a este punto voy a tomarme la libertad de contar una experiencia personal que, aunque insignificante, me parece ilustrativa. Llevaba yo muchos años explicando el significado de las plantas como organismos terrestres, significado que es muy sencillo descubrir: las plantas representan un nivel de organización mucho más simple que el de los animales, y es, por tanto, relativamente sencillo entender cómo su evolución ha estado, a grandes líneas, determinada sólo por la enorme presión del ambiente terrestre. Y así si pensamos en las complicaciones adquiridas desde sus supuestos antepasados, las algas, todas pueden interpretarse como adaptaciones a la vida terrestre. El nivel de organización de las algas es bastante sencillo dentro del mundo vivo: nivel celular. Las algas son protistas fotosintéticos. En su medio acuático tienen resueltos todos los problemas: flotan en el agua gracias al empuje ascensional de ésta, reciben energía solar y el dióxido Reivindicación de la Ciencia de carbono con las demás sustancias que necesitan están disueltos en el agua. Su estructura laminar, con todas las células semejantes, les permite un intercambio eficaz con su ambiente acuático. Vivir en tierra -fuera del agua-plantea una serie de problemas y ya no es posible una organización tan sencilla. Las plantas tienen tejidos, todos ellos en relación con las condiciones del ambiente terrestre. En primer lugar, tejidos de revestimiento que evitan la evaporación del agua: epidermis en el vegetal herbáceo y súber o corcho en el leñoso. Puesto que ya no existe absorción por todo el cuerpo -si se evita la salida también se evita la posible entrada-se precisan tejidos absorbentes en la raíz, el órgano que se encuentra en contacto con la humedad del suelo. También existen tejidos conductores por donde circula la solución acuosa del suelo hasta las hojas y de la hoja al resto de la planta. Y hay también tejidos de sostén, fibras que mantienen erguida la planta. Está claro que todos estos tejidos, todas estas estructuras carecerían de sentido en el alga acuática. La mayor complejidad de las plantas se encuentra en sus órganos reproductores: las flores. Las plantas sin flores tienen como las algas, de las que se supone descienden, esporas resistentes a la desecación. Pero en cuanto a la reproducción gamética -sexual-siguen ligadas al agua. El gameto masculino es una célula desnuda y provista de flagelos que ¿nada? hasta el aparato reproductor femenino, sin riesgo de desecación en un ambiente húmedo. Por eso los grupos más primitivos de plantas, hasta los heléchos, siguen ligados a ambientes húmedos. En las plantas con ñores el gameto masculino se encuentra dentro del grano de polen, que es una espora y, como toda espora, dotado de cubiertas impermeables. Cuando el grano de polen llega al estigma de la flor polinizada, germina en contacto con la humedad del estigma, de la misma forma que la espora del moho del pan -por ejemplo-germina en contacto con la humedad del pan. Esta germinación en el estigma supone la formación de un tubo polínico, dentro del cual se encuentra el gameto masculino que llega así hasta el gameto femenino del ovario, con el que se fusiona, teniendo lugar la fecundación. Hasta aquí puede decirse que es lo que ya tantas veces había explicado, y que sirve como un hermoso ejemplo de la coherencia del mundo vivo y de su adecuación al medio. Un buen día me di cuenta del claro paralelismo que puede establecerse entre este tubo polínico y el órgano copulador de los animales. En los reptiles, por ejemplo, como primeros vertebrados verdaderamente terrestres, existe órgano copulador en el macho, mientras no existe en anfibios ni en peces. El descubrimiento de este caso de convergencia adaptativa -el descubrimiento de este implícito-que una vez descifrado parece tan evidente, me costó varios años. Si he contado esta pequeña experiencia personal es para insistir en la idea de que la creatividad, como cualquier otra capacidad, se desarrolla. Y puede servir también para subrayar que nunca se acaba de saber aquello que estudiamos, que siempre puede haber mayores niveles de comprensión y de profundidad en todo conocimiento. Por ello son de una gran ligereza las afirmaciones, que a veces se escuchan, de que no hace falta estudiar conocimientos, puesto que ya vienen en los libros. Por último, con relación a mi vivencia personal, quiero añadir que el descubrimiento de ese paralelismo entre la fecundación interna de animales y plantas que acabo de relatar, me produjo una intensa satisfacción. Crítica del currículo de Ciencias en la Educación Primaria Como muestra del poco valor dado al conocimiento en las orientaciones de la enseñanza actual, tenemos el currículo de Educación Primaria, recogido en el Real Decreto 1344/1991, de 6 de septiembre, en el que, a manera de ejemplo, voy a considerar la parte concerniente a Biología. Comienzan los contenidos de Conocimiento del medio natural, social y cultural con «1. El ser humano y la salud», que se describe como sigue: EL SER HUMANO Y LA SALUD Conceptos El hombre y la mujer como seres vivos. Los procesos de crecimiento y transformación del cuerpo a lo largo del acto vital (peso, talla, dentición, cambios puberales, etc.). Aspectos básicos de las funciones de relación (sensaciones y movimientos), nutrición (digestión, circulación, respiración y excreción) y reproducción. Identificación y localización de los principales órganos y aparatos. La salud Factores y prácticas sociales que favorecen o perturban la salud (deporte, descanso, tabaquismo, alcoholismo, contaminación, ocio y diversiones, condiciones de vida humanas, etc.). Usos y costumbre en la alimentación y sus repercusiones en la salud. Seguridad y primeros auxilios. Actividades destinadas al propio cuidado personal en relación a la alimentación, la higiene, el vestido y los objetos de uso individual. La idea de iniciar un estudio del mundo natural por la especie biológica que más puede interesar al alumno, que es la suya propia, parece al-Reivindicación de la Ciencia tamente positiva. Su estudio puede servir, además, no sólo para comprender el mundo vivo, sino también para comprender lo que es la Ciencia como una parte de la Cultura. El funcionamiento del organismo humano puede hacerse de una forma elemental y fundamental. El significado de sus funciones, la relación de éstas con las estructuras que las sustentan, la primacía de la función sobre la estructura, las adaptaciones de la especie humana a sus necesidades biológicas, al ambiente terrestre, etc. Sin embargo, hay que reconocer que esa magnífica oportunidad está desperdiciada. El título «El ser humano y la salud» equipara un concepto pragmático, la salud, con el concepto fundamental, el ser humano, que, por cierto, debería enunciarse con un enfoque biológico correcto, es decir, la especie humana. El concepto de especie es fundamental en Biología, ¿por qué soslayarlo? El hombre es un ejemplo de especie animal, y sólo con este enfoque su estudio puede servir para entender el conjunto del mundo vivo. En cuanto a la equiparación del concepto fundamental, la especie humana, con una de sus muchas derivaciones, significa romper la coherencia. El estudio del funcionamiento del organismo humano hará entender sus alteraciones y, por tanto, los conceptos de salud y enfermedad. Si se estudia lo fundamental todo lo demás vendrá por añadidura. Una de las condiciones para un discurso racional -y parece lógico exigírselas a un currículo-es el mantener el mismo criterio a lo largo de todo el discurso, condición que en este caso no se cumple, como se evidencia en el lenguaje, que nos indica el criterio. El contenido de «El ser humano...» se desmenuza en cinco puntos, con el nombre de 'conceptos', a pesar de que éstos son mínimos y se entremezclan con actividades (por ejemplo, identificación y localización de órganos y aparatos). El primero de estos 'conceptos' es «el hombre y la mujer», como seres vivos. La especie humana, el hombre como concepto biológico, la especie Homo-sapiens incluye inequívocamente a la mujer. El que en el conjunto de individuos que constituye la especie humana -como en cualquier otra-haya individuos del sexo masculino y del sexo femenino no afecta para nada a la comprensión del funcionamiento del organismo humano y de la situación de la especie humana en la Naturaleza. Otra cosa es el tratamiento de algo de tanto interés biológico como es el sexo, que está aquí abordado de forma confusa, no sólo en el concepto «el hombre y la mujer», sino más adelante en «la relación afectiva y sexual». Este enunciado puede ponerse como ejemplo de confusionismo, de pseudociencia. La relación afectiva no es un asunto biológico, y se supo-ne que el tratamiento de la afectividad irá más allá del sexo. El hombre tiene otras dimensiones, además de las biológicas. Pero habrá que respetar una claridad de ideas, una claridad de niveles para entender esas dimensiones. Después de estudiar el hombre desde el punto de vista biológico, se pasa a otro nivel en el que entran en juego otras variables no biológicas, un nivel de mayor complejidad, con propiedades nuevas, con lenguaje nuevo: el nivel psicológico. De la misma manera, al considerar por encima del nivel biológico haciendo intervenir variables culturales, pasamos al nivel de la Antropología cultural. Ciertamente, todas estas variables coexisten en el hombre, pero son susceptibles de separarse conceptualmente. Mezclarlo todo es el campo abonado para la pseudociencia. El estudio del sexo desde un punto de vista biológico, el interés que despierta en los alumnos y el que tiene, ciertamente, para entender el mundo vivo, exige un tratamiento serio. Como sucede con todos los aspectos biológicos, éste también es complejo pero, igual que con cualquier otro aspecto, podemos acercarnos a su complejidad por aproximaciones sucesivas. Como siempre, podemos plantear la pregunta de su función en el mundo vivo, de su significado, y éste parece claro: el sexo aporta al mundo vivo variabilidad. Si se comparan las especies que se cruzan sexualmente con las que se reproducen por bipartición, la diferencia es patente. En estas últimas es donde realmente se produce una auténtica reproducción con identidad: las copias son idénticas al organismo progenitor. Las bacterias, por ejemplo, por bipartición originan clones, series de individuos idénticos, aunque hay también variación, pues la mutación es normal en todos los organismos y de vez en cuando hay errores en las copias. Pero, a partir de este error, a partir del individuo mutante se origina un nuevo clon, otra vez una serie de copias idénticas. En las especies que se reproducen sexualmente -como el hombre-no hay dos individuos iguales, a excepción de los gemelos idénticos, gemelos monozigóticos, originados por bipartición de un nuevo embrión. Esta enorme variabilidad supone una inversión para el futuro, supone una reserva de nuevas posibilidades, no sólo como un reto al cambio del medio (una especie de margen de seguridad ante lo imprevisto), sino también para posibles perfeccionamientos. Pensemos en la homeotermia de aves y mamíferos, que supone una cierta independencia ante los avatares climáticos y que se ha seleccionado a partir de los reptiles, que vivían en el mismo medio. Las ventajas de la variabilidad no son sólo a largo plazo (en ese caso no se seleccionarían) sino también a plazo inmediato. Si un error en la copia es letal, es decir, supone la pérdida de algo Reivindicación de la Ciencia fundamental para la vida, el hecho de tener otra dotación genética resulta muy favorable. Puede entenderse, entonces, la razón del éxito de la sexuaHdad en el mundo vivo y de su evolución (incluso a formas diferentes, que pueden tener también ventajas en determinadas condiciones, como el hermafroditismo o la partenogénesis). Las complicaciones añadidas como pueden ser los caracteres sexuales secundarios y cortejos que aseguran el reconocimiento de individuos de distinto sexo pero de la misma especie (los híbridos son estériles), puede interpretarse desde este punto de vista del mantenimiento de la variabilidad. Otros muchos aspectos de la sexualidad muestran su significado a la luz de la Biología, como puede ser la cópula, tan importante, como se ha visto, en el ambiente terrestre. Estas reñexiones sobre el sexo biológico nos indican que no puede estudiarse una especie biológica desconectada de las demás. Análogamente a cómo, al hablar de la lengua, Goethe dice que el que sabe sólo la suya ni siquiera sabe bien la suya, al estudiar el hombre son necesarios los demás seres vivos para contrastar las interpretaciones sobre el funcionamiento o las adaptaciones del organismo humano. Del resto de los seres vivos es de donde pueden tomarse los grupos de control para esas contrastaciones. Unas veces por su semejanza, cuando las variables consideradas sean las mismas; otras veces por sus diferencias, cuando esas variables sean otras. Así, por ejemplo, la interpretación de que los párpados o las lágrimas o la piel queratinizada son adaptaciones al ambiente terrestre se contrastará con la ausencia de párpados o glándulas lacrimales en los peces y con la ausencia de piel queratinizada en anfibios y su presencia a partir de los reptiles. Sin embargo, en el Decreto citado que establece el currículo de la Educación Primaria no se señala en ningún momento la necesidad de este estudio comparado, de esta relación entre el hombre y el resto del mundo vivo. Pero no es sólo esto. Si, repitiendo lo que se ha señalado al principio, el lenguaje denuncia el criterio, ¿qué comentario puede hacerse a esa mezcla de lenguaje biológico y lenguaje jurídico que se recoge en los contenidos del capítulo«4. Los seres vivos»?: LOS SERES VIVOS Conceptos Los seres vivos: características básicas. Los animales y las plantas como seres vivos. Interacciones entre los animales, las plantas y las personas. Las principales plantas y animales del entorno próximo: morfología, alimentación, reproducción y respuesta ante los estímulos. Relaciones alimentarias entre animales y plantas. Las plantas: árboles, arbustos y hierbas. Los animales: vertebrados e invertebrados. Importancia de los animales y plantas para las personas. Procedimientos Obseryación y registro sistemático del crecimiento de plantas y del desarrollo y fornaas de vida de animales. Construcción y mantenimiento de terrarios, acuarios, etc. Identificación de animales y plantas mediante la consulta de guías sencillas. Elaboración de informes sencillos, sobre animales y plantas, integrando informaciones diversas (observaciones, consulta de libros, etc.). Manejo de instrumentos sencillos para la observación de animales y plantas (pinzas, lupa binocular, etc.). Actitudes Interés por la observación y el estudio de los seres vivos. Respeto por los animales y plantas. Responsabilidad en las tareas de mantenimiento y cuidados de animales y plantas en el aula y en el entorno escolar. Respeto a las normas de uso, de seguridad y de mantenimiento de los instrumentos de observación y de los materiales de trabajo. Sensibilidad por la precisión y el rigor en la observación sistemática de los animales y plantas y en la elaboración de los informes correspondientes. Todos los llamados 'conceptos' de este «4. Los seres vivos», son un ejemplo de banalidad (plantas, árboles, arbustos y hierbas), antropocentrismo (vertebrados e invertebrados, importancia de los animales y plantas para las personas), pseudociencia (interacciones entre animales, plantas y personas), y, por supuesto, dogmatismo, ya que en ningún momento se habla de reflexionar, de interpretar, de buscar relaciones, etc. Parece claro que con el enfoque de este currículo difícilmente se enseñará a pensar, se desarrollará la creatividad en los alumnos, ni éstos experimentarán placer intelectual alguno. Tampoco parece muy adecuada la preparación actual del Magisterio. Tenemos una deuda muy grave y de mucha responsabilidad con los maestros. Supongo que todos somos conscientes de que la preparación que reciben, para una función tan importante y compleja, es muy pobre. Por supuesto que ningún maestro, de ningún nivel de enseñanza, termina nunca de formarse: su formación dura lo que dura su carrera docente. Pero el andamiaje que se construye en el período de estudiante ha de tener cierta consistencia para soportar todo el edificio posterior.
Son numerosos los estudios sobre la enseñanza de la Historia en los ss. XIXy XX, a partir de los libros de texto utilizados por los alumnos de Primaria y de Secundaria, pero es necesario también realizar estudios parciales sobre el aprendizaje de algunos conceptos clave, como el concepto de España. Frente a la idea de España dominante desde comienzos del s. XIX, otras ideas han tardado en imponerse o no lo han conseguido nunca del todo, como, por ejemplo, la de la Institución Libre de Enseñanza y la de Menéndez Pelayo, Ningún concepto de España enseñado en nuestras Escuelas, Institutos y Colegios alcanzó nunca un consenso duradero y estable, lo cual puede ser considerado como un fracaso histórico de la Escuela. Algo semejante sucede en la actualidad, y la consecuencia es el debilitamiento del sentimiento patriótico entre los españoles. Por eso, hoy más que nunca, en nuestro sistema educativo es necesario formular un concepto de España que pueda servir a los españoles del mañana para cimentar los necesarios lazos afectivos con la patria común de todos ellos. Si la Escuela no lo hace, otros, con diferentes propósitos, lo harán. La investigación en Didáctica de las Ciencias Sociales se ha orientado con frecuencia a estudiar cómo han sido enseñadas en España, a lo largo de los siglos XIX y XX, algunas disciplinas fundamentales, en los niveles de Enseñanza Primaria y Secundaria. Aunque también se han te-184 Javier Cermeño Aparicio nido en cuenta las informaciones proporcionadas por escritores, políticos y educadores, las ñientes documentales generalmente utilizadas para la realización de estos trabajos han sido los libros de texto manejados por los alumnos en las Escuelas de Enseñanza Primaria y en los Institutos de Bachillerato. Y ello, porque, como es sabido, el libro de texto ha tenido durante mucho tiempo una importancia capital, cuando no un protagonismo casi exclusivo, en la transmisión de conocimientos a los alumnos de esos niveles educativos. La importancia de estas investigaciones puede destacarse desde una doble perspectiva: desde el marco general de la Historia de la Educación y desde el campo concreto de la Didáctica de las Ciencias Sociales. Para la Historia de la Educación en España, e incluso para una más amplia Historia de la Cultura, es evidente el significado que tienen los libros de texto, ya sean considerados como objetos culturales valiosos por sí mismos o como medios para la transmisión del saber y de la cultura vigentes en una sociedad, en un momento determinado de su desarrollo histórico. De igual manera, para la Didáctica de las Ciencias Sociales, analizar los métodos utilizados en la enseñanza de disciplinas como la Geografía, la Historia y la Historia del Arte, destacar las variaciones experimentadas en los sistemas de enseñanza de esas materias; comprobar los resultados obtenidos en cada momento; todo ello, además de valioso para el conocimiento del pasado, proporciona, entre otras cosas, una información necesaria para detectar problemas actuales en la enseñanza y aprendizaje de esas disciplinas, para consagrar o desechar principios metodológicos, para superar errores o insuficiencias y, en definitiva, para facilitar la tarea a cuantos profesores se esfuerzan hoy por mejorar la calidad de sus enseñanzas. En este sentido, el interés por la enseñanza de la Historia durante los dos últimos siglos también se ha puesto de relieve mediante la realización de numerosos trabajos basados en el análisis de los libros de texto, la mayoría orientados a la elaboración y presentación de tesis doctorales. Cuando se trata de trabajos sobre la enseñanza de la Historia en general, se suele subrayar la diferencia existente entre considerar la Historia como una materia fundamental para la formación de los alumnos -y, por lo tanto, la tendencia a destacar su carácter formativo y la necesidad de impartirla de manera «objetiva», o por lo menos «imparcial»-y considerar la Historia como igualmente fundamental para la transmisión de principios ideológicos al servicio de determinados intereses sociales, económicos y políticos -y, en consecuencia, la tendencia a destacar su carácter doctrinal, lo que lleva a la manipulación de sus contenidos-. Es evidente que no resulta fácil establecer con nitidez la línea que separa El concepto de España en Didáctica ambos planteamientos, y podría decirse que, en conjunto, la enseñanza de la Historia siempre ha participado indistintamente de ambas tendencias, si bien con matices importantes según las épocas. No obstante, y aunque sea a nivel teórico, la distinción entre una «Historia que educa» y una «Historia que manipula» puede aceptarse como punto de partida, por cuanto ayuda a delimitar el campo de la investigación y a definir con precisión algunos conceptos. Este planteamiento también se pone de relieve cuando se trata de trabajos sobre la enseñanza de la Historia de España. Los estados liberales que ñieron constituyéndose a lo largo del s. XIX -y España no es una excepción-tuvieron desde sus comienzos la convicción de que la enseñanza de la Historia nacional no importaba sólo por su aportación esencial, concreta y no discutida, a la formación del individuo -cosa, por otra parte, común a otras muchas disciplinas-, sino que también era ñmdamental para la educación del ciudadano, soporte del nuevo estado en construcción. Educar para la convivencia en un sistema de libertades crecientes, vincular al ciudadano con la nueva realidad estatal, imbuirle de un renovado sentimiento de amor a la patria -a su vez renovada en sus estructuras, pero «esencialmente» perdurable-, eran otras tantas tareas prioritarias si se quería consolidar el Estado liberal. La educación, en general, y la enseñanza de la Historia nacional, en particular, tuvieron desde ese momento un valor añadido y un especial significado. Pero si la enseñanza de la Historia ñie utilizada entonces al servicio del proceso de formación ideológica del ciudadano, nada debe extrañar que, en algunas ocasiones, la Historia haya sido analizada después como si únicamente se tratara de una modalidad más de transmisión del pensamiento desde una minoría dominante hacia las clases populares, o incluso como una simple técnica de propaganda al servicio de los «poderes establecidos». El concepto de España en la educación Sin negar la importancia de los trabajos realizados sobre la enseñanza de las distintas disciplinas sociales, y en especial de la Historia, en los dos últimos siglos, y sin abandonar la doble perspectiva antes mencionada de una «Historia que educa» frente a una «Historia que manipula», la investigación sobre la enseñanza de la Historia de España puede ampliar su campo de actuación, si se orienta al estudio de la transmisión de algunos conceptos clave a lo largo del tiempo y en los diferentes niveles educativos. Es decir, si se vuelve la vista desde los planteamientos generales a los aspectos concretos, analizando cómo se han enseñado deter-minados conceptos, cómo han sido asimilados y hasta qué punto han alcanzado un carácter «operativo». Los estudios parciales de conceptos como «liberalismo», «democracia», «regionalismo», «nación», «nacionalismo» y «patria», por no poner sino unos cuantos ejemplos, permitirían profundizar en el conocimiento de los temas y facilitarían la posterior realización de síntesis más elaboradas. En estos casos, no se trataría de analizar la metodología utilizada -por lo que su interés para la Historia de la Educación o para el conocimiento de la enseñanza de la Historia como ciencia social sería menor-, sino más bien de aclarar los significados que se han dado a los distintos conceptos y cómo esos significados han influido, y en qué medida, sobre los individuos y los grupos sociales. Un aspecto que interesa tanto desde las perspectivas ideológicas y educativas, como desde las sociológicas y políticas. Además, y aunque sea algo marginal al tema que nos ocupa, analizando algunos conceptos históricos clave y cómo han sido transmitidos por los libros de texto en las diferentes etapas de los siglos XIX y XX, no solo se atendería al estudio de un problema educativo perteneciente al campo específico de la enseñanza de la Historia, sino que se contribuiría al estudio de un aspecto general que hoy sigue planteando problemas, a veces muy graves, en todos los niveles educativos, pero cuyas raíces se encuentran en la Enseñanza Primaria y, sobre todo, en la Enseñanza Secundaria: la deficiente conceptuación por parte de los alumnos, la imprecisión -cuando no el error-en la utilización de los conceptos, la tergiversación de lo que deberían ser conceptos claros sobre los que se pudieran edificar los futuros y sucesivos saberes, en lugar de incongruencias y vaguedades. Uno de estos conceptos fundamentales con el que nos encontramos al afrontar la enseñanza de la Historia nacional es el mismo concepto de España. La idea, o más bien las ideas que de España se han tenido -y, por lo tanto, las que se han enseñado-son muchas y variadas. La realidad de España como entidad histórica; su desarrollo temporal y las modificaciones que ha tenido en su propia naturaleza histórica a través de los siglos; las distintas manifestaciones o modalidades que ha adoptado en el curso de la historia; es decir, para unos, lo que España «es», su «esencia», su personalidad como objeto de estudio histórico; para otros, lo que «ha sido» en cada época según se ha ido constituyendo históricamente; y para otros, lo que «ha llegado a ser» después de su larga trayectoria existencial. Todo esto ha dado, en numerosas ocasiones, motivo a debates interminables entre historiadores y a polémicas apasionadas entre intelectuales y políticos, y ha llegado a formar parte del acervo histórico y El concepto de España en Didáctica cultural del pueblo español. «¿Qué es España?» ha sido una de las preguntas más repetidas en nuestra historiografía, y sus ecos perduran en la actualidad. Y ello porque, como queda dicho, las respuestas a esa pregunta han sido muchas y variadas, pero, al parecer, nunca lo suficientemente convincentes como para que dejáramos de repetir la pregunta. El caudal de opiniones al respecto ha enriquecido nuestro patrimonio histórico y cultural, iluminando importantes aspectos de nuestro pasado, pero no se ha logrado alcanzar un consenso capaz de superar la preocupación que expresamos cada vez que nos preguntamos «¿qué es España?». Si el concepto de España ha planteado problemas en el pasado -cuando se trataba de «traducir» ese concepto en la práctica política o constitucional, definiendo la nación española y sus estructuras representativas o administrativas-, también los plantea hoy. La discusión sobre lo que España sea lleva siempre a la formulación de distintos modelos de Estado y diferentes sistemas de organización territorial, todos ellos con la pretensión de ser los más adecuados para dar cabal expresión actualizada de lo que España «es», o de lo que «ha sido» en su historia, o de lo que «ha llegado a ser» en el momento presente. Se trata, pues, de un tema con resonancias en el pasado y en el presente; con matices que se refieren a la enseñanza de los conceptos y a la enseñanza de la Historia de España; con implicaciones que van de lo ideológico a lo político y social; y con consecuencias, en fin, que afectan al entendimiento de nuestra convivencia como españoles, en el pasado más reciente, en la actualidad y en el inmediato futuro. Tan pertinente y necesario es investigar qué idea o ideas de España han sido transmitidas -y con qué consecuencias-en las Enseñanzas Primaria y Secundaria del pasado, como preguntarnos qué concepto o conceptos de España estamos enseñando hoy a nuestros alumnos y cuáles pueden ser las consecuencias futuras. Porque hoy sigue preocupando este tema. Porque seguimos planteándonos qué idea de España debemos enseñar, en nuestras Escuelas e Institutos, que sea «operativa» el día de mañana y capaz de asegurar la permanencia futura de España como nación y la convivencia pacífica de los españoles. Y esto es algo que preocupa tanto a los educadores como a los intelectuales en general y a los políticos, según hemos tenido ocasión de comprobar no hace mucho con la polémica desatada por la llamada «Reforma de la enseñanza de las Humanidades», o por la muy reciente difusión de la opinión de algunos miembros del Gobierno, expresando la necesidad de generalizar entre los españoles el llamado «patriotismo constitucional». También en este caso, como en otros muchos proyectos anteriores de nuestra historia reciente, se trataría de consolidar una idea de España de carácter «operativo», es decir, que tuviera como consecuencia la vinculación a determinada forma de patriotismo o a una manera específica de entender el patriotismo, por más que este concepto parezca estar desprestigiado en la actualidad. Si España es una realidad «esencial», se^ afirmará esa realidad; si es una «fe», se creerá en ella; si es un «sueño», se confiará en hacerlo realidad. Lo que no está tan claro es qué tipo de sentimiento o de razonamiento patriótico puede ligar a los españoles con la patria mediante el «patriotismo constitucional», porque el «patriotismo», como la «democracia», cuando está acompañado de un adjetivo, no resulta ampliado en su práctica, sino limitado. Las visiones sobre el concepto de España Es evidente que si la idea de España ha suscitado diferentes interpretaciones entre los historiadores, escritores, políticos e intelectuales en general, es el reflejo de su pensamiento lo que ha llegado a la Escuela. Fundamentalmente a través de los libros de texto, los niños y adolescentes han aprendido un determinado concepto de España, aquél que en cada situación política o en cada época estaba en vigor, tanto si era la idea de España aceptada por la mayoría de los historiadores, como si solo era la idea compartida por la minoría dominante. Tanto si era ciencia «puesta al día», como si era ideología «puesta a interés». Pero en cualquier caso, un análisis del tratamiento que los libros de texto han dado al concepto de España en los dos últimos siglos no puede realizarse sin tener en cuenta esas interpretaciones. No se puede buscar el reflejo, la síntesis o la simplificación de una idea en un libro de texto, si antes no se conoce la fuente de donde procede. Como no se puede afirmar la influencia de un pensamiento o de un autor, sin conocerlos a fondo. Lo contrario sería volver a la repetición de tópicos, cosa que en este tema ha sido más frecuente de lo deseable. Se impone, por lo tanto, -para poder afrontar este trabajo con algunas garantías de éxito-, una toma de contacto con la abundante bibliografía que sobre la idea de España se ha producido en los últimos doscientos años, lo que representa, sin duda, una ardua tarea. Conocer las visiones antes de empezar a analizar los libros de texto es algo que parece imprescindible, pero que no siempre se ha hecho con rigor y profundidad. Sin sobrepasar los límites cronológicos del s. XIX, podrían destacarse tres corrientes historiográficas que se ocuparon ampliamente de este tema. La primera, la que podríamos denominar «corriente tradicional», hunde sus raíces en el pensamiento ilustrado, o incluso en el de los ss. Aunque fue considerablemente modificada por el liberalismo, muchos de sus principios se mantuvieron vigentes. Se manifestó con fuerza a partir de la Guerra de la Independencia, y, con los nuevos aportes liberales, alcanzó su definitiva formulación en la monumental Historia de España^ de Modesto Lafuente, escrita por éste hasta su muerte, en 1866, y continuada por Juan Valera, con la colaboración de Andrés Borrego y Antonio Pirala, hasta 1905. La segunda, de la que hablaremos más adelante, está representada por la Institución Libre de Enseñanza. Y la tercera, la conservadora, fue iniciada por Menéndez Pelayo entre 1876 («Polémica de la Ciencia española») y 1881 («Brindis áe\ Retiro»), aunque sus aspectos más significativos quedaron recogidos en su Historia de los heterodoxos españoles, obra publicada entre 1880 y 1882. Es probable que, al buscar el reflejo de esas teorías en los libros de texto de Enseñanza Primaria y Secundaria, nos encontremos con una realidad ya presentida: su influencia es a veces débil y casi siempre tardía. Porque la Escuela es un mundo de inercias. Porque las ideas nuevas no llegan a la Escuela sino después de mucho tiempo. Porque los libros de texto repiten las mismas cosas año tras año y ellos mismos se mantienen en uso durante décadas, sin renovarse y sin ser sustituidos por otros nuevos. Pasan de mano en mano, de hermano en hermano, a veces de generación en generación, impasibles ante las innovaciones conceptuales y metodológicas, como si los conocimientos y las ideas que transmiten estuvieran consagrados por el tiempo y petrificados. Ese es el caso de la corriente historiográfica tradicional. Desde comienzos del s. XIX recogió tendencias ya manifestadas con anterioridad, las enlazó con unos cuantos principios nuevos y formuló algunas ideas sobre el «ser» de España que han venido repitiéndose casi sin interrupción hasta muy avanzado el S. XX. España era una de las naciones más antigua del mundo, el carácter y la personalidad del pueblo español mostraban ya sus rasgos más peculiares desde época prerromana y la «esencia» de España había permanecido invariable en el transcurso de los siglos. La Guerra de la Independencia había sido la coyuntura propicia para reafirmar el sentimiento de amor a la patria y para realizar la más heroica defensa de unos valores espirituales compartidos por el pueblo, aunque no siempre bien entendidos y protegidos por una Monarquía Absoluta, a la que ahora se pretendía sustituir por un nuevo Estado Liberal, más en consonancia con nuestras auténticas tradiciones culturales y populares. Las Cortes de Cádiz procedían a renovar el concepto mismo de nación, de acuerdo con las últimas aportaciones del pensamiento político y nacionalista europeo, con lo que España, siempre existente y siem-pre fiel a sí misma, pasaba ahora a ser una verdadera «nación», por obra del nuevo Estado Liberal triunfante. En el fondo, se trataba de la actualización de concepciones en vigor desde finales de la Edad Media y comienzos del Renacimiento, porque la idea que subyace en esta interpretación, largamente enseñada en nuestras Escuelas e Institutos, enlaza el moderno concepto de nación con el de la «entidad político-espacial diferenciada» (utilizaré provisionalmente esa denominación a falta de otra mejor), que parecía consagrado por la historia y que hasta el s. XVIII podría formularse así: una «entidad político-espacial diferenciada» es una realidad «de hecho» en un momento dado, una realidad perteneciente al mundo de las relaciones internacionales y con lo que hay que contar, porque existe como tal y como tal es aceptada por la comunidad internacional. La nación, a partir de la Revolución Francesa, podrá basarse, además de en consideraciones de unidad política y territorial, en criterios espirituales, lingüísticos, culturales, raciales o históricos, pero si no obtiene el reconocimiento internacional, no será una nación en sentido pleno. Será un «proyecto de nación», un «conato de nación», pero sin capacidad para lograr el reconocimiento internacional acabará por ser inviable. Y la demostración de la viabilidad de una nación, como antes la de una «entidad político-espacial diferenciada», es su capacidad para perdurar en el tiempo. Es decir, una nación parte de una realidad «de hecho» que perdura en el tiempo. Una nación es el resultado de un proceso en el tiempo, en el que la existencia es anterior a cualquier otra justificación filosófica o jurídica. Es por eso que los españoles no siempre ven su realidad nacional y los extranjeros la perciben con nitidez. Los españoles dudamos de los lazos que nos unen, cuando el resto de los europeos los afirma sin vacilar, aunque pueda parecer una paradoja que la perspectiva internacional caracterice y consolide a las naciones con menos vacilaciones que la perspectiva nacional. Y es que definir la nación a partir de los principios establecidos en los últimos años del s. XVIII y los primeros años del s. XIX, es decir, de acuerdo con las teorías elaboradas por Herder, la filosofía alemana, los románticos y los ideólogos del nacionalismo decimonónico, para después afirmar que tal realidad, así definida, no existía en épocas anteriores, es obvio. Pero argumentar que España no existía como «entidad político-espacial» antes del s. XIX, porque todavía no había sido definido el concepto moderno de nación, es tanto como afirmar que el concepto es previo a la realidad. En este caso, el concepto nación no vendría a denominar, definir y explicar por sus componentes una realidad previamente existente, sino más bien a crearla, como se ha afirmado en no pocas ocasiones (Fox 1997). El concepto de España en Didáctica Estas ideas, con otras semejantes que de ellas derivan, han venido repitiéndose sin cesar y han sido absolutamente hegemónicas en nuestras Escuelas e Institutos, con independencia de las situaciones políticas por las que atravesase el país. Frente a ellas, otras interpretaciones que se irán produciendo tardarán en imponerse y no siempre lo harán del todo, aspecto este que no conviene pasar por alto. En su mayoría, se trataba de «visiones» tan diferentes acerca de la realidad de España, que resultaban imposibles de conciliar. En lugar de contribuir al establecimiento de un concepto de España al servicio de la unidad y la paz social, acabaron por contribuir a la discrepancia y el enfrentamiento, haciendo aún más difícil la instalación de un sentimiento patriótico común. A modo de ejemplo, nos detendremos en dos de esas interpretaciones absolutamente contrapuestas, cuya influencia se dejó sentir en buena parte del pasado siglo. El concepto de España y la Institución Libre de Enseñanza Hemos dicho que la Escuela es un mundo de inercias. Pero a veces en la Escuela hay cambios y se introducen nuevos saberes o nuevas interpretaciones de la realidad, aunque siempre sea con lentitud, con moderación y, sobre todo, siempre de forma tardía. Este es el caso de la idea de España expresada por los hombres de la Institución Libre de Enseñanza (ILE). Se fue plasmando a partir de las respuestas dadas a dos cuestiones básicas sobre el pasado español entendido como problema, planteamiento este compartido por la mayoría de los miembros de la Institución y por muchos otros que, durante varias generaciones, fueron influidos, de una forma u otra, por las ideas institucionistas y, sobre todo, por las ideas y la personalidad de Francisco Giner de los Ríos. La primera de esas cuestiones problemáticas, la preocupación por la llamada «cuestión religiosa», estuvo marcada desde sus comienzos por la «visión tétrica del cristianismo», característica de Giner de los Ríos. La segunda, la preocupación por la llamada «decadencia española», produjo todo un subgénero literario de carácter histórico, cuyos ecos no se han dejado de oír hasta hoy. Ambas fueron ocasión para la polémica, los duros enfrentamientos dialécticos y la radicalización ideológica, dando origen a opiniones sobre el pasado y actitudes hacia el futuro, que acabaron demostrándose como difícilmente conciliables. La preocupación por el pasado histórico de España, unida a un sentimiento de «amor dolorido» por el presente de la nación y a la aceptación de la responsabilidad respecto a un futuro siempre incierto, llevó a Giner y a sus seguidores a la formulación de las teorías sobre el «complejo de frustración» nacional, fruto, en su opinión, de un cierto «desviacionismo histórico» manifestado en el desarrollo temporal de la nación española. Todo ello desembocó en una larga decadencia, cuyos responsables fueron los representantes de la España «castrense y frailuna» dominantes mientras se mantuvo en el poder la dinastía de los Habsburgo, que hicieron discurrir la Historia de España por caminos errados. La Historia de España «oficial» y «aparente» de los tiempos modernos no fue sino la historia de una frustración y de una decadencia, porque la pérdida del sentido auténtico y profundo de lo que España «podía haber llegado a ser» y la imposición de principios e ideales equivocados tuvo como resultado una historia desdichada y negativa. Esto nos impidió el progreso, nos distanció del resto de los países europeos y nos apartó de la verdadera modernidad. Semejante visión de nuestra historia no podía sino provocar el rechazo más absoluto de esa misma historia. Y ello, -el rechazo del pasado de España visto en negativo, como la historia de una decadencia sin fin-les llevó a buscar la auténtica realidad de España en lo que entonces se llamó la «subhistoria» o «intrahistoria»: la que latía y corría por debajo de las apariencias; la que mejor expresaba nuestras posibilidades como nación civilizada; la que había sido soterrada y ocultada por los «poderes oficiales» al servicio de ideales equivocados; la que, en fin, se correspondía mejor con nuestra personalidad psicológica y cultural, con nuestra realidad más auténtica, profunda y esencial de españoles. Los hombres de la ILE defendían una modalidad de Historia más ideológica que positivista, al menos en la llamada primera generación, la de Giner y sus más directos colaboradores. En ella, la «razón» se imponía a la «vida» y el «pensamiento» al «ser». Negar «lo que fue» nuestra historia real, acudiendo al recurso «intrahistórico» para buscar por debajo de la realidad «lo que pudo ser», quizás demostraba, como afirmó Lain Entralgo (1962), «un deliberado desconocimiento de lo que nuestra historia fue», pero al menos les permitió enfrentarse a la mediocre realidad que les abrumaba y soñar con un futuro diferente para España, un futuro de progreso y de convivencia pacífica a la altura de los tiempos y en consonancia con los valores dominantes en los países de nuestro entorno. Como dice Gómez MoUeda (1966), quisieron «proporcionar las bases doctrinales para una teoría de la Historia de España», aunque fuera a costa de «intelectualizar todos los tópicos» que sobre nuestra decadencia se han venido repitiendo desde entonces. Aceptaron la diferencia establecida por Krause entre una «Historia externa» y otra «interna», para afirmar los valores «subhistóricos» representativos del «espíritu del pue-El concepto de España en Didáctica bio» y ahondar en la «psicología específica del español», aunque ñiera a costa de negar los «valores tradicionales -entre ellos y sobre todo, los valores del catolicismo-. En su intento de hacer una Historia más filosófica y psicológica, acabaron negando los aspectos temporales y evolutivos de la Historia, sin los cuales es imposible hacer verdadera ciencia histórica. Su rechazo de «lo que ñie» en favor de «lo que pudo ser» demostraba, en definitiva, tanto su idealismo casi utópico como su escasa sensibilidad histórica. La España soñada de Giner, la que no fue, y su desprecio por la España real del pasado y del presente, les impulsaba a trabajar por una España diferente para el futuro. Frente a esa visión negadora del pasado y afirmadora del futuro, otros, como Menéndez Pelayo, no tardaron en oponer una visión contraria, basada en la esperanza de que la España que fue -en este caso la del catolicismo y la tradición-pudiera seguir siendo en el futuro. Y ello, porque en los hombres de la ILE el rechazo del pasado español iba unido al rechazo total de lo que ellos denominaban el «catolicismo oficial», al que negaban su condición de elemento fundamental para entender la Historia de España y al que consideraban como un lastre para el progreso y la convivencia pacífica de los españoles. Por eso, su defensa de la necesaria «europeización» de España incluía la secularización como condición imprescindible para ese progreso y esa convivencia, en la convicción de que el catolicismo vigente en aquellos momentos y el excesivo protagonismo de la Iglesia Católica en todos los sectores de la vida nacional contribuían a la intolerancia, la división y los enfrentamientos. Este rechazo del catolicismo -aspecto fundamental de su visión negativa del pasado-dio origen a la llamada «cuestión religiosa», que se planteó sobre todo en el terreno educativo, como es bien sabido. Un último rasgo distintivo de la idea de España defendida por la ILE es su concepto materialista y «sensorial» de la patria, ligada siempre a los elementos físicos que la componen (tierra, paisaje, cielo, suelo, raza, territorio, etc.), así como a los elementos folklóricos y lingüísticos, que contribuyeron a crear un patriotismo en parte de carácter físico y en parte de carácter literario. La segunda generación de institucionistas, la dé los «científicos», coincidió en muchos aspectos con los hombres de la Generación del 98 y los Regeneracionistas. Rechazaron en parte la Filosofía de la Historia y los criterios historicistas anteriores, cultivando más las metodologías y afirmando su vocación científica y su aceptación del Positivismo. Todos ellos encontraron nuevos motivos de preocupación y algunos hallaron nuevas formas de expresión, pero en conjunto se puede decir que acentuaron ese concepto sensorial y literario de la patria. Siguieron aferrados al pasado «que pudo ser» y al consiguiente rechazo de la Historia de España. La mayoría cultivó el ensajdsrûo y cayó en las interpretaciones históricas apresuradas y sin hondura, así como en cierto «relativismo histórico». También los Regeneracionistas y la Generación del 98 deben muchas de sus ideas a la ILE. Diñindieron un anticlericalismo intelectualizado y expresaron su rechazo a la España de los ss. XVI y XVII, pero su mezcla de racionalismo e irracionalismo les llevó a renegar del «catolicismo inquisitorial» y al mismo tiempo a revalorizar a los místicos, como Fray Luis de León. A modo de ejemplo de las influencias institucionistas, se podría mencionar la búsqueda de lo «intrahistórico» y «castizo» en Unamuno; el «europeísmo» de Costa; el paisajismo de casi todos ellos; la valoración de lo psicológico; la desesperanzada visión de España, no exenta de tópicos y en exceso «literaria»; y, en resumidas cuentas, el escaso sentido histórico que demostraron. En el s. XX, el reformismo educativo de la ILE se hizo político. La «revolución desde abajo» que significaba la Escuela dejó su lugar a la «revolución desde arriba» que significaban la actividad política, la Junta de Ampliación de Estudios y el Ministerio de Instrucción Pública. Vendrían otros tiempos y otras interpretaciones de la realidad española. Y vendrá la II República española, la gran ocasión para que las ideas de la ILE respecto a España pudieran ser enseñadas en nuestras escuelas de manera duradera. No es necesario insistir en que se trató de una ocasión fi: ustrada con demasiada rapidez. El concepto de España en Menéndez Pelayo Para Menéndez Pelayo, la «esencia» de una nación está en su pasado. Y el deber de la Historia es recuperar ese pasado para preservar la memoria de esa «esencia», configurada en el tiempo, y para garantizar su perduración. Pero como las visiones del pasado pueden ser hijas de muy variadas interpretaciones, y la configuración del presente siempre dependerá de ellas, la Historia no pretende otra cosa que erigirse en «legitimadora de una determinada forma de entender la realidad política, social y económica» (Santoveña 1994). Por ello, la Historia es un medio excepcional para influir en el orden vigente, para conocer los elementos vertebradores de la nación y para asegurar su permanencia en el tiempo. Y todo esto puede hacerse sin tener que renunciar a determinados «presupuestos ideológicos», que en el caso de España son básicamente dos: la fidelidad a la tradición clásica y la aceptación del catolicismo. Ambos pre- Es evidente que el sentido providencialista de la Historia y la idea esencialista de España subyacen en esta interpretación. En contra de la opinión romántica y liberal, España como nación no se basa en la unidad de lengua, pues también el catalán, el vasco y el galaico-portugués son lenguas españolas. Ni se basa en la unidad de raza, ya que el pueblo español es fruto del mestizaje. Y tampoco se basa en la unidad cultural, que dejaría al margen las aportaciones árabes y judías. España es, para Menéndez Pelayo, la expresión de un pasado y de un «proyecto común» basados en el Dogma Católico, por lo que en nuestro caso nacionalidad y religión se identifican. Para Menéndez Pelayo el s. XVI representa la cima de nuestro desarrollo histórico y cultural. Allí se impuso la unidad nacional, la descentralización administrativa, la libertad municipal y foral, y la Monarquía moderada y católica. Su «visión organicista» de España le permitió entender mejor que otros los sentimientos regionalistas de los catalanes y defender el «foralismo instintivo» de regiones y municipios como solución al problema de la unidad nacional. No es extraño que situara el comienzo de nuestra decadencia en el s. XVIII, cuando el espíritu foráneo se impuso a la tradicional manera de pensar y actuar hispana. Ni que considerara el s. XIX como el de la confirmación de esa decadencia, cuando el Absolutismo degenerado de Fernando VII dividió al país en dos conjuntos irreconciliables, la Desamortización arruinó a la Iglesia y la Constitución de 1876 consagró la libertad de cultos. Todo esto era expresión del desprecio por nuestra historia, la aceptación de ideas y principios foráneos, la ruptura con la tradición española y el rechazo de un «tradicionalismo moderno», único capaz de preservar la grandeza y la unidad de España. Estos planteamientos, no obstante, no le impiden afirmar ideas de evidente raíz romántica, como el carácter racial de la cultura española, producto de una personalidad nacional que ha permanecido invariable en el transcurso del tiempo y que se caracteriza por su sentido práctico y no teórico, típico de una sociedad forjada en una frontera de civilización, en la que predominan los «teólogos armados». Su catolicismo, unido a su defensa de un modelo de Estado descentralizado, le inspiró el célebre «Brindis del Retiro», con motivo de los actos conmemorativos del Centenario de Calderón de la Barca. Frente a los que renegaban del pasado y del presente católicos de España, frente a los que argumentaban que España estaba por hacerse como nación, y frente a los defensores del centralismo de raíz francesa, quiso sumarse al acto brindando por «la fe católica apostólica romana», «por la nación española» y «por el municipio español». Era la expresión, como ya indicó Sáinz Rodríguez (1962), de un patriotismo ligado al pensamiento de Renan, Brunetière, Barres, Wundt y la psicología de los pueblos, concepciones todas ellas que renacerán en los nacionalismos del s. XX, en la Dictadura de Primo de Rivera y en la época franquista. Fue entonces cuando las ideas de Menéndez Pelayo suscitaron la solidaridad de muchos y alcanzaron su mayor vigencia y su más amplia difusión en el sistema educativo. El concepto de España en la Escuela, ¿historia de un fracaso? Un aspecto que no debiera ser olvidado, a la hora de analizar cómo se han enseñado en la escuela los distintos conceptos de España, se relaciona con el número de alumnos de Enseñanza Primaria y Secundaria que, en los distintos momentos, estaban matriculados en los centros educativos existentes, ya fueran estatales o privados. A lo largo del s. XIX estas cifras se fueron incrementando de manera notable, pero, aún así, a finales de la centuria solo había 1.617.824 alumnos de Primaria, de un total de 2.373.179 niños en edad escolar, y únicamente 45.000 alumnos de Secundaria, de los cuales unos 30.000 asistían a centros privados. Esto significa que la idea de España transmitida a través del sistema educativo no universitario, sobre todo en Bachillerato, apenas podía llegar a una reducida parte de los futuros ciudadanos españoles. Los estudiantes que después accedían a la Universidad, todavía en número más reducido, entraban a formar parte de otra dimensión educativa y recibían otras influencias muy variadas, en función de la carrera elegida, del ambiente cultural en el que se movieran y de sus propias preocupaciones intelectuales. Y más aún en el caso de las minorías dirigentes o de las elites culturales. En ambos casos, minorías o grupos profesionales de formación universitaria, la idea de España recibida en las Escuelas e Institutos apenas significaría algo más que un punto de partida o idea base, muy modificado luego y por lo tanto poco «operativo» a la hora de generar determinados sentimientos patrióticos. Los que no recibían ningún tipo de enseñanza y los que apenas iban más allá de unas ligeras nociones de lectura y escritura, o permanecía en la ignorancia o recibían otras influencias posteriores. Cada vez más a través de los sindicatos obreros, a veces de los partidos políticos y, en menor medida, a través de la prensa, la lectura en general y otras manifestaciones culturales, cívicas, sociales y políticas. El concepto de España en Didáctica 197 En cualquier caso, unos y otros quedan fuera del tema que nos ocupa, pero, al ser su número tan elevado, constituyen una realidad en absoluto desdeñable, sobre todo cuando se intenta formular conclusiones de carácter general. Porque, si se estudia la idea de España enseñada a nuestros escolares no universitarios durante los últimos doscientos años, es obvio que quedan fuera del estudio los que nunca han formado parte de esos niveles educativos y los que luego los han superado. Pero si se trata de averiguar hasta qué punto la idea de España recibida en las Escuelas e Institutos ha permanecido más o menos estable en las mentes de los alumnos y, en consecuencia, si ha sido una idea «operativa» en nuestra vida social y política, en nuestra convivencia, es preciso no olvidar que un gran número de españoles o no recibió nunca esas enseñanzas o las modificó luego de forma sustancial. En el s. XX, el número de alumnos de Primaria y Secundaria fue aumentando incesantemente. A partir de los años sesenta del pasado siglo se puede decir que la Enseñanza Primaria Obligatoria alcanzó a la casi totalidad de los niños españoles. En la actualidad, como es sabido, la Enseñanza Secundaria Obligatoria se extiende hasta los 16 años y el número de alumnos escolarizados representa prácticamente el 100% del total de adolescentes en edad escolar. En nuestras Escuelas estatales, Institutos de Bachillerato y Colegios privados estudian hoy decenas de miles de alumnos. Hoy más que nunca se puede afirmar que la idea o ideas de España enseñadas a nuestros escolares no universitarios alcanzan a la totalidad de los ciudadanos españoles del futuro, por lo que cualquier esfuerzo que vaya encaminado a conocer esas ideas, precisar sus contornos y prever sus posibles consecuencias no será en vano. En este sentido, la preocupación manifestada por las autoridades políticas, los debates suscitados recientemente y el interés de la prensa por el problema, son otras tantas llamadas de atención sobre la actualidad del tema objeto de estudio. No obstante, si tenemos en cuenta que la Escuela es un mundo de inercias y la influencia de las teorías suele ser tardía, y si consideramos que hasta muy avanzado el s. XX el número de alumnos de Primaria y, sobre todo, de Secundaria era tan reducido que las ideas recibidas a través de los libros de texto solo podían influir en unos pocos, como hemos indicado previamente, tendríamos que aceptar el fracaso histórico del sistema educativo español, al menos en lo que respecta al intento de transmitir una idea de España que fuera compartida por la mayoría de los futuros ciudadanos y, por lo tanto, capaz de potenciar la unidad y la convivencia pacífica. Por otra parte, conocer la idea de España enseñada en nuestras Es- cuelas e Institutos, y considerar que esa idea pasa a formar parte del bagaje cultural e ideológico de los alumnos, tendría un interés limitado si pensáramos que una idea semejante apenas tiene ñierza para actuar sobre la realidad y que poco, o muy poco, puede influir en los comportamientos cívicos y políticos de los ñituros ciudadanos. Porque lo cierto es que una idea de este tipo siempre es algo elemental y sencillo en su formulación, y se puede modificar varias veces a lo largo de la vida, si aceptamos que toda idea es producto de un razonamiento y todo razonamiento es susceptible de modificaciones. Pero distinta sería la valoración si consideramos que las ideas aprendidas en la niñez y en la adolescencia con frecuencia acaban actuando más como creencias que como ideas. Sobre todo en aquéllos que no tienen la oportunidad posterior de recibir nuevas ideas que puedan modificar las anteriores. Porque las creencias pasan a formar parte de nuestro horizonte vital, arraigan en nuestra existencia con firmeza, se enlazan con nuestros actos de manera espontánea y se convierten en motores de nuestra actividad, en justificadores de nuestros pensamientos y en soporte de nuestra razón. Porque una idea o concepto que actúa como creencia tiene una influencia sobre nuestro comportamiento superior a la de cualquier idea «racional», adquirida mediante procesos analíticos o deductivos. Un concepto aprendido en las etapas básicas de formación de la persona -como en este caso el concepto de España-por aquéllos para quienes lo aprendido en la Escuela o el Instituto va a constituir su principal o único bagaje educativo, al menos en ese aspecto concreto, actúa en ellos como una creencia. Y cuando se encuentren ante la necesidad de dar respuesta a la pregunta «¿qué es España?», y, en consecuencia, cuando tengan que adoptar posiciones y traducirlas en comportamientos, la creencia tiene por fuerza que influir considerablemente. Es decir, un concepto que una vez aprendido actúa como creencia es, sin duda, un «concepto operativo», por lo que un trabajo como el que proponemos también puede ser importante para explicar el comportamiento que los españoles han manifestado a lo largo de la historia, en relación con su idea de España. Sobre todo a la hora de definir los principios en los que han basado su convivencia, diseñar las distintas instituciones representativas y adoptar los diferentes modelos de Estado. ¿Hasta qué punto los comportamientos de los españoles en esas cuestiones han sido el resultado de unas ideas inculcadas en el proceso educativo a través de los libros de texto? Desde la constitución del Estado liberal, los sucesivos Gobiernos de muy diferentes situaciones políticas se han esforzado por transmitir determinadas ideas sobre la realidad de Es- El concepto de España en Didáctica 199 paña. Lo han hecho porque consideraban que dichas ideas, convenientemente enseñadas, podían ser influyentes en el futuro para consolidar un concepto de España coherente con su ideología y sus intereses. Pensaban que los alumnos de hoy, ciudadanos políticamente activos del mañana, eran la mejor garantía para la defensa futura de esa ideología y de esos intereses. Lo mismo piensan hoy los que se muestran preocupados por este asunto y los que se afanan para no perder el control del sistema educativo, del que depende, entre otras muchas cosas, la enseñanza de un concepto tan importante para sus futuros intereses. ¿Han tenido éxito los sucesivos intentos de inculcar en la masa de la población un determinado concepto de España, mediante el sistema educativo y a través de los libros de texto? O, lo que es igual, ¿ha tenido éxito la Escuela en este cometido, en algún momento de los últimos doscientos años? Y, sobre todo, ¿obtendremos nosotros resultados semejantes? Una rápida enumeración de las distintas situaciones políticas por las que ha pasado España en los últimos cien años puede aportarnos algunos datos de interés al respecto. Las teorías Hberales impuestas -con todos los matices que se quiera-a lo largo del s. XIX, sobre la idea «unitaria» de España, no lograron evitar el éxito obtenido en algunas regiones por los movimientos regionaUstas o abiertamente separatistas. Tampoco lograron evitar que un amplio sector de la población compartiera la visión negativa de nuestra Historia y las críticas formuladas por la Generación del 98 y los Regeneracionistas, críticas que, en buena medida, se referían precisamente a la visión de España que intentaban imponer los gobiernos liberales. La imposición en la enseñanza de un concepto de España «esencialista» y «tradicional», por obra de la Dictadura de Primo de Rivera, no parece que contribuyera demasiado a evitar el apoyo de una gran parte del pueblo a la II República, que impondría unas formas muy distintas de entender la reaHdad nacional. Tampoco las reformas educativas de la II República pudieron desarraigar de las masas conservadoras, tradicionales y católicas una idea de España que acabaría por imponerse en el Franquismo. Ni el largo periodo franquista, que impuso con obstinación un concepto de España «esencialista», católico, unitario y centralizado, que pretendía enlazar con la «España imperial» de los ss. XVI y XVII, pudo evitar el Estado laico configurado por la Constitución de 1978 y el «clamor autonomista» de la transición democrática, con la adopción de un «modelo de Estado» tan descentralizado, que a muchos empieza a parecerles un obstáculo serio para la futura unidad de España y, sobre todo, para la práctica futura de «algún tipo de patriotismo» que sustente la solidaridad entre las distintas Comunidades Autónomas, que haga posible nuestra convivencia pacífica y que nos permita emprender empresas comunes. A las Escuelas de Enseñanza Primaria y a los Institutos y Colegios de Secundaria se les encomendó, entre otros y variados cometidos, la misión de inculcar en las mentes de los futuros ciudadanos una idea de España que, actuando como creencia, sirviera para el desarrollo posterior de un patriotismo basado en el valor de la solidaridad y en el sentimiento del amor hacia la patria común de todos los españoles. Los libros de texto fueron el medio mayoritariamente utilizado para el logro de esos objetivos, considerados esenciales para el futuro del Estado español. Pero la proliferación -entre políticos, historiadores, educadores e intelectuales en general-de diferentes maneras de entender la realidad de España como nación, tenía por fuerza que manifestarse en la Escuela, el Instituto y el Colegio. Y lo hizo, dificultando la implantación de una idea dominante fruto del consenso. A cada nueva generación de españoles se les transmitió una idea de España diferente, cuando no contrapuesta, a la recibida por la generación anterior. Esto, en lugar de contribuir a facilitar la convivencia, contribuyó a que, entre nosotros, las rivalidades políticas en torno a los programas de gobierno tomaran la forma de enfrentamientos por el «modelo de Estado», que es tanto como decir, por la estructura estatal y, en definitiva, por la realidad y estructura de la misma nación. El resultado de todo ello fue, con frecuencia, la debilidad del sentimiento patriótico de los españoles cuando el «modelo de Estado» adoptado no se avenía con sus expectativas o creencias. Y algo parecido podría afirmarse hoy: el enfrentamiento entre los defensores de una España autonómica, los que añoran una España «unitaria» y centralizada y los que desean configurar una España federal -por no mencionar a los que simplemente desean dejar de pertenecer a España-se traduce en unos bajos niveles del sentimiento patriótico en la mayoría de los españoles actuales. El recurso último a un «patriotismo constitucional» no parece ser la solución al problema. Resumiendo lo dicho, se podría afirmar, en primer lugar, que la Escuela Primaria y el Instituto han influido en un número insuficiente de españoles, al menos hasta la segunda mitad del s. XX, por los reducidos niveles de escolarización alcanzados hasta entonces; en segundo lugar, que esa influencia ha sido -respecto a las ideas de España-tardía y en exceso errática; en tercer lugar, que a través del sistema escolar y mediante los libros de texto no se ha logrado consolidar una idea de España común y compartida por la mayoría de los españoles, aunque fuera en sus perfiles mínimos, en ningún momento de los últimos doscientos años; y en cuarto y último lugar, se podrá afirmar que a comienzos del s. XXI tenemos ante nosotros un problema de índole parecida al que se planteó
En un sistema educativo español siempre en crisis, con reformas sucesivas encadenándose a todos los niveles, la enseñanza de la Matemática -quizá de manera más llamativa que la de otras materias-mantiene constante su relevancia especial: es intrínsecamente problemática. Finalizado el 2000, pomposamente denominado «Año Mundial de las Matemáticas», la situación no sólo no se ha aclarado sino que el problema alcanza incluso al hasta ahora intocable nivel universitario. Admitidas sin discusión en el mundo de la pedagogía matemática las estrechas relaciones que existen -y deben existir-entre los procesos de aprehensión de los conceptos y métodos de la disciplina, y los asociados a la evolución que ha tenido nuestra Ciencia en la Historia, la génesis de los conocimientos y la transmisión de los mismos, en este trabajo se presenta un modelo historiográfico que podría contribuir a fijar algunos puntos del siempre vivo debate. A modo de prólogo de este artículo me ha parecido oportuno destacar un ejemplo tomado de esa fuente inagotable de recursos didácticos que suponen los estudios históricos sobre las diferentes ciencias. En la tablilla BM 85194, una de las conservadas en el British Museum de Londres, escrita con el simbolismo cuneiforme propio de la época babilónica de la que procede -c. 1800 a.C-, y con el uso del sistema de Francisco A. González Redondo 204 numeración posicional sexagesimal desarrollado por los sabios del momento, se recogen, en tres apretadas columnas, un conjunto de 17 problemas de contenido aritmético y/o geométrico que ilustra el quehacer en la instrucción matemática usual en las escuelas de escribas de Mesopotamia (Neugebauer 1969, Plate 3), donde este tipo de materiales jugaban el papel de «libros de texto». De entre todos ellos hay uno especialmente significativo que puede seleccionarse como ejemplo introductorio de muchas de las cuestiones que se van tratar más adelante en este trabajo. En lenguaje matemático más actual ^, el problema es el siguiente: Una ciudad, rodeada por un muro circular, se ha expansionado en todas las direcciones de tal modo que resulta necesario construir un nuevo cierre, también circular, que rodee las nuevas edificaciones. Los datos que se proporcionan son la distancia entre los dos muros (5, sin precisar unidades de longitud) y el área entre ambos (análogamente en el sistema sexagesimal, sin referencia a unidades de superficie, 6,15), y se pide hallar el diámetro de las ciudades nueva y antigua. Este sencillo ejercicio planteado a los aprendices de escribas (en el que se utilizará para nuestro n actual el valor 3), aparentemente, respondería a necesidades prácticas propias de las sociedades agrícolas desarrolladas entre el Tigris y el Eúfii^ates, en concreto, a la planificación urbanística. La realidad, sin embargo, es muy diferente: ¡en Mesopotamia todas las ciudades tenían planta rectangular (prácticamente cuadradas en su mayor parte)! El problema, como tantos otros que pueden encontrarse en las numerosas tablillas que se conservan, no tenía ninguna aplicación en la vida real. Sin duda, se plantea por el interés intrínseco que tiene su contenido matemático; en consecuencia, la única utilidad que busca el maestro babilónico que lo inscribió sería de índole pedagógica: contribuiría a la formación matemática de los alumnos de su escuela. Son los ejemplos de este tipo -muchos, por el elevado número de tablillas halladas-, junto con otros escritos en algunos papiros egipcios de la misma época -muy pocos, por el casi testimonial número de papiros conservados-, los que hacen que el entusiasmo que generan los sorprendentes hallazgos de las antiguas civilizaciones oculten lo que desde hoy es una realidad: solamente contienen cálculos numéricos concretos (o referidos a unas medidas particulares presentes en figuras, objetos, terrenos, etc., de formas geométricas determinadas) y todavía falta mucho tiempo hasta que los intereses conceptuales propios de los métodos subyacentes den lugar a enunciados teóricos generales (Bunt et al. 1988). En suma -y como veremos y justificaremos más adelante-perte-Sobre la naturaleza histórica de la Matemática necen a unos momentos en la evolución de lo matemático que distan de ser científicos. Pero las realizaciones matemáticas de cada una de las grandes civilizaciones de la Antigüedad no pueden verse -únicamente-en el seno del organismo cultural intrínseco sujeto a evolución, en analogía biológica tal como nos presenta Spengler en La decadencia de Occidente, El estudio de «lo matemático» de cada pueblo solamente puede hacerse en el marco de la evolución histórica general de este ámbito del saber humano. Cada «cultura» spengleriana ha matematizado hasta donde sus limitaciones intrínsecas le han permitido, pero la valoración de sus logros sólo puede hacerse en el contexto de la matematicidad potencial que todos los pueblos, en conjunto, han ido descubriendo y haciendo realidad. Aunque discutible desde diferentes puntos de vista, el libro de Spengler (1923)^, repleto de ideas e hipótesis historiográficas, resulta sumamente valioso. En el presente artículo -mucho más modesto y, lógicamente, con muchas menos pretensiones-también aventuraremos algunas con ánimo de aportar una pequeña contribución al estudio de la problemática histórica y conceptual en su relación con la educación matemática. Una primeras perspectivas históricas sobre la naturaleza de la Matemática En el ejemplo babilónico precedente, en todo caso, se presentan dos aspectos de la Matemática que han tenido una importancia capital al organizar su transmisión desde entonces hasta nuestros días: «lo matemático» que se enseña por necesidad, contrapuesto a «lo matemático» como culminación del puro placer intelectual que sólo manifestará su proyección utilitaria como consecuencia. Estas perspectivas posibles conducen a la pregunta acerca de qué tipo de contenidos deben constituir la formación -general-de unos ciudadanos que distarán mucho de ser matemáticos profesionales y que van a ser -todo lo más-simples usuarios en su vida cotidiana de las herramientas que les proporciona esta Ciencia. En paralelo e íntimamente relacionado con lo anterior, también existen dos puntos de vista sobre el origen histórico de la Matemática -en general, o, más en particular, de la Geometría-, los apuntados por Herodoto y Aristóteles, que no por haber sido citados tantas veces, hasta el punto de haberse convertido en tópicos, desaconsejan que los traigamos a estas páginas, pues ilustran sendas visiones acerca de la propia natu-Francisco A, González Redondo 206 raleza histórica de la disciplina. Veámoslo con cierto detalle (Fauvel y Gray 1997). En su Historia (II, 109, escrita a mediados del siglo V a.C.) sitúa Herodoto su opinión acerca del origen de la Geometría al describir el sistema de reparto de las tierras, adoptado por el faraón, entre todos los egipcios sobre el que basar el cobro de los correspondientes impuestos. La necesidad de que las lindes originales de los terrenos asignados fueran recompuestas tras las crecidas anuales del Nilo exigía disponer de un cuerpo de funcionarios, conocidos como «los tensadores de la cuerda» -la «cuerda» era el útil para estimar longitudes-, que midieran los campos en proporción a los cuales se cobrarían los tributos. De acuerdo con esta perspectiva, los agrimensores -literalmente, medidores de campos de cultivo-y, por tanto, las necesidades prácticas, constituirían la fuente original donde los griegos habrían aprendido el arte de la Geometría. Frente a Herodoto se sitúa el punto de vista que Aristóteles expone en su Metafísica (981^20-25, mediados del siglo IV a.C.). Aquí, en su estudio acerca de las diferencias entre las artes prácticas y las ciencias, explica que las segundas, que no están dirigidas a resolver las necesidades de la vida cotidiana, no se descubrieron hasta que las primeras no estuvieron firmemente establecidas. Este, sabio multidisciplinar -como aquél, historiador-, sitúa el origen de las artes matemáticas en Egipto, pero en este caso atribuye ese origen a la «casta sacerdotal», custodios celosos de los templos e interlocutores de las divinidades y, por tanto, los únicos que podían permitirse disfrutar del suficiente tiempo libre como para dedicarse a estas tareas ociosas que constituían los saberes geométricos ^. Por supuesto, entre los matemáticos de la Grecia clásica, pertenecientes al pequeño porcentaje de habitantes del mundo helénico con naturaleza de ciudadanos (el resto -la mayoría de la población-, extranjeros, esclavos, metecos, etc., no tenían esa consideración) es el último punto de vista el que prevalecerá. Ilustrativo de ello es el tratamiento de otro campo distinto del de la Geometría, el de lo numérico, en el que los griegos distinguen claramente dos ámbitos. En primer lugar, la Logística, identificable actualmente con la Aritmética elemental, era propia de los mercaderes, de aquellos que tenían necesidad de utilizar los números y las operaciones realizables con ellos en la vida cotidiana. Lógicamente, para un pueblo de comerciantes como el griego resultaba imprescindible la instrucción del numeroso personal en las escuelas de contables. Frente a la «necesaria» Logística, ocupación de matemáticos verdaderos sería la > Aritmética, identificable hoy con la Teoría de números. Obvia-Sobre la naturaleza histórica de la Matemática mente, los ciudadanos filósofos evitarían ocuparse de ninguna de las tareas -aquéllas-impropias de su clase, a la que sí corresponderían estas últimas, que serían las que se enseñasen en Academias y Liceos. La naturaleza científica de la Matemática A los efectos que interesan a estas páginas y, por tanto, prescindiendo de otras consideraciones -simplificando-, una Ciencia -en particular, la Matemática-es un conjunto de teorías científicas. Del mismo modo, una teoría científica es un sistema hipotético-deductivo, es decir, un conjunto de enunciados concatenados por las leyes de la Lógica -los teoremas-, que parten de unos primitivos que se admiten sin demostración -los axiomas-, y que se refieren a un conjunto de conceptos primarios indefinidos, cuya existencia se postula y admite, o a los definidos a partir de ellos (González Redondo 1993). Cabe preguntarse, por tanto, en qué momento los desarrollos matemáticos adquirieron naturaleza científica y, por tanto, cuándo nació la Matemática. La cuestión no es baladí. Determinar qué es la Matemática resulta requisito imprescindible para organizar su enseñanza, pues dependiendo de qué concepto se tenga -o adopte-de la disciplina los enfoques docentes pueden diferir enormemente. En este sentido, el estudio histórico aporta algo de luz al tema. De acuerdo con este enfoque, nuestra disciplina nacería en el momento en que se formulase la primera teoría matemática (es decir, la primera organización axiomático-deductiva de enunciados matemáticos), instante a partir del cual puede considerarse que ha alcanzado un estado científico **. En ese momento en el que surgiría un objeto historiable, en el que comenzaría su Historia, en consecuencia, la enseñanza de lo matemático experimenta -necesariamente-un cambio revolucionario. Veamos cuándo sucede esto. De acuerdo con lo que conocemos hoy, y a pesar de diferentes menciones a otros autores anteriores, el primer ejemplo de utilización sistemática del método axiomático-deductivo lo constituyen los Elementos de Euclides de Alejandría. Con este tratado (este hito histórico) lo matemático adquiriría por primera vez carácter científico. Con él nacería la Matemática como Ciencia y comenzaría su Historia. Como escribe Luis Vega (1991): «No suele ocurrir que un solo tratado funde de una vez por todas una disciplina científica; aún es más extraño que además represente por más de veinte siglos el espejo y la norma del rigor de ésa y otras ciencias de la misma familia». Comienza Euclides con la relación de 23 «definiciones» (realmente caracterizaciones de conceptos primarios indefinibles, verdades inmediatas y evidentes para el alejandrino) de los objetos matemáticos que constituyen el punto de partida de la que se ha venido en considerar «axiomática material», sobre los que predicarán las diferentes proposiciones que compondrán los 13 libros del tratado: punto, línea (segmento rectilíneo), extremos de la línea, superficie, ángulo, etc. Continúa dividiendo los axiomas de su Geometría en dos grupos: «postulados» o axiomas propiamente geométricos, y «nociones comunes» o axiomas de validez universal que se podrían aplicar a todas las disciplinas a las que se quiera dar carácter científico. Hoy los denominaríamos, respectivamente, «sistema de axiomas no lógicos» y «sistema de axiomas lógicos» (Martínez 1986). El resto del primer libro corresponde a las proposiciones que, referidas a los objetos definidos, pueden demostrarse recurriendo únicamente a los axiomas admitidos. De ellas, 14 son realmente «problemas» (un objeto geométrico a construir) y 34 «teoremas» (asertos que se deben establecer acerca de alguna propiedad de los objetos definidos o construidos). Los otros doce libros -desde la perspectiva actual, capítulos de un mismo tratado-comenzarán con las definiciones de nuevos conceptos (en conjunto habrá un total de 132 definiciones) a los que se referirán las nuevas proposiciones (465 en el total de los 13 libros): 2 problemas y 12 teoremas en el Libro II, 5 y 32 -respectivamente-en el Libro III, etc. Obviamente los Elementos no surgen de la nada, pero desconocemos prácticamente tanto sus precedentes matemáticos como las circunstancias en las que se escribieron, por no insistir en la carencia completa de datos acerca del propio Euclides. Hoy se admite que constituyen la recopilación de numerosos enunciados propiamente matemáticos que no se habían reunido en un edificio sistemático hasta entonces, pero, sobre todo, se destaca (Heath 1956), y en esto se coincide con sus primeros comentaristas: a) lo certero en la selección de los problemas y teoremas que integra en el sistema, puesto que solamente incluye, de entre las enormes posibilidades a su alcance, aquellos resultados pertinentes para la construcción de elementos; y b) la variedad y riqueza de los métodos de demostración empleados. Desde el punto de vista didáctico, como reconoce en sus comentarios Proclo, las perspectivas para la valoración de los Elementos crecen: a) en ellos se busca la claridad y la concisión, eliminando todo lo superfino que dificulta la adquisición del conocimiento; b) se pretende que el estudiante que se aproxime al tratado obtenga una intelección precisa del conjunto de la materia; en suma, c) el autor no sólo pretende enseñar Geo-Sobre la naturaleza histórica de la Matemática metría (y Aritmética), sino que intenta formar a los lectores en cómo construirla y aprenderla. Pero que nadie busque (porque no lo encontrará) ninguna «finalidad» al margen de la propiamente matemática en Euclides. No se detecta adscripción alguna a posibles escuelas filosóficas, solamente desarrollos matemáticos. No existe aplicabilidad (potencial), mucho menos aplicación a ningún otro ámbito científico -si lo hubiera-o técnico, como la Astronomía, Óptica o Geografía, que podían haber sido, si no desarrollados, sí mencionados. Los Elementos son sólo, pura y llanamente, Matemática, recogida, eso sí, de las diferentes tradiciones. Francisco A. Gonzalez Redondo 210 propio de los sentidos que tendrán posteriormente, pero anteriores a toda consideración teórica general conformarían la Prematemática. Análogamente, los conceptos matemáticos pueden presentarse, explicarse o enseñarse de diferentes modos. En primer lugar, científicamente, es decir, integrados estrictamente en el formato axiomático-deductivo de la teoría a la que pertenecen: sería una Presentación matemática. Pero también se pueden plantear los conceptos abstractos en un orden y con una interrelación entre ellos no sometidos al formato teórico: en este caso se trataría de una Presentación protomatemática. Finalmente, si el enfoque adoptado se limita a ejemplos o aplicaciones a métodos concretos, en la que conceptos y teorías quedan solamente subyacentes, estaríamos ante una Presentación prematemática. Cabe preguntarse, por tanto, si es posible fijar otro «hito» -previo a los Elementos-que permita dividir en dos etapas claramente diferenciadas la evolución histórica de los conceptos matemáticos hasta su constitución como Ciencia, una en la que los desarrollos tengan un carácter claramente científico -la inmediatamente precedente de Euclides-, y otra, previa y necesaria para las formulaciones posteriores, pero que debe distinguirse por la naturaleza aún no científica de las realizaciones ^. Este «hito» puede ser la formulación, durante la primera mitad del siglo VI a. C, por parte de Tales de Mileto -pues así se le atribuye y reconoce-, de cinco enunciados acerca de propiedades generales de algunas figuras geométricas, supuestamente los primeros con estas características de la Historia (Boyer 1986): Todo círculo queda dividido en dos partes iguales por un diámetro. Los ángulos de la base de todo triángulo isósceles son iguales. Los ángulos opuestos por el vértice que se forman al cortarse dos rectas son iguales. Si dos triángulos son tales que dos ángulos y un lado de uno de ellos son, respectivamente, iguales a dos ángulos y un lado del otro, entonces los dos triángulos son congruentes. Todo ángulo inscrito en una semicircunferencia es un ángulo recto. Atribuirle también unas posibles demostraciones de estos teorema resulta exagerado, pero, en cualquier caso, por el carácter general puramente teórico de los enunciados, puede considerarse que Tales constituye, el «hito» buscado. Con él puede hacerse el corte histórico que buscábamos. Todo lo anterior a él pertenecería a la Prehistoria de la Matemática. Todo lo comprendido entre Tales y Euclides constituiría la Protohistoria de la Matemática. Como parece natural, este enfoque historiográfico de «hitos» que producen cortes podría ampliarse a la periodización de la evolución históri-Sobre la naturaleza histórica de la Matemática ca de todas y cada una de las ramas de la Matemática y a la del resto de los ámbitos científicos, con los ajustes necesarios y las consecuentes implicaciones para la docencia. Así, en Biología Darwin puede utilizarse como origen de la Historia de esta Ciencia, situando entre Leeuwenhoek, Hook, Linneo o Lamarck -justificando la elección-el comienzo de su Protohistoria. En Química Lavoisier y Mendeleiev también resultan especialmente significativos y podrían representar las oportunas rupturas. Para algunos ñie Lyell quien intentó sentar las bases de una Geología realmente científica, pero ya Stennon, Werner y Hutton habían aportado nuevos aires a esta disciplina. Protohistoria de la Matemática La idea de «demostración» que aparece por primera vez en Tales -si así lo admitimos-o, en cualquier caso, poco después en Pitágoras -si hacemos caso al resumen de Proclo-está en directa relación con la percepción de la posibilidad de conceptualización de lo verdadero, de la certeza, y a la posterior y generalizada aceptación incontestable de ella por todos los interlocutores. Esta posibilidad aporta un nuevo carácter a las atribuciones del conocimiento humano, al conceder a la Filosofía lo que hasta ese momento solamente se admitía en el mundo de la religión o el mito. Así, llegado el siglo IV a.C, el de Platón y Aristóteles, probablemente gracias a la contribución matemática de los pitagóricos y a la filosófica de los pensadores del siglo anterior, ñie posible hacer la distinción entre aquello de lo que podía haber conocimiento cierto, episteme, lo inmutable, y el mundo de lo opinable, doxa. Los ámbitos de ese conocimiento cierto, las Ciencias, solamente eran los cuatro mathemata, etimológicamente, «lo que se aprende», «lo que puede ser aprendido»: Aritmética, Geometría, Astronomía y Música. La naturaleza de los silogismos, el formato axiomático-deductivo latente o -probablemente-presente en los trabajos de los matemáticos del siglo IV a.C. (Teodoro, Teeteto, Eudoxo, Menecmo,...), la estudiará monográficamente Aristóteles en sus tratados de Lógica (Órganon), sobre todo en sus Analíticos posteriores. Incluso las definiciones euclídeas debían estar ya planteadas de forma casi idéntica a como aparecen en los Elementos, como puede observarse en la Metafísica del filósofo macedonio. Y es que entre los geómetras anteriores a Euclides ya debía haberse alcanzado un acuerdo suficiente sobre las características de la demostración matemática, que en sus líneas generales son las que se recogen en los únicos trabajos completos que se conservan anteriores al siglo III a.C, Sobre la esfera en movimiento y Sobre ortos y ocasos de Autólico de Pitania (Heath 1981). Los Elementos suponen la culminación de una tradición griega de elaboración de tratados elementales de los que no se conserva ninguno. Si seguimos (Rey Pastor y Babini 1985) el resumen -recogido por Proclo-de la Historia de la Matemática, que se supone escribió un discípulo de Aristóteles llamado Eudemo de Rodas ifl, c. Algunos años después León -matemático más joven que Platón y mayor que Eudoxo de Cnido-presentó otro tratado prestando más atención al número de elementos y a su utilización en las pruebas. Finalmente, un tercer autor, probablemente del entorno de la Academia de Platón, Tendió de Magnesia, escribió la última recopilación de elementos anterior a Euclides -y poco más sabemos de él-que mejoraba el orden de las deducciones y aportaba una forma más general a resultados que hasta ese momento sólo habrían tenido un alcance restringido. En todo caso, de acuerdo con Proclo, Hermótimo de Colofón -algo más joven que Euclideshabría sido descubridor de muchos de los elementos ^. Pero conviene destacar que en el mundo helénico la expresión «elementos» tenía diferentes significados: a) Recopilaciones de algunos conocimientos primordiales determinados. b) Aquellas proposiciones que desempeñaban un papel esencial en la posibilidad de organización deductiva de otros desarrollos. c) Todo aquello (problema, lema o teorema) que puede ser utilizado para establecer algún nuevo resultado. Pero en su sentido más propio «Elementos» designa aquel grupo de asunciones y proposiciones que tienen el carácter de principios en la ligazón deductiva de un determinado campo de conocimientos. Algunos años después de publicado el magno tratado euclídeo, el mayor matemático de la Antigüedad, Arquímedes de Siracusa, precisaba en El Método lo que desde el siglo anterior venía destacándose: el conocimiento matemático se acrecienta mediante el complemento mutuo de los procesos de análisis y de síntesis, de inducción y de deducción; las presentaciones sintéticas que aportan la solidez lógica al objeto de estudio no son el resultado final de ensayos, rectificaciones, experiencias, analogías, abstracciones aisladas, etc. Para la formación matemática, para generar el conocimiento matemático en los escolares, parece natural seguir el mismo proceso: a) germinar los conceptos abstractos a partir de numerosas observaciones, experiencias Sobre la naturaleza histórica de la Matemática e intuiciones (Puig Adam 1960), pues las síntesis a priori bloquean las aptitudes analizadoras de los estudiantes; b) transmitir la naturaleza científica (axLomático-deductiva) de la disciplina a partir de generalizaciones concretas y teoremas particulares, que se van engarzando en el entramado lógico de las teorías, de modo que los alumnos alcancen las síntesis que plantearán los profesores; y c) integrar las motivaciones prácticas iniciales y las aplicaciones posteriores a la realidad concreta con el carácter lúdico del disfinite intelectual. En strnaa, recuperando los términos introducidos antes, llegar a la Matemática desde la Protomatemática. 5, Prematemática, Prehistoria de la Matemática La visión que la sociedad tiene de la Matemática es la de que se trata del campo del saber que se dedica al dominio de lo numérico y del cálculo, y que, por tanto, los matemáticos son poco más que los guardianes del saber contable. Esta perspectiva tan mutilada es -ciertamente-muy próxima a lo que comenzaba para los griegos clásicos siendo la Logística. Pero aún más, hoy, entre técnicos e ingenieros de las diferentes ramas y entre científicos aplicados de las diferentes disciplinas, la Matemática es poco más que un lenguaje simbólico útil para expresar las fórmulas que precisan y necesario para los numerosos cálculos que deben realizar (Muñoz 1995). Sin embargo, lo más grave es que este sentido tan parcial de la Matemática es el que desde diferentes pedestales pedagógicos se ha pretendido generalizar, el de simple conjunto de herramientas que debe conocer todo ciudadano y en las que hay que instruir en la Escuela. Con este planteamiento, las características abstractas de la materia, cuya utilidad y/o aplicabilidad resultan inverosímiles para los estudiantes que la reciben, ocasionan el bien conocido bloqueo y rechazo y logran el temido y denostado fracaso escolar. En las tablillas de los mesopotámicos o los papiros de los egipcios no se encuentra nada (por lo menos, de acuerdo con los datos que proporciona la Arqueología matemática en su estado actual) que pueda parecerse a una demostración de una proposición general. Todo lo más se «comprueba» la validez de un resultado concreto obtenido para un problema particular planteado, en una serie más o menos amplia de problemas de un mismo tipo. Ni unos ni otros, los más cultos de entre los antiguos, ni siquiera tuvieron la necesidad o disfrutaron la oportunidad de enunciar ningún método general. Parecía bastarles la validez sistemática de los resultados individuales en su contraste con la experiencia. Eso no impide que nos sorprenda el nivel matemático de algunos problemas de los papiros Rhind y de Moscú o de escritos como Plimton 322, tablilla mesopotámica del período babilónico antiguo (entre 1900 y 1600 a.C.) de la colección de la Universidad de Columbia. En esta última (Fauvel y Grey 1987), aunque conservada sólo parcialmente, se encuentran tabulados valores referidos a triángulos rectángulos que un análisis exhaustivo permite concluir que corresponden a la sec^a, realmente valores de cVb^, si b es el cateto contiguo al ángulo a y c la hipotenusa del trián-gulo^. Una parte muy importante de la Matemática elemental, de los contenidos, técnicas y métodos habituales matemáticos de la Educación Primaria, tiene más semejanzas con lo que encontraremos en las civilizaciones más antiguas que con lo generalizado en las exposiciones de la materia desde la Grecia helenística. La relación de los ejercicios y problemas sacados de situaciones reales del medio circundante y con aplicabilidad en la vida práctica, su relación con otros ámbitos en los que tendemos a parcelar el conocimiento, puede acompañarse con la motivación hacia la comprobación, con la guía hacia el rigor de los procesos de razonamiento. Si junto con el enfoque predominantemente prehistórico (o prematemático, en el sentido que estamos defendiendo en este trabajo), planteásemos un enfoque respetuosamente histórico en las asignaturas escolares, de modo que predominase la estima por lo científico de las ciencias, y del que trascendiera, además, la belleza de las aplicaciones que tiene en los diferentes ámbitos de la vida cotidiana, el rechazo difícilmente podría justificarse y el fracaso escolar probablemente empezaría a dejar de tener sentido. Como escribía Puig Adam (1960): «Si las principales teorías han tomado origen de problemas prácticos, no es menos cierto que los conceptos abstractos en ellas elaborados se enseñorean de nuestra mente, y al tomar carta de naturaleza en ella, proliferan, dando lugar a las más bellas construcciones intelectuales, cuyas aplicaciones futuras todavía son un misterio». Por supuesto no es esa la tendencia generalizada. En la pedagogía matemática actual (y no sólo en ella) predomina la opinión de que las abstracciones son intrínsecamente frustrantes y que en la experimentalidad esencial y omnipresente -que consideran compatible con la naturaleza de esta Ciencia-radica el fundamento de lo que debe ser la instrucción matemática edificante y motivadora y la que contribuirá a hacer cultos a los escolares. Se proporciona sólo la instrucción de técnicos, cuasi-ingenieros o pseudocientíficos aplicados sin Ciencia. En el mundo de la especialización impuesta durante el siglo XX no se conciben las mentali-Sobre la naturaleza histórica de la Matemática dades universales, los individuos con una formación integral general. No se entiende que la Historia nos proporciona una clara idea de qué es ser culto; y que aquel que realmente lo es tiene la capacidad para aplicar su cultura, las Ciencias aprendidas, en contextos prácticos. Seguía escribiendo Puig Adam (1960): «El doloroso dilema es éste: O la especialización intensa, sinónimo de esclavitud angustiosamente aniquiladora, o el enciclopedismo libre, multifacético, de extensa vibración, pero, por lo mismo, carente de profundidad». Esto, referido al ámbito universitario, exigiría considerar la enorme proliferación numérica de profesores e investigadores que permite eludir el modelo único. Pero situado en los niveles educativo primario y secundario, comunes para la mayoría de la población, adquieren una perspectiva todavía más clara. 6* Matemática, Modernidad y Neoclasicismo La Modernidad, esa Era que comienza en torno a 1600 ^^ en la que se alcanzará definitivamente la superación de los logros de la Antigüedad tras los siglos de la Edad Media ^^, tendrá entre sus ingredientes constitutivos las posibilidades que aporta la nueva Matemática del siglo XVII. El punto de partida debe situarse un poco antes del comienzo de la centuria, en la Introducción al Arte Analítica (1591) de Vieta (González Redondo 1995), pero se cimenta en la Geometría (1637) de Descartes, centrado en el desarrollo de la notación simbólica para las relaciones magnitudinales en las igualdades entre medidas que suponen las ecuaciones (González Redondo y Redondo Alvarado 1996). Y las que suelen reconocerse como principales novedades -las capitales-tienen mucho que ver con este desarrollo: Análisis algebraico, Geometría analítica y Cálculo infinitesimal. Pero si para el acervo cultural universal hay una aportación capital de la nueva época que en el siglo XVII comienza, ésta es la posibilidad de matematización, por primera vez ^^, en formato axiomático-deductivo (escritos, como se decía, more geométrico), de algunos aspectos de la realidad; es decir, el nacimiento de las teorías físicas, apuntado por Galileo para la Cinemática en sus Discursos sobre las dos nuevas Ciencias (1638) -todavía prácticamente en el ámbito sólo de la Matemática-y culminado en los Principios matemáticos de la Filosofía Natural de Newton (1687), donde la introducción de los conceptos de masa y fuerza dan entrada a la Dinámica en el dominio de la Matemática. El siglo siguiente, el de Euler, D'Alembert, Lagrange y Laplace, supondrá el de la culminación del edificio newtoniano en un proceso en el que la redacción retórica Francisco A. González Redondo 216 se sustituye por la expresión algebraica y los desarrollos geométricos por los analíticos (González Redondo 2000). Desde esta nueva perspectiva se podían construir modelos matemáticos del mundo de lo sensible que, en su contraste con la Naturaleza, parecían «verdaderos» ^^. La Matemática se constituía -no sólo, pero sí de manera importante-en una herramienta para el conocimiento «cierto» -sucesivamente-del movimiento de los cuerpos, de los fenómenos termológicos, eléctricos, ópticos o magnéticos. A todo ello contribuiría en no poca medida durante el siglo XVIII un Análisis matemático al que no se le exige rigor teórico, sino utilidad a la hora de proporcionar las herramientas para aprehender científicamente la Realidad. Como escribiría Gauss en el siglo siguiente, ilustrando su época (Muñoz 1995): «Siempre hay personas que no saben nada de la nobleza de las verdades eternas y de su divina belleza y, por ello, sólo dan valor a las investigaciones matemáticas por su utilidad en el dominio de las ciencias aplicadas; los desarrollos anteriores [desarrollos en serie aplicables en Mecánica celeste] tendrán la utilidad de hacer agradables a tales gentes nuestras investigaciones». Y como si todo esto hubiese ocurrido en fechas tan próximas a nosotros que -por la falta de perspectiva histórica-nos hubieran pasado desapercibidas la motivación, gestación, formulación y desarrollo (no sólo) del Análisis (pero sí especialmente), de estas circunstancias se harían eco hace unos años los redactores del currículo de la Educación Secundaria (ya pre-universitaria) al hacer que en todas y cada una de las opciones o itinerarios la Matemática se convirtiera únicamente en un lenguaje auxiliar para aquellos que van a estudiar una disciplina científica (Física, Química, Biología o Geología), una ingeniería (de Caminos, Industrial, Telecomunicaciones, etc.), alguna ciencia social (Económicas, Empresariales, etc.), una carrera de la rama sanitaria, etc., y no se generalizase como un saber valioso per se. Un momento singular, «hito» histórico en la evolución de la Física y la Matemática, punto de origen del Neoclasicismo matemático ^' ^, lo constituye la obra de Fourier, quien no sólo aporta con su Teoría analítica del calor (construida entre la primera publicación de 1807 y la definitiva de 1822) la primera teoría de la Física-matemática en sentido actual, sino quizá, también, la primera aproximación al concepto contemporáneo del punto de partida de toda axiomatización, de todo sistema hipotético deductivo: el objeto de estudio primordial e indefinido, el calor, no se sabe qué es a priori ni para Fourier resulta necesario ni importa que se sepa (desde luego no será el tradicional «calórico» ni se atisba aún como «forma de energía»). En todo caso, su comportamiento se somete a la ley de La composición de los Elementos había constituido una obra de capital importancia tanto teórica como didáctica. En cuanto a lo primero, la recopilación de resultados demostrados estableció el modelo metodológico a seguir para sistematizar científicamente un cuerpo de conocimiento ^^, Por lo segundo, se había convertido en el libro de texto para los estudiantes de Geometría y Aritmética, no sólo ya del mundo helenístico, sino que por el carácter de «manual» de la obra -y adaptado no siempre convenientemente-, mantendría una posición central en la enseñanza secundaria de muchos países -entre ellos España-hasta finales del siglo XIX. A medida que avanzaba el siglo XX el Cálculo Infinitesimal comenzó a generalizar su presencia en los Bachilleratos de los países desarrollados. Ciertamente resultaba imprescindible para las formulaciones de una materia como la Física, pero se explicaba (y se sigue explicando) al margen de ella, prescindiendo orgullosamente de sus orígenes y sentidos creacionales. Pero en los momentos iniciales del siglo XIX la fundamentación de todas y cada una de las ramas de la Matemática se asumía como objetivo pendiente. Estaba claro que incluso la Geometría euclídea necesitaba una profunda revisión. La época que hemos conjeturado que comienza con Fourier puede caracterizarse como la de consecución de esa tarea: los matemáticos aportaron los conceptos abstractos y las organizaciones teóricas como ejercicios intelectuales al margen de la que ya era remota idealización simbólica de la Realidad sensible. Se formaliza el Análisis (el concepto de número real, el de función real de variable(s) real(es), el de continuidad, límite, derivada,...), el Algebra se establece como estudio de las estructuras, se ordenan las nuevas geometrías ubicando -muy depurada-la que presentó Euclides en un marco general con las demás... hasta establecer sólidamente la Aritmética del número natural ante el cambio de siglo (Boyer 1986). En suma, la Matemática en su conjunto (y sus partes) alcanzaba rango científico (tras sus estadios protocientíficos) bajo el formato de los sistemas axiomáticos formales, en los que los conceptos primarios perdían toda conexión con las verdades abstraídas de la Naturaleza. Eso sí, para encontrar posteriores aplicaciones cuando los estudiosos de la Realidad tenían que echar mano del repertorio de Matemática -ahora sí, intrínsecamente inútil en modo apreciable-puesto a su disposición para ser utilizado oportunamente. Toda la Matemática podía comenzar a ser objeto de la Historia, sus partes pasaban a ser objetos historiables. Desde el punto de vista del estudio filosófico del conjunto de las Ciencias, el período que hemos denominado Neoclasicismo terminaría con el siglo XIX, identificándose este cambio con la ruptura con el mundo newtoniano-kantiano que supone la revolución relativista. Para no cambiar demasiadas denominaciones todavía generalizadas, el instante actual que nos toca vivir debe considerarse nuestra Edad Contemporánea, y su comienzo puede fijarse en un momento, en torno a 1930, y una serie de «hitos» delimitadores del corte que describiremos a continuación. La Metaciencia que gobernó la formulación científica de la Geometría por Euclides, la Mecánica por Newton y los diferentes campos, tanto de la Matemática como de la Física hasta comenzar el siglo XX, se caracterizaba por la estricta independencia y nítida separabilidad de los conceptos primarios indefinibles, puntos de partida de las teorías de una y de otra. Sin embargo, el análisis de la formulación de la Relatividad General (cerrada con la eliminación de la constante cosmológica por Einstein tras la hipótesis de Hubble de 1929 sobre la expansión del Universo) impone una nueva visión metacientífica: los conceptos magnitudinales primordiales no sólo son no separables, sino que están en íntima e intrínseca «respectividad» entre ellos (González de Posada 2001). Sin embargo, la Matemática que usa sigue respondiendo a algunas presuposiciones filosóficas que ya se asumían en la época de Aristóteles. Dado que la Geometría, el Algebra y el Análisis que se siguen utilizando responden a unas presuposiciones clásicas, caben serias dudas acerca de que la Matemática de la respectividad relativista responda a la estructura lógica de los formatos axiomático-deductivos. Por ejemplo, la masa de los cuerpos (magnitud primaria y, por tanto, indefinible en la Mecánica Clásica) no es ya que dependa de la velocidad a la que se mueve el cuerpo (magnitud secundaria, definida por la derivada del vector desplazamiento respecto del tiempo), es que puede «definirse» (¿dejando de tener el carácter de concepto «primario» de la teoría?) en función de la masa del cuerpo en reposo m^, la velocidad del cuerpo u y la velocidad de la luz c (González de Posada y González Redondo 1994). Por otro lado, la aparición de modelos no sólo no deterministas, sino intrínsecamente probabilistas para la aprehensión matemática de la Realidad, en Economía, Medicina, Sociología, etc. y, sobre todo, con las Mecánicas estadísticas comenzadas a alumbrar en el último tercio del siglo XIX, llevará durante las primeras décadas del XX a una «incerti- Además, el convencimiento de que la materia es discreta hace que la matemática del número real no sirva (hay que prescindir de la continuidad de la recta real, de los conceptos de función real continua, derivable, etc.). Y a esto hay que añadir, entre otras cosas, que la discretización tampoco es la de los números enteros. Ciertamente, aunque la Física cuántica, la que pretende dar cuenta de estos tema^, es propiamente matemática (y no es fácil que alguien crea que la Naturaleza pueda parecerse a las formulaciones que desde aquélla se presentan) existe el convencimiento, aunque en torno a 1930 se consideraba firmemente establecida, de que todavía le falta desarrollar toda su matematicidad. Pero lo que trastocará más profundamente el panorama de la formulación matemática serán los sobrecogedores hallazgos de Godel, recogidos en «Sobre las proposiciones formalmente indecidibles de los Principia matemática y sistemas relacionados», de 1931, en el que presentará su Teorema de incompletitud. Este afirma que si una teoría formal T que abarca la teoría de los números enteros es consistente, entonces es incompleta, es decir, existe un enunciado «S» tal que ni «S» ni «no S» pueden ser demostrados en T; como uno de los dos enunciados «S» o «no S» tiene que ser verdadero, existe una proposición verdadera de la teoría que no es demostrable y, por lo tanto, es indecidible. En consecuencia, no puede ser demostrada la consistencia de un sistema lo suficientemente amplio como para abarcar la aritmética de los números enteros. El único ingrediente que hacía intrínsecamente diferente a la Matemática del resto del conocimiento científico, la validez incontestable de sus resultados, se diluía. Había comenzado lo que Kline (1985) denominaría «desastres». Hasta en el propio método axiomático-deductivo, esa aproximación «perfecta» a la exactitud del conocimiento, se encontraban fallos. Para finalizar, podemos afirmar que, indudablemente, debemos estar en crisis. Han transcurrido 70 años desde aquellos entonces y aún no sólo no constituyen objetos de la Historia sino que todo es presente. Y el mundo educativo lo recibe directamente. Sin que existan firmemente establecidos y generalizados unos objetos, metodologías, estructuras internas y consistencia comunes, es decir, unas caracterizaciones de disciplinas como las Matemáticas^^ (que pierden la singularidad deseable en beneficio de una pluralidad aún no evitable) o como las Físicas (unas incompatibles con las otras), su transmisión y divulgación se ven dificultadas. Pero la enseñanza de nuestra Ciencia está en manos del profesorado formado en la Universidad, al que se ha dado -en general-la más ma-temática de las presentaciones posibles: sucesión de abstracciones entrelazadas deductivamente, para las que se evita consciente y orguUosamente toda motivación respetuosa con la evolución histórica y a la que se le hurtan las perspectivas de las aplicaciones que de ella harán científicos de otros campos e ingenieros. En ellos recaerán, sin embargo, unas enseñanzas Primaria y Secundaria en las que las respectivas presentaciones serán esencialmente prematemáticas y protomatemáticas. Es legítimo, por tanto, plantearse cuestiones como desde qué punto de vista y con qué herramientas lo harán, a quién debe atribuírsele la responsabilidad por la situación en la que nos encontramos o a quién corresponde presentar soluciones. Para complicar el panorama educativo, también podíamos referirnos a la íntimamente ligada desaparición de valores morales generales y claros en la Sociedad de este período intersecular que nos toca vivir. Pero la Realidad es azorante y esos son ya otros temas. ^ Trabajos clásicos con transcripciones de numerosos escritos matemáticos mesopotámicos, algunos de los cuales se seleccionan en el libro fácilmente accesible de Fauvel y Gray (1987), son los de Thureau-Dangin (1938) -en francés-y Neugebauer y Sachs (1945) -en inglés-. ^ Utilizamos la edición prologada por Ortega y Gasset en dos volúmenes, convertida ya en clásica. Puede compararse nuestra lectura de Spengler con la visión de Muñoz (1995). ^ Otros autores helénicos que se han referido a estas mismas cuestiones son Platón en Fedro (274 cd, comienzos del siglo IV a.C.) y Proclo en Sobre Euclides (I, siglo V d.C.) ^ Lo que no quiere decir que la mayor parte de los restantes campos de la Matemática no tardaran muchos siglos en alcanzar ese estadio teórico. ^ Este enfoque historiográfico lo presentamos por primera vez en González Redondo (1995) y lo desarrollamos en González Redondo (2000), todo ello en el marco de la escuela de Fundamentos y Filosofía de la Ciencia del Prof. F. González de Posada. Algunos términos (y los conceptos que denotan) los tomamos de Américo Castro (1956) y los aplicamos, por ejemplo, a la Historia de la Matemática Española, en González Redondo y de León (2000), y a la Historia de la Matemática en general en González Redondo (2002). ^ Como parece claro, estas consideraciones, que aplicadas a la Historia de la Ciencia consideramos originales, constituyen una adaptación tomada de la Historia Universal, que reformulamos como sigue: la Historia del hombre comienza en el momento que se desarrolla la escritura; la Protohistoria discurriría desde que existe propiamente el hombre -la especie homo sapiens-hasta que se descubre la escritura; y Prehistoria sería todo lo anterior a la aparición de la especie. Periodización heterodoxa, sin duda, resulta sorprendente que la aparición del homo sapiens no se constituya en «hito» singular que proporcione el oportuno corte histórico, y se siga hablando de un período como el Paleolítico Superior que integra conjuntamente al hombre y a los homínidos.'^ Igual que no todos los pueblos de la Tierra alcanzaron la etapa histórica al mismo tiempo que mesopotámicos y egipcios, en el mundo griego entre el siglo III a.C. y el V d.C. Sobre la naturaleza histórica de la Matemática será en el primer y único lugar en el que se alcance la etapa propiamente matemática, hasta que en algunos países de la Europa occidental pueda considerarse recuperado el nivel en torno al siglo XVII. ^ Llegados a este punto del artículo, quizá no esté de más precisar que queremos evitar la ilusión de reconstrucción finalista, y que pensamos que debe descartarse una supuesta trayectoria lineal de sistematización progresiva de los conocimientos matemáticos hasta la versión definitiva de Euclides, aunque éste se apoyase o partiese de otras aproximaciones precedentes. ^ Con un sentido próximo al nuestro, Boyer (1986) califica de «prototrigonometría» al contenido matemático de esta tablilla. ^° Tomamos la expresión del punto de vista de Ortega y Gas set. Ese año, entre otros acontecimientos, muere en la hoguera Giordano Bruno, se publica De Magnete de Gilbert y Kepler comienza a trabajar con Ticho Brahe. Ver González de Posada, F. (éd.): Cosmología. Madrid: Amigos de la Cultura Científica. ^^ La calificará Spengler (1923) de «progresiva emancipación de los influjos antiguos, una liberación que ni siquiera fiíe deseada, sino obligada por hondas tendencias inconscientes». ^^ Suponiendo que la Geometría griega clásica no deba ser considerada como la primera matematización o aprehensión matemática de la Realidad y, por tanto, la primera teoría física. ^^ Con las «leyes» de (Galileo y) Newton se podrían predecir comportamientos físicos; por ejemplo, la existencia de planetas desconocidos que se irán «descubriendo» matemáticamente, no observacionalmente. Más adelante serán esas mismas leyes las que permitirán salir de la atmósfera terrestre, llegar a la Luna y, lo que es incluso más importante, volver después a la Tierra. ^^ Utilizamos a nuestra libre interpretación las denominaciones establecidas hace ya demasiados decenios para los distintos períodos históricos, aunque no se nos escapa que podrían discutirse. Normalmente se denomina Postmodernidad a la era científica, filosófica y social que sigue al derrumbamiento de los presupuestos de la Modernidad con la formulación de la Relatividad General de Einstein y el desarrollo de las teorías cuánticas, época que trataremos en el parágrafo 7. Por otro lado, resulta necesario modificar otras manifestaciones de la historiografía usual, pues situar la contemporaneidad en el siglo XIX no parece aceptable. Optamos por considerar -y no parece descabellado-que el período que comienza con Fourier es la época Neoclásica, teniendo en cuenta los propósitos fundamentadores de los matemáticos que la caracterizan. ^^ Sobre los intentos -infructuosos-de extender en su época la sistemática euclídea a otros dominios no propiamente matemáticos, como la Medicina (Galeno), puede verse Vegas (1991). ^^ Uno de las contribuciones más recientes sobre la situación de la Matemática y su enseñanza en la actualidad es el «Borrador: Sobre la situación de la enseñanza de las Matemáticas», de la Comisión de Educación de la Real Sociedad Matemática Española. Bibliografía BOYER, C. B. (1986): Historia de la matemática.
La idea central que preside esta exposición tiene una doble vertiente. En primer lugar, dar a conocer nuestra estructura, las capacidades de que disponemos y las actividades que realizamos. En segundo término, transmitir nuestras preocupaciones y nuestras aspiraciones, nuestras inquietudes y nuestros anhelos. En definitiva, pretendemos ofrecer una visión real y objetiva de una Institución que se esfuerza día a día en estar permanentemente preparada para constituir, conjuntamente con los Ejércitos de Tierra y del Aire, un instrumento eficaz para la Seguridad y Defensa de España. Aunque la Armada es una Institución que mira siempre al futuro, se fundamenta en pilares sólidos de tradiciones centenarias, en el legado histórico de nuestros antepasados, hombres de mar que supieron, con su ánimo emprendedor, esfuerzo, sacrificio y valentía, realizar gestas que figuran en la Historia de España y del Mundo, y, con ello, forjaron el espíritu militar y marinero de los hombres y mujeres de la Armada de hoy. Ese pasado, que es nuestra guía hacia el futuro, nos enseña a todos los españoles que España es lo que es gracias a la mar, que la gran presencia de España en el mundo vino por los caminos abiertos por los españoles en la mar, y que hoy, como ayer y como mañana, la mar es uno de los elementos clave de la prosperidad y seguridad de los españoles. En las páginas siguientes, el lector encontrará interesantes artículos de las principales autoridades de la Armada con responsabilidades en las áreas de la Fuerza, del Personal y del Apoyo Logística, entre otras. Nuestra razón de ser es la existencia y eficacia de la Fuerza Naval. A ella subordinamos toda nuestra actuación y es el objetivo último de una estructura constituida por las personas que servimos en la Armada y por los medios materiales que poseemos, apoyada, como es natural, en el recurso económico que el Gobierno nos asigna. El recurso humano es nuestro principal activo y, en consecuencia, le dedicamos atención preferente. El proceso de plena profesionalización en la Armada está ampliamente reflejado en un artículo del Almirante Director de Reclutamiento. La formación, factor clave en el éxito de ese proceso, la expone el Almirante Director de Enseñanza. La Armada está realizando también un considerable esfuerzo para modificar sus estructuras orgánicas en consonancia con los cada vez más profundos y acelerados cambios de todo orden de los tiempos que vivimos. El Vicealmirante Jefe de la División de Planes del Estado Mayor de la Armada describe las líneas generales de este cambio de rumbo, señalando los cinco enfoques orgánicos que rigen nuestra nueva organización. La entidad de la Fuerza Naval y la visión que la Armada tiene sobre su futuro están profundamente tratadas por el Almirante de la Flota y por el que fue Comandante General de la Infantería de Marina hasta hace cuatro meses. Los aspectos generales y básicos del apoyo a la Fuerza los expone el Contralmirante Subdirector de Mantenimiento, a través del papel desempeñado por los Arsenales a lo largo de la historia y en su actual estructura. Seguidamente, se aborda la importante contribución de la Armada a la Acción del Estado en la Mar. Importante, porque esa acción del día a día, es lo que más nos une con las demás gentes de la mar, las marinas pesquera, mercante y deportiva, a través de innumerables actuaciones relacionadas con la seguridad en la navegación, la vigilancia pesquera, el salvamento marítimo y con la protección medioambiental y de los recursos marítimos. No menos importantes son las labores científicas y las responsabilidades de la Armada en los campos de la oceanografía, hidrografía, cartografía, navegación, geodesia y astronomía. Una sucinta descripción de las actividades del Real Instituto y Observatorio de la Armada, del Instituto Hidrográfico de la Marina y del Buque de Investigación Oceanógrafica «Hespéridas», proporciona una visión de la «Marina Científica». Por último, hay que señalar la contribución a la difusión de la Cultura de Defensa que realizan el Instituto de Historia y Cultura Naval y el Museo Naval. Esta faceta nos permite acercar la Armada a nuestra sociedad, en una decidida apuesta por mostrar la importancia de la mar en la Historia de España. Francisco Torrente Sánchez Almirante General Jefe del Estado Mayor de la Armada
Se resumen en esta artículo los tres retos más significativos a los que tiene que hacer frente la Armada en los próximos años, como consecuencia del nuevo escenario estratégico internacional, del proceso de plena profesionalización de las Fuerzas Armadas, y de la consiguiente racionalización orgánica y estructural que todo ello demanda. El Almirante Jefe del Estado Mayor de la Armada analiza cada una de estas tres áreas y traza las líneas generales de actuación para conseguir mantener y operar una Fuerza Naval moderna y equilibrada, cuya existencia y eficacia son la razón de ser de la Armada como componente de la necesaria acción conjunta en las misiones de Seguridad y Defensa encomendadas a las Fuerzas Armadas, Las decisiones tomadas desde hace años por la Armada en relación con los programas de modernización han ido cristalizando en una marina moderna, alcanzada con un gran esfuerzo y no pocos sacrificios, y han logrado situarla a un nivel operativo comparable con el de la mayoría de las marinas de nuestros socios y aliados europeos. Tres son los retos más importantes a los que se enfi:'enta la Armada en el próximo futuro. En primer lugar, el actual escenario estratégico internacional. La mayor presencia de España en el exterior y las nuevas misiones de Francisco Torrente Sánchez 232 mantenimiento de paz y de gestión de crisis exigen nuevas capacidades militares, cuya adquisición se prevé abordar en el ámbito conjunto desde unos nuevos criterios de planeamiento. En segundo término, el proceso de plena profesionalización, que ha dado lugar a un profundo reajuste de las plantillas de las Fuerzas Armadas y requiere un cambio de mentalidad, además de exigir mejorar las condiciones de vida y las expectativas de futuro de nuestros profesionales. En tercer lugar, y dentro del proceso de racionalización de la actual organización y estructura de los Ejércitos y de la Armada, en breve plazo se actualizarán las disposiciones sobre la estructura territorial de los tres Ejércitos, para modernizarla conforme a los criterios funcionales que establece la Directiva de Defensa Nacional del Presidente del Gobierno. Pero todo este proceso de adaptación no es un caso exclusivo de España. Hoy, a la Armada, se le plantean unos retos de carácter general similares a los que se enfrentan el resto de nuestros aliados: cómo mantener y mejorar en lo posible el nivel alcanzado y cómo adquirir las capacidades navales adicionales que exigen las nuevas misiones. La Armada en el entorno estratégico La Armada desempeña un papel cada vez más relevante en el nuevo escenario estratégico internacional y contribuye, hoy más que nunca, al fortalecimiento de la creciente presencia de España en los foros internacionales. La estrategia naval española se concibe como aportación a la estrategia conjunta nacional y a la estrategia aliada, inspiradas ambas en los conceptos de Seguridad Compartida y Defensa Colectiva. Junto a su visión naval, la Armada aporta a estas estrategias la experiencia acumulada a lo largo de décadas de interacción, adiestramiento y colaboración con marinas extranjeras. Nuestra contribución al planeamiento militar tiene como eje central de actuación el convencimiento de que, en el futuro previsible, las operaciones en las que la participación de la Armada es más probable serán las de proyección de fuerza en un ámbito conjunto o multinacional. Para este tipo de operaciones es precisamente para lo que nos preparamos, desde el convencimiento de que la eficacia del conjunto es función del valor de cada uno de los elementos que lo componen. En este escenario, el conflicto armado limitado es el supuesto que debe tener mayor influencia en el diseño realista de nuestros Ejércitos y, por lo tanto, también en el de la Armada, con el fin de disponer de unas capacidades adecuadas para afi:*ontar con garantía los riesgos del futuro previsible, tanto junto con nuestros socios y aliados como en el plano puramente nacional. La zona de actuación más probable de las Fuerzas Armadas españolas, y en particular de la Armada, es la región euroatlántica, en la que se circunscribe el entorno geoestratégico natural de España, es decir, Europa, el Mediterráneo occidental y el Atlántico oriental, que incluye el Archipiélago Canario y el Estrecho de Gibraltar con sus accesos, punto focal de máximo interés para España. No obstante, estamos preparados para actuar en cualquier lugar del mundo donde el Gobierno decida emplearnos. Las unidades deben estar preparadas para hacer frente a cualquier contingencia y ser capaces de minimizar los daños propios y los colaterales producidos por nuestras operaciones. Además, para obtener el mayor aprovechamiento, deben ser operativamente flexibles, capaces de responder indistintamente tanto a nuestras necesidades nacionales en el ámbito marítimo próximo como a las derivadas del escenario estratégico internacional, dentro de la opción multinacional elegida por España. En el horizonte a medio plazo, es evidente que los nuevos conflictos se distinguirán por su carácter asimétrico, y para afrontarlos con éxito se precisará una gran superioridad tecnológica, por lo que la Armada enfatiza la calidad más que la cantidad de sus unidades, sin renunciar en ningún caso a un deseable equilibrio. Líneas generales de actuación Para mantener y operar una marina moderna y plenamente profesional son necesarios nuevos planteamientos, nuevos enfoques y nuevas soluciones. Las decisiones tendrán que ser meditadas cuidadosamente, teniendo bien presente que la Armada es hoy mucho menos autónoma que en el pasado pues está mucho más integrada en lo conjunto; que la disponibilidad de recursos humanos se irá incrementando progresivamente, aunque hoy por hoy no permita completar las plantillas de todas las unidades; que sólo se puede aspirar a un incremento moderado del recurso financiero; y por último que, como consecuencia de todo ello, sólo podemos llegar a unos planes apropiados, aceptables y practicables, tomando conciencia de que es necesario optimizar la gestión de los recursos y establecer prioridades muy rigurosas. Las nuevas capacidades navales de la Armada deben constituir una meta pragmática, adecuada y sostenible; un compromiso entre riesgos, misiones previsibles, necesidades y recurso financiero disponible. Hacia esta meta han de converger todos los esfiíerzos en inversión. Se debe impulsar la obtención de una Fuerza Naval que sirva al doble propósito de satisfacer las necesidades nacionales y contribuir a la estrategia aliada en sus justas proporciones. Para ello se necesita una Fuerza Naval de suficiente entidad y equilibrada en capacidades. En línea con las actuales necesidades estratégicas, se debe llegar a disponer de unas Fuerzas Navales flexibles, aptas para la acción conjunta, y adecuadamente orientadas a la participación en operaciones de proyección desde la mar sobre tierra. Para poder llevarlas a cabo se requiere un grado de autoprotección adecuado ante eventuales amenazas, particularmente en aguas próximas a costa, y una autonomía logística suficiente para operar durante largos períodos de tiempo en teatros alejados. Para ser un instrumento eficaz de nuestra estrategia de Seguridad Compartida y Defensa Colectiva, la Fuerza Naval tiene que ser, además, interoperable con la de nuestros aliados. Dentro de esta característica clave de interoperabilidad se incluye la necesidad de que nuestras autoridades navales estén en condiciones de ejercer el mando y control de fuerzas multinacionales y conjuntas, especialmente en los teatros de nuestro mayor interés estratégico. La viabilidad de la Fuerza Naval, medida tradicionalmente en términos puramente económicos, está hoy también condicionada por el recurso de personal profesional. Sólo podemos aspirar a obtener aquellas unidades que podamos dotar apropiadamente, pues la eficacia operativa de nuestras unidades está directamente condicionada por la cobertura de sus plantillas con el personal adecuado en calidad y cantidad. La eficacia de cualquier organización, y por supuesto la de la Armada, está absolutamente condicionada por el valor de su recurso humano, en todos sus niveles, categorías y empleos. Hoy, como siempre, la Armada vale lo que vale su gente. Pero si, hasta ahora, las necesidades de marinería y tropa estaban aseguradas por el reclutamiento forzoso, hoy debemos reclutar mediante un proyecto atractivo. Esto es lo realmente novedoso, y en este terreno no tenemos dividendos que recoger como resultado de decisiones anteriores, sino un reto importante en el que está en juego nuestro futuro. EL futuro de Plena Profesionalización Hoy existe un déficit de marineros y soldados profesionales que inñuye directamente sobre la operatividad y sobre la carga de trabajo de nuestra gente. Por ello, en el momento actual, la culminación con éxito del proceso de profesionalización constituye la primera prioridad para la asignación de nuestros recursos. Para cubrir con personal adecuado las plantillas, tanto de cuadros de mando como de marinería y tropa, es necesario presentar a los jóvenes españoles una oferta de trabajo atractiva y rigurosa, que tiene que contemplar cuatro aspectos fundamentales: perspectivas de futuro, integración, satisfacción en el trabajo y calidad de vida. Las perspectivas de futuro deben ser tales que el ingreso en la Armada garantice posibilidades reales de alcanzar un futuro estable, ya sea en la carrera militar o reincorporándose al mercado laboral en las mejores condiciones de preparación una vez finalizado el tiempo de servicio. Los marineros y soldados que deseen permanecer en la Armada deben tener probabilidades razonables de conseguirlo y suficientes expectativas de promoción. Los procedimientos de evaluación y clasificación deben ser objetivos y transparentes, para permitir que quienes demuestren un rendimiento satisfactorio puedan, si lo desean, acceder a una relación de servicios de carácter permanente. Para quienes quieran reincorporase a la vida civil, es preciso conseguir que el haber pertenecido a la Armada suponga un factor de prestigio en el mundo laboral. Esto implica, en primer lugar, la necesidad de que la propia Armada proyecte una imagen pública de eficacia. También es necesario que nuestro personal retorne al mundo laboral con una formación útil para sus nuevas tareas, razón por la cual nuestros planes de estudios deben incluir materias no específicas de la Armada. Además, el modelo de carrera debe permitir alternar los destinos de embarque con otros en los que sea posible acceder a formación adicional. El objetivo de la integración es conseguir que todos los hombres y mujeres de la Armada, incluido el personal civil, la sientan como algo suyo, una Institución de la que puedan sentirse orgullosos en la misma medida que la Armada se siente orguUosa de su gente. Ello requiere la mayor transparencia y la difusión, a todos los niveles, de todo lo que se relaciona con los objetivos y la política naval, especialmente en sus aspectos de personal. La satisfacción en el trabajo exige una formación de calidad, auténtico capital que la Armada debe ofrecer a todos sus componentes. Exige, además, que las tareas asignadas a cada uno estén en consonancia con la formación recibida, y que el entorno de trabajo les permita tomar las decisiones de su competencia y se responsabilicen de su cometido. Estas pautas de comportamiento, que no son nuevas pero que con la profesionalización cobran mayor importancia, hacen necesario definir un modelo de liderazgo participative e integrador, que debe ser exigido a todos los profesionales, y en especial a los cuadros de mando. En cuanto a la calidad de vida, hay que señalar que la dureza de la vida en la mar, la separación temporal del entorno familiar y la movilidad geográfica son dificultades que la Armada no puede eliminar, pero cuyas consecuencias se tratan de paliar y compensar en la medida de lo posible. Mejorar la calidad de vida, no sólo de los marineros y soldados profesionales, sino de todo el personal de la Armada, exige mayores inversiones en infiraestructura y en la contratación externa de ciertas tareas, así como la racionalización de guardias y servicios, y la adaptación del régimen interior de las unidades a las exigencias de una marina moderna y totalmente profesional. Las mayores necesidades de formación que se derivan de la plena profesionalización deben reñejarse en una mayor dotación económica a las Escuelas, en un mayor grado de cobertura de sus plantillas en cantidad y en calidad, en iniciativas para la explotación de nuevas tecnologías en la enseñanza, y en el impulso a los estudios sobre racionalización y concentración de Escuelas. Evolución orgánica y racionalización de la estructura El proceso de racionalización de las estructuras de las Fuerzas Armadas responde a criterios funcionales. El efecto más inmediato de este proceso será la desaparición de la Estructura Territorial que responde a criterios ya antiguos y desfasados, pues aimque el concepto de Zona Marítima responde más a criterios estratégicos y de despliegue de fuerzas que a criterios territoriales, no cabe duda de que los actuales Mandos de Zona, que tienen responsabilidades en zonas geográficas definidas y ejercen la autoridad militar sobre las dependencias ubicadas en sus respectivas Zonas, ligan de alguna manera sus competencias al territorio. Las posibilidades de los modernos sistemas de Mando y Control permiten que las actuales Zonas Marítimas evolucionen hacia una entidad marítima única, que abarcará todo el litoral español, y hacen posible el control centralizado de todas las unidades que se dedican a misiones específicas de carácter permanente, bajo una única autoridad La Armada y sus retos responsable de la parte que corresponde a la Armada en la Acción del Estado en la Mar. La presencia de la Armada en el litoral se mantendrá en la medida necesaria, pero cada organismo estará encuadrado en la organización funcional que corresponda. De esta forma, el mando sobre las dependencias periféricas se ejercerá siguiendo las líneas de dependencia que encabezan los Almirantes responsables de la Fuerza y del Apoyo a la Fuerza. La primera prioridad a la hora de la asignación de los recursos de la Armada es la culminación del proceso de plena profesionalización. Por ello, y hasta alcanzar este objetivo, las actividades relacionadas con este proceso, en particular en las áreas de formación, calidad de vida y externalización, tienen prioridad sobre otras necesidades en la asignación de recursos económicos. En un segundo término, en un escenario estratégico como el que vivimos, en el que la utilidad de la Armada como instrumento de la Política Exterior depende en buena manera de que se mantenga nuestra superioridad tecnológica, la continuidad del proceso de modernización, en busca de ese Objetivo de Fuerza realista y alcanzable al que aspiramos, es también prioritaria. Las prioridades así establecidas exigen, como contrapartida, sacrificios en otras áreas, en las que el actual escenario estratégico permite ahorros significativos que no comprometerán la capacidad de la Armada para cumplir su misión. He querido señalar los retos más importantes que tenemos por delante. Son importantes, pero tenemos trazada una línea de actuación que estoy seguro nos garantiza un futuro brillante. La tarea es ilusionante y compensa cualquier esfuerzo y sacrificio, pues de ella depende la futura eficacia de la Armada. Culminarla con éxito exige el esfuerzo constante, coordinado y entusiasta de todos cuantos, hombres o mujeres, de uniforme o de paisano, servimos en esta veterana y, a la vez, joven Institución que es la Armada. Tengo la certeza absoluta de que, en la línea de nuestras mejores tradiciones, la Armada seguirá cumpliendo con eficacia las misiones que tiene encomendadas.
El lector informado a quien dirijo este artículo bien pudiera ser que manifestara incredulidad implacable ante su título. Admito -diría-, que pudiera haber cierta lógica, cierta estructura, en el comportamiento de los mercados financieros, pero, ¡por favor!, las Matemáticas, el lenguaje asombroso con que la ciencia da forma al conocimiento, no dispone de herramientas suficientes para su adecuada modelización. El mundo de la Economía -continuaría-, y mucho más el de las Finanzas, aglutina una complejidad tal, que los enfoques de reducción matemática con ecuaciones de evolución o con procesos estadísticos y estocásticos, o con lo que fuera, distan de ser capaces de abarcar su complejidad. El mundo financiero -añadiría, quizás-, no sólo es complejo por la cantidad enorme de variables que pudieran ser necesarias para describirlo, o por la dimensión ingente de las relaciones que se precisan entre tantas variables, sino, y sobre todo, propondrá el lector de inclinaciones epistemológicas, porque los propios agentes que analizan y observan la evolución y comportamiento del sistema económico y financiero son asimismo piezas observables del sistema en el que intervienen. Una suerte de ourívoro bucle cuántico de gordiana irresolución. Algo similar, podría argumentar el lector, a lo que ocurre cuando abordamos matemáticamente el análisis de sistemas biológicos. El equilibrio pendenciero entre la complejidad intrínseca de un sistema y nuestro conocimiento de las ecuaciones que lo gobiernan queda recogido en este gráfico extraído de un artículo 3 del físico y matemático belga David Ruelle: cada una de las áreas de conocimiento científico tiene dos coordenadas, la x registra la complejidad de los fenómenos que abarca y la y la precisión con la que las ecuaciones lo intentan capturar. En el gráfico se aprecia esa posición peculiar que ocupan la Biología y las Finanzas, sistemas intrínsecamente complejos que comprendemos poco, muy en la línea de argumentación de aquel, ¿usted?, lector escéptico. Otro lector, o bien ese mismo lector en una versión distinta, o en un día de estado de ánimo alternativo, pudiera conceder en gambito retórico inicial que, por supuesto, las Matemáticas se aplican en los mercados financieros. Al fin y al cabo hablamos de cantidades de dinero, de cambios de valor, y eso se recoge, se tabula con Matemáticas elementales, a las que ningún buen matemático profesional que se precie debiera prestar atención alguna: descuentos y series geométricas, tantos por cientos, y alguna que otra derivada desperdigada aquí y allá. O, incluso, la primera (¿tercera?) reacción del lector pudiera consistir en auparse a un púlpito de savoranólica indignación ética. A quién le importa -espetará-si las Matemáticas son o no capaces de modelizar las Finanzas, o si las Matemáticas que se emplean o se pretenden emplear son lo que los matemáticos consideran Matemáticas interesantes o elevadas o profundas 4. Lo que ya me parece reprensible, dirá este lector intentando contenerse, es la mera intención de aplicar; las finanzas son parte 5 del Eje del Mal, de la perversa globalización, y ese conocimiento casto, como pocos, que son las Matemáticas, no debe mancillar su inmaculada virginidad y ser sicario de abyectas manipulaciones financieras. Bienvenidos sean esos lectores críticos, con formados y razonados prejuicios, a todos los cuales creo, sinceramente bien encaminados. Sea también bienvenido, ¡faltaría más!, aquel lector desprejuiciado, simplemente curioso, a quien quizás este artículo pudiera ilustrar, entretener y hasta informar. Simplificaré, y mucho, en este modesto recorrido panorámico con voluntad de perspectiva. Los detalles son importantes, el todo cósmico es una amalgama de detalles atómicos 6. Los lectores más avisados y rigurosos echarán en falta las pertinentes disquisiciones sobre detalles, pero las necesidades del guión..., ya saben. LA ECONOMÍA Y LAS FINANZAS Cuando la Economía (y las Finanzas) buscan hacerse ciencia, utilizan, claro, las Matemáticas para modelizar, para comprender los fenómenos económicos, para explicar el comportamiento de los agentes económicos y para intentar prescribir cuál debiera ser su proceder racional óptimo. Lo ideal sería disponer de modelos físicos, falseables en su precisión predictiva, pero no, no se llega tan lejos. Keynes, quien gustaba de la modelización, admonizaba que los mo-delos económicos pierden su utilidad en cuanto sustituimos las variables abstractas con datos numéricos concretos 7. Una dualidad no del todo resuelta, esquizofrenia permanente entre ciencia e ingeniería económicas. Las Matemáticas se usan en todo tipo de asuntos que conciernen a la Economía: mercadotecnia, logística, clasificación de acreditados o rating de empresas, macroeconomía, política monetaria, determinación de capital económico, diseño, valoración y cobertura de instrumentos financieros, industria del seguro, geografía económica, equilibrio económico, competencia en mercados, detección de fraude fiscal, etc. Advierta el lector con cuanta desconsiderada despreocupación y falta de pudor he mezclado en la lista anterior aplicaciones puras de ingeniería concreta con asuntos varios de modelización abstracta en teoría económica. La Economía reclama la asistencia de herramientas técnicas procedentes de todos 8 los campos de las Matemáticas: cálculo infinitesimal, ecuaciones diferenciales ordinarias y en derivadas parciales, sistemas dinámicos, teoría de la probabilidad y procesos estocásticos con sus respectivos cálculos asociados, estadística y econometría, investigación de operaciones, teoría de grafos, matemática actuarial, análisis discriminante y redes neuronales y reconocimiento de patrones, análisis funcional y hasta mecánica estadística 9. Los Cambistas, Quentim Metsys, Museo del Louvre, séc XVI Pero en este artículo tan sólo nos concierne la modelización matemática de uso financiero. EL DRAE define financiero como: 1) adj. Perteneciente o relativo a la Hacienda pública, a las cuestiones bancarias y bursátiles o a los grandes negocios mercantiles, 2) m. y f. Persona versada en la teoría o en la práctica de estas mismas materias. Sí, de acuerdo, pero.... Las finanzas se ocupan de la gestión del dinero, de cómo y con qué criterios, las personas, las empresas, o los Estados gestionan los fondos que precisan para sus actividades. El ámbito de los seguros quizás sea un buen punto para iniciar la descripción de la gestión matemática del dinero. La utilidad y los beneficios sociales que se derivan de los seguros son patentes: tener seguro de automóvil es beneficioso para todos los conductores, es decir, es bueno para mí que todos los demás conductores tengan seguro y, que yo mismo lo tenga, claro. Apuntemos: los seguros sociales, las pensiones públicas son cimiento pivotal de una sociedad avanzada. Y segunda, por el papel transparente y eficiente 10 que han desempeñado y desempeñan las Matemáticas en su desarrollo. La primera aplicación relevante (y desde luego, una de las más importantes) de la entonces incipiente teoría de la probabilidad, allá por el siglo XVII, fue precisamente el cálculo científico de primas de pólizas de seguros y la estimación del capital preciso para que una compañía de seguros pueda mantenerse solvente. Además, entre las primeras estadísticas descriptivas aparecen las tablas de mortalidad para usos de las compañías de seguros. Laplace, el Marqués, en su Ensayo filosófico sobre las probabilidades y en la propia Teoría analítica de las pro-babilidades 11, reserva un capítulo entre los dedicados a las aplicaciones a tratar con consustancial elegancia des bénéfices depéndants de la probabilité des événements futurs y des bénéfices des établissements qui dependent de la probabilité des événements. Dos son las claves en el seguro: solidaridad y Matemáticas 12. En una cooperativa, en una mutua de seguros, los participantes aportan cantidades relativamente pequeñas que se estiman suficientes para cubrir las pérdidas que algunos de ellos pudieran sufrir como consecuencia de cierto tipo de siniestros especificados, como, por ejemplo, automóvil, hogar, responsabilidad civil o salud. Estos siniestros pueden ser calamitosos para el individuo que los sufre, pero si se afrontan paritaria y solidariamente, el conjunto del montante de los siniestros supone una pequeña cuantía individual. La cuenta básica es sencilla. Un meticuloso análisis estadístico sobre el tipo de siniestros que nos ocupa y que hemos efectuado con poblaciones grandes similares a la nuestra nos permite suponer con confianza que la probabilidad de que a uno cualquiera de nosotros los hados del destino le adjudiquen uno de estos siniestros es de 2%. El bien que cada uno aseguramos tiene un valor estimado en 30.000 euros. Pues bien, Incluso el más estúpido de los hombres, por medio de algún instinto natural, por sí mismos y sin ninguna instrucción (lo que no deja de ser asombroso) está convencido de que cuantas más observaciones se hayan efectuado, menor es el peligro de desviarse de nuestra meta. Jacob Bernoulli (1654-1705), alias EL POLÍTICAMENTE CORRECTO 13 En prosa vernácula alambicada: cuanto mayor es la muestra, mayor es la probabilidad de que la media de la muestra esté próxima a la media de la población. Como somos 10.000 participantes, aquel instinto natural nos dice que esperamos que ocurran 200 siniestros, lo que supone un impacto económico global, para todo el colectivo, de 6 millones de euros. Pero, ahora, si cada uno aportásemos 600 euros al comienzo del año, crearíamos un fondo común que debiera de ser suficiente para cubrir el total de las pérdidas individuales. Importa recalcar que si no pudiéramos compartir los riesgos, es decir, si fuéramos una mutua de un sólo miembro, tendríamos que reservar un montante de igual cuantía que el valor del bien (30.000 euros) para estar asegurados. Las compañías de seguros son las empresas que facilitan y proveen este servicio: la compañía congrega a los tomadores de pólizas, les cobra primas periódicas, de las que descuenta las correspondientes comisiones, invierte esas primas en un fondo común y va pagando de ese fondo según se produzcan los siniestros. En realidad, ¡oh, sorpresa!, las cosas son un poco más complicadas. Para empezar, los posibles siniestros siguen una distribución de probabilidad, es decir, para cada número potencial de siniestros hay una determinada probabilidad de que ocurra. Además, los potenciales montantes de los siniestros también varían aleatoriamente. Más aún, la ley de los grandes números nos dice sólo que con un alto nivel de confianza el promedio de los siniestros en un año va a encontrarse bastante próximo al promedio exacto de la población. Y para completar el cuadro, los propios parámetros de la distribución de probabilidad son también variables aleatorias, piénsese, por ejemplo, en incendios forestales, y años secos y años húmedos. Todo esto sin olvidar que la propia base estadística en la que basamos los análisis y el cálculo de primas de pólizas nunca es un perfecto reflejo de la distribución de probabilidad verdadera. Los actuarios son los profesionales que, con el apoyo técnico de la Estadística y las Matemáticas, fiscalizan y organizan toda esa información para producir finalmente un histograma que asigna probabilidad a los potenciales pagos a realizar como compensación por los siniestros de la masa de asegurados; un histograma como el de la figura de la derecha arriba, de una cartera de 1.000 asegurados. La prima pura es simplemente la esperanza matemática de la distribución de pérdidas anterior dividida (repartida) entre el número de asegurados en esa cartera de pólizas. Ahora bien, el histograma ya nos dice que si sólo se recaudara la prima pura entonces es bastante probable que no hubiera suficiente, pues el montante de pérdidas oscila alrededor de la prima pura, y puede suceder que sea algo mayor (o algo menor). La prima se obtiene añadiendo a la prima pura un margen que proteja respecto de la natural oscilación de la distribución de pérdidas (más otros márgenes por comisiones, remuneración de capital, reaseguro y otros gastos). Hay distintas reglas para conseguir ese margen suficiente, fundamentadas en distintos esquemas de gestión; una, por ejemplo, consiste en obtener la prima como la suma de la prima pura y la desviación típica de la distribución (repartida entre los asegurados), que, en la ilustración que manejamos, daría una prima de 2.278 euros. Pero en la distribución de probabilidad de los siniestros se observa que el montante de pérdidas puede ser muy grande en comparación con lo que se recauda. De acuerdo, es improbable, pero no imposible, de hecho la probabilidad de que el montante total llegue a más de 5 millones es algo más del 0,1% (de más de 1 JOSÉ LUIS FERNÁNDEZ PÉREZ entre 1.000). Si se diera ese caso no sólo no habría suficiente con lo que se recauda sino que ni siquiera daría con el capital de la compañía. Esa catastrófica cola de la distribución se reasegura, es decir, la compañía de seguros le paga una prima a una compañía reaseguradora para que le compense en caso de que las pérdidas alcancen esos niveles tan extremos. La prima que la compañía paga por el reaseguro también se ha de distribuir entre los tomadores de pólizas. Pero, además, la compañía deberá tener reservas suficientes, capital aportado por accionistas, que permita garantizar la solvencia de la compañía. Los accionistas, en general, tenderán a que éste sea poco en términos porcentuales o al revés, a que el volumen de pólizas sea grande para una capital dado. Pero el supervisor del funcionamiento del mercado de seguros, que debe velar por la solvencia del sistema y por la protección de los tomadores de pólizas, querrá garantizar que sea infrecuente que las reservas con las que cuenta una compañía de seguros genérica basten para cubrir oscilaciones grandes. Y, por ejemplo, exigirá un capital mínimo que cubra la oscilación extrema del 95%, pongamos. En nuestro ejemplo, el percentil 95% del montante total de pérdidas se sitúa en unos 3,2 millones de euros. Y el capital sería del orden de la diferencia entre este nivel y las primas recaudadas, es decir, de 1 millón de euros. Esto genera, en puridad, pequeños círculos, viciosillos ellos, porque el capital se remunera con comisiones sobre primas (y rentabilidad de inversiones), y porque los costes de reaseguros se trasladan a las primas de las pólizas. Vayamos ya con una selección de vistas de las Matemáticas en el mundo financiero, sensu stricto 15. Las Matemáticas y las Finanzas confluyen por primera vez en el cálculo financiero y en la aritmética mercantil, todo ese conjunto de recetas aritméticas de contabilidad, descuentos, anualidades, intereses, empréstitos y demás, que se origina quizás en el mundo de los mercaderes italianos de los siglos XII y XIII, cuyo desarrollo, por personajes como Fibonacci como epítome, nos legó, por ejemplo, el uso generalizado de los numerales arábigos y la regla de multiplicación común. Una confluencia que ejemplifica la invención por parte del matemático Luca Pacioli 16 de la contabilidad de doble entrada, que Goethe consideraba una de las más bellas creaciones del intelecto humano 17 y que el gran Eduardo Chillida homenajeó en su famosa mesa 18. La aritmética financiera es un corpus técnico de uso ubicuo, matemáticamente elemental 19. Cálculo infinitesimal y griegas. En los mercados hay funciones. El valor de un instrumento financiero dependen de otras variables: un bono, un instrumento de deuda, del mercado monetario, depende de uno o varios tipos de interés. Interesan las derivadas del valor respecto de las variables, que en el contexto que nos ocupa se conocen como sensibilidades: duración y convexidad en tipos de interés, y, en general, las griegas, por la costumbre de designarlas con letras de ese alfabeto. Si una cartera tiene las primeras derivadas nulas respecto de las variables que se estiman relevantes, se entiende que está inmunizada: variaciones pequeñas de las variables tienen poco impacto sobre el valor de la cartera. Así que podemos utilizar el cálculo infinitesimal para gestionar riesgo. Y también para invertir. Suponga el lector que tiene un activo A cuyas dos primeras derivadas respecto de la única variable relevante son positivas. Y que tenemos otro activo B, lineal respecto de esa variable, y monótono creciente. Podemos formar (resolviendo un sistema de ecuaciones) una cartera comprando una cierta cantidad de A y vendiendo una cierta cantidad de B, que tiene primera derivada cero y segunda derivada positiva. Si es así, la cartera sólo puede beneficiarse de las variaciones de la variable. Demasiado fácil, de acuerdo. Hay muchas variables, muchas dependencias, pero así comenzó todo. 20, no los pongas todos en el mismo cesto: versión científica. La experiencia nos dice que si disponemos de un capital para invertir, conviene diversificar: es preferible repartir la inversión entre dos activos de igual rentabilidad esperada, que invertir todo en uno sólo de ellos. En los años 50, Markowitz planteó el problema de seleccionar activos para componer una cartera de inversión, en el que se parte de cierta información estilizada sobre la distribución estadística conjunta de los activos y se busca una (¿la?) cartera óptima. El criterio de bondad de una cartera compara la rentabilidad media que se pudiera obtener con la variabilidad (incertidumbre) de esa rentabilidad, retorno esperado contra riesgo asumido. Se pueden incorporar a este planteamiento básico restricciones sobre la estructura de la carteras que responden a los intereses usuales de los inversores -como, por ejemplo, poner un tope en cualquier activo-, o gestión activa de la cartera en fechas intermedias. Los retos técnicos y computacionales a que pueden dar lugar estos añadidos pueden ser matemáticamente interesantes 21. El enfoque de Markowitz 22 usa para la selección información estadística, digamos que objetiva, aunque el criterio de bondad (la función objetivo) es personal. Un enfoque complementario muy en boga hoy en día es el de Black- Litterman, en el que se aglutina la información estadística del comportamiento histórico de los activos con la opinión subjetiva del experto, para pergeñar en conspiración bayesiana la selección óptima 23. Inversores institucionales hacen uso de estos enfoques para seleccionar carteras, pues supone una cierta objetivación y orden en el proceso de inversión. Pero en una entrevista años después de su Premio Nobel, a la pregunta de cómo invertía él su propio ahorro, Markowitz respondía que fifty-fifty entre renta fija y renta variable. Básicamente la recomendación de mi madre. En la gestión de cualquier actividad económica se precisa no sólo de una estimación, digamos, media o más probable, de los potenciales flujos netos que conlleva, sino además de una estimación de la variabilidad adversa de esos flujos, para anticipar y gestionar su potencial impacto, y, en última instancia, para calcular las reservas líquidas razonables y/o suficientes que permitan afrontarlos. Ya hemos comentado este tipo de cálculos en el caso de las compañías de seguros. Desde los primeros años ochenta 24 las entidades de crédito vienen empleando enfoques similares para aquilatar el riesgo 25 que se deriva de los potenciales impagos, el llamado riesgo de crédito, y para estimar el riesgo de valor en las inversiones, el llamado riesgo de mercado, amén de otros riesgos varios entre los que cabe destacar el complejo riesgo operativo 26. Hoy en día, mediante un sistema de clasificación estadístico, a cada prestatario se le asigna un probabilidad de incumplimiento. Ese proceso de asignación consiste en esencia en comparar la situación 27 del prestatario con los de una buena base de datos. Y se le asigna como probabilidad de incumplimiento la frecuencia con la que los similares en esa base han incumplido 28. Esta asignación permite imponer una distribución estadística a los niveles de pérdidas que se pueden derivar de los posibles incumplimientos y que tenga en cuenta la variabilidad de un año a otro. Resultan así los modelos 29 de capital regulatorio por riesgo de crédito, recogidos en la normativa global del Nuevo Acuerdo de Capital de Basilea 30, o de capital económico, que son específicos de cada entidad y en la que el riesgo por crédito se determina en función del momento del ciclo económico. Al menos en el caso de crédito hipotecario o de crédito al consumo, este enfoque tiene una base actuarial 3l estadística sólida: las leyes de los grandes números supervisan los procesos y las cosas funcionan casi como en los seguros de accidente 32. En el riesgo de mercado se mide la variabilidad que el valor de las inversiones puede tener en horizontes temporales cortos (un día, una semana). La información estadística sobre la variabilidad de la bolsa o de los tipos de interés es, claro, menos, mucho menos firme que en el caso del crédito o los seguros. La información histórica no sondea un universo estable, con reglas fijas, físicas. Aún así, a pesar de las cautelas naturales, funciona 33. El riesgo se cuantifica en función del llamado Valor en riesgo, Var, en siglas 34. Cada vez más se imponen mediciones de riesgo que intentan ser finas y buscan abarcar plazos tan largos como 1 año, sobre variables como las que rigen los mercados. No es descabellado argumentar que el principal beneficio de medir riesgos como los de mercado, de crédito u operativo yace en el mero hecho de que se mida, de que se mantenga y analice información detallada sobre activos, sobre inversión, sobre crédito y acreditados, disponiendo de un buen catálogo de las fuentes de riesgo; y en que se intente ser lo más objetivo y analítico posible. Pero, una vez dicho esto, conviene indicar que la propia medición del riesgo supone un riesgo en sí mismo. Algo así como: ya que está medido, ya está, no hace falta gestionarlo. Moral hazard al uso: si ya estoy asegurado, me puedo permitir correr más riesgo. Hay agentes que usan las Matemáticas y la estadística en los mercados financieros para especular y para arbitrar. Especular es un concepto más o menos claro, pero, siempre, yo y los míos invertimos pero los otros, ¡ah, los otros! 36, los otros especulan. Arbitrar es un concepto menos habitual: el DRAE define arbitraje (en el contexto que nos ocupa) como operación de cambio de valores mercantiles en la que se busca la ganancia aprovechando la diferencia de precios entre unas plazas y otras. Arbitraje es pues una inversión en la que pase lo que pase se obtiene un rendimiento positivo. No está mal, ¿verdad? 37. Es como las meigas, ¡haberlas Imagine el lector que el precio de un megavatio hora para cada hora valle es de 8 euros, y que el precio de un megavatio hora cada hora pico es de 12 euros, entonces el precio de un megavatio hora para cada hora del día ha de ser de.... Fíjese el lector en que hemos escrito "ha de ser", es decir, que si no fuera ése el precio entonces habría arbitraje comprando y vendiendo megavatios hora en paquetes horarios completos. ¡Ah!, pero ¿a qué precio?, dejamos al lector que lo calcule, que rellene los puntos suspensivos, al fin y al cabo se trata de una oportunidad de arbitraje. Quizás al lector le interese saber que hay 8 horas valle y 16 horas pico. Cuentan las crónicas que en los primeros pasos de algún mercado abierto de electricidad, hace ya unos años, precio valle, pico y diario permitieron estas increíblemente ingenuas oportunidades de arbitraje. El arbitraje cumple una función de higiene ecológica, mantiene limpio y eficiente el sistema. Si no hubiera arbitrajistas, los mercados no serían eficientes. Los modelos matemáticos para valorar instrumentos financieros en mercados postulan que el arbitraje fuerza a un equilibrio dinámico entre los precios de los activos que se compran y venden. El renombrado economista Paul Krugman, afirma en algún texto 38 que la modelización económica se basa en dos principios fundamentales: las oportunidades obvias de hacer dinero se aprovechan, y toda venta es una compra. El arbitraje estadístico busca inversiones en las que se obtiene una rentabilidad positiva no "pase lo que pase" sino en un porcentaje amplio de los escenarios futuros. El arbitraje puro sería aquel en que hay una diferencia de precios de dos activos que en un momento del futuro valdrán con seguridad lo mismo o que generarán con seguridad los mismos flujos de caja. Imagine el lector que ha detectado que la diferencia de las cotizaciones de Telefonica y KPN exhiben un comportamiento estable a largo plazo. Es decir, esa diferencia oscila alrededor de un cierto nivel que actúa como atractor. Es un tipo de comportamiento que se conoce como de reversión a la media. Podemos usar la estadística para hallar los parámetros que con cierto grado de confianza son capaces de determinar cuánto tarda la diferencia en revertir a su nivel natural si se ha alejado mucho de ella. La explicación de un comportamiento como éste es que los fundamentos económicos que mueven a ambas cotizaciones son casi los mismos pero la actividad de transacción en los mercados hace que oscile alrededor de ese nivel de equilibrio. Si nos vale la explicación y nos creemos el modelo ajustado, esperaremos a que la diferencia de cotizaciones sea relativamente grande, para tomar una posición comprando de una acción y vendiendo de la otra 39, confiando en que la diferencia se reduzca pronto y beneficiarnos al deshacer la posición. El fondo de inversión Renaissance fue fundado por el matemático James Simons. Es uno de los fondos más exitosos (mídase el éxito como se mida). Tanto el montante que gestiona como la fortuna personal son, por ahora, mareantes 40. Para los iniciados, este Simons es el Simons de los invariantes de Chern-Simons en su Characteristic Forms and Geometric Invariants tan relevantes en la Física Teórica actual 41. Arbitraje estadístico ibérico: los Pelayos 42.. Esta inefable familia sevillana se dedicó a tabular estadísticas de las frecuencias reales de los números de las mesas de ruleta en los casinos, para diseñar combinaciones de apuestas que aprovecharan las discrepancias entre estas frecuencias reales y las frecuencias teóricas en las que se basan los premios, y vivir de ello 43. Un esquema similar al de los contadores de cartas en el Blackjack, como el holywoodense Rainman. Esto del arbitraje no es tan dispar de las habituales tomas de posiciones mercantiles en las que se entra en un negocio porque se piensa que va a ir bien, o las decisiones JOSÉ LUIS FERNÁNDEZ PÉREZ cotidianas de toda índole en la que se sopesan 44 pros y contras. Al fin y al cabo, el inversor cree que en un porcentaje amplio de escenarios la rentabilidad del negocio seleccionado va a ser positiva y que en los casos en que sea negativa, bueno, será negativa, pero poco. En la inversión en un proyecto empresarial, el plan de negocio es fundamental, los primeros principios que mueven el negocio, las causas últimas de rentabilidad son el foco de atención. Mientras que en la aplicación de la estadística a los mercados se buscan señales, síntomas, no causas últimas. Pero el objetivo final, especular, invertir, es el mismo. A comienzos de los años sesenta arrancó una relación pasionalmente tormentosa entre la investigación académica en finanzas y la galopante creación de nuevos instrumentos financieros que la creciente sofisticación e internacionalización de los mercados no ha cesado de demandar. Toda una transición de paradigma, en la escala menor que aquí nos concierne. Confluyeron en el tiempo la creación de los primeros mercados de derivados puramente financieros en el Chicago Board of Trade y la publicación del artículo de Black-Scholes (y el de Merton) 45 conteniendo la famosa fórmula que facilitó enormemente el funcionamiento de esos mercados 46. Estos instrumentos se conocen genéricamente como derivados, porque sus flujos son contingentes a los niveles que alcanzan otros activos financieros más básicos, como cotizaciones de acciones o índices, tipos de interés, o spreads de crédito. Los derivados han supuesto nuevas fuentes de inversión y financiación así como eficiencia en la transferencia y en la capacidad de cobertura de riesgos. El nivel técnico de las Matemáticas que se requiere en el diseño, en el análisis y en la gestión de estos instrumentos es más avanzado que el que se precisan, precisaban, en las otras aplicaciones a las finanzas, como las que hemos descrito. Hoy en día estos aspectos de las finanzas son materia habitual de docencia en las facultades de Matemáticas y Físicas 47, donde constituyen un campo más de su investigación académica, al tiempo que están suponiendo todo un nuevo ámbito laboral para los licenciados y doctores en Ciencias e Ingeniería. El desarrollo de la tecnología matemática de los derivados ha sido un verdadero impulsor de mejores técnicas cuantitativas en todos los otros ámbitos de la aplicación de las Matemáticas en el mundo financiero y económico; toda una transferencia masiva de conocimiento. En los mercados, los precios resultan del equilibrio entre oferta y demanda, son fruto de la competencia. Imagine el lector que cada agente dispone de un personal esquema de asignación de probabilidad a los eventos que pueden afectar a los activos que le interesan, y que usa esa probabilidad para asignar precios de referencia (personales, por ahora) a los activos. Las propias transacciones, toda compra es una venta, que se originan partiendo de las asignaciones personales hacen que los precios públicos de equilibrio en mercados de constante actividad y liquidez supongan una suerte de asignación de probabilidades neutra, común a todos los participantes. La estructura de probabilidades del mercado es una media de las expectativas individuales. Equilibrio, y ¿la fuerza? ¡Ah!, la fuerza es la búsqueda del arbitraje, la codicia por aprovechar las ineficiencias de información de los mercados financieros. El mercado cotiza precios, que están calculados con probabilidades: las probabilidades son las incógnitas de ecuaciones que tienen a los precios como términos independientes. Las Matemáticas, la teoría de procesos estocásticos, entran ahora con modelos más o menos sofisticados que intentan capturar los precios cotizados de un amplio universo de instrumentos financieros con estructuras de flujos a cuál más complejo. Por ejemplo, una put europea sobre la cotización de una acción como Telefónica es un instrumento que paga cuando la cotización de Telefónica baja. De manera que el precio que el mercado fija en la put supone una opinión sobre la probabilidad de que Telefónica baje. Las opiniones individuales se diluyen, sólo importa la de mercado. La put es, matemáticamente bien sencilla. Paga: máx{K -S, 0} donde S es la cotización en el momento de pago, vencimiento, y K es el precio de ejercicio. Si S está por encima de K, la put no paga nada, pero si queda por debajo, paga la diferencia con K. La put supone una cobertura para un riesgo, el de caída del precio. Los mercados financieros han desarrollado a un ritmo vertiginoso todo un zoo inmenso de instrumentos que buscan transferir riesgos asaz más complejos. Si un inversor conoce la distribución de probabilidad que el mercado está asignando a distintos niveles de ciertos subyacentes, el inversor puede contrastar esa distribución con la suya propia, que ha obtenido de estadísticas a las que, quizás, haya aportado su personal punto de vista, y diseñar la inversión que más partido extraiga de esa diferencia de opinión. Obsérvese la sutil diferencia con el arbitraje estadístico, se trata de invertir en función de opiniones de futuro contrarias, y no, como en el arbitraje estadístico, en función de discrepancias estadísticas del pasado. Uno de los modelos más elegantes y útiles (o al menos usados) para capturar el proceso estocástico implícito en los precios que cotizan en los mercados monetarios es el llamado Libor Market Model 48 que en glorioso esplendor 49 se escribe donde L(t, t j ) denota la variable aleatoria que recoge el tipo de interés simple de tiempo t que vence en tiempo t j y W n (t) significa un movimiento browniano n-dimensional 50. Los modelos matemáticos están tan presentes en los mercados financieros que en muchos casos cotizan directamente los propios parámetros, como desviaciones típicas, probabilidades o correlaciones. Por supuesto, se compran y se venden a un precio, pero los parámetros dan una idea más precisa de comparación entre los valores de instrumentos. Es más natural comparar una opción call sobre Telefónica a 2 años vista con strike a 100% de su cotización actual con una opción put sobre General Motors en dólares a 1 año vista con un precio de ejercicio de 90% sobre su cotización actual, dando la volatilidad (desviación típica acumulada en un año en la rentabilidad como variable aleatoria) a imputar en cada caso. A mayor volatilidad, más riesgo, más cara. Hay arbitraje de modelo. Los modelos no son perfectos. ¡Vaya por Dios, quién lo iba a decir! Pártase de un modelo que usan otros y del que se conoce que no es capaz de ver ciertos escenarios. Diséñese un instrumento derivado que sólo sea sensible a esos escenarios. Hay arbitraje de, digamos, intuición. La intuición se educa, claro. Así que es un arbitraje de información, o de conocimiento, como todos. Un ejemplo; Feller en su clásico 51 se asombraba de que el número medio de veces en que pasa por el nivel 7 el camino aleatorio simétrico, que parte de cero y se para en cuanto a llega por primera vez a cero, es...1, donde 7 es cualquier nivel excepto cero. Nuestra intuición 52 nos invita a pensar que ese número medio decrece según aumentamos el nivel. En cierto sentido, el instrumento que paga 1 cada vez que se alcanza el nivel 7 y el que paga 1 cada vez que se alcanza el nivel 5, valen lo mismo, pero nuestra intuición asignaría más valor al del nivel 5. Hay instrumentos financieros que aprovechan esa insuficiente intuición. Diséñese a) un juego basado en (derivado de) la ruleta que se aproveche (usted lector participativo es la banca) de esta falsa intuición, b) un instrumento basado en (derivado de) la Bolsa (el Ibex35, por ejemplo) que se aproveche (usted lector participativo es el banco) de esta falsa intuición. Pero, ¿cuál es el valor de estos arbitrajes?, ¿o de cualesquiera otros?, ¿qué beneficio social aportan?, ¿acaso alguno? De acuerdo, admitamos que cumplen una cierta función ecológica, aquí ya casi en la acepción de survival
Tras casi doscientos años de servicio militar obligatorio^ las Fuerzas Armadas españolas están afrontando el cambio más profundo de su reciente historia para adaptarse al nuevo modelo de unos Ejércitos totalmente profesionales. Este artículo refleja las diferentes opciones que se presentaban para definir el modelo que se pretendía adoptar, y las medidas que ya se han implantado en las diferentes áreas de la estructura militar paru asimilar progresivamente el cambio y la reducción de efectivos, sin merma de las capacidades y eficacia operativa que demandan nuestras necesidades y compromisos en los campos de Seguridad y Defensa. En este sentido, el artículo recoge las líneas generales de actuación que ha emprendido la Armada, potenciando especialmente su Jefatura de Personal en las áreas de captación, retención, motivación y formación de la Marinería y Tropa Profesional, para que los jóvenes sientan identificada su vocación y espíritu de servicio con las peculiares características de la vida en la mar y su plena integración en la Armada. «Lo importante es que el pueblo advierta que el grado de perfección de su ejército mide con pasmosa exactitud los quilates de la moralidad y vitalidad nacionales». Las Fuerzas Armadas españolas están experimentando una transformación sin precedentes. La incorporación de la mujer, el ñn del Julio Antonio Blázquez García servicio militar obligatorio, la plena profesionalización, la modernización del material, la proyección internacional de Fuerzas y las nuevas estructuras organizativas y de gestión suponen cambios de tal magnitud que están determinando la evolución más profunda, y rápida, en la historia de nuestras Fuerzas Armadas. Actualmente, el término profesionalización de las Fuerzas Armadas se identifica solamente con el hecho concreto de la suspensión de la prestación del servicio militar obligatorio y la incorporación de un recurso humano de Marinería y Tropa totalmente profesional. Pero el proceso de profesionalización se trata de algo más. Este proceso comenzó a finales del año 1982 cuando se fijó «el impulso de la profesionalización de los tres Ejércitos» como uno de los objetivos de la PoHtica de Defensa para la II. El fin último era alcanzar una nueva organización militar que permitiera la apertura de canales de confianza entre el Gíobiemo y las Fuerzas Armadas, vertebrando su dependencia bajo el poder ejecutivo como en cualquier democracia occidental. Una vez alcanzado este objetivo, se retomó el «impulso de profesionalización» para constituir un proceso completo que conllevase el rediseño de las Fuerzas Armadas españolas, tanto en su aspecto organizativo como en el operativo, para conseguir un avance notable en su integración efectiva en la sociedad española ^. Esta es la verdadera génesis del proceso de profesionalización: la integración efectiva de las Fuerzas Armadas en la sociedad. Y el nuevo modelo de Fuerzas Armadas totalmente profesionales, sin personal de reemplazo, es precisamente consecuencia del desarrollo de este proceso. Las relaciones entre una sociedad y sus Fuerzas Armadas se enmarcan en un conflicto permanente cuya resolución determina las características de la organización militar. El sistema de una sociedad democrática y de carácter liberal se basa en valores como la libertad y el individualismo, que son significativamente diferentes a aquéllos por los que tradicionalmente se rigen las Fuerzas Armadas. Esto genera una tensión que puede sintetizarse con la siguiente pregunta: ¿Cómo puede una sociedad occidental garantizar su seguridad cuando ello requiere una organización militar cuyos valores no comparte plenamente?. Las distintas soluciones a este problema se pueden agrupar en tres tendencias, que determinan sus correspondientes modelos de organización militar. La Armada y el proceso de «profesionalizacion» La primera solución toma como base que los valores y peculiaridades militares son intocables e inamovibles por constituir la esencia de su eficacia operativa y, en consecuencia, de la garantía de seguridad de la sociedad. Esto se materializa en un modelo de organización militar, llamado Institucional ^, en el que los individuos están plenamente identificados con los intereses de la organización, su compromiso es muy ñierte y tienen un pujante carácter vocacional. La segunda solución, radicalmente contraria a la primera, aporta la necesidad de una importante evolución de la organización militar para adaptarse a los valores y principios de la sociedad. Los nuevos conflictos, caracterizados por la incertidumbre y los enfrentamientos asimétricos, excluyen la posibilidad de las grandes guerras. Por tanto, esta solución dictamina que los valores militares, diseñados para los enfirentamientos a gran escala, no están justificados actualmente. Por una parte la profesión militar debe desmitificarse y pasar a ser xina profesión como las demás y, por otra, la organización militar debe reestructurarse en términos de eficiencia y economía de medios como las demás organizaciones de la sociedad. El modelo de organización militar derivado de esta solución se denomina Ocupacional ^ y en ella los individuos superponen sus intereses particulares sobre los de la organización, su carácter vocacional es mínimo y su compromiso con la organización, muy débil. La tercera solución es una vía intermedia entre el estricto criterio de eficacia operativa que persigue el llamado modelo Institucional y el criterio de eficiencia y economía de medios del modelo Ocupacional. Esta solución propone un modelo híbrido ^ de organización militar que debe mantener unas ciertas peculiaridades ^ y un esquema organizativo propio que garantice su eficacia y la cohesión de sus miembros; pero también debe saber adaptarse a los principios que imperan en la sociedad, a la que pertenece y sirve, con medidas orgánicas y administrativas similares a otras administraciones públicas. En resumen, este modelo híbrido propone que una organización militar debe poseer los dos componentes, Ocupacional e Institucional, y cada Estado debe saber adecuar la entidad de cada componente según sus características específicas en lo económico, social y político, y sus intereses internacionales y en materia de seguridad. La esencia del problema es ¿Dónde fijar el punto de equilibrio entre las dos tendencias? Esta búsqueda del equilibrio adecuado a las exigencias de España es precisamente el verdadero motor del proceso de profesionalizacion. Pero si el empuje en una de las direcciones es abrumador, o no existe un cierto contrapeso de equilibrio, la finalización del proceso se alcanzará con una excesiva inclinación hacia unos de los extremos, y el correspondiente modelo de organización militar presentará ciertos desequilibrios. Evolución de las Fuerzas Armadas Españolas (FAS) Hasta el comienzo del «impulso de profesionalización» de 1982, las Fuerzas Armadas españolas se basaban en un modelo orgánico de clara componente Institucional, La Directiva de Defensa Nacional 1/84 marcó el inicio real de la transformación organizativa de las FAS con el objetivo de su integración efectiva en la sociedad, lo que significó una evolución hacia el modelo OcupacionaL Sin pretender evaluar su bondad, se describen a continuación las sucesivas actuaciones que, a partir de la citada Directiva de Defensa Nacional, han continuado profundizando en el proceso de profesionalización. • Reforma de la Enseñanza Militar dirigida hacia una mayor integración con el sistema educativo general, con contenidos curriculares que posibilitasen la equivalencia de estudios y titulaciones. • Diferenciación entre el militar de carrera y el mUitar de empleo ^, asignando a éste el carácter de «no permanente». • Nuevo régimen de los centros docentes militares con disposiciones orientadas hacia objetivos academicistas y para acercar su funcionamiento al de los centros de enseñanza civiles. ® Nuevo sistema de evaluaciones, clasificaciones y ascensos, promoviendo la competitividad entre los individuos, que fricciona con algunos valores formales de la Institución como el compañerismo y la lealtad. • Nueva política de viviendas militares para impulsar la inserción de los militares en el mercado general de viviendas. • Adaptación de las retribuciones de los miembros de las FAS al sistema retributivo general del Estado, con incentivos económicos diseñados para las administraciones públicas. • Reducción paulatina de las compensaciones en especie y servicios, que es un indicador típico de una organización con un cierto componente Institucional, • Racionalización de estructuras y concentración de unidades, con criterios de economía de medios y eficiencia. La Armada y el proceso de «profesionalizacion» • Reducción de las unidades hospitalarias de la red sanitaria militar. En primer lugar se pasó de las 40 existentes a las 14 actuales, como consecuencia de la reducción del despliegue territorial de unidades. En un futuro próximo la red sanitaria militar quedará reducida a 6 unidades hospitalarias ^. • Reducción del número de cuadros de mando a un máximo de 48.000. • Aumento del número de militares de complemento, de marcado carácter Ocupacional; en el año 2014, al menos el 20 por ciento de los oficiales de las FAS serán de complemento. • Reducción del número de efectivos de Marinería y Tropa. Todas estas medidas tienen un objetivo común: la adaptación de la organización militar a los esquemas organizativos de la sociedad y a los principios que en ella imperan: la eficiencia y la economía de medios. Esto, en otros términos, significa un aumento del componente Ocupacional en detrimento del Institucional. Aunque esta tendencia, con la incorporación de valores y personas de claro componente Ocupacional, puede ser enriquecedora para la organización militar, algunos autores consideran ineludible mantener un cierto componente Institucional que no se debe rebajar para que la eficacia operativa no se vea mermada seriamente ^. Quizá debido al devenir histórico de España y a una percepción idílica de inexistencias de riesgos y amenazas externas, la conciencia de Defensa es débil. Tal como indica el senador Muñoz-Alonso ^ el problema actualmente está en un nivel superior: No puede haber conciencia de Defensa sin una fuerte conciencia Nacional. Con esta situación, la sociedad española empuja con determinación hacia el sentido Ocupacional de sus Fuerzas Armadas. La profesionalizacion es popular sólo por lo que tiene de aligeramiento de cargas de recursos financieros y humanos, no por lo que supone de mejora en el rendimiento ^^. Esta es la fuerza predominante en la búsqueda del adecuado modelo híbrido de organización militar. Poco a poco se avanza hacia una homologación de la organización militar con los demás sistemas organizativos de la sociedad ^^. Esta tendencia Ocupacional, que está acorde con la evolución de las Fuerzas Armadas de la mayoría de los países de nuestro entorno, implica una significativa reducción del componente vocacional y altruista de la pertenencia a las FAS en aras del pragmatismo y el afán remunerativo. Hasta aquí se ha expuesto la evolución general, incertidumbres y retos que presenta de forma global el proceso. Pero dentro de éste, la suspensión de la prestación del servicio militar obligatorio, y la incor-Julio Antonio Blázquez García poración de los nuevos marineros y soldados totalmente profesionales, constituyen los hitos más destacados en la actualidad, que comúnmente se engloban con la expresión «plena profesionalización». Con este nuevo modelo se sustituye el sistema de conscripción por un reclutamiento voluntario. La plena profesionalización y el reclutamiento voluntario En 1998 la Comisión Mixta Congreso-Senado para la plena profesionalización dictaminó la creación de unas Fuerzas Armadas totalmente profesionales con una entidad numérica delimitada por la horquilla 102.000 -120.000 efectivos de Marinería y Tropa. La justificación política de esta importante decisión, la «total profesionalización» de las FAS, se basó en dos argumentos principales. El primero fue de carácter social: la sociedad española, especialmente la juventud, empezaba a dar serias muestras de un falta de comprensión y una disposición desfavorable hacia el servicio militar obligatorio, que se reflejaba en los crecientes índices de la objeción de conciencia. Y existió también una razón estratégica: la anterior concepción de la Defensa, que estaba enfocada exclusivamente a la protección del territorio nacional, permitía circunscribir el empleo de los soldados de reemplazo a nuestra geografía; pero la nueva idea de la Defensa, enmarcada en los principios de seguridad compartida y defensa colectiva del ámbito occidental, y como parte de la Acción Exterior del Estado, implicaba una elevada proyección de Fuerzas y misiones en teatros muy alejados de nuestras fronteras que la sociedad no aceptaba asumir con personal de reemplazo. El nuevo sistema de reclutamiento voluntario abarca tres actividades esenciales para la obtención del recurso de Marinería y Tropa: la captación de jóvenes españoles, la retención o permanencia y su reincorporación a la vida civil. Estos son los tres eslabones del reclutamiento, de manera que la bondad del sistema puede medirse por la «resistencia» del eslabón más débil. Las FAS disponen actualmente de un total de unos 80.000 efectivos de Marinería y Tropa, apreciándose últimamente una cierta desaceleración en el sistema de reclutamiento, lo que tendrá como consecuencia que el objetivo final de 102.000 efectivos se alcanzará dos o tres años La Armada y el proceso de «profesionalizacion» más tarde de la fecha prevista. Las principales razones de esta ralentizacion son: • La reducción de la «boisa de aspirantes» dado el fuerte flujo de incorporaciones durante los últimos años. • La próspera situación económica española que tiene un significativo impacto en una oferta de trabajo tan importante como la de las Fuerzas Armadas. • Una situación demográfica desfavorable, con una sustancial y progresiva disminución del segmento de población entre los 18 y 27 años. • La reticencia de los jóvenes españoles a la movilidad geográfica, que limita las fuentes de aspirantes a las localidades donde están ubicadas unidades militares. Con la citada tendencia Ocupacional, marcada por la sociedad y acorde con la situación de los países de nuestro entorno, uno de los principales aspectos de la captación es el nivel retributivo. Aunque el sueldo percibido inicialmente no está por debajo de lo que ofi:*ece el mercado laboral a trabajadores sin una alta especialización formativa, si éste se asocia con el duro régimen de vida que conlleva la profesión militar, la competitividad de la oferta de empleo de las Fuerzas Armadas se reduce significativamente. Esto tiene una manifiesta influencia en la retención o permanencia. Algunos jóvenes que se incorporan con actitudes meramente ocupacionales, y pragmáticas, perciben que sus intereses personales chocan con las exigencias de disponibilidad, sacrificio y abnegación inherentes a la vida militar. Esto les lleva a finalizar su compromiso militar antes del deseable, y mínimamente rentable, período de permanencia. Para incidir en la mejora de este binomio «nivel retributivo-régimen de vida» se ha aprobado recientemente un nuevo reglamento de retribuciones cuya finalidad es fomentar la renovación de compromisos de los marineros y soldados. También se están llevando a cabo importantes inversiones en infraestructuras y en la externalizacion de tareas no propiamente militares, orientadas a mejorar la calidad de vida de nuestros marineros y soldados. Por otra parte, el Ministerio de Defensa va a determinar un sustancial porcentaje de marineros y soldados que podrán adquirir el carácter permanente en las FAS, lo que proporcionará una mejora en la visión de futuro estable, y que redundará en beneficio tanto de la captación como de la retención. Una vez alcanzada la estabilidad numérica de efectivos, las necesidades anuales de reclutamiento se cifi-an en 12.000 jóvenes y, naturalmente, existirá un flujo similar de salidas que se distribuirá entre los que accedan a las academias de suboficiales, los que ingresen en la Guardia Civil y los que deberán reinsertarse en el mundo laboral civil. La faceta de «reincorporación a la vida civil» se enfoca proporcionando una formación educativa adecuada, como valor añadido a la formación y experiencia militar. Existe ya una homologación de las titulaciones obtenidas en la Enseñanza Militar con el nivel de Formación Profesional del sistema general de educación. La apertura de convenios con grupos empresariales y la valoración de la experiencia y servicio en las FAS para los diferentes baremos de ingreso en la Administración Pública, que actualmente se está tratando con el Ministerio de Administraciones Públicas, facilitan también la reincorporación laboral a aquéllos que finalizan su compromiso con las Fuerzas Armadas. A lo largo de esta exposición se ha podido observar cómo la Política de Personal es el elemento director del proceso de profesionalización. Debido a las condiciones de ajuste presupuestario y a la necesidad de racionalización de medios, la planificación de medidas y el control de objetivos de la Política de Personal, incluido el Reclutamiento, se realiza desde los Órganos Superiores del Ministerio de Defensa con la estrecha colaboración de los Cuarteles Generales que, posteriormente, son los responsables de desarrollar, ejecutar y gestionar todas estas medidas en sus específicos ámbitos de actuación. El impacto de la «profesionalización» en la Armada La Armada, aunque unida de forma indisoluble a este proceso, tiene también un margen de maniobra para materializar y adaptar las medidas generales a las peculiaridades propias de la vida naval, determinadas por su medio de trabajo operativo: la mar y los buques. El proceso de profesionalización ha sido enfocado en la Armada con un profundo replanteamiento de su Organización. Los principios organizativos que tutelaban la Armada se basaban en teorías orgánicas de los años sesenta, concretamente las de Fayol y Weber, y sus enfoques se reducían a la «estructura» y las «tareas» para afrontar la necesaria división del trabajo. La adaptación de la Armada a las modernas teorías de la organización impuso cinco nuevos enfoques: la Estructura, los Procesos de Trabajo, las Personas, el Entorno y la Tecnología. Se per-La Armada y el proceso de «profesionalizacion» sigue una organización moderna, a caballo entre la tradición y la innovación, que pueda asumir con flexibilidad la única certeza de la situación actual: la incertidumbre y el cambio constante. Uno de los principales objetivos que persiguen estos cambios organizativos es el capital humano de la Armada. La Armada ha asumido plenamente que las personas son el elemento más potente de su Organización y, de esta manera, la Jefatura de Personal ha dejado de ser un mero órgano gestor para constituirse en un departamento de recursos humanos de carácter estratégico que afronte tareas tan novedosas como la Motivación de sus miembros, dentro de un innovador proceso de trabajo: la integración de las personas de la Armada. La vertiginosa implantación del nuevo modelo del militar profesional de Marinería y Tropa impuso en la Armada el nuevo sistema del reclutamiento voluntario y sus tres áreas: captación, retención y reincorporación a la vida civil. La Armada modificó con prontitud sus estructuras para hacer frente a este importante reto. Se creó una Dirección con dedicación exclusiva a esta actividad y se potenció una estructura periférica que ejecutase las líneas directivas en cada una de las citadas áreas. La Armada ha maximizado sus esfuerzos humanos y financieros para que, dentro de los planteamientos y condiciones marcadas por la Política de Defensa, se alcancen los objetivos numéricos de Marinería y Tropa. El Almirante Jefe del Estado Mayor de la Armada definió, en el documento «Líneas generales de la Armada» ^^, los aspectos fundamentales que deben regir el Reclutamiento para presentar una oferta de trabajo atractiva y rigurosa, a saber: perspectivas de futuro, integración efectiva en la Armada, satisfacción en el trabajo y calidad de vida. Estos aspectos constituyen las primeras prioridades en la asignación de recursos específicos de la Armada. En esta línea cabe destacar medidas tan llamativas para nuestra cultura organizativa como la racionalización de los regímenes de guardias en las unidades, la compensación por navegaciones y maniobras durante jornadas no laborables, programas de atención a la familia, construcción de guarderías, residencias y espacios de ocio para nuestros marineros y soldados, impulso del Liderazgo en las relaciones de mando y jerarquía, y la orientación profesional y tutorías personalizadas para los miembros de la Armada. Se están realizando campañas informativas internas para incidir en la «satisfacción individual en el trabajo» de nuestros marineros y soldados mediante una adecuada concienciación de los oficiales y suboficiales de la Armada. Se trata de implantar la idea de que los Julio Antonio Blázquez García nuevos marineros no constituyen una variación retribuida del servicio militar obligatorio, sino que son profesionales como los demás miembros de la Armada. Es necesario asignarles tareas acordes con su formación que constituyan retos factibles, con un cierto grado de responsabilidad e iniciativa, de manera que perciban que su trabajo es importante para la Armada. La Armada se ha propuesto también que la formación y la experiencia en trabajos técnicos sean importantes atractivos de captación y retención. Nuestros buques, submarinos, aviones, helicópteros, unidades de Infantería de Marina, y las correspondientes infraestructuras de apoyo, poseen sistemas y equipos con las tecnologías más avanzadas que permiten un aprendizaje y experiencia técnica muy valoradas en el sector civil. En el campo de la formación, la Armada está implantando un nuevo proyecto de modernización de la Enseñanza Naval para que, basándose en las nuevas tecnologías de información y comunicaciones, se adapte el entorno espacio-tiempo de la docencia, anclada hasta ahora en un exclusivo carácter presencial, a la vida naval de nuestros marineros y soldados que se caracteriza por el constante devenir. Sin embargo, y a pesar del enorme esfuerzo realizado para hacer frente al nuevo reto del reclutamiento voluntario, la Armada ha encontrado mayores dificultades que los otros dos Ejércitos para la captación y retención de sus efectivos de Marinería y Tropa ^^. ¿Cuáles son las razones? Sin lugar a dudas las propias características de la vida naval y de la Armada que, a pesar de las gratificantes experiencias personales y profesionales que proporciona, la distinguen por su exigencia de los otros componentes de las FAS. En este sentido cabe destacar la dureza del régimen de vida a bordo de los buques, la separación del entorno familiar durante largos períodos de operaciones y maniobras en teatros alejados, y una elevada movilidad geográfica durante la trayectoria profesional. Esta situación genera un aspecto negativo añadido que se manifiesta con el «círculo vicioso» siguiente: menos personal, mayor carga de trabajo, menos personal. Por otra parte, el lento ritmo de incorporaciones también presenta un lado positivo, ya que facilita unas trayectorias profesionales más equilibradas y de una mejor progresión. La Armada cuenta actualmente con 14.000 efectivos de Marinería y Tropa, es por tanto necesario realizar un último esfuerzo para conseguir un crecimiento que permita alcanzar el objetivo legal de los 18.813 efectivos. Dada la actual ralentización del crecimiento, a pesar de la polarización de los empeños de la Armada para la culminación La Armada y el proceso de «profesionalizacionx con éxito de este proceso, parece conveniente la inserción de nuevos factores que produzcan un revulsivo en el Reclutamiento de la Armada. Por una parte, se requieren mayores recursos financieros que permitan consolidar las acciones ya iniciadas para incidir en la calidad de vida de nuestros marineros y soldados y hacerla acorde con las condiciones medias de la sociedad, como son la externalización de tareas no militares, nuevas infiraestructuras, y una formación con «valor añadido», tanto para la promoción interna como para la reinserción en la vida civil. Y, por otra parte, parece necesario disminuir la tendencia Ocupacional que está marcando el carácter pragmático de la oferta de empleo de la Armada, y de las Fuerzas Armadas en general, y apelar a la vocación y al espíritu de servicio de los jóvenes españoles. En este sentido, y dado el especial régimen de vida que ofrece la profesión naval, cabe también replantearse su oferta laboral, que hasta ahora ha estado orientada como un puesto de trabajo más dentro del mercado laboral y que ha generado expectativas confusas. La pertenencia a la Armada conlleva un modo de vida especial, muy exigente, pero a la vez muy gratificante y que no puede ser homologado a un trabajo más de la sociedad. Es necesario concentrar el esfuerzo en una política dirigida a mejorar los aspectos de integración, satisfacción en el trabajo, perspectivas de futuro, formación y calidad de vida, para presentar a los jóvenes una oferta atractiva y rigurosa en la que encuentren satisfechas sus aspiraciones con el orgullo de pertenecer a la Armada. ^ Ministerio de Defensa.
La situación mundial en los albores del siglo XXI presenta un escenario de drásticos y rápidos cambios que, naturalmente, afectan también a los ámbitos de Seguridad y Defensa. La Armada, consciente de que su centro de gravedad reside en la calidad humana y competencia profesional de los hombres y mujeres que la componen, se enfrenta al futuro con el decidido propósito de potenciar su enseñanza y formación. El Director de Enseñanza Naval, tras una breve descripción de los diferentes niveles de enseñanza y centros docentes con que cuenta actualmente la Armada, centra su artículo en un acertado análisis de los factores determinantes que han conducido a un proceso de reestructuración para racionalizar los medios disponibles y mejorar la calidad de la enseñanza, finalizando su presentación con una síntesis sobre las principales líneas de actuación a corto y medio plazo, y la implantación progresiva de un ambicioso Plan de Innovación Tecnológica de la Enseñanza en la Armada. «En buena o mala fortuna la Milicia no es más que una Religión de Hombres honrados». La situación mundial en los inicios del Siglo XXI presenta un escenario de drásticos y rápidos cambios que en el campo de la Seguridad y Defensa se materializan en: la ausencia de la confrontación de bloques, motivada por la desaparición del Pacto de Varsovia, consecuencia del derrumbamiento del sistema marxista; la nueva estrategia de diálogo y cooperación en la Alianza Atlántica, que estrecha las relaciones entre 252 Emilio J. Nieto Manso los que en su día fueron adversarios; la sustitución de las «amenazas» por «riesgos» de diferente naturaleza y procedencia multipolar; y el desarrollo de capacidades de Defensa de carácter colectivo en el ámbito de diferentes Organizaciones Internacionales (ONU, OSCE, OTAN, UEO, UE, etc.) Coincidiendo con estos cambios se ha llevado a cabo el proceso de profesionalización de nuestras Fuerzas Armadas, culminado en un corto espacio de tiempo, con una evolución tecnológica en proceso muy acelerado y una falta de conciencia de la sociedad en relación con la Defensa, lo que dificulta la captación del personal necesario en cantidad y calidad. Ante esta situación, la Armada, que siempre ha tenido conciencia clara de que su valor es el de los hombres y mujeres que la componen, se enfirenta al futuro, una vez más, con el decidido propósito de superar todo tipo de dificultades; y la enseñanza y formación de su gente se constituye en factor primordial para alcanzar el objetivo de dotarse de personal debidamente preparado para desarrollar sus capacidades, en los ámbitos conjunto e internacional, obteniendo el máximo rendimiento de la Fuerza disponible. La Enseñanza en la Armada está encuadrada dentro del Departamento de Personal, en la Dirección de Enseñanza Naval (DIENA), cuyo director es un Contralmirante del Cuerpo General (ADIENA). La Enseñanza Naval forma parte de la Enseñanza General Militar -concebida de acuerdo con los principios constitucionales y como fundamento del ejercicio profesional en las Fuerzas Armadas-, y tiene como objetivo la formación integral y la capacitación específica del militar, así como la permanente actualización de sus conocimientos en los ámbitos operativo, científico, técnico y de gestión de recursos. Se configura como un sistema unitario que garantiza la continuidad del proceso educativo en la Armada, e integrado en el sistema educativo nacional. La Enseñanza Militar se estructura en: -Enseñanza Militar de Formación. -Enseñanza Militar de Perfeccionamiento. La Enseñanza Militar de Formación tiene como finalidades la preparación para la incorporación a las Escalas de Militares de Carrera La Enseñanza Naval y la capacitación para el acceso a Militar de Complemento y a Militar de Tropa y Marinería. Para la incorporación a las Escalas de Militares de Carrera, la Enseñanza Militar de Formación presenta tres niveles: -Enseñanza para la incorporación a las Escalas de Suboficiales, que se corresponde con la Formación Profesional de Grado Superior. -Enseñanza para la incorporación a las Escalas de Oficiales, que se corresponde con la Educación Universitaria de Primer Ciclo, y -Enseñanza para la incorporación a las Escalas Superiores de Oficiales, que se corresponde con la Educación Universitaria de Segundo Ciclo. La Enseñanza Militar de Perfeccionamiento va dirigida a capacitar al militar para el desempeño de los cometidos en empleos superiores y a proporcionarle los conocimientos correspondientes a las Especialidades Complementarias; es decir, ampliar o actualizar los conocimientos requeridos en un aspecto específico, necesario para el desarrollo de la profesión militar en un determinado ámbito. Por último, la Enseñanza de Altos Estudios Militares abarca la preparación del Militar de Carrera de la Escala Superior de Oficiales para el desarrollo de actividades en los Estados Mayores, y la capacitación para el desempeño de los cometidos en los empleos de General de Brigada o Contralmirante. También se consideran Altos Estudios Militares aquéllos que están relacionados con la Paz y la Seguridad, la Defensa Nacional y la Política Militar, así como con la investigación y desarrollo de las doctrinas para el empleo de las Fuerzas Armadas. Actualmente la Armada dispone de diecisiete centros docentes, distribuidos geográficamente en Galicia (4), Cartagena (4), Bahía de Cádiz (5) y Madrid (4). Escuela Naval Militar (ENM) en Marín, Escuela de Transmisiones y Electrónica (ETEA) en Vigo, Escuela de Especialidades «Antonio de Escaño» en Ferrol y Grupo de Escuelas de la Estación Naval de La Grana, también en Ferrol. En Cartagena: Escuela de Formación de Tropa de Infantería de Marina (ESFOR-TIM), Escuela de Submarinos, Escuela de Especialidades «Antonio de Ulloa» y Centro de Buceo de la Armada (CBA). En la Bahía de Cádiz: Escuela de Dotaciones Aeronavales (EDAN) en la Base Naval de Rota, Escuela de Suboficiales (ESUBO) en San Fernando, Escuela de Infantería de Marina (EIM) en San Fernando, Escuela de Estudios Superiores en San Fernando e Instituto Hidrográfico en Cádiz. En Madrid: Escuela de Guerra Naval (EGN), Centro de Estudios Superiores de Intendencia (CESIA), Escuela Técnica Superior de Ingenieros de Armas Navales (ETSIAN) y Escuela de Informática. El único centro docente de la Armada dedicado exclusivamente a la Enseñanza de Formación es la Escuela Naval Militar. Los demás centros comparten dos o los tres tipos de enseñanza, lo que se explica por la necesidad de racionalización de recursos e infraestructura. Esta circunstancia hace muy difícil la clasificación de los centros atendiendo al tipo de enseñanza que imparten. Otra forma de clasificar los Centros de Enseñanza en «Academias», «Escuelas» y «Unidades-Escuela», puede proporcionar una visión más clara de los medios disponibles: En la Escuela Naval Militar se lleva a cabo la formación «académica» de todos los Oficiales Superiores y Oficiales de la Armada, en cualquiera de las modalidades de acceso. En unos casos la formación que se imparte es total y en otros se atiende en exclusiva a la Formación General Militar, que se completa luego en las Escuelas de Especialidades Fundamentales (Ingenieros o Cuerpos de Especialistas). En la Escuela de Suboficiales se imparte la Formación General Militar para el acceso a la Escala de Suboficiales del Cuerpo de Especialistas, formación que se completa a continuación en las Escuelas de Especialidades Fundamentales. En este centro se imparte asimismo el curso de capacitación para el ascenso a Suboficial Mayor y a Cabo Mayor. En las Escuelas de Especialidades Fundamentales se capacita a los Suboficiales, una vez adquirida la formación militar común y básica, para el desempeño de una determinada función (Comunicaciones, Electrónica, Administración, etc.). Estas Escuelas son: En estas Escuelas, especializadas en unos determinados currículos, también se proporciona la formación completa de la Marinería y Tropa de acuerdo con sus Especialidades, así como las enseñanzas correspondientes a las Especialidades Complementarias de los Oficiales, Cursos Monográficos y de ascenso de Marinería y Tropa. En las Unidades-Escuela se imparte la enseñanza correspondiente a determinadas Aptitudes o Especialidades Complementarias (Submarinos, Aeronaves, etc.) o de Formación de Tropa de Infantería de Marina (ESFORTIM). Un desarrollo estricto de todas las posibilidades que contempla la Ley 17/99 (Acceso Directo, Promoción Interna y Cambio de Cuerpo) significa para la Armada la elaboración de 51 Flanes de Estudio para Acceso Directo, 35 para Promoción Interna y 25 para Cambio de Cuerpo, además de los que, en su día, puedan corresponder a la formación de reservistas. Si al más del centenar de cursos resultantes se les añaden los de Especialidades Complementarias y hasta 300 cursos monográficos para obtener cualificaciones en un determinado equipo o sistema, tendreraos una idea de la carga actual de trabajo de los centros docentes y la complejidad que implica su control y planificación por la Dirección de Enseñanza Naval. El elevado número de Centros de Enseñanza en la Armada y su localización dispersa, respondía a las necesidades y circunstancias de hace cincuenta años, en los que el personal de reemplazo prestaba su Servicio Militar por un período de dos años, que incluía su permanencia en las Escuelas durante seis meses para obtener una formación especializada (Teletipistas, Señaleros, Operadores de Radar, etc.). Las sucesivas reducciones del Servicio Militar y el proceso de plena profesionalización ya culminado, han ido haciendo progresivamente y cada vez más necesaria xm.a reestructuración que racionalice los medios disponibles y mejore la calidad de la enseñanza impartida. El proceso de Emilio J. Nieto Manso 256 reestructuración, todavía en curso, se ha iniciado con las siguientes actuaciones: -Integración del antiguo Centro de Especialistas de Infantería de Marina en el Tercio de Levante, creándose la ESFORTIM como Unidad-Escuela, de forma similar a las Escuelas de Submarinos, Dotaciones Aeronavales, etc. -A lo largo del año en curso las enseñanzas que se imparten en la ETEA se integrarán en la Escuela «Antonio de Escaño», precediéndose al cierre de las instalaciones en Vigo. -Se encuentran en estudio otros proyectos de racionalización. Factores que afectan a la planificación Dentro del marco general de actuación definido por la Ley y con la estructura de centros docentes antes señalada, existen una serie de factores que afectan a la planificación de la Enseñanza Naval y que son básicamente los siguientes: -Incorporación de España a diversos Organismos Internacionales. -Adaptación a las nuevas tecnologías. -Plena profesionalización del personal. -Modelo de selección continuada. -Adaptación de la enseñanza a los nuevos requisitos de la Fuerza. -Elevado número de cursos. -Nuevos procedimientos de trabajo. -Calidad de la enseñanza. -Necesidad de Ingenieros de Armas Navales. La incorporación de España a diversos Organismos Internacionales obliga a un numeroso despliegue de personal de la Armada en el extranjero con la exigencia de un conocimiento de idiomas, en particular del inglés, a nivel de «posee» e incluso superior. Esta circunstancia obliga a mejorar a todos los niveles el grado de conocimiento, que es particularmente bajo a nivel de Suboficiales (sólo el 2% tiene el «posee») y prácticamente nulo a nivel de Marinería y Tropa. Por otra parte, también resulta necesario elevar el nivel de conocimiento sobre las citadas Organizaciones y de sus procedimientos de trabajo. La adaptación a nuevos entornos tecnológicos, existentes tanto en el ámbito civil como en el militar, obliga a abordar este cambio con el empleo de nuevas tecnologías e impulsar la superación de barreras culturales que impiden acceder con confianza a las nuevas «herramientas». La culminación del proceso de profesionalización de Marinería y Tropa hace que la primera prioridad de la Armada sea el personal, y que para su «motivación» sea absolutamente necesaria una oferta de futuro atractiva, cuya base será sin duda la calidad y actualidad de la formación, lo que obliga a cuidar de forma muy especial los medios que se ponen a su disposición en las Escuelas, no sólo en lo que se refiere a la idoneidad del personal docente, sino también en otros aspectos como la habitabilidad, ayudas a la enseñanza, asistencia a las familias, etc. Se trata de pasar a una enseñanza rica en aprendizaje, en la que el centro de gravedad se encuentra en el alumno. La reducción de efectivos de Marinería y Tropa, consecuencia de la profesionalización y la necesidad de destinarlos a las Unidades Operativas para mantener una «masa crítica» en la Fuerza, razón de ser de la Armada, disminuye el personal disponible en los Centros de Enseñanza, lo que refuerza la estrategia adoptada de reestructurar la disposición y número de centros existentes. El modelo de selección continuada de personal de Marinería y Tropa es otro importante factor a tener presente en la programación de la enseñanza. Si en unas épocas se incrementa la captación, quedará afectada la capacidad de las Escuelas (alojamientos, aulas, profesorado) y por lo tanto la calidad de la formación del alumno. Por el contrario, si la captación es escasa, los cursos no resultarán rentables. El equilibrio debe alcanzarse precisamente con una selección continuada, fijando un número adecuado de incorporaciones a las Escuelas, que se estima podría ser de cinco convocatorias al año. Por otra parte, la próxima incorporación a la Fuerza de las Fragatas F-lOO, con sistemas vanguardistas como el sistema AEGIS, obliga no sólo a un esfuerzo inicial considerable para formar las primeras dotaciones, sino también a una mejora en la formación específica de este personal, acostumbrándolo desde el principio al empleo de tecnologías-punta, así como a un mayor tiempo de permanencia del personal en dichos buques. La dotación económica que la Armada ha dedicado a la Enseñanza de Perfeccionamiento y Altos Estudios Militares ha crecido progresivamente en los últimos años, llegando a suponer en la actualidad el 2.2% del total del presupuesto de la Armada. Esta tendencia creciente es consecuencia del incremento progresivo de la tasa de profesionalización y de la puesta en marcha de los programas de nuevas construcciones. Esta circxinstancia obliga a revisar el modelo actual de formación para economizar recursos. Es posible a medio plazo una reducción del gasto aplicando nuevas tecnologías, pero ello obliga a generalizar el conocimiento de la informática para usuarios a todos los niveles. No existe en la actualidad un instrumento fiable que nos permita medir la calidad de la enseñanza impartida en los centros docentes de la Armada; aunque los resultados pueden considerarse buenos, se estima que son mejorables. Por último, la Armada se encuentra necesitada de Ingenieros de Armas Navales. El sistema de acceso directo con titulación previa no satisface estas necesidades, ya que la Universidad no proporciona esta titulación y el tiempo establecido para su formación en los centros militares no es suficiente para proporcionar a los alumnos la necesaria Formación General Militar y la específica en su rama. Planes de actuación a corto plazo Dentro del marco que define la Ley 17/99, la Armada ha iniciado las acciones necesarias para dar debida respuesta a la problemática descrita en el punto anterior, del siguiente modo: En lo que respecta a la enseñanza del idioma inglés, se han establecido unos niveles mínimos de conocimientos para acceder a los Centros de Enseñanza de Formación, niveles que se van elevando posteriormente durante el desarrollo de los períodos de formación y perfeccionamiento. Se han creado Departamentos de Idiomas en las Escuelas, desapareciendo las anteriores Escuelas de Idiomas de Zona. Por otra parte, se ha incrementado el número de horas lectivas en los programas y se está dotando a las distintas Unidades y Dependencias de la Armada de cursos interactivos y medios informáticos adicionales para el estudio de idiomas. Se están ordenando los Planes de Estudio de la Enseñanza de Formación para dar debida respuesta a las necesidades de conocimiento, a todos los niveles, de los Organismos Internacionales en los que participa la Armada. La adaptación a las nuevas tecnologías se ha emprendido a través de la potenciación de las Escuelas mediante la instalación de aulas multimedia conectadas a la Intranet de la Armada, la potenciación del Centro de Ayudas a la Enseñanza (CAE) y su capacitación como creador de productos multimedia, así como la aplicación de técnicas de Gestión del Conocimiento a la gestión y desarrollo de la Dirección de Enseñanza Naval. La mayor parte de estas acciones, están recogidas en los Planes de actuación a Medio Plazo. Como desarrollo de la Ley 17/99, está previsto proporcionar en un futuro inmediato al personal de Marinería y Tropa la homologación de los estudios que realicen en los Centros Militares de Enseñanza, La Enseñanza Naval con un título del Sistema Educativo General (Técnico en Defensa) mediante el incremento correspondiente de horas lectivas (cifrado en 1300), manteniéndose el plan de formación específico para atender a las necesidades operativas de la Fuerza. Al mismo tiempo, el Ministerio de Defensa estudia la convalidación de los estudios de Especialidad específicos por un título del Sistema Educativo General (Técnico Militar en...). En lo que se refiere a las necesidades de las nuevas Fragatas se estudia la permanencia del personal asignado a estos buques en un ciclo rotativo de 11 años, que incluye y alterna su permanencia a bordo con destinos en Centros de Mantenimiento y en Escuelas. Se ha reducido el número de alumnos en la Enseñanza de Perfeccionamiento mediante: -Mejora de la progresividad en la enseñanza, reduciendo al mínimo la repetición de materias e incrementando la enseñanza por correspondencia. -Pasando a la Enseñanza de Formación parte de la impartida en Cursos Monográficos. -Suprimiendo aquellos Cursos Monográficos cuyo conocimiento puede lograrse por un esfuerzo personal del alumno si posee un adecuado nivel de formación previo. En el campo de la informática se han incrementado los períodos lectivos en los cursos de ascenso a Suboficial, Cabo Primero y Cabo, así como el número de cursos para usuarios tanto en la Escuela de Informática como en los Centros de Apoyo Informático de las Bases y Zonas Marítimas. Está en proceso de evaluación un procedimiento que permita conocer y valorar la calidad de la Enseñanza de Formación y de Perfeccionamiento impartidas. El procedimiento está basado en lo establecido en la LOGSE (Plan Nacional de Evaluación de la Calidad de Enseñanza en las Universidades de 1997), con aportaciones de lo regulado en otros países de nuestro entorno y del mundo empresarial, y atención especial al modelo seguido por la Marina de Holanda en cuya Escuela Naval se está desarrollando un programa piloto desde hace cuatro años. Por otra parte, existen en la actualidad catorce Convenios o Acuerdos de colaboración con diversas Universidades, Centros de Investigación y Fundaciones, que inciden en la mejora de la calidad de la enseñanza en los centros docentes de la Armada. Por último, y en lo que se refiere a la necesidad de formación de Ingenieros de Armas Navales, se pretende facilitar el Cambio de Cuerpo a Oficiales del Cuerpo General e Infantería de Marina, manteniendo además el sistema actual de acceso directo con titulación previa. Planes de actuación a medio plazo Las necesidades ya apuntadas y derivadas de la incorporación a un marco internacional, la profesionalización de las Fuerzas Armadas, el acceso continuado a la formación, la incorporación de nuevos buques, las restricciones presupuestarias y de personal,...etc., se producen en un entorno civil inmerso en un profundo cambio tecnológico que también se hace patente en el mundo militar. En este escenario, al que la Armada tiene que incorporarse necesariamente, se considera que el campo de la enseñanza es el lugar idóneo para introducir los nuevos sistemas de gestión y aplicar las nuevas tecnologías. Es en las Escuelas y demás centros docentes donde nuestro personal tiene su primer contacto obligado con la Armada, y donde los modos de actuar y sentir que se adquieran van a tener una importancia capital en el ejercicio de su profesión. Para ello se ha establecido el Plan de Innovación Tecnológica de la Enseñanza en la Armada (PITEA), desarrollado por el CAE, bajo la dirección de ADIENA, que precisamente tiene como por objetivo promover la modernización de la Enseñanza en la Armada; y para ello comienza proponiendo un nuevo modelo de enseñanza que sirva como vehículo integrador de capacidades, procesos de trabajo y tecnologías. El modelo seleccionado es el titulado «Enseñanza Distribuida», con el que se pretende: -Proporcionar un entorno adecuado a la enseñanza, para que sea accesible desde cualquier lugar, en cualquier momento y por la persona adecuada. -Proporcionar formación continuada, relacionando alumnos y materias, según las necesidades, pasando de un concepto de conocimiento estático a uno dinámico. -Proporcionar información actualizada y potentes bases de datos para que, con el empleo de las herramientas adecuadas, la estructura docente disponga del necesario apoyo para impartir la enseñanza y la oportuna ayuda para la toma de decisiones. Para conseguir la implantación de este modelo, el PITEA contempla tres planes parciales que desde el primer momento se acometen de forma simultánea, ya que se es consciente de que un desarrollo secuencial no permitiría incorporarse a un mundo tan cambiante como el que se pretende abordar. Estos planes parciales son: -Potenciar el Centro de Ayudas a la Enseñanza (CAE). -Potenciar las Escuelas y centros docentes de la Armada -Potenciar la DIENA a través de la Gestión del Conocimiento. Los dos primeros permiten incorporar las infraestructuras tecnológicas necesarias para generar y distribuir el nuevo modelo de enseñanza: y el tercero, introduciendo el concepto de Gestión del Conocimiento, es en el que se concreta, se hace realidad e impulsa el verdadero y profundo cambio que propone el PITEA, al conferir a la DIENA el carácter de Universidad Corporativa Virtual y favorecer una gestión ágil y dinámica de la «Enseñanza Distribuida». Con ello se espera lograr: -Reducción del tiempo de enseñanza presencial. -Potenciación del uso de las TIC. -Favorecer la profesionalización y modernización de la Armada. Autoaprendizaje centrado en el alumno. -Favorecer la «motivación» al implicar al usuario directamente en su formación. -Mejor control del proceso de la Enseñanza Naval, al poder conocer y controlar los accesos a la información y almacenar datos de evaluaciones. -Reducción de necesidades de profesorado permanente. El proyecto PITEA tiene como objeto demostrar en un plazo de 8 -9 meses las ventajas que podría aportar a la Armada la «Enseñanza Distribuida» y su viabilidad. Para ello se implementará el modelo conceptual que se está definiendo en un centro piloto en la Escuela Naval Militar y, una vez probado y aceptado el modelo, se procedería a su extensión al resto de las Escuelas. Todas estas medidas a corto y medio plazo deben desembocar en el logro de la calidad de enseñanza debida, para los casi diez mil hombres y mujeres de la Armada, cuya formación anualmente controla la Dirección de Enseñanza Naval.
En la década de los años sesenta la Armada acometió un proceso de organización que fue en su momento un auténtico modelo e incluso referencia válida para otras instituciones. Desde entonces, los cambios experimentados en todos los ámbitos han sido tales y tan rápidos, que su reflejo en la Organiza- No es todavía hoy frecuente encontrar organizaciones con una descripción global de cómo trabaja el conjunto, o de cómo se han de dirigir, coordinar y controlar las tareas de cada uno de sus organismos para que puedan alcanzarse los objetivos. En este sentido, las descripciones que generalmente se hacen pueden resultar incompletas, ya que se centran en el aspecto estático y no consideran la falta de agilidad que puede surgir cuando la Organización se pone en funcionamiento. La tecnología permite hoy llevar a cabo procesos que eran impensables hace pocos años, tales como coordinar en tiempo real a organismos que están físicamente separados y que dependen de ramas funcionales distintas, o utilizar la información disponible en tiempo útil. Surgen así unas nuevas condiciones de trabajo que a su vez condicionan a la Organización, permitiéndole y prácticamente obligándole a considerar simultáneamente tanto el aspecto estático citado como el dinámico, es decir, cómo se define y cómo funciona la Organización. Considerar simultáneamente los dos aspectos estático y dinámico convierten a los organigramas en algo más que una serie de «columnas verticales» que describen las funciones de la Organización, para considerarlos como una «malla» en la que organismos ubicados en ramas funcionales diferentes se relacionan entre sí. Los organigramas del tipo «malla» permiten ver lo que algún autor ^ ha denominado «constelaciones de trabajo» en las que, aunque los organismos aparecen integrados en cadenas funcionales distintas, forman parte al mismo tiempo de «grupos de trabajo» que tienen una personalidad propia en función del proceso que llevan a cabo. Esta concepción de los dos aspectos simultáneamente constituye una de las novedades que se han introducido en la Organización de la Armada y que trata de estimular a la reñexión y revisión por parte de las autoridades de las organizaciones respectivas. Para introducir mejoras en el funcionamiento de la Organización de una manera sistemática, se han estudiado las técnicas actualmente disponibles y se han adaptado a la Armada, actualizando nuestros procedimientos. El objetivo final no es otro que dotar a la Organización de instrumentos que le permitan autoanalizarse, regenerarse por sí sola y asimilar los cambios en el entorno en su propio beneficio. La actual Organización de la Armada tiene su origen en los comienzos de la década de los sesenta cuando se creó la Comisión de Estudios y Planes (COMESPLAN) que, basándose en las teorías or-La adaptación y reestructuración orgánica de la Armada gánicas imperantes en la época, concretamente las de Fayol y de Weber, redactó el documento SISTEMA-1, que definía los Principios y la Estructura de la Organización. (Estas teorías basan la Organización en la Estructura y las Tareas. La Estructura agrupa a los diferentes organismos en ramas funcionales y las Tareas se especifican mediante la definición de las responsabilidades de los puestos de trabajo). El SISTEMA-1 se adaptaba a la perfección a las necesidades orgánicas de entonces. Aquél era un mundo donde el avance tecnológico sólo permitía un ñujo de información muy limitado, el entorno donde se desarrollaba la actividad de la Armada era prácticamente estable, sólo existían escasos e incipientes contactos con el exterior, y la realidad política y social de España se asimilaba a una foto fija. En estas condiciones era suficiente una organización vertical aunque fuera poco ñexible, donde las decisiones se solían tomar en los más altos niveles. En la década de los 80 el entorno de la Armada empezó a variar muy rápidamente, lo que significó un aumento sustancial de la información y una mayor complejidad en la toma de decisiones. La Organización no valoró adecuadamente el cambio ni la importancia de la tecnología para el tratamiento del nuevo recurso, «la información», y su influencia en la toma de decisiones. Podemos decir que la Armada, como la gran mayoría de las organizaciones de entidad similar, adoptó una actitud «reactiva» ante las nuevas situaciones, que nos llevó durante años a ignorar el cambio y a fijar la atención en el día a día para ir resolviendo las cuestiones a medida que se presentaban y sin cuestionar la validez de los sistemas y métodos en uso, con lo que las decisiones no se tomaban en las mejores condiciones. Una actitud «proactiva» habría ayudado a asimilar el cambio. Una Organización no puede adoptar como fundamento que las decisiones se tomen en los niveles más altos, donde los directivos no son lógicamente capaces de asimilar toda la información, y donde la calidad de las decisiones se deteriora por tomarse con obligada rapidez y sobre muchos temas de los que aún se sabe demasiado poco. Las decisiones deben tomarse en el nivel adecuado de la Organización donde resida el conocimiento, y para ello se impone la delegación de autoridad y consiguiente exigencia de responsabilidad. Por otra parte, las organizaciones modernas deben ser capaces de dar repuesta a los cambios del entorno, tener capacidad para asimilar la información haciendo uso de la tecnología y garantizando la coordinación horizontal. Deben ser capaces de adaptarse sin miedo al cambio y modificar todo lo que sea necesario dentro de ellas, excepto sus valores, principios y convicciones, puesto que éstos son los que, inde-pendientemente del modelo orgánico que se elija, representarán la garantía de supervivencia de la propia Organización y el mantenimiento de su propia personalidad. La Organización de la Armada, que data de los años sesenta, ha constituido un auténtico modelo e incluso una referencia válida fuera de nuestro ámbito. Pero el desfase, en una organización que dura demasiado tiempo, resulta inevitable. De hecho, la Organización se apoyaba en parte en criterios territoriales, es decir en mandos territoriales únicos, con competencias diversas en lo que se identificaba como diferentes áreas funcionales. Así, por ejemplo, los Mandos de Zonas Marítimas tenían subordinados simultáneamente organismos del Apoyo a la Fuerza (diversas Escuelas o Arsenales) y unidades de la Fuerza (buques basados en puertos de su demarcación territorial). Esa y otras circunstancias empezaban a revelarse como pruebas de que nuestra Organización necesitaba un proceso de revisión. La decisión de cambiar Desde el SISTEMA-1 hasta nuestros días se han producido cambios sustanciales a los que se ha hecho frente con la misma Organización, aunque con sucesivas adaptaciones orgánicas de menor entidad. Quiere ello decir que la Organización de la Armada ha ido sobreviviendo a cambios tan importantes como los que a continuación se citan: - -La transferencia progresiva a organismos civiles de algunas de las competencias que ejercía la Armada en el ámbito de la Administración Marítima. -La entrada en vigor en el año 1999 de la Ley 17/99, que detalla las características del modelo de profesionalizadón de la Tropa y Marinería, y define ima poKtica de personal adecuada a dicho modelo. -La publicación en el año 2000 del Libro Blanco de la Defensa, prologado por el Presidente del Gobierno, donde se describen las líneas maestras de la Defensa Nacional a la luz de un nuevo escenario estratégico y teniendo en cuenta la decisión de implantar un modelo de Fuerzas Armadas profesionales. El Libro Blanco incluye criterios orientadores para la racionalización y la adaptación de la estructura de la Defensa al nuevo escenario estratégico, y anuncia una Revisión Estratégica de la Defensa para determinar las capacidades militares con que España debe contar para afi-ontar los aspectos de Seguridad y Defensa en el siglo que empieza. Todos estos aspectos, entre otros, trajeron como consecuencia la creación de nuevos organismos y la aparición de nuevos compromisos y retos que eran difíciles de asumir por la Armada con la Organización de que disponía. Todo ello fue planteando la necesidad de abordar un profundo cambio organizativo para hacer frente a una situación que exigía un nuevo tipo de soluciones. Y así, en 1997 se creó la Comisión de Estudios de la Armada (COMESAR), para estudiar la situación y las modificaciones a la Organización que posibilitasen el logro óptimo de los objetivos que la Armada tiene encomendados. Era preciso tomar la iniciativa para que la Organización de la Armada fuera, por sí misma, capaz de adaptarse a los cambios en el entorno a través de una actitud «proactiva». Tras el estudio de las nuevas tendencias organizativas, la COMESAR llegó a la conclusión de que había que abordar el problema de la Organización desde otros puntos de vista, más allá de la Estructura y las Tareas. Asimoiendo que el producto que puede ofrecer la Armada, en términos de una Fuerza Naval preparada y disponible, tendrá que ser el resultado de im.a serie de procesos de trabajo en los que las decisiones se tendrán que tomar en el nivel adecuado, se concluyó la necesidad de identificar estos procesos y de que la estructura ñiera capaz de permitir su desarrollo y de facilitar la integración de sus resultados. Y eso se puede lograr hoy a través de la tecnología. Pero de poco serviría una tecnología avanzada y un estructura bien diseñada si no está en manos de personas cualificadas, competentes y motivadas. Al mismo tiempo, cualquier organización que no tuviera en cuenta el entorno en que tiene que desenvolverse se condenaría al aislamiento, con el riesgo de que su trabajo fuera en gran parte estéril. Con estas reflexiones se llegaron a definir los cinco enfoques orgánicos y su interrelación a contemplar en cualquier proceso organizativo, que se pueden sintetizar como sigue: Para el enfoque procesos de trabajo hay que saber y definir lo que la Organización tiene que hacer, es decir, qué procesos son necesarios para que la Organización ofrezca los resultados que se le exigen, de qué factores críticos depende su éxito y qué indicadores permiten medir su rendimiento. La estructura explica o, más bien, da una idea de cómo es la Organización respetando el principio de jerarquía. Debe ser lo suficientemente flexible para posibilitar los procesos de trabajo y la coordinación horizontal. El enfoque de las personas tiene en todas las organizaciones, y la Armada no es una excepción, una importancia creciente. Hay que conocer qué tipo de personas se necesitan para realizar los procesos de trabajo que hacen funcionar a la Organización, qué cualificación necesitan y qué motivación las mueve. La tecnología es un soporte fundamental de la Organización. La información cada día requiere un mayor soporte tecnológico, y sin información que fundamente las decisiones el fracaso está garantizado. La tecnología debe constituir el instrumento que facilite los procesos de trabajo con la mayor eficacia. El entorno viene representado por el conjunto de factores que influyen sobre el funcionamiento de la Armada, y que en consecuencia deben recibir también la influencia de ella. La Organización tiene que estar muy pendiente del entorno, para evitar que su influencia introduzca disfunciones, y tiene que estar preparada para influir a su vez sobre el entorno en la medida necesaria, de manera que se compagine su evolución con nuestras peculiaridades y objetivos. Una vez estudiados el pasado y el presente, la COMESAR analizó el futuro, es decir, las condiciones en que iba a tener que desenvolverse la futura Organización de la Armada. Para ello utilizó el conocido «método Delphi», en el que se asignan probabilidades a distintos escenarios en un determinado horizonte temporal, que en este caso se fijó para el año 2015, y se trata de adivinar el impacto de cada uno de los sucesos que conforman dicho escenario. Se buscaba hacer un esfuerzo de prospectiva hacia el año 2015, ver cuáles serían las actividades de la Armada y cuál debería ser nuestro proceso de adaptación a ese escenario. De este esfuerzo se extrajeron las siguientes conclusiones, como directrices obligadas en la revisión del conjunto de nuestra Organización: -La estrategia naval se entenderá como la aportación de la visión estratégica de la Armada a la estrategia conjunta en el plano nacional y a la estrategia combinada en el plano multinacional. -La necesidad de revisión de los fundamentos y conceptos generales de nuestra Organización. Tanto el diseño como el funcionamiento de toda nuestra Organización debe responder al principio de contribución al ámbito conjunto y combinado. -La conciencia de que asimilar el proceso de plena profesionalización en la Armada constituye nuestra más alta prioridad, asumiendo un redimensionamiento de la Armada en el que prime la calidad sobre la cantidad. -El esquema básico no tiene por qué cambiar, porque encierra la idea fundamental de lo que debe ser la Armada: unos medios de acción al servicio de un fin común, una dirección que los prepare y unos órganos que los apoyen. Así, la Armada debe seguir estructurada en los tres elementos básicos que la constituyen: • El Cuartel General, como un conjunto de órganos de asistencia al Almirante Jefe del Estado Mayor de la Armada (AJEMA) para apoyo a la decisión, dirección, administración y control de la Armada. • La Fuerza, compuesta por la Flota, su núcleo fundamental, y el resto de unidades navales. • El Apoyo a la Fuerza, en el que se integran la Jefatura de Personal y la Jefatura del Apoyo Logístico. El Cuartel General debe representar el auténtico órgano de Mando y Control de la Armada. La Fuerza se regirá por el principio de suficiencia en número de unidades y por el de excelencia en sus capacidades, con el objetivo permanente de alcanzar la superioridad tecnológica y mantener el más alto grado de preparación y disponibilidad. El Apoyo a la Fuerza depende de la eficacia en los procedimientos de gestión. La racionalización de la Infraestructura de la Armada para adecuarla a sus necesidades reales constituirá un objetivo permanente. Con estas conclusiones se decidió aplicar los cinco enfoques orgánicos a los elementos básicos constitutivos de la Armada, abordando su revisión con el siguiente esquema general: -La promulgación de unas Líneas Generales de la Armada, en las que el Almirante Jefe del Estado Mayor de la Armada estableciera la política general que gobierna el conjunto de toda nuestra Organización para que la Armada alcance sus fines, fijando los objetivos y la prioridad en la dedicación de recursos. -La revisión de los fundamentos y conceptos generales de la Organización de la Armada. -La identificación de los Procesos Fundamentales y Procesos de Apoyo en lo que podemos llamar el «ciclo básico de la Armada», encuadrados en las diferentes áreas funcionales y bajo la responsabilidad de las autoridades de más alto nivel de la Armada. La aplicación particular a cada elemento básico se concretó en las siguientes medidas: La creación en el Cuartel General de una Autoridad de Coordinación General de las actividades de la Armada, responsable ante el AJEMA de que la aplicación de recursos repercuta en la eficacia de la Fuerza de acuerdo con las prioridades por él establecidas, y de que la labor diaria de la Armada represente una contribución valiosa en el ámbito conjunto y aliado. Mantener en el ámbito del Cuartel General a la Comandancia General de la Infantería de Marina y a las autoridades directoras y de asesoramiento del AJEMA en los aspectos económico y legal. Concentrar en la Flota todas las unidades de combate, estructuradas por capacidades y bajo un Mando único responsable ante el AJEMA de su preparación y eventual empleo con una estructura compatible con la de las fuerzas de la Alianza Atlántica. Concentrar todas las unidades y medios que constituyen la capacidad de contribución de la Armada a la Acción del Estado en la Mar bajo un Mando único responsable ante el AJEMA de su preparación y habitual empleo. Concentrar las funciones de obtención y distribución del «ciclo logístico» en dos autoridades del más alto nivel, responsables respectivamente ante el AJEMA de la administración y gestión del recurso humano y del recurso de material. Para llevar a cabo la reorganización que se pretendía, primero se identificaron cuáles eran los procesos de trabajo «ñmdamentales» de la Armada y cuáles los de «apoyo». El cuadro de referencia muestra los procesos que se identificaron, dentro de lo que se denominó «ciclo básico de la Armada». A partir de ahí se comenzaron los trabajos de reingeniería de los diferentes organismos que lideraban los procesos identificados, tanto fundamentales como de apoyo. Lógicamente se estableció una prioridad de acuerdo con la importancia de los problemas en aquel momento. Todo el proceso de reorganización ha ido acoplándose a la evolución normativa del Órgano Central del Ministerio de Defensa desde su fase de proyecto (Planes Directores, nuevo Real Decreto de Estructura Básica, etc.), para evitar que la Armada pudiera orientar sus esfuerzos en una dirección distinta a la que le van a marcar las directivas generales del Ministerio. La Jefatura de Personal El primer proceso que se abordó fue el del recurso humano. La razón de su elección fue sencilla. La Jefatura de Personal (JEPER) no estaba preparada para afirontar la profesionalización, que constituía el mayor reto al que debía enfrentarse la Armada. Los resultados de los estudios detectaron una serie de disfunciones que era preciso corregir. Para ello, se identificaron y definieron los Procesos de Trabajo y se diseñó una nueva Estructura. Pero sobre todo, se impulsó un cambio de mentalidad. La Armada no sólo iba a tener muchas menos personas, sino que iba a ser necesario salir a la calle a buscarlas y ofrecerles un trabajo atractivo. Y en este sentido, se han dado ya los primeros pasos para que todas las personas que deseen permanecer en la Armada puedan tener probabilidades razonables de conseguirlo, y suficientes expectativas de promoción. Para quienes no puedan o no quieran hacerlo, y tengan que reincorporarse a la vida civil, es preciso conseguir que el haber pertenecido a la Armada suponga un factor de prestigio en el mundo laboral y que nuestro personal retorne a él con una formación útil para sus nuevas tareas, lo que exige aceptar sacrificios en nuestros planes de estudios para incluir materias no específicas de la Armada. Por otro lado, abordar la reorganización de la JEPER permitió transmitir un mensaje claro a las personas de la Organización. La Armada estaba dispuesta a hacer efectivo el principio de armonización, haciendo compatibles los intereses de las personas con los objetivos de la Organización. En consecuencia, la «motivación» se convertía en factor crítico para la retención del personal. De la misma forma, se necesitaba que todos los miembros de la Organización se sintiesen integrados en ella, y una forma de conseguirlo era que se encontrasen satisfechos con el trabajo que realizan. Ello exigía el proporcionar una formación de calidad, auténtico capital que la Armada debe ofrecer a todos sus componentes como garantía de eficacia durante el tiempo de servicio y como valor de futuro dentro y fuera de nuestra Institución. Exigía, además, que las tareas asignadas a cada uno de los hombres y mujeres que componen la Armada estuviesen en consonancia con la formación recibida; y exigía también, un entorno de trabajo en el que se permita que cada persona tome las decisiones que sean de su competencia, y se le exijan responsabilidades de acuerdo con su empleo. Realmente, habría resultado muy difícil aplicar el enfoque personas a otras áreas de la Organización sin el apoyo de una Jefatura de Personal que respondiese al nuevo esquema. Los resultados más significativos en este campo han sido la creación de la Dirección de Integración y Planes de Personal en el seno de la JEPER, con Secciones específicas que dirigen y controlan actividades tan importantes dentro de la política de personal como son la captación, motivación, y orientación de todo el personal de la Armada. Ello significa tomar conciencia de que el manejo del recurso humano en la Armada ha adquirido dimensiones de función estratégica en la Institución. En cuanto a formación, está en marcha un plan de racionalización ^ Escuelas de la Armada regido por el principio de concentración de dios, cuyo primer resultado ha sido la creación de la Escuela «Antonio Escaño» en Ferrol como única Escuela de Especialidades de Maía. También está en curso un ambicioso plan de enseñanza basado en las nuevas tecnologías (Plan PITEA). Las Tecnologías de la Información En el aspecto de las Tecnologías de la Información, aparentemente la Organización funcionaba. Existían redes informáticas locales, de área extensa, una Intranet, un sistema de comunicaciones, etc. El cambio podía parecer innecesario, pero esa no era la realidad. No existía una dirección única para las Tecnologías de la Informiación, la responsabilidad estaba distribuida entre diferentes autoridades sin que existiera entre ellas la necesaria coordinación, ni una política común que sirviese de referencia. Cada responsable actuaba como lo consideraba conveniente y de forma estanca, lo que en ocasiones originó soluciones contradictorias en la determinación de necesidades. La gestión de los medios se realizaba sin visión global y con una marcada falta de doctrina y de procedimientos comunes en el área de la informática. Las condiciones tecnológicas del entorno cambiaban a gran velocidad y la Armada no disponía de una Organización que le permitiera incorporar todos los avances tecnológicos en tiempo oportuno. No se podía dejar pasar la oportunidad de incorporar el cambio tecnológico, porque si no se hacía, la Armada corría el riesgo de quedarse atrás. Por otro lado, existía demasiado distanciamiento entre los Sistemas de Gestión y los Operativos, es decir, entre la Informática y las Comunicaciones. Era evidente su confluencia tecnológica, además de que ambas representan tan sólo medios para lograr un fin, que no es otro que la distribución eficiente de la información (del conocimiento) a los niveles adecuados. La citada confluencia tecnológica, entre el campo informático y el tradicional campo de las comunicaciones navales, exigió la integración del tratamiento de la información como un cuarto recurso del Mando que acompañase a los de personal, material y financiero. Nadie ponía en duda que la calidad y cantidad de la* información disponible condiciona el acierto en la toma de decisiones a todos los niveles. La Armada, como Organización, poseía un capital intelectual propio basado en el conocimiento y la experiencia. La dificiíltad estribaba en que la mayor parte de ese conocimiento reposaba, en forma de papel, en archivos con mayor o menor dificultad de acceso y no estaba disponible de forma inmediata, ni para el que tenía que fundamentar las decisiones, ni para el Mando que tenía que tomarlas. Estábamos viviendo en una continua infirautilización del conocimiento sin llegar a percibirlo como problema, porque no teníamos conciencia de las posibilidades que se nos abrirían si la gestión de ese capital se hiciera de otra manera. Ante esta situación de partida se alcanzaron conclusiones para cada uno de los diferentes enfoques desde los que se estudió la Organización. Se identificaron los cuatro procesos de trabajo de las Tecnologías de la Información: determinación de necesidades, elaboración de doctrina y procedimientos, administración y explotación de los medios, obtención y sostenimiento. En cuanto a estructura se crearon organismos que liderasen los diferentes procesos identificados: la División de Sistemas de Información y Comunicaciones, en el ámbito del Estado Mayor de la Armada, para la determinación de necesidades y la elaboración de la doctrina y los procedimientos; los Centros Integrados de Gestión y Administración de la Información, que integran Centros de Comunicaciones y Centros de Apoyo Informático, para la explotación y administración; y la Dirección de Sistemas de Información y Comunicaciones, en el ámbito del Apoyo a la Fuerza, para la obtención y el sostenimiento. En el enfoque personas se detectó la necesidad de crear una nueva Especialidad de Tecnologías de la Información, que básicamente fundiese las anteriores de Comunicaciones e Informática. Finalmente en el aspecto tecnología se fijó como objetivo la tendencia hacia una arquitectura de información accesible con dato único, de manera que toda la Organización pueda disponer de la información a la que tenga autorizado el acceso, y que sea idéntica para cualquier miembro de la Organización que la necesite. El Estado Mayor de la Armada Como consecuencia de lo anteriormente expuesto, la creación de una nueva División de Sistemas de Información y Comunicaciones precipitó en cierta medida la revisión y la reasignación de tareas y procesos de trabajo en el seno del Estado Mayor de la Armada. La escasez de personal no permitía añadir una nueva División a las ya existentes, por lo que se decidió crearla a partir de la División de Táctica. Ello implicó que el Almirante Jefe del Estado Mayor de la Armada delegase en el Almirante de la Flota la sanción de la doctrina táctica, con sus consecuencias en todo el proceso de generación y sanción de doctrina y coraposición de Juntas Tácticas. Todo ello se recogió en una nueva instrucción sobre la doctrina en la Armada, en la que se fijan los niveles en que debe generarse la doctrina, basada en el conocimiento y la experiencia, y los niveles en que dicha doctrina debe sancionarse. De acuerdo con sus funciones y los Procesos de Trabajo en que interviene, el Estado Mayor de la Armada quedó estructurado en cuatro Divisiones que realizan las siguientes actividades: • La División de Planes, que lidera la Armada del mañana, participa en los Procesos Fundamentales de Análisis de la Situación, Elaboración del Objetivo de Fuerza, Participación en el Entorno Internacional, Recurso Financiero y Evolución Orgánica. Partiendo de la previsión de los escenarios futuros y del marco conceptual de la Defensa, se busca cuál debe ser la aportación de la Armada. Ello se traduce en una Determinación de Necesidades, priorizadas en el ámbito conjunto, de los recursos de personal, material y financiero; con lo que se llega a la definición de un Objetivo de Fuerza Específico y a la elaboración de los requisitos operativos de los medios necesarios. En los trabajos de reorganización de la Fuerza se consideraron dos grandes áreas funcionales: la Flota y las Fuerzas de Zona. La primera, núcleo fundamental de la Fuerza de la Armada, está formada por la mayor parte de los buques de superficie (portaaviones, fragatas, corbetas, cazaminas, buques de guerra anfibia, buques de apoyo logístico), y por los submarinos, aeronaves y la Brigada de Infantería de Marina. Por otro lado, las Fuerzas de Zona están formadas por las unidades de protección de bases navales (Tercios de Infantería de Marina), unidades de vigilancia (patrulleros), buques científicos (hidrógrafos u oceanógraficos), buques-escuela y resto de unidades y medios navales que no están encuadrados en la Flota. La última Organización de la Flota databa de 1988; desde entonces, dos hechos fundamentales han afectado a las marinas occidentales, y han tenido inevitable repercusión en la estrategia naval como aporte a la estrategia conjunta. En primer lugar, la desaparición de una potente Flota adversaria que representaba la amenaza en la mar, y la aparición de los denominados riesgos asimétricos; y en segundo lugar, la voluntad de los gobiernos occidentales de afrontar de forma colectiva las misiones de Seguridad, que van más allá de las tradicionales de Defensa. Por otro lado, se daba la circunstancia de que España, al decidir participar en la Nueva Estructura de Fuerzas de la Alianza Atlántica, aportaba un Cuartel General Marítimo de Alta Disponibilidad, dotado de un Estado Mayor multinacional, a bordo de un buque de mando puesto a disposición de la Alianza; lo que implica la posibilidad de que un almirante español, como Comandante de este Cuartel General, pueda ejercer el mando en la mar de una fuerza multinacional. Además, el Almirante de la Flota había ido asumiendo nuevas responsabilidades a lo largo de los últimos años, entre las que cabe destacar: -Participación en Fuerzas multinacionales, tales como la Fuerza Marítima Europea (EUROMARFOR) y la Fuerza Anfibia Hispano-Italiana (SIAF). -Elaboración y sanción de la doctrina táctica, consecuencia de la reorganización del Estado Mayor de la Armada. -Integración en la Flota de la Fuerza de Medidas Contra Minas (MCM). En este contexto, se abordó la reorganización de la Flota para adaptarla a sus nuevas responsabilidades, resultando una organización que responde a la opción multinacional. En ella se incluye la constitución de un Cuartel General Español Marítimo de Fuerzas de Alta Disponibilidad HKF (M) SPHQ, con un Estado Mayor multinacional, bajo el mando de un vicealmirante español, y que a la vez es la segunda autoridad de la Flota, lo que responde a la orientación hacia las operaciones de proyección que marca el curso de la Revisión Estratégica de la Defensa, mediante la siguiente estructura por capacidades: -Capacidad de proyección, resultante de la integración de los anteriores Grupos ALFA y DELTA en un «Grupo de Unidades de Proyección de la Flota» (Portaaviones, Buques Anfibios, Unidades Aéreas Embarcadas y Brigada de Infantería de Marina). -Capacidad de protección a unidades propias y tropas en tierra, proporcionada por los Buques-Escoltas. -Capacidad de libertad de acción en escenarios litorales, proporcionada por los Submarinos y las Fuerzas MCM. -Capacidad de apoyo logístico-operativo, representada por los Buques Logísticos, como factor multiplicador del potencial de sostenimientoj propio de las Fuerzas Navales. Situación actuaL Trabajos en curso Hoy podemos decir que estamos enfocando la recta final de aquel proceso de reorganización que comenzó hace unos años. La Armada tiene sus Líneas Generales establecidas para el medio plazo. Los fundamentos y conceptos generales de nuestra Organización, sancionados por el AJEMA, no sólo constituyen ya doctrina y han sido publicados en el Boletín Oficial de Defensa, sino que van siendo asimilados a todos los niveles. Nuestra organización de las Tecnologías de la Información está implantada y responde al espíritu del Plan Director, y tanto el Estado Mayor de la Armada como la Flota y la Jefatura de Personal funcionan ya con una nueva organización y con un nuevo sistema de trabajo. Tenemos proyectos en marcha para finalizar el proceso: unos en fase de maduración, como la reorganización de la Jefatura del Apoyo Logístico, que ya se encuentra muy avanzado; y otros -pendientes de la publicación del nuevo Real Decreto de Estructura Básica de los Ejércitos y la Armada-que ya tenemos prácticamente cerrados, como es el de la implantación en el ámbito de la Fuerza de la estructura de Acción Marítima, donde los criterios funcionales sustituirán a los territoriales, creando un espacio marítimo nacional único y sin divisiones y suprimiendo las actuales Zonas Marítimas y Jurisdicción Central. Quiere ello decir que el esfuerzo conceptual para una nueva Organización está prácticamente hecho. Por supuesto, ni la COMESAR, ni la Armada, han inventado nada cuando se habla de organización y de enfoques orgánicos. Estos enfoques y la forma de optimizarlos, son cuestiones elementales para aquellos que se dedican a temas de organización. Lo que se ha pretendido es incorporarlos en nuestro beneficio. Y, sobre todo, estimular la cultura del cambio en nuestra Organización. Estamos convencidos de que no hemos llegado a una solución definitiva, porque las organizaciones no admiten soluciones definitivas, pero sí podemos pensar que hemos contribuido a convencer de que la adaptación es precisa, que la evolución tiene que ser permanente y que hay que perderle el miedo al cambio aunque implique riesgos. Ahora queda una dura tarea de implantación y de dar soporte normativo a las nuevas disposiciones mediante el oportuno proceso de regulación orgánica, sin que ello reste agilidad y ñexibilidad para futuros procesos de reorganización. Y si todo sale bien, y no hay elementos de juicio que hagan pensar lo contrario, la Armada Española sabrá sortear los escollos orgánicos que se le presenten, y navegar con acierto por las inciertas aguas del siglo XXI. Notas 1 HENRY MINDSBERG. La Estructuración de las Organizaciones.
El título de este artículo expresa con suficiente claridad el alcance de su contenido. La Flota es la expresión material del poder naval con que cuenta la Armada. Sus dotaciones, buques de superficie, submarinos, aeronaves, medios de guerra de minas, fuerzas de Infantería de Marina, centros de adiestramiento e instalaciones navales en tierra, constituyen el núcleo fundamental de la Fuerza Naval, A lo largo de su exposición, el Almirante de la Flota nos describe detalladamente la organización, composición y cometidos de las diferentes unidades, agrupaciones y dependencias que están bajo sus órdenes, poniendo especial énfasis en sus capacidades, estructura operativa y participación en ejercicios y operaciones de carácter nacional e internacional. Asimismo, hace referencia a la contribución a la OTAN y a otras fuerzas multinacionales, y a la participación más reciente de unidades de la Flota en operaciones reales. El artículo es una excelente síntesis para quien desee conocer cómo es y qué hace la Flota, cuál es su futuro en cuanto a incorporación de nuevas unidades, y qué procesos de reestructuración se están llevando a cabo, incluida la reciente creación de un Cuartel General Marítimo de Alta Disponibilidad, dentro de la estructura de fuerzas de la OTAN. La Flota es el núcleo fundamental de la Fuerza de la Armada y está constituida por el conjunto de buques de superficie, submarinos, aeronaves, medios de guerra de minas, fuerzas de Infantería de Ma-José Antonio Balbás Otal 282 _^ rina, centros de adiestramiento e instalaciones navales en tierra, puestos bajo las órdenes de un Almirante. Es por tanto, la Flota, el componente más relevante del poder naval con que cuenta la Armada para cumplir los siguientes objetivos marítimos de la Defensa Nacional: -Proteger los intereses nacionales en el ámbito marítimo. -Participar en fuerzas multinacionales, dentro de la seguridad compartida de España con sus socios y aliados. -Ser un instrumento clave de la política exterior -Proyectar el poder naval sobre tierra. -Conseguir el control del mar en los espacios geoestratégicos de interés nacional. -Apoyar las actividades gubernamentales -Colaborar con otros organismos del Estado, y con las Fuerzas y Cuerpos de Seguridad en situaciones de catástrofe y salvamento marítimo. -Apoyar las misiones humanitarias y de paz. La Flota, al igual que el resto de los organismos implicados en la Defensa de España, no ha sido ajena a los numerosos e importantes cambios sociales, estratégicos, legislativos y tecnológicos que han afectado profundamente a las Fuerzas Armadas en los últimos tiempos. Unos cambios que han obligado a modificar o adaptar la organización, las estructuras, los procesos de trabajo e incluso las formas de dirigir y mandar. En el caso concreto de la Flota los cambios se han centrado teniendo en cuenta los siguientes aspectos: -La variación de la situación estratégica mundial a partir de la desmembración de la URSS, y muy especialmente a raíz de los acontecimientos del IIS, que ponen de manifiesto la aparición de riesgos asimétricos, entre los que destaca con fuerza el terrorismo internacional. -La plena integración de España en la OTAN, y como consecuencia de ella, el desarrollo de un Cuartel General Marítimo de Alta Disponibilidad HRF (M) SPHQ, basado en un estado mayor multinacional y un buque de mando, el Castilla, puesto a disposición de la Alianza. -La adaptación al proceso de plena profesionalización de marineros y soldados, que ha hecho que sus unidades tengan dotaciones totalmente profesionales. La Flota, razón de ser de la Armada El Almirante de la Flota El mando de la Flota lo ejerce un Almirante del Cuerpo General de la Armada, en situación de servicio activo, con la denominación de Almirante de la Flota (ALFLOT), y su campo de actividad prioritario es el adiestramiento de las unidades. En este ámbito, dos son las misiones del ALFLOT: una permanente, que se ocupa de la preparación de la Flota, la moral de sus dotaciones y el ejercicio de la autoridad disciplinaria que le corresponde; y otra eventual, de conducción de las operaciones, ya sean de carácter nacional o multinacional, específico o conjunto. La misión de preparación de la Flota abarca el conjunto de todas las actividades dirigidas a adiestrar, evaluar y alistar todos los medios y unidades a sus órdenes para que estén en condiciones de alcanzar eficazmente sus objetivos, con especial atención a los despliegues en teatros alejados y de considerable duración. Para ello, el ALFLOT tiene asignados los siguientes cometidos: -Obtener, en todo momento, la máxima eficacia de los medios puestos bajo su mando, velando por la moral y disciplina de su personal. -Planificar, supervisar y evaluar el adiestramiento individual y colectivo, tanto básico como avanzado, de las unidades de la Flota, de sus mandos subordinados y órganos de apoyo. -Determinar las necesidades, fijar las prioridades y controlar los recursos económicos, de personal y de material que tenga asignados. -Efectuar el seguimiento de aquellos factores que afecten a la eficacia, al personal y al material de las unidades de la Flota, coordinando cuando sea necesario con otras autoridades de la Armada. -Formular las propuestas de modificación y de modernización de las unidades de la Flota. -Sancionar la doctrina táctica de la Armada y los procedimientos de empleo táctico de unidades, y controlar su cumplimiento. En cuanto a la misión eventual como conductor de operaciones, sus cometidos son: -Participar en el planeamiento operativo y desarrollar los planes operativos y de contingencia que le correspondan. -Ejercer las responsabilidades que se le asignen en los planes operativos nacionales, incluyendo la vigilancia y la patrulla marítima. Asumir la conducción de las operaciones y ejercer el mando operativo de las fuerzas asignadas. Por último, es importante resaltar que además de los cambios ya mencionados y que han tenido una influencia en la Flota en general, el Almirante de la Flota ha ido asumiendo nuevas responsabilidades a lo largo de los últimos años que han dado lugar a cometidos específicos. Entre esas responsabilidades cabe destacar las siguientes: -Asumir, periódicamente, el mando de la Fuerza Marítima Europea EUROMARFOR, un mando que corresponde por turno entre los Almirantes de la Flota de Francia, Italia, Portugal y España. -Aportar el componente nacional a la Fuerza Anfibia italo-española SIAF. -Elaborar y experimentar la doctrina táctica de la Armada. -El mando de la Flotilla de Medidas Contra Minas. La Flota tiene una estructura básica similar a la de la Armada, con sus tres componentes principales: el Cuartel General, la Fuerza y el Apoyo a la Fuerza. Situado en la Base Naval de Rota, Cádiz, el Cuartel General de la Flota está formado por un conjunto de órganos de asistencia al ALFLOT, cuyas funciones principales son las de apoyo a la decisión, dirección, administración y control. En concreto, incluye una serie de organismos dependientes directamente del Almirante de la Flota, como son el Estado Mayor, la Asesoría Jurídica, la Intervención Delegada, Intendencia, Sanidad, Oficina de Relaciones Públicas, Asistencia Religiosa y Ayudantía Mayor. Para auxiliar en sus cometidos al Almirante de la Flota, el Cuartel General cuenta además con las siguientes instalaciones: -Un Centro de Conducción de Operaciones Marítimas COM, ubicado en el propio Cuartel General, y cuya función principal es la de facilitar el planeamiento y conducir las operaciones de las unidades de la Flota desde un centro en tierra. La Flota, razón de ser de la Armada Para poder llevar a cabo esta función, el centro cuenta con avanzados sistemas de mando y control que facilitan la evaluación y la toma de decisiones mediante el enlace del Cuartel General con los buques en la mar, con otros centros de operaciones nacionales, ya sean navales, terrestres o aéreos, y con los cuarteles generales de la OTAN o de fuerzas multinacionales directa o indirectamente implicados en las operaciones. La razón de ser de la Armada es la existencia y eficacia de la Fuerza, cuya organización ha sufrido una reciente remodelación llevada a cabo en el segundo semestre del año 2001. La Flota dispone en esencia de una estructura orgánica permanente, concebida básicamente para la preparación de la Fuerza Naval, y desde la que se puede generar eventualmente cualquier estructura operativa de carácter temporal para el empleo de la Fuerza y adecuada a la misión que se le asigne. En la nueva estructura orgánica de la Fuerza se encuadran: -El Cuartel General Marítimo Español de Alta Disponibilidad, que constituye una unidad orgánica más, mientras no se encuentre inmerso en operaciones o ejercicios. -Agrupaciones orgánicas tipo Grupos, Flotillas y Escuadrillas. -Unidades independientes tipo Buques Logísticos. -La Brigada de Infantería de Marina. El Cuartel General Marítimo Español de Alta Disponibilidad HRF (M) SPHQ El Cuartel General Marítimo Español de Alta Disponibilidad es un estado mayor naval, multinacional, capaz de intervenir, a las órdenes de su Comandante COMARFOR -un Vicealmirante del Cuerpo General-, en operaciones conjuntas y combinadas, y que en la mar operará normalmente a bordo de su buque de mando, el LPD Castilla, Este Cuartel General se sitúa en la categoría de las fuerzas denominadas NATO Assigned, es decir, un medio nacional existente, que se asignará cuando se requiera, a un mando OTAN, y del modo que se determine en un acuerdo técnico que se encuentra en proceso de desarrollo. Por tanto, es un medio nacional ofrecido a la Alianza y no de la Alianza. Está también a disposición de la Unión Europea y se podrá poner a disposición de aquellas organizaciones internacionales que se determinen. Como unidad incluida en la estructura orgánica de la Fuerza, el cometido del COMARFOR será el alistamiento y preparación de su Cuartel General de forma que pueda asumir el mando de una fuerza naval asignada, tanto nacional como aliada. Además de mandar el Cuartel General Marítimo, el COMARFOR es la segunda autoridad de la Flota y por tanto el relevo natural del ALFLOT. En ellas se busca la preparación óptima de las unidades de la Flota, con el fin último del alistamiento de sus unidades para la integración en las organizaciones operativas. En las agrupaciones orgánicas se realiza la preparación, el adiestramiento y la determinación de necesidades, tanto en puerto como en la mar, en maniobras o en ejercicios. Se clasifican en Grupos, Flotillas y Escuadrillas. ® Desde la última reorganización, en la Flota sólo existe un Grupo, denominado Grupo de Unidades de Proyección de la Flota GRU-FLOT, a cuyo mando se encuentra un contralmirante denominado COMGRUFLOT, El grupo lo integran las unidades que materializan las capacidades aeronaval y anfibia de la Armada, es decir, el portaaviones Príncipe de Asturias, los buques anfibios tipo LPD Galicia y Castilla, este último especialmente preparado como buque de mando, y dos buques tipo LST Hernán Cortés y Pizarro, así como aquellos escoltas y buques logísticos que se determinen de acuerdo con la misión. Los dos LST, aunque ya están en su último tercio de vida, cuentan todavía con una significativa capacidad operativa. Además de estas unidades, el GRUFLOT se completa con el Grupo La Flota, razón de ser de la Armada Naval de Playa, que comprende todas las embarcaciones y medios auxiliares de desembarco con los que cuenta la Armada. Las Flotillas agrupan unidades de similares características y cometidos, para facilitar su adiestramiento y mantenimiento. En la actualidad existen tres: La Flotilla de Submarinos, la Flotilla de Aeronaves y la Flotilla de Medidas Contra Minas. La Flotilla de Submarinos, con base en el Arsenal de Cartagena, está compuesta por ocho submarinos, cuatro de la clase Delfín y cuatro de la clase Galerna, al mando de un Capitán de Navio. El cometido principal de estas unidades es negar el uso del mar a un potencial enemigo, así como proporcionar los medios necesarios para llevar a cabo misiones de inteligencia con la máxima discreción. Entre sus cometidos secundarios, pero de gran importancia en la actualidad, se encuentran la infiltración de unidades de operaciones especiales y su presencia en aguas potencialmente hostiles en situaciones de crisis, aprovechando su capacidad para situar discretamente toda clase de sensores en las proximidades del foco de la crisis. Dentro del Arsenal de Cartagena, y en la Base de Submarinos, donde están las instalaciones especificas para el mantenimiento de estos buques, está ubicada también la Escuela de Submarinos, creada para la instrucción y adiestramiento de las dotaciones submarinistas, con unos simuladores en los que se reproducen fielmente los equipos y el comportamiento de las cámaras de mando, y central de máquinas de los submarinos, pudiendo generar en ellos cualquier situación operativa y muy especialmente las emergencias en la mar. La Flotilla de Aeronaves se encuentra ubicada en la Base Naval de Rota, donde también dispone de instalaciones para el mantenimiento de las aeronaves, así como de la Escuela de Dotaciones Aeronavales EDANpara la formación e instrucción de su personal de vuelo, con simuladores de los aviones AV-B y helicópteros SH-60 que permiten rentabilizar notablemente el esfuerzo de vuelo real de las aeronaves. También es responsable de la formación de los controladores tácticos de aeronaves que operan desde los buques en la mar. La Flotilla de Medidas Contra Minas, incorporada recientemente a la Flota, comprende todos los medios de la Armada de guerra de minas. Está mandada por un Capitán de Navio y tiene su base en Cartagena. Tiene como misión principal mantener una capacidad en guerra de minas para poder actuar en las zonas de interés estratégico español que permita la libertad de navegación del tráfico marítimo, así como apoyar acciones cerca de la costa de un grupo de combate o una fuerza anfibia operativa, asumiendo al mismo tiempo nuestros compromisos con la defensa colectiva en aquellos escenarios de interés común. La Flotilla de MCM está compuesta por la 1^ Escuadrilla, con cuatro cazaminas de la clase Segura, la 2^ Escuadrilla, con cuatro La Flota, razón de ser de la Armada dragaminas de la clase Júcar, el buque de mando y apoyo Diana y la Unidad de Buceadores de Medidas Contraminas UBMCM, Además de estas unidades, la Flotilla de MCM cuenta como elementos de apoyo con el Organismo de Valoración de Adiestramiento de Dragaminas OVAD, el centro de datos de guerra de minas, y las correspondientes instalaciones de mantenimiento, todos ellos dentro del Arsenal de Cartagena. • Las Escuadrillas, también en número de tres, son unidades de composición homogénea, convenientes para facilitar el adiestramiento y, sobre todo, para rentabilizar el mantenimiento y el aprovisionamiento de buques de la misma clase. Están todas ellas mandadas por Capitanes de Navio. -La 21^ Escuadrilla, con base en Cartagena, está formada por cuatro corbetas de la clase Descubierta. Son buques de 1.600 ton. bien armados con torpedos Mk-46 y cohetes antisubmarinos Bofors, misiles antibuque Harpoon, misiles antiaéreos Áspide, cañones de 76mm OTO Melara y de 40 mm Bofors. A pesar de su pequeño desplazamiento son buques muy valiosos como escoltas. -La 31^ Escuadrilla, basada en el Arsenal de El Ferrol, comprende las 5 fragatas clase Baleares de 4.000 ton. que, aunque se encuentran en su ultimo tercio de vida, mantienen su eficacia gracias a las modernizaciones que se han llevado a cabo. Su capacidad operativa es muy equilibrada, destacando su radar aéreo tridimensional SPS'52, que las capacita para el control e interceptación de aeronaves. Son además, y hasta la entrada en servicio de las F'lOO, los únicos buques dotados de un cañón de 127mm, idóneo para el fuego naval de apoyo. Cuentan además con misiles Harpoon y Standard contra blancos de superficie y aeronaves. -La 41^ Escuadrilla, basada en Rota, está formada por seis modernas fragatas de la clase Santa María de 4.000 ton. Tienen una gran capacidad antisubm.arina, que le proporciona el sistema LAMPS con el helicóptero Sea Hawk y el sonar pasivo remolcado TACTAS, sin olvidar su capacidad antisuperficie y antiaérea, gracias a sus misiles Harpoon y Standard. Son aquellas unidades singulares que tienen una dependencia directa del ALFLOT: los Buques Logísticos. La Armada cuenta con el buque de aprovisionamiento de combate Patino, diseñado en conjunción José Antonio Balbás Otal 290 con la marina holandesa, que proporciona apoyo logístico en forma de combustible, agua, municiones, repuestos, sanidad y víveres, y el petrolero de flota Marques de la Ensenada, que asegura el sunñnistro de combustible. La Brigada de Infantería de Marina, BRIMAR Las fuerzas del «Tercio de Armada» de Infantería de Marina se integran en la Flota con una dependencia especial. Por un lado dependen orgánicamente del Comandante General de la Infantería de Marina; y por otro, sus fuerzas están asignadas en permanencia al ALFLOT para la preparación y el adiestramiento de la Fuerza de Desembarco. Además, el ALFLOT ejerce la potestad disciplinaria y gestiona parte de sus recursos económicos y administrativos. Se encuentran en San Fernando, Cádiz, al mando de un General de Brigada de Infantería de Marina. Su entidad es la de una Brigada de Infantería de Marina BRIMAR, con dos batallones de Infantería de Marina, un batallón mecanizado, un grupo de artillería, una Unidad de Operaciones Especiales UOE y un grupo de apoyo de servicios de combate. La BRIMAR, con unos efectivos de 4.000 personas, es una unidad de alta disponibilidad y absolutamente autónoma. Tiene unas características que la hacen diferente del resto de las brigadas de las FAS; y es que aparte de su capacidad de asalto anfibio, posee una gran potencia de fuego y una específica movilidad, la que le proporcionan todos sus vehículos, especialmente preparados para el vadeo. La BRIMAR, gracias a estas capacidades y al alto espíritu y preparación de sus miembros, hace honor al lema de la Infantería de Marina española Valientes por tierra y por mar. Está constituido por el conjunto de órganos que auxilian al ALFLOT en el adiestramiento, preparación y evaluación de las unidades de El conjunto de todas las unidades mencionadas representa las posibilidades reales de la Flota, basadas en cuatro capacidades básicas: -La capacidad de proyección, que se sustenta en el portaaviones Príncipe de Asturias con la Unidad Aérea Embarcada UNAEMB ("aviones y helicópteros), los buques anfibios y la Fuerza de Desembarco. Incluye así las capacidades aeronaval y anfibia, que 292 José Antonio Balbás Otal permiten proyectar el poder naval mediante la ejecución de cualquiera de las modalidades de una operación anfibia clásica, y cualquier tipo de operaciones de paz, evacuación de no combatientes NEO, ayuda humanitaria, etc. -La capacidad de protección a ñierzas navales y tropas operando en tierra -basada en los escoltas-, así como a las líneas de comunicación del tráfico marítimo, propio y aliado y, cuando sea necesario, colaborar con otras autoridades nacionales en la protección de nuestros intereses nacionales en el ámbito marítimo (pesqueros, explotaciones off-shore etc.) -La capacidad de apoyo logístico operativo, basada en los buques logísticos. -La capacidad para garantizar la libertad de acción de nuestras fuerzas navales, especialmente en los escenarios litorales alejados, basada en los submarinos y los cazaminas. Para llevar a cabo los diferentes tipos de operaciones se constituyen agrupaciones operativas, bajo las órdenes del mando que en cada caso se designe. Estas agrupaciones tienen carácter temporal y se establecen mediante directivas u órdenes, en las cuales se fija la misión, se designa al mando y su estructura, y se asignan los medios para cumplirla. En el seno de la Flota dos son los mandos operativos alrededor de los cuales normalmente se crean estas organizaciones operativas, el COMARFOR y el COMGRUFLOT. -El COMARFOR, Comandante del Cuartel General Marítimo Español de Alta Disponibilidad, que es -llegado el caso-el mando operativo natural de una ñierza naval española de una cierta entidad, para operaciones reales o ejercicios tanto nacionales como internacionales. -El COMGRUFLOT, Comandante del Grupo de Unidades de Proyección, que es el raando operativo natural de una agrupación naval española, de un nivel inferior al que mande el COMARFOR, y que normalmente tiene como objetivo la proyección del poder naval sobre tierra. La preparación de la Fuerza, es el conjunto de actividades dirigidas a adiestrar, evaluar y alistar a las unidades que la componen para La Flota, razón de ser de la Armada que puedan cumplir eficazmente sus cometidos operativos. Estas actividades se llevan a cabo en la estructura orgánica y en éllas se tendrán en cuenta los cometidos exigibles a nuestras ñierzas navales tanto en el plano nacional como en el internacional, Las actividades se programan de forma secuencial, en un proceso que va de menos a más denominado Ciclo de Actividad Progresiva, que normalmente se inicia después de un período de inmovilización por obras de mantenimiento y que se puede sintetizar en las siguientes fases: -Alistamiento individual En él la unidad debe comprobar el correcto funcionamiento de todos los sistemas del buque y elevar el nivel de instrucción y adiestramiento de la dotación, haciendo el mayor uso posible de los centros de adiestramiento. Está dirigido por el comandante del buque, pero las propuestas de programación, la determinación de necesidades y el control, es responsabilidad de los comandantes de las agrupaciones orgánicas. -Calificación operativa Orientada a progresar en la preparación conseguida en el alistamiento individual, apoyar el adiestramiento y evaluar el grado de preparación de una unidad para el combate. -Adiestramiento colectivo básico Se desarrolla normalmente en el seno de las agrupaciones orgánicas y está orientado a la aplicación de la táctica naval correspondiente a cada tipo y clase de buques, una vez que finaliza un período de mantenimiento. Es dirigido y controlado por los comandantes de las agrupaciones orgánicas. -Adiestramiento colectivo avanzado Se desarrolla en el seno de agrupaciones operativas temporales creadas para la participación en ejercicios nacionales o internacionales de alto nivel. Normalmente se realiza en cualquier zona dentro del área de interés nacional próximo a nuestras costas, mediante diversos ejercicios. Centrándonos en la última fase del Ciclo de Actividad Progresiva, el adiestramiento avanzado se lleva a cabo mediante la participación en ejercicios nacionales e internacionales. El adiestramiento se realiza en cualquier zona dentro del área de interés nacional próxima a nuestras costas, mediante diversos ejercicios, entre los que cabe destacar: -Los que tienen un carácter aeronaval -Los específicos de la fiaerza anfibia -Los propios de la Infantería de Marina. -El Neotapón, que es un ejercicio nacional de carácter anual, en el que se invita a las marinas aliadas, y se desarrolla en la zona del Estrecho de Gibraltar, el mar de Alborán y el Océano Atlántico, incluyendo en ocasiones también a las Islas Canarias. El principal objetivo del ejercicio es practicar el control del Estrecho, sus accesos y el espacio aéreo comprendido. Tiene el carácter de ejercicio marítimo, aunque con una significativa participación de aviones del Ejército del Aire y diferentes unidades del Ejército de Tierra, especialmente de la artillería de costa del Estrecho. Además de estos ejercicios de carácter predominantemente naval, también dentro del ámbito nacional se realizan otros de carácter conjunto. La necesidad de impulsar la acción conjunta en la actualidad no sólo es debida a la obligación de lograr una mayor economía de medios sino también, y en la misma medida, para conseguir una mayor eficacia al actuar con otros ejércitos. La capacidad actual de armas y sensores con influencia en campos de batalla donde operan otros ejércitos, obliga a operar conjuntamente para obtener mejores resultados. • Ejército de Tierra Con el Ejército de Tierra la participación es la siguiente: -Unidades de Infantería de Marina en ejercicios de carácter general para poner en práctica procedimientos comunes -Transportes de tropas y material -Colaboración con las Fuerzas Aeromóviles FAMET, para el adiestramiento de las Unidades de Operaciones Especiales -Buceadores de combate -En el campo de las-operaciones especiales colaboran submarinos y buques. -En ejercicios de defensa aérea de la Base Naval de Rota. -Ejercicios con el Mando de Artillería de Costa, para el control del Estrecho de Gibraltar La Flota, razón de ser de la Armada -Colaboración con las Fuerzas Aeromóviles FAMET, para el adiestramiento de sus dotaciones. • Ejército del Aire En este caso la colaboración y participación se dirige sobre todo a ejercicios de defensa aérea en los que intervienen aviones y buques de superficie. Se prevé la participación futura en estos ejercicios de las fragatas F-lOO, como una extensión de la capacidad de detección aérea en profundidad y defensa aérea del territorio. Igualmente la participación de los aviones de patrulla marítima P-3B Orion, bajo el control operativo del ALFLOT, es vital para el control de extensas áreas marítimas. La participación de las imidades de la Flota en ejercicios con otras naciones, puede ser dentro del contexto de la OTAN o bien en el ámbito bilateral, soportados estos últimos por los correspondientes acuerdos técnicos. Dentro del primer grupo podemos destacar: -En el Atiántico, el STRONG RESOLVE de SACLANT, NORTHERN UGHT de CINCEASTLANT y LINKED SEAS de CINCSOUTHMNT. -En el Mediterráneo, el DYNAMIC MIX de CINCSOUTH, DES-TINED GLORY de COMSTRIKFORSOUTH y DOG FISH de COMSUBSOUTH. En el ámbito bilateral son reseñables: el ejercicio EOLO, con Francia, ItaHa y Portugal: el GENERAL SHARK, PHIBLEX y LISA AZUL con la marina de los EEUU; MECO-RECO y FANFLOT con Francia; MAES y MEDATEX con Marruecos, COMTEX y SWORDFISH con Portugal: JMC yASWX con el Reino Unido; MRUS con Grecia; DOGU AKDENIZ con Turqm'a; y FALCON NUT con Holanda. Por último cabe destacar el ejercicio UNIT AS, que se desarrolla en aguas sudamericanas y en el que participan las marinas de Argentina, Brasil, EEUU y Uruguay. La decisión de compartir la seguridad con nuestros aliados y la movilidad, rapidez de despliegue y autosuficiencia logística, características ñmdamentales e intrínsecas de la Fuerza Naval, aconsejan José Antonio Balbás Otal 296 que el cometido primordial de la Flota -la preparación de sus unidadesresponda a los escenarios más probables de acción, traducidos en los siguientes despliegues básicos: -Actuación como componente naval de una operación conjunta en el ámbito nacional, o combinada en el seno de la OTAN o de la Unión Europea. -Integración permanente o periódica en las fuerzas marítimas de alta disponibilidad de la OTAN, en el Mediterráneo, Atlántico y de MCM. -Participación en fuerzas similares, que puedan crearse, en el ámbito exclusivamente europeo. -Presencia naval española en el continente americano mediante despliegues esporádicos. -Colaboración con otros organismos del Estado, con las Fuerzas y Cuerpos de Seguridad, y en el apoyo a las autoridades civiles nacioi^ales o extranjeras. Contribución a la Alianza y a Fuerzas Multinacionales Como ya se ha mencionado anteriormente, la decisión de compartir la seguridad con nuestros aliados nos obliga a preparar a nuestras unidades para que sean compatibles e interoperables con los procedimientos de trabajo y equipos de las marinas amigas, y poder llevar a cabo un despliegue, ya sea con carácter permanente o temporal. Esto se traduce para nuestras unidades en las siguientes operaciones posibles: -Actuación como componente naval en una operación conjunta y combinada en el seno de la Alianza Atlántica o de la Unión Europea. Se contempla como posibilidad alternativa la de actuar como fuerza exclusivamente marítima en los mismos ámbitos. -Participación permanente o periódica en las Fuerzas Marítimas de Reacción Inmediata de la OTAN en el Atlántico STANAV-FORLANT, en el Mediterráneo STANAVFORMED, de medidas contra minas del sur de Europa MCM FORSOUTH, y previsión de participación en fuerzas similares en el ámbito exclusivamente europeo EUROMARFOR y SIAF. Participación en operaciones reales Las operaciones reales en las que ha participado la Flota en los últimos años, además de las de vigilancia y obtención de inteligencia, La Flota, razón de ser de la Armada se han desarrollado en escenarios alejados de España como son el Golfo Pérsico, ex-Yugoslavia, Kosovo, Albania y Centroamérica. • Guerra del Golfo La Flota participó durante todo el conflicto, con dos corbetas asignadas a las operaciones de embargo en el Mar Rojo y con una fragata de la 41^ Escuadrilla en el Golfo Pérsico. • Ex-Yugoslavia Durante las operaciones en el Adriático, la Flota colaboró con dos fragatas de manera permanente, una de ellas integrada en la agrupación de la OTAN y la otra en el Grupo de la Unión Europea Occidental, y con un submarino y un buque logístico de forma periódica. Al mismo tiempo los buques anfibios fueron empleados en el transporte de tropas y material de Infantería de Marina y del Ejército de Tierra. La Brigada de Infantería de Marina ha participado, y sigue haciéndolo, mediante un subgrupo táctico integrado en la brigada española desplegada en Bosnia, dentro de las Fuerzas de Estabilización SFOR. Este subgrupo es relevado cada seis meses. • Albania En este caso los buques anfibios contribuyeron al despliegue y posterior repliegue del Grupo Táctico de La Legión Serranía de Ronda, como fuerza de la ONU participante en la operación Alba. • Operación de ayuda humanitaria a Centroamérica Consistió en proporcionar ayuda para la reconstrucción en Guatemala, Honduras, Nicaragua y El Salvador, después del devastador paso del huracán Mitch por Centroamérica. Esta operación fue realizada desde el 22 de noviembre del año 1998 hasta el mes de abril de 1999, y participaron tres buques anfibios. En esta operación hay que destacar la actuación de los servicios médicos de los buques, que asistieron a más de 5.000 personas, de ellas 3.500 niños. También se transportaron más de 2.000 toneladas de material de ayuda humanitaria, y un puente tipo Bay le del Ejército de Tierra para restablecer el paso del río Guasaule entre Honduras y Nicaragua. Los buques anfibios participaron en la operación para proporcionar ayuda humanitaria a los refugiados kosovares. Durante la operación Alfa Kilo estuvieron operando en el Adriático las agrupaciones de la OTAN, en cada una de las cuales estaba integrada una fragata española. José Antonio Balbás Otal 298 Además, los dos buques logísticos estuvieron temporalmente integrados en estas agrupaciones, mientras que los buques anfibios estuvieron involucrados en el transporte de tropas y material con destino a las fuerzas de la OTAN que operaban en Kosovo. • Guerra contra el terrorismo internacional Desde el pasado 9 de octubre del 2001, en respuesta a la invocación del artículo V del Tratado de Washington, y en apoyo a la operación Libertad Duradera, dos fragatas españolas de forma permanente, y un buque logístico periódicamente, participan en operaciones de vigilancia y presencia naval en el Mediterráneo Oriental, integradas en las agrupaciones permanentes de la OTAN. Por otra parte, además de las unidades anteriores, y desde el mes de marzo del presente año 2002, otras dos fragatas y un buque de apoyo logístico se encuentran en el Océano Indico participando en las operaciones contra el terrorismo internacional que, lideradas por los EEUU, se están llevando a cabo en esa zona de conflicto. A lo largo de estas líneas se ha descrito la organización, composición y cometidos de la Flota. No olvidemos que sus efectivos, 12.400 personas, suponen la mitad de la Armada Española, que sus 57 aeronaves son todas las que vuelan con la corona y el ancla y que sus 39 buques prácticamente representan el 90% del tonelaje total de los buques de la Armada. El resultado de todos estos medios supone un conjunto equilibrado, con buques de superficie, submarinos y aeronaves. La Flota española pertenece a un reducido club de marinas oceánicas que, como la estadounidense, británica, francesa, italiana, rusa e india poseen portaaviones. Igualmente podemos estar orgullosos de poseer la Infantería de Marina más antigua del mundo, y la más potente de Europa, con unos buques anfibios, Galicia y Castilla, que son envidiados en nuestro entorno. El futuro de esta Flota está marcado por las nuevas construcciones y adquisiciones, pues no hay que olvidar que hay una serie de unidades que se encuentran en su último tercio de vida. Actualmente se está desarrollando el programa de construcción de cuatro fragatas clase AZuaro de Bazán (F-lOO), posiblemente las mejores en su categoría. Igualmente se está llevando a cabo la consecución de la segunda serie de cazaminas clase Segura, con dos unidades que relevarán a los veteranos dragaminas costeros con más de 40 años La Flota, razón de ser de la Armada en sus cuadernas, pero todavía operativos y animosos. Y la adquisición de vehículos acorazados Piraña proporcionarán una nueva movilidad en tierra a la Infantería de Marina. En el aire queda la construcción de los submarinos Serie 80, que serán el relevo de los veteranos Delfín, a punto de doblar el tercer decenio, y la construcción de un tercer buque anfibio, posiblemente un LPH con cubierta corrida para operaciones con aviones de despegue vertical. El reemplazo de los helicópteros Sea King, actualmente en vías de remodelación hacia cometidos de transporte de combate, es otra signatura pendiente. Y así podríamos seguir relatando todo un programa naval, condicionado siempre a las disponibilidades presupuestarias. Pero no todo son equipos y buques, que de nada valdrían sin unas dotaciones bien adiestradas y motivadas. La profesionalización, realizada en tan corto período de tiempo, ha supuesto todo un reto, así como el tener que realizar el mismo trabajo en las unidades con menos personal, hasta que se estabilice el ingreso de los nuevos marineros y soldados profesionales. Para ello ha sido necesario adoptar un nuevo estilo de mando, más acorde con el sentir de la juventud actual, y practicar a todos los niveles una nueva asignatura, la «motivación», sin la cual sería difícil conseguir una máquina perfectamente engrasada, para evitar el óxido del desánimo y el abandono. En esencia, España puede enorgullecerse de poseer una Flota moderna, de un tamaño adecuado a nuestro entorno y a los riesgos de la situación mundial, pero no hay que olvidar que lo que hoy poseemos ha sido el trabajo de las generaciones que nos precedieron, y que es nuestra obligación que esa institución secular que es la Armada perdure en el grado de eficacia que nos exige España y su Defensa.
Nuestra Infantería de Marina es la más antigua del mundo. Sus orígenes se remontan al Tercio de Ñapóles de 1537, y desde entonces sus fuerzas han mantenido su tradición naval y expedicionaria con una permanente vinculación a la Armada. Tras una referencia histórica a las diferentes campañas en que ha participado la Infantería de Marina, el que fue su Comandante General durante los últimos cuatro años nos introduce en las vicisitudes y proceso de evolución de este Cuerpo como componente esencial de la Fuerza Anfibia de la Flota, destacando su versatilidad y capacidad de respuesta a las exigencias de hoy día para actuar como vanguardia de la proyección del poder naval en los nuevos escenarios estratégicos que se nos presentan. El artículo es una excelente síntesis para quien desee conocer qué.esy cómo opera la Infantería de Marina, cuáles son sus capacidades, medios, organización y estructura, y cómo está adaptándose para afrontar los desafíos del futuro a medio plazo. La Infantería de Marina española Hablar de la historia de la Infantería de Marina es hablar de la historia de España. El origen del Cuerpo se halla en las expediciones marítimas realizadas por los legendarios tercios españoles, que tan brillantemente sirvieron a la Casa de Austria en los siglos XVI y XVII. Desde entonces, y hasta nuestros días, la Infantería de Marina Francisco González Muñoz ha constituido un cuerpo de tropas permanentemente alistado para desplegar en ultramar en defensa de los intereses nacionales, allá donde se encuentren. El concepto de Tropas de Marina surge cuando, en 1537, Carlos I vincula en permanencia las Compañías Viejas del Mar de Ñapóles a la Escuadra de Galeras del Mediterráneo. En 1566, con ocasión del socorro a Malta frente a la amenaza del sultán otomano Solimán el Magnífico, las citadas Compañías Viejas quedaron refundidas, por orden de la Secretaría de Despacho del rey Felipe II, en una nueva unidad, el Tercio Nuevo de la Mar de Ñapóles. Esta unidad, junto con el Tercio de Armada de la Mar Océano, fundado el mismo año, constituirían la primera Fuerza de Desembarco permanente de la historia. La antigüedad de 1537 del Tercio de Ñapóles, reiteradamente reconocida por la Corona en diversas disposiciones, confiere a la Infantería de Marina la primacía en antigüedad entre las tropas de marina de todas las naciones. Los infantes de marina han alcanzando brillantes victorias y demostrado en combate un valor y espíritu de sacrificio insuperables. Sus acciones han acaecido en campos de batalla de las más lejanas partes del mundo y han teñido con su sangre las aguas de todos los mares. Expediciones marítimas, campañas terrestres, guerras civiles y guerras coloniales han puesto a prueba el temple y eficacia de sus unidades, de cuyo brillante historial dan testimonio la Cruz Laureada de San Fernando, la Corbata de Tolosa y las Medallas Militares que orguUosamente ostentan sus banderas. Desde la creación de la Real Armada en 1717, siempre ha habido un batallón de Infantería de Marina dispuesto a partir en cualquier momento para participar en operaciones por tierra y por mar. Reconocimiento de esta eficaz entrega al servicio son los privilegios militares otorgados a las Tropas de Marina como Cuerpo de Casa Real, distinción alcanzada en 1763, cuando 600 infantes de marina defendieron el castillo del Morro de la Habana frente a los 12000 de la flota británica. Este privilegio, refirendado en 1815 tras la Guerra de la Independencia, se manifiesta en los colores azul y rojo del uniforme y en las sardinetas que luce su bocamanga. Esta y otras acciones avalan el sobrenombre con que vulgarmente es conocido. El Glorioso (Cuerpo), y refrendan su lema Valientes por tierra y por mar. Fiel reflejo a su tradición de combate, la Infantería de Marina dispone hoy de una Brigada, BRIMAR, permanentemente alistada para desplegar a través del mar, con el más breve tiempo de alerta, y La Infantería de Marina, una fuerza para el siglo XXI penetrar en fuerza, desde una base a flote, en una costa hostil. Estas posibilidades son inherentes al carácter expedicionario del Cuerpo y a su eminente vocación naval, que le vincula permanentemente a la Flota para constituir un equipo de combate singular, perfectamente preparado para actuar, partiendo de la mar, desde los primeros momentos de la evolución de una crisis. La Infantería de Marina en el nuevo escenario de la Seguridad Compartida Las capacidades de la Fuerza de Infantería de Marina se han revalorizado en el escenario estratégico actual, caracterizado por la necesidad de mantener la paz y la estabilidad internacionales mediante la aplicación, entre otros instrumentos, de fuerzas dotadas de alta movilidad estratégica para operar flexible y oportunamente en zonas alejadas, si es preciso, de sus bases habituales de estacionamiento. El Nuevo Concepto Estratégico de la OTAN expresa la necesidad de contar con fuerzas de menor entidad que en el pasado, pero dotadas de una serie de capacidades que permitan hacer frente a los nuevos riesgos de carácter multidireccional y multiforme tan difíciles de predecir en cuanto a momento, origen geográfico y forma. Estas fuerzas deben tener un alto grado de alistamiento, ser fácil y rápidamente desplegables, flexibles para adaptarse a las distintas misiones, capaces de mantener presencia avanzada y de operar por largos períodos de tiempo lejos de sus bases. Por otra parte, se enfatiza el contexto multinacional en el que las fuerzas han de empeñarse, símbolo de la cohesión de la Alianza y de su capacidad de disuasión. En este escenario estratégico, en el que los conflictos armados se desarrollarán en un ámbito regional limitado, el marco habitual de las operaciones de la Armada será el combinado y conjunto. Combinado por las exigencias de la propia Seguridad Compartida, y conjunto porque hoy en día no se conciben las operaciones específicas; sólo lo conjunto permite la maniobra operacional indispensable para actuar en cualquier escenario de crisis. La doctrina de la OTAN amplía su definición de operaciones anfibias para que en ella tengan cabida las nuevas misiones de la Alianza, y así, ya no se habla de una operación lanzada desde la mar contra una costa hostil o potencialmente hostil, sino que, incluso, se recoge la posibilidad de conducir las operaciones anfibias en ambiente permisivo, comprendiendo entre las mismas las operaciones de paz. Las fuerzas de Infantería de Marina responden de modo sobresaliente a estas exigencias. Desde el primer momento de una crisis, Francisco González Muñoz pueden desplegar en aguas internacionales y mantenerse por largos períodos en zona, gracias a la capacidad de sostenerlas que poseen los buques de asalto. Operando conjuntamente con fuerzas aerotransportadas se perfilan idóneas como «entry forces», precursoras del despliegue de las fuerzas principales que van a actuar en el teatro. Una vez desplegadas estas fuerzas principales, las de desembarco pueden, posteriormente, ser retenidas a flote como reserva operacional del Comandante de una Combined Joint Task Force CJTF o, en operaciones de alcance limitado, constituir el núcleo del propio componente terrestre. España, acorde con sus compromisos internacionales y capacidades militares, no sólo tiene la práctica totalidad de sus fuerzas comprometidas para la defensa compartida, sino que ha apostado por la participación activa en las diversas iniciativas multinacionales surgidas tanto en el seno de la OTAN como de la UE. La Armada, en consonancia con esta política y consciente de que el futuro pasa por la pertenencia a estas organizaciones, se ha decidido por la activa participación en todas las iniciativas multinacionales formadas en el marco de la Seguridad Compartida. No hay que olvidar que las fuerzas multinacionales, desde el punto de vista político, son instrumento de las distintas políticas exteriores, no sólo en el estricto sentido militar, sino en el juego de las relaciones políticas entre las naciones que participan en las mismas, que utilizan estas iniciativas como vías para establecer un determinado «status» nacional y conseguir determinadas influencias dentro de las alianzas. En este sentido, la capacidad de hacer prevalecer los intereses nacionales está en relación directa con las capacidades militares que se aportan. Desde un punto de vista más estrictamente militar, una fuerte aportación permitirá una mayor capacidad de decisión, tanto en el desarrollo de las operaciones como en su planeamiento. Nuestra Infantería de Marina participa plenamente de las características necesarias para asumir estas misiones. Adiestrada para constituir diversas organizaciones operativas en función de la misión, la BRIMAR es en sí misma una fuerza modular, capaz de proporcionar la entidad y tipo de fuerzas que se precisen en función de las necesidades y tipo de misión. Debe tenerse en cuenta que la BRIMAR tiene sobre sus espaldas décadas de adiestramiento combinado. Mucho antes de que España se integrara en la OTAN, las unidades del Tercio de Armada participaban habitualmente en ejercicios con fuerzas de Estados Unidos y de otras naciones de la Alianza. Actualmente, la BRIMAR constituye una de las agrupaciones de tropas con mayor capacidad de la Alianza para encuadrar una Brigada La Infantería de Marina, una fuerza para el siglo XXI Anfibia multinacional. Confirmación de este hecho es la participación de España en todas las fuerzas anfibias de carácter más o menos permanente que se desarrollan en el ámbito aliado y de la Unión Europea (CAFMED, EUROMARFOR, lAE). Muestra del protagonismo que España quiere tener en este ámbito es la creación de la Fuerza Anfibia Hispano-ItaUana SIAF, que busca complementar las capacidades de las dos naciones para disponer en permanencia de una Brigada combinada, en la que la Infantería de Marina española aporta el grueso de las tropas, la artillería y los principales elementos del Cuartel General. A partir de 1990 se suceden las operaciones de campo llamadas «Operaciones de Mantenimiento de la Faz» en las que los oficiales de Infantería de Marina toman parte activamente, como muestra del compromiso de España con la paz y con las Organizaciones Internacionales. En 1996, el III Batallón de Infantería de Marina es desplegado en Bosnia-Herzegovina como parte de la Fuerza de Imposición de las Naciones Unidas IFOR. Posteriormente, en 1999, el II Batallón de Infantería de Marina, el llamado Grupo Táctico «Albacete-Fuster», despliega en la misma zona como parte de la Fuerza de Estabilización SFOR, siendo relevado ese mismo año por otro que se denomina «Díaz de Herrera». Desde diciembre de 1999, una unidad de Infantería de Marina viene participando continuamente en las operaciones en B&H como parte de la SFOR, realizándose el relevo de la misma cada seis meses. Hoy, como siempre, la Infantería de Marina está dispuesta para hacer frente a los desafíos del presente y ganar el futuro, firmemente asentada sobre dos pilares: su tradición y su eficacia. El primer pilar, la tradición naval y expedicionaria La tradición naval de la Infantería de Marina parte de su propia fundación en 1537 como Cuerpo de tropas, dos siglos antes de la organización de la propia Institución Naval, con dos características que serán una constante histórica hasta nuestros días: su vinculación permanente a la Armada y su condición de fuerza anfibia, al asumir como misión singular la de realizar desembarcos y golpes de mano utilizando medios y tácticas propios. De esta forma, contemplamos cómo a finales del siglo XVI ya existe una táctica anfibia bien desarrollada que tiene como máximo exponente el desembarco en Azores en 1.583, donde el empleo de embarcaciones especiales, con fondos planos, enviadas a la costa en oleadas sucesivas, y la conquista de «cabezas de playa» como medio para permitir posteriores acciones en tierra, difieren conceptualmente poco de las tácticas modernas. En 1.717, con el advenimiento de la Casa de Borbón se produce, bajo el reinado de Felipe V, una reorganización de las instituciones del Estado en las que se ve afectada la Armada y, en consecuencia, las Tropas de Marina. Bajo el eficaz impulso de José Patino, surge la Real Armada, reorganizándose los regimientos marítimos en el «Cuerpo de Batallones de Marina» que, en 1.766 alcanzaría una fuerza máxima de doce batallones, distribuidos entre las guarniciones de los tres Departamentos de Cádiz, Ferrol y Cartagena. Aunque organizados con vistas a dotar a los buques de guarniciones adiestradas para combatir a flote, los batallones de Marina continuaron teniendo un definido carácter de fuerza expedicionaria, como lo demuestran acciones anfibias de gran envergadura como las de Tolón y Rosas, y en la Guerra contra la Convención Nacional francesa a fines del siglo XVIII. Tras la Guerra de la Independencia, se suceden las reformas y reorganizaciones derivadas del declinar de una Armada que marcha en paralelo con la atormentada historia nacional. Pero no por eso deja el Cuerpo de escribir páginas gloriosas. Las guerras carlistas y de ultramar decimonónicas reclaman incesantemente Tropas de Marina no sólo para combatir desde la mar, como en las acciones anfibias de Joló y Parang en Filipinas, sino también en las campañas de Santo Domingo, Cochinchina, Méjico e Italia, en las que el Cuerpo da muestras continuas de su capacidad expedicionaria. Esta disponibilidad lleva a los soldados de Marina frecuentemente a campañas terrestres, como las de Cuba, África, cantonales y carlistas, en las que hicieron honor a su lema, valientes por tierra y por mar, pero se alejaron del servicio naval. Con ello, la Infantería de Marina comienza a cuestionarse. La entrada del siglo XX trajo las pérdidas de las colonias y las derrotas navales de Santiago y Cavité. Tras la repatriación de las tropas de ultramar se producen reformas y recortes financieros, pero en 1911 tropas de Infantería de Marina desembarcan en Larache en una típica intervención desde la mar, para capitalizar la situación favorable que ofrecen los partidarios de España en la zona occidental de Marruecos para la pacificación del Protectorado. La operación alcanza un gran éxito, pero el Regimiento permanece durante años en el Protectorado, dando ocasión en 1914 al Ministerio de Marina para intentar su transferencia al Ejército de Tierra. Si bien no prospera, este episodio no es sino augurio del posterior decreto, firmado por el Gobierno de la Segunda República el 10 de Julio de 1.931, por el que el Cuerpo quedó disuelto. Tres años más tarde se rectificaba y rellenaba el vacío que en la organización naval había dejado la Infantería de Marina, derogándose La Infantería de Marina, una fuerza para el siglo XXI su disolución, aunque el Cuerpo quedaba sin misión específica en el seno de la Armada, aparte de la de dotar de guarnición a las Bases Navales. Puede parecer sorprendente que, pese al reciente éxito del desembarco en Alhucemas, la Armada no apostase por una ñierza de desembarco permanente, pero debe tenerse en cuenta que el menos reciente, aunque más resonante, firacaso de la campaña de Gallipolí pesaba aún en la conciencia de la época y que, por otra parte, el Gobierno español a la sazón no era proclive al empleo de la Marina como instrumento de su política exterior, al contrario de lo que era un uso habitual en otras potencias europeas o en Estados Unidos. Finalmente, la Segunda Guerra Mundial demuestra fehacientemente la practicabilidad e importancia de la capacidad anfibia. En 1953, España comienza a romper el aislamiento internacional que había impedido a las Fuerzas Armadas participar de las enseñanzas de la guerra. La Armada se moderniza y, entre otras dimensiones fundamentales, inicia el desarrollo de una modesta capacidad anfibia moderna. En este clima se gesta, alentada por un grupo de entusiastas oficiales, la regeneración del Cuerpo en la línea de su secular tradición expedicionaria, renovada en la guerra anfibia. Inicialmente, se modernizan sus tropas de Infantería, se las dota de nuevo material, aparecen las primeras unidades de apoyo de combate y de apoyo logístico y se inicia un esfuerzo exhaustivo de formación del personal y de adiestramiento de las fuerzas. Paralelamente, la Armada obtiene buques anfibios cada vez de mayor porte y posibilidades, capaces ya de apoyar el desembarco de un batallón reforzado. Son años de duro trabajo de organización y preparación, tampoco exentos de actividad operativa. Cuando las circunstancias lo requirieron, la Infantería de Marina volvió a hacerse presétite como Fuerza Expedicionaria en las operaciones de Ifni y Sahara (1957), estableciendo la primera cabeza de playa en la zona de operaciones, mereciendo la distinción del Alto Representante del Gobierno en aquellos territorios. Una década más tarde, el Decreto 1148/68, de 21 de mayo, corona los esfuerzos de toda una generación de infantes de marina, constituyendo al Tercio de Armada como gran unidad de la Infantería de Marina de la Flota y, sobre todo, atribuyendo a la Infantería de Marina la misión de «llevar a cabo operaciones militares en la costa iniciadas en la mar», es decir, operaciones anfibias. Un largo siglo de crisis orgánicas queda, con ello, superado. El Tercio de Armada participa también en los últimos hitos del proceso descolonizador. En 1969 fuerzas de Infantería de Marina embarcadas en los buques del «Mando Anfibio» protegen la evacuación Francisco González Muñoz 308 de subditos y fuerzas españolas de los antiguos territorios de Guinea Ecuatorial y Sidi Ifni. Pocos años más tarde, durante la crisis del Sahara Occidental en 1975, el Tercio de Armada constituye y embarca, en tan sólo cuarenta y ocho horas, una fuerza de desembarco de entidad Brigada para apoyar desde la mar al Ejército de Tierra en el Sahara Occidental. La influencia ejercida por la fuerza de desembarco desde la mar basta para reconducir la situación en el territorio, haciéndose innecesaria la ejecución del desembarco planeado. Mientras tanto, el Tercio de Armada se pertrecha con material moderno, asimismo de procedencia americana, y recibe equipos de comunicaciones, vehículos con equipos de vadeo, cañones autopropulsados, carros de combate, artillería, camiones anfibios y toda una amplia panoplia de material que le proporciona una potencia de combate muy por encima de la de unidades puramente terrestres de similar entidad. El Cuerpo por fin ha encontrado su misión y se entrega con entusiasmo a ella. La frecuente participación en ejercicios con los americanos le permite no sólo perfeccionar sus tácticas y técnicas sino el adiestramiento con otro tipo de medios de los que aquí se carece, a la vez que va sembrando la semilla de la «multinacionalidad» en la fuerza anfibia. Decidida a mejorar su capacidad anfibia, la Armada comienza a incorporar buques que aportan nuevas posibilidades operativas. El LSD Galicia y los tres LST,s. Conde del Venadito, Martín Alvarez y Velasco, van a permitir el desembarco de los medios pesados con que cuenta la Infantería de Marina y el lanzamiento de los modernos vehículos anfibios que «revolucionan» el movimiento buque-costa. Aparecen los helicópteros en el panorama anfibio y los COBRAS proporcionan a la fuerza de desembarco el apoyo aéreo cercano de respuesta inmediata. La fuerza anfibia española se consolida, en ese momento, junto con la británica, como la más importante de Europa. Su capacidad, que le permite desembarcar los escalones de asalto de una fuerza de desembarco de entidad Brigada, es la adecuada para las necesidades derivadas de la estrategia nacional, y lo que es más importante, se ha creado una mentalidad anfibia. El armamento de la fuerza de desembarco incluye artillería de campaña, carros de combate y misiles contracarro, entre otros medios de combate. Sin embargo, la prioridad que la Armada asume y reconoce sobre el control del Estrecho y sus accesos, dando así preponderancia al escenario Atlántico, hace que en esos momentos primen otros aspectos de la guerra naval. No obstante, la semilla está sembrada, y el Cuerpo inicia un intenso período de actividad intelectual que le lleva al estudio de nuevas fórmulas para la más eficaz explotación de La Infantería de Marina, una fuerza para el siglo XXI los escasos recursos disponibles, mientras identifica las necesidades que requieren los nuevos conceptos de guerra anfibia que se están desarrollando en los Estados Unidos. El segundo pilar, la eficacia de la Fuerza de Infantería de Marina para la Flota La fuerza anfibia española había comenzado su singladura en el ámbito de una estrategia puramente nacional, en la que prácticamente sólo tenía cabida el asalto anfibio en apoyo de operaciones terrestres de mayor envergadura. Desde su incorporación a la Armada, los primeros buques anfibios procedentes de la «ayuda americana» fiaeron quedando progresivamente anticuados a lo largo de la década de los setenta. Se trataba de transportes de ataque y buques de desembarco construidos en la Segunda Guerra Mundial, cuyas capacidades operativas sólo permitían la ejecución de un lento asalto fi:'ontal por superficie, desde corta distancia de la costa; concepción operativa que, a raíz de la Guerra de Octubre de 1973, empezaba a estar seriamente cuestionada. El papel de las ñierzas anfibias en los flancos de la Alianza Atlántica parecía impracticable, ante la letalidad que cabía esperar en el campo de batalla europeo. Esta visión crítica de la capacidad anfibia daría lugar a una amplia polémica en Estados Unidos sobre la viabilidad de las operaciones anfibias en el fiíturo. En 1.982 se produce el ingreso de España en la OTAN, hecho que apenas tiene influencia en el concepto español de las operaciones navales, al compartir nuestra estrategia el mismo adversario que la Alianza. Decididamente, no era precisamente el mejor momento para la regeneración de las ñierzas anfibias españolas. En 1.988 se aprueba el MC-313, que determinaba las directrices para el desarrollo de los Acuerdos de Coordinación de España con la Alianza y, contando con una favorable situación presupuestaria, se promulga el Plan Altamar que establecía el Objetivo de Fuerza de la Armada a medio y largo plazo sobre la base de la estrategia naval vigente, que sólo contemplaba una limitada capacidad de proyección sobre tierra. Pero, un año más tarde, cae el Muro de Berlín y, con él, toda una concepción de la estrategia marítima enfocada primordialmente al control del mar. Con el final de la Guerra Fría se abre una nueva época, caracterizada por el predominio de la proyección del poder naval sobre tierra. La Armada, ya plenamente en el marco aliado, debe dar respuesta a nuevos desafíos y, con ella, la Infantería de Marina. Ante la configuración del nuevo escenario estratégico, la Marina de los Estados Unidos de-Francisco González Muñoz 310 sarroUó una nueva estrategia naval, «From The Sea» FTS y «Forward From The Sea» FFTS, basadas en la explotación de las características de fuerza expedicionaria inherentes a la fuerza naval, poniendo el énfasis en la proyección del poder naval, que adquiere importancia capital en la resolución de los nuevos conflictos. Era necesario encontrar una solución para superar la crisis táctica en la que las fuerzas anfibias se hallaban sumidas. El concepto de Maniobra Operacional desde la Mar OMFTS y el desarrollo de técnicas y tácticas anfibias radicalmente innovadoras serían la respuesta. Ante todo, se conciben los espacios marítimos como un amplio espacio de maniobra para desplegar fuerzas ampliamente dispersas, y concentrarlas rápidamente para golpear los centros de gravedad del adversario partiendo de posiciones a flote a gran distancia de la costa. La aplicación táctica de la OMFTS exigía un asalto anfibio conducido de forma radicalmente distinta al asalto anfibio clásico, desechando los rígidos esquemas del movimiento buque-costa que llevan al asalto frontal de las playas de desembarco, y evitando el alto riesgo que supone la concentración de los buques anfibios fondeados cerca de tierra, procedimientos contrarios a los principios de la guerra de maniobra que inspira el concepto emergente de operaciones desde la mar Así pues, basándose en los estudios desarrollados durante toda una década por el Marine Corps se formularon los conceptos «Over The Horizon» OTH, «Ship To Shore Maneuver» STSM y «Ship To Objective Maneuver» STOM, con los que se pretende, con a3ruda de las nuevas tecnologías, alcanzar en el menor tiempo posible los objetivos en tierra partiendo de los buques de asalto navegando tras la línea del horizonte. Desaparece así la discontinuidad que suponía la línea de costa, y la conquista y ocupación de una cabeza de playa ya no es un requisito esencial en el asalto anfibio. La zona de lanzamiento de los vehículos, helicópteros y embarcaciones se aleja, en la mar, más allá del alcance de los sensores del adversario, disminuyendo la vulnerabilidad de la fuerza, mientras que su capacidad de maniobra perm.ite actuar sobre un amplio sector de la costa actuando en profundidad sobre el despliegue adversario. Para adaptarse al nuevo escenario estratégico, en 1994 se inició un proceso de renovación de las fuerzas anfibias y de reorganización del Cuerpo. Dos años más tarde vio la luz el «Flan E-01 IM», aprobado por el Almirante Jefe del Estado Mayor de la Armada junto con un programa de renovación de armamento, material y equipo, que deberá estar implantado en su totalidad a finales del 2005. Al mismo tiempo que la Armada se esforzaba por modernizar la fuerza anfibia, el Gobierno La Infantería de Marina, una fuerza para el siglo XXI decidió la total profesionalización de las Fuerzas Armadas, a lo que los planes de la Armada tuvieron que ajustarse. En todo caso, el plan continúa vigente y pretende situar a las fuerzas de IM en el camino para alcanzar, a medio plazo, una capacidad operativa adecuada para capitalizar su empleo en el marco conjunto y combinado como uno de los más versátiles y eficaces instrumentos de la Defensa. El desembarco OTH, en su estricta aplicación, está por ahora fuera de las posibilidades de una mediana potencia naval, pero no por eso la filosofía que sustenta dicho concepto deja de ser imperativa. Aunque nuestras fuerzas anfibias no podrán disponer, al menos en el horizonte previsible, de medios a la altura de la «triada» constituida por el avión de rotor basculante MV-22 Osprey, la embarcación de desembarco de colchón de aire LCAC y el Vehículo Avanzado de Asalto Anfibio A4Ay, el decidido incremento de las capacidades aeromóviles de la fuerza de desembarco, gracias a la potenciación de los helicópteros AB-212 y SH-3D Sea King, la nueva embarcación de desembarco LCM-IE y los recientemente reconvertidos Vehículos de Asalto Anfibio AAV-V, mejorarán radicalmente las capacidades de las que se disponía diez años atrás y permitirán concebir y ejecutar la maniobra operacional desde la mar. Estas capacidades se ven apoyadas con la entrada en servicio de los dos LPD,s clase Galicia^ que proporcionan las plataformas adecuadas para el lanzamiento a distancia de un número de helicópteros que oscila entre ocho y doce, según los tipos, y de ocho embarcaciones de altas prestaciones LCM-IE que, en los primeros momentos del asalto, podrán emplearse, incluso, para aproximar a tierra a los vehículos anfibios, junto con otros medios pesados. La filosofía básica que nace de los nuevos conceptos OTH, STOM, STSM, junto con la OMFTS, es por tanto de aplicación para nuestra fuerza anfibia, asumiendo, por supuesto, ciertas limitaciones. No son opciones alternativas al asalto anfibio clásico; estos conceptos marcan el fiíturo de las operaciones anfibias. Cualquier proyecto o desarrollo tanto en el ámbito del material como en el doctrinal y orgánico deberá ir enfocado a la consecución y mejora de las capacidades OTH de la fuerza anfibia. El «Plan E-01 IM» pretende adaptar la estructura del Cuerpo, sus unidades y sus medios para hacer frente a los retos del s. XXI. Entre otras decisiones de particular trascendencia, se adopta la de activar la Brigada de Infantería de Marina BRIMAR como una gran unidad elemental de constitución fija (hasta ahora se constituía como una organización operativa con elementos procedentes de diversas unidades orgánicas del Tercio de Armada cuando la ocasión lo requería). Los medios de combate que se integran en la Brigada hacen de ella una Francisco González Muñoz 312 agrupación de tropas de gran potencia de combate, apta para el asalto anfibio y para la participación en una campaña terrestre cuando sea preciso. Constituye una de las unidades de Infantería de Marina más potentes de nuestro entorno. Su estructura y alistamiento permanente la hacen sumamente flexible y apta para actuar en todo el espectro de actividades militares que el nuevo escenario estratégico pueda presentar. La BRIMAR dispone de un Cuartel General con capacidad de planeamiento y conducción de operaciones anfibias y terrestres a nivel de Brigada, organizado y equipado para encuadrar unidades de refiíerzo y para operar en el ámbito multinacional. La Unidad de Cuartel General encuadra una Compañía de Cuartel General, una Compañía de Comunicaciones y otra de Inteligencia. La primera de ellas engloba al órgano de mando, el Estado Mayor, y a los servicios necesarios para su adecuado ñincionamiento. La Compañía de Comunicaciones cuenta con los más modernos medios para garantizar el enlace con las unidades subordinadas y con los buques, lo que incluye el empleo de nuevas tecnologías del campo de la informática y enlace por satélite. Finalmente, la Compañía de Inteligencia agrupa los medios de obtención de información de la BRIMAR (radares, cámaras térmicas y sensores) y el Centro de Interpretación y Difusión de Inteligencia. La BRIMAR basa su maniobra en tres unidades tácticas fundamentales: dos de Infantería, los Batallones de Desembarco BDE-I y BDE'II y un tercer Batallón de Desembarco Mecanizado BDMZ-IIL Los dos primeros son unidades ligeras, capaces de actuar en cualquier tipo de terreno y bajo cualquier condición meteorológica y de adaptarse con flexibilidad a cualquier tipo de situación en el asalto anfibio. Para ello, pueden ser reforzados con unidades de apoyo para aumentar su movilidad táctica, potencia de fuego y protección. En cuanto al BDMZ-III, constituye una fuerza equilibrada de alta potencia de combate, apta para la penetración, la explotación del éxito y, en general, para la maniobra rápida por superficie. Los BDE,s cuentan orgánicamente con tres Compañías de Fusiles, de unos 150 hombres, una Compañía de Armas donde se encuadran las armas de apoyo del Batallón (ametralladoras de 12,7 mm, lanzagranadas automáticos de 40 mm, morteros de 81mm, misiles contracarro ligeros), y una Compañía de Plana Mayor y Servicios que agrupa diferentes elementos orgánicos, como son el propio Mando y Plana Mayor y la Sección de Reconocimiento, en la que están incluidos los tiradores selectos dotados de fusiles de precisión. La Infantería de Marina, una fuerza para el siglo XXI Para reforzar a los BDE,s, la BRIMAR cuenta con una Compañía de Vehículos Anfibios de Asalto AAV-? y misiles contracarro pesados TOW, zapadores y otros medios de apoyo de combate. Helicópteros y embarcaciones de todo tipo, desde las más ligeras semirígidas hasta las más pesadas LCM lE, pueden ser empleados por estas unidades para lanzarse sobre la costa y, en su caso, penetrar en el terreno hasta las inmediaciones de sus objetivos en profundidad. El BDMZ-III dispone de dos Compañías Mecanizadas, que estarán dotadas con vehículos blindados 8x8 Piraña, similares a los que disponen los US Marines y la nueva Brigada Ligera del US Army, y cuya recepción se espera iniciar a finales del 2002. Además, este batallón dispone de una Compañía Acorazada, dotada de carros M-GO Al TTS. EL BDMZ-III complementa a los BDE,s. El Grupo de Artillería de Desembarco es el principal elemento de apoyo de fuegos de la BRIMAR. Cuenta con tres baterías de piezas de artillería y una batería de PLM y Servicios. Su composición es heterogénea, por cuanto dos de sus baterías son de 105 mm remolcadas y la tercera de obuses autopropulsados de 155mm M 109 A2, Esta composición obedece a la necesidad de proporcionar apoyos de niego a todos los niveles de la Organización Operativa que pueda constituirse y a las distintas posibilidades de desembarco que se contemplan. Así, las baterías remolcadas pueden desembarcar por medios de superficie o helicópteros, aunque su movilidad en tierra y potencia de fiíego sean menores. En cambio, la batería autopropulsada, más ágil y potente en tierra, sólo puede ser desembarcada con embarcaciones LCM lE, El Grupo de Armas Especiales agrupa orgánicamente una serie de unidades que proporcionan distintos tipos de apoyo a las unidades de combate. La primera de estas unidades es la Compañía de Misiles Contracarro Pesados MCCP,s, dotada con el conocido misil TOW en su versión II, que proporciona fiíegos contracarro lejanos a los batallones. La segunda unidad es la Compañía de Vehículos de Asalto Anfibios AAV'7, que como hemos dicho proporcionan a los batallones un medio de desembarco, en este caso protegido. Además, esta compañía permite incrementar la movilidad y protección de la mayor parte de un BDE, La tercera unidad es la Compañía de Zapadores, que dispone de Secciones de Zapadores y Sección de Maquinaria, y que proporciona el indispensable apoyo en las ñmciones de movilidad, contramovilidad y protección a la BRIMAR, así como de defensa NBQ. La cuarta es la Unidad de Embarcaciones, dotada de balsas semirígidas RHIB, suficientes para poner en tierra hasta una compañía, proporcionando 314 Francisco González Muñoz un medio de desembarco por superficie veloz y diScil de detectar, muy apto para golpes de mano e incursiones. El componente aéreo de la BRIMAR descansa en el Grupo Aéreo de Infantería de Marina GRAIM, Esta unidad proporciona defensa antiaérea a baja cota, basándose en su batería de Misiles Antiaéreos Ligeros MAAL Mistral, y proporciona los órganos de control del espacio aéreo que el jefe de la BRIMAR necesita. En el GRAIM se integran, por otra parte, los helicópteros de la FLOAN asignados a la Brigada. El Grupo de Apoyo de Servicios de Combate GASC cuenta con las unidades necesarias para satisfacer las necesidades de apoyo logístico de la BRIMAR. Para ello agrupa las correspondientes compañías de aprovisionamiento, mantenimiento, transporte y sanidad. Pero, dada la especificidad de la BRIMAR, el GASC cuenta con una unidad singular, la compañía de Organización del Movimiento en Playas OMP, que como su propio nombre indica es la encargada de regular el tráfico de unidades, personal y abastecimientos en la playa de desembarco. Finalmente, dentro de la BRIMAR se encuadra la Unidad de Operaciones Especiales UOE, que alcanza un alto nivel como unidad de élite mediante una estricta selección del personal que la compone, procedente de otras unidades del Cuerpo, y que recibe la adecuada cualificación en técnicas de buceo, paracaidismo y navegación, entre otras técnicas especiales. Esta unidad proporciona a la BRIMAR y a la Flota capacidad para desarrollar todo tipo de misiones de operaciones especiales, ya sean de reconocimiento especial, de reconocimiento anfibio o de localización de blancos para los «strikes» aéreos, así como las específicas de acción directa, como destrucciones, rescate de rehenes, y búsqueda y rescate de pilotos. Esta unidad, de unos 140 hombres, cuenta con tres Estoles de Operaciones Especiales, además del correspondiente órgano de mando y Sección de Servicios. Con estos componentes, se dispone de capacidad para articular diversas Organizaciones Operativas, en función de las características de la misión. Estas agrupaciones pueden ser de muy diferente entidad, desde pequeños destacamentos, como el Equipo Operativo de Operaciones Especiales al que se encomienda una misión concreta, hasta una Brigada Anfibia de Infantería de Marina con la totalidad de la BRIMAR y un importante contingente de helicópteros. Entre estos dos extremos se halla la Agrupación Anfibia de Infantería de Marina AGRAIM -basada en un Batallón Reforzado de Desembarco BRD, una Unidad de Helicópteros y una Unidad de Apoyo Logístico-, capaz de La Infantería de Marina, una fuerza para el siglo XXI sostener misiones prolongadas de despliegue adelantado a flote en zona de operaciones, de realizar misiones de objetivo limitado y de integrarse en una fuerza multinacional de entidad superior. La estructura orgánica que sustenta a la Fuerza El Cuerpo de Infantería de Marina constituye la estructura orgánica que permite preparar táctica y logísticamente a la Brigada, determinar las necesidades de las fuerzas para dotarlas de los medios de combate necesarios, y facilitar su adecuado empleo, mediante el desarrollo de tácticas y técnicas anfibias y el asesoramiento específico adecuado al Estado Mayor de la Armada. Por otra parte, la Infantería de Marina participa en la estructura de Apoyo a la Fuerza de la Armada para la obtención de recursos y la ejecución de las actividades necesarias para sostener sus unidades. La Comandancia General, a cuyo frente se encuentra el General de División Comandante General de la Infantería de Marina, se encuadra dentro del Cuartel General de la Armada, e integra a un Estado Mayor como órgano de apoyo al Comandante General en el ejercicio del mando. El Comandante General es responsable ante el Jefe del Estado Mayor de la Armada del adiestramiento y preparación de las fuerzas. Como órgano responsable de la elaboración de doctrina y procedimientos, la Comandancia General dispone, además, de una Junta Táctica JUTIM, Las fuerzas están constituidas por el Tercio de Armada -que agrupa orgánicamente a las unidades de la Brigada BRIMAR junto con su Al primer grupo pertenecen: La Escuela de Infantería de Marina EIM. La Escuela de Formación de Tropa de Infantería de Marina ES-FORTIM. El Campo de Adiestramiento Sierra del Retín. Al segundo grupo pertenecen: Los grupos o secciones de Infantería de Marina en la Jefatura de Apoyo Logístico, y en la Jefatura de Personal. Los grupos de Infantería de Marina de los Arsenales. La Sección de Infantería de Marina de la Escuela Naval Militar. Los desafíos del futuro. Aventurarse en el campo de la prospectiva es siempre un ejercicio que exige gran precaución, porque los acontecimientos hoy día se suceden a un ritmo tan dinámico que resulta difícil de predecir su sesgo. La incertidumbre del escenario futuro impide especular, con ciertas expectativas de acierto, acerca de la evolución de la Infantería de Marina más allá del horizonte de los proyectos actualmente en marcha. Ir más lejos constituiría un mero ejercicio imaginativo carente del necesario rigor. En este contexto, tomando como referencia la situación actual y el objetivo de fuerza establecido en el E01(A)/IM para el año 2.005, parece adecuado establecer como horizonte la fecha del 2.015, en que los proyectos ahora en fase de definición o definitivamente en marcha habrán llegado a su culminación. En cualquier caso, habrá que identificar aspectos aún no contemplados que por constituir carencias esenciales en el futuro, previsiblemente serán abordados o aconsejarán la modificación de proyectos en marcha. Teniendo en cuenta su evolución en los últimos años, no parece aventurado afirmar que la situación internacional va a mantener la evolución actual, consolidándose un escenario estratégico caracterizado por la ausencia de una amenaza definida contra el territorio de la Alianza y por la aparición de crisis multidireccionales y multiformes de carácter regional que puedan afectar a los intereses nacionales, en un mundo globalizado en el que las amenazas atontan contra la seguridad de todos. La respuesta a estas crisis serán, probablemente, las operaciones de coalición, en las que la medida del protagonismo de la nación en defensa de sus intereses vendrá dado por la importancia de su contribución a la respuesta multinacional. En este ámbito, las fuerzas anfibias seguirán jugando un importante papel como elementos capaces de proyectar el poder naval sobre tierra, La Infantería de Marina, una fuerza para el siglo XXI lo que acentuará su carácter expedicionario. La profimdidad de la «firanja litoral» aumentará sustancialmente y, con ella, la necesidad de operar con mucha mayor profimdidad en tierra desde la mar, y las fiíerzas de Infantería de Marina se aplicarán, con mayor probabilidad, en el ámbito conjunto, especialmente en el marco de las CJTF (Combined Joint Task Forces) cuando sean empleadas como «initial entry forces». Para operar en estos escenarios será preciso que se hayan adoptado las capacidades y procedimientos de las fuerzas anfibias en el marco de la radical transformación que se está operando en la doctrina aliada. Por otra parte, en el ámbito nacional, podrían formularse las siguientes hipótesis: • Se avanzará en la consolidación del marco operativo conjunto. • El escenario presupuestario no experimentará grandes variaciones y continuará siendo restrictivo. • Los niveles de incorporación de Marinería y Tropa profesional seguirán siendo bajos e incluso podrían decrecer. Las medidas que se están adoptando para tratar de retener al personal paliarán, en parte, las bajas cotas de captación. La Infantería de Marina no es más que una parte de la fuerza anfibia, siendo la capacidad operativa de ésta la resultante de la interacción de los elementos de tropas y medios navales que la componen. Francisco González Muñoz 318 hacer frente a los nuevos cometidos emanados del Nuevo Concepto Estratégico. El cuarto es la consolidación de la Infantería de Marina en el marco conjunto y en el combinado. Quinto, y último, es la adaptación del personal a este futuro que se avecina. Con los proyectos actualmente en marcha, la Infantería de Marina completará la mecanización de su Tercer Batallón, que le conferirá la movilidad táctica, flexibilidad y protección necesarias para actuar en operaciones de combate de mediana intensidad. El reacondicionamiento de los helicópteros SH-3D para potenciar la capacidad aeromóvil de la fuerza de desembarco, a corto plazo, deberá dar paso a la obtención de nuevas aeronaves, que mejoren sustancialmente las capacidades OTH y de penetración en tierra. La previsible implantación de sistemas de mando y control permitirá, a corto plazo, ejercer eficazmente el mando de una fuerza de desembarco de entidad hasta Brigada, tanto en el ámbito multinacional como en el conjunto. Esta capacidad, convenientemente mantenida y explotada, permitirá a la Infantería de Marina ocupar una posición de liderazgo en el ámbito anfibio tanto de la Alianza como de la UE. Cara al segundo de los retos, que se dirige a la misión fundamental del Cuerpo, debe afrontarse la necesidad de desarrollar los nuevos métodos de guerra anfibia. La Armada no puede permanecer de espaldas al concepto de Maniobra Operacional desde la Mar y a su correspondiente aplicación táctica. Las unidades operarán necesariamente separadas, posiblemente sin capacidad de apoyo mutuo, por lo que dependerán mucho más de los apoyos procedente de los buques, la aviación o de una artillería de campaña que deberá tener mucho más alcance. Será necesario ocupar, de forma rápida, objetivos tierra adentro, lejos del cordón umbilical de la playa. Para hacer viables estas formas de guerra anfibia a corto y medio plazo es preciso contar con buques anfibios más flexibles y con mayor capacidad de transporte. Los actuales LST,s son buques de concepción anticuada, con una relación dotación/fuerza embarcada poco rentable y con escasa capacidad de apoyo al desembarco. La entrada en servicio de, al menos, un nuevo LPD es una medida que debe considerarse urgente para conservar las posibilidades hoy existentes. En cuanto a helicópteros, la transformación de los SH-SD supondrá un gran impulso para la fuerza de desembarco, pero será preciso acompañar esta medida, en el mismo sentido, con la modernización de la 3^ Escuadrilla y el desarrollo del adecuado sistema de control del espacio aéreo, así como la activación de una Unidad de Apoyo al Despliegue para apoyar a las aeronaves en tierra. Estas medidas serán esenciales La Infantería de Marina, una fuerza para el siglo XXI para conseguir la más flexible y plena integración de las aeronaves y sus medios de apoyo en un solo componente de la fuerza de desembarco, si se desea obtener de ellas el mayor rendimiento operando en profundidad en tierra. El tercero de los retos supone asumir misiones hasta ahora no contempladas. El refuerzo a la actuación de la autoridad civil contra la acción del crimen organizado y todo el espectro de misiones de paz o de a5ruda humanitaria, son ejemplos de estas misiones. Para ello, será necesario dotarse de armamento no letal, de equipos de protección adecuados para actuar en zonas urbanas y desarrollar una capacidad específica para participar en Operaciones de Interdicción Marítima. Por su parte, la mecanización del BDMZ-III proporcionará una unidad muy apta, dada su protección basada en vehículos de rueda, para participar en operaciones de interposición. El empleo de la fuerza debería evolucionar para alcanzar la capacidad de mantener desplegada una Agrupación Anfibia de Infantería de Marina AGRAIM que responda al concepto SOC (Special Operations Capability) de los MEU (Marines Expeditionary Unit) del US Marine Corps. Será preciso dotar a la UOE de más y mejores equipos a la altura de las mayores exigencias operativas que esta unidad tendrá que afrontar y modificar el adiestramiento de las unidades de Infantería para hacerlas aptas para realizar misiones tipo comando. Respecto al cuarto reto, la Infantería de Marina debe incrementar la actual cobertura de plantillas para estar en disposición de aportar entidades de fuerza que garanticen su situación a la cabeza de las naciones europeas. El contar con un sistema de mando y control fiable y capaz de asumir los refuerzos tiene que ser un objetivo prioritario. El SIMACET, compartido con el Ejército de Tierra y totalmente compatible con el sistema ACCIS aliado, dará pronta solución a este problema. Finalmente, hay que impulsar el desarrollo de los procedimientos comunes que garanticen el correcto funcionamiento de las fuerzas. Pero el principal reto que tiene la Infantería de Marina para afirontar el futuro de protagonismo que le aguarda, está en la obtención, formación y motivación de su personal, adecuado en cantidad y calidad a la gran variedad de funciones y equipos que integran sus sistemas y medios de combate. Y sobre todo, sus hombres deben ser combatientes de élite, física y moralmente preparados para ser dignos, en el servicio de las armas, del lema escrito en la historia por los Infantes de Marina que les han precedido: VALIENTES POR TIERRA Y POR MAR.
Se trata en este artículo de resumir el papel desempeñado por los Arsenales a lo largo de la historia como bases de apoyo de la Fuerza Naval, para concluir con el concepto y organización actuales, esbozando en líneas generales los procesos de modernización en los que se está trabajando para adaptar su estructura al progreso tecnológico y a las demandas cada vez más complejas de los futuros buques de guerra. Tras una breve referencia a la génesis de los Arsenales, su autor nos describe el fuerte impulso que recibieron durante la época de la Ilustración y su posterior evolución durante los siglos XIXy XX, para centrarse en su actual estructura y en el esfuerzo que se está realizando hoy día en la aplicación del concepto de «calidad total», reingeniería de procesos, optimización de la «externalización», y en la incorporación de programas y nuevas tecnologías para conseguir la informatización total de la gestión. Antes de iniciar una aproximación a la génesis y evolución de los Arsenales y a su papel como instrumentos fundamentales del esfuerzo logístico general de la Armada, conviene acotar el tema para puntualizar, en primer lugar, que nos referiremos únicamente al apoyo logístico en José Castro Luaces el área de material, es decir, a la creación de infraestructuras (construcción de buques e instalaciones en tierra), y a las áreas de mantenimiento y aprovisionamiento. Y en segundo lugar que, dentro de imi simplificado esquema del «ciclo logístico» (determinación de necesidades, obtención y distribución), en el caso que nos ocupa se lleva a cabo mediante la «cadena logística»: buque-bases de apoyo-recursos disponibles; donde identificaremos al Arsenal con el concepto de base naval de apoyo. En este orden de ideas, hay que remontarse a los precedentes logísticos de las marinas de guerra cartaginesa y romana, cuyo buque de combate, la galera, generó ya una preclara determinación de necesidades y la consiguiente obtención y distribución de las ñmciones de apoyo en conocidos puertos: Cartago con su sistema de varaderosalmacenes circulares para trirremes, Misenum y Ravena como bases permanentes del Imperio Romano, entre otros muchos destacamentos regulares, contando todos ellos con una completa organización, dirigida por los «Praeposito» (jefe), «Cuestores» (económico-administrativos), «Beneficiarius» (legista de los buques), etc.etc. En las Edades Media y Moderna nuestra Marina de Guerra no era permanente, por lo menos en su sentido actual. En los reinos de Castilla y Aragón funcionaban generalmente las flotas y sus apoyos por el sistema de «asientos», es decir, contratos con personas que «armaban» los buques para las campañas bélicas. No obstante, hay que reseñar que ya existía una organización directora e inspectora de este tipo de «externalización», que tenía su doctrina en las primeras Ordenanzas y contaba también con las «atarazanas», dependientes de las Coronas de Aragón y de Castilla (Barcelona y Sevilla respectivamente), con funciones de construcción y mantenimiento, y que pueden considerarse como las precursoras de lo que más tarde serían los Arsenales.. A partir del siglo XVI comenzaron a organizarse también algunos elementos del aprovisionamiento con carácter de Reales Fábricas (galleta-bizcocho y munición de artillería), pero prevalecía el sistema de «asientos» o «tomados a sueldo», incluso para los convoyes de la «Carrera de Indias». Sólo se daba la gestión «por administración» en algunos casos, contando entonces con ciertos «Oficiales Reales» o «de Hacienda» (contadores, veedores, factores, tenedores, etc), que se encargaban únicamente de la fase de obtención, pero sin disponer de una infraestructura fija. Los Arsenales de la Ilustración A comienzos del siglo XVIII, en 1717, el Intendente José Patino dotó a la Armada de una estructura orgánica permanente, estable-Los Arsenales en la historia del Apoyo Logístico ciendo sus bases en tres Zonas o Departamentos Marítimos, aún hoy existentes, y creando sus propios Arsenales de apoyo. En cierto modo, estos Arsenales eran una copia de los ingleses y franceses de la época (Plymouth, Portsmouth, Chathan, Brest, Toulon, Rochefort), pero pretendiendo su perfeccionamiento «porque se ha copiado lo mejor de Europa y excluido lo malo». Esta iniciativa del Marqués de la Ensenada, en 1751, sintetizaba el más genuino espíritu de la Ilustración aplicado al «ciclo logístico»: la «determinación de necesidades» (utilidad), definida por los oficiales del Cuerpo General de la Armada; la «obtención» de estos medios con la aplicación de modelos académicos (ciencia que incluía la racionalización del trabajo y la normalización de las construcciones con la matemática aplicada), llevada a cabo por las nuevas corporaciones de Ingenieros o Arquitectos graduados; cerrando el ciclo con la «distribución» (gestión de los recursos de personal, de materiales y financieros), efectuada por el Cuerpo del Ministerio (Intendentes). Este proceso de desarrollo y evolución de la logística naval procedía del modelo político y económico que imperaba por entonces o, mejor dicho, que se debatía en los años centrales del siglo XVIII; es decir, la pervivencia del sistema comisarial, gestión por objetivos económicos (Intendencias), frente a otro planteamiento basado en la eficacia tecnológica (Cuerpo General y el nuevo Cuerpo de Ingenieros creado en 1770). Todos estos aspectos de la organización pueden verse claramente reflejados en las Ordenanzas de los Arsenales de 1737, que concuerdan con las de la Armada Naval (1748), y las posteriores de 1772-1776 que regulaban la conservación de «pertrechos de los bajeles» y para el «gobierno militar y económico». Durante este largo debate fue cuando se construyeron las nuevas bases navales de la Armada. En 1720 se iniciaron los primeros proyectos y obras del Arsenal de La Carraca (Cádiz), pero hasta 1730 no se desarrollaron plenamente los trabajos, que fueron nuevamente modificados en 1750-1753 en su zona industrial de astillero y mantenimiento, tras superar los problemas surgidos en la construcción de los diques de carenar, que no fueron resueltos hasta 1785. Este Arsenal fue una importantísima experiencia en la ingeniería portuaria, destacando entonces sus diques de carenar, que fueron posteriormente los primeros en utilizar la máquina de vapor (1774). Casi simultáneamente comenzaron las obras en el Arsenal de La Grana, pero pronto se cambió su situación al actual emplazamiento de Ferrol. Así se iniciaba la construcción del gran Arsenal que el Marqués de la Ensenada consideraba como óptimo, recogiendo todas las experiencias, incluida la ingeniería y trabajos de mantenimiento vinculados con los diques secos de carenar (1765), además de darle una extraordinaria belleza arquitectónica con magnífica cantería de granito. El apostadero de La Habana fue también muy importante por su astillero, sobre todo después de la reconstrucción de 1763 tras la guerra con Inglaterra, aunque estaba muy limitado en aprovisionamiento y mantenimiento (sin diques de carenar). Los restantes apostaderos de Ultramar aportaban menos prestaciones (Cavité, Montevideo, Guayaquil, etc.). Aceptando los riesgos que siempre se corren al resumir, haremos una breve descripción del funcionamiento de aquellos Arsenales, en lo que podemos denominar la Marina de la Ilustración (último cuarto del siglo XVIII y principios del XIX). En primer lugar hay que mencionar que la gestión de alto nivel correspondía a la Junta del Departamento, que presidía un Comandante General, y estaba formada por el Intendente, el Ingeniero Comandante, el Subinspector de Arsenales y el Comandante (militar) del propio Arsenal. Las actividades de apoyo logístico tenían una organización ligada a las dos funciones básicas ya citadas: la industrial y la de aprovisionamiento, complementándose con las correspondientes a la seguridad militar y marinera, así como al control económico-administrativo. La organización industrial, dirigida por el Ingeniero General-Comandante del Departamento, gestionaba el ciclo logístico del astillero, de los montes (arbolado para la construcción naval), y el conjunto de los diques (mantenimiento) que incluía dos actividades principales: los talleres de carenas (casco), y la fábrica de jarcia y lonas (propulsión vélica). Estas actividades eran controladas por los Comisarios de Provincias, para la fiscalización de los montes, y por el Comisario del Arsenal, para todas las funciones de esta organización industrial. La organización del aprovisionamiento, que dirigía el Subinspector del Arsenal, se desarrollaba en el llamado Parque, que seguía fielmente la técnica de armar los buques para cada campaña, siempre sobre la base de una publicación que se denominaba «Reglamento general de cuanto abraza el total armamento....», extraordinario documento cuyo contenido era una verdadera normalización y cuantificación de todos los pertrechos para cada tipo de buque (artillería, jarcia, velamen, habitabilidad, sanidad, etc.). Así pues, esta organización del aprovisionamiento funcionaba con cuatro secciones: Buques Desarmados, Al-Los Arsenales en la historia del Apoyo Logístico macen de Depósitos (pertrechos procedentes de los desarmes). Almacén General y Almacén de Excluidos (material para enajenar). Se realizaban también importantes adquisiciones en todo el ámbito nacional, como eran las de piezas de artillería, su munición, pólvora, anclas, forro de cobre, cristales, ferretería, brea, armas portátiles, cáñamo, pinturas, etc., normalmente obtenidas en las Reales Fábricas (Liérganes, La Cavada, Marrón, Sargadelos, Jubia, La Granja de San Ildefonso, Río Tinto, Almadén, etc.), cuya historia está ligada a las iniciativas y demandas de estos Arsenales de Marina. Esta Jefatura de Armamentos, como luego se denominó, tenía también un control, por medio del Comisariado del Arsenal (Contadores e Interventores), dependiente del Intendente del Departamento, que también gestionaba el abastecimiento de víveres en el comercio regional. En resumen, y salvando las distancias, encontramos un cierto parecido con las actuales estructuras de tipo «holding»: dos empresas dependientes de un órgano director, que las controla por su gestión económica y asignación de recursos financieros. cambio en la fase de obtención, con tendencia a la participación de la industria y el comercio nacional, regulándose el procedimiento de subastas y concursos del material naval, e incluso de la construcción de buques. Los Arsenales pretendían estructurarse como una empresa moderna, aunque con la preeminencia del mando militar sobre la organización propiamente industrial; pero se daban multitud de circunstancias adversas debido a una falta de criterios uniformes en la normativa de aplicación, con cambios continuos y hasta contradictorios, además de una fuerte resistencia a su cumplimiento. Un repaso elemental a los organismos derivados de la Ordenanza de 1886 nos presenta la nueva estructura de este Arsenal: dirección única por su Comandante General, con una Junta Administrativa y de Trabajos como órgano asesor. En los bloques ejecutivos encontramos también otros cambios significativos: la antigua organización industrial se modificaba con la nueva subdivisión en dos «Ramos», artillería e ingenieros, casi equivalentes al concepto actual de «Sistema de Armas» y «Plataforma», minimizándose los trabajos del astillero. La organización del aprovisionamiento seguía basándose en los antiguos criterios de la Jefatura de Armamentos, y la seguridad marítima y militar continuaba sin cambios y asignada a la Ayudantía Mayor. En todo caso había un Comisario de Material Naval, que abarcaba el control (Contabilidad e Intervención) de los almacenes y de los talleres (Negociados de Acopio y de Obras, respectivamente). Con respecto a las infraestructuras hay que reseñar que se llevaron a cabo algunas construcciones, entre las que destacan los diques secos de carenar, más grandes y dotados de mejoradas máquinas de vapor para los sistemas de achique y con buques-puerta para su cierre. La evolución de los Arsenales en el siglo XX fue muy compleja debido a los rápidos avances producidos en la tecnología del material bélico. En este orden de ideas, y para simplificar esta brevísima exposición, señalaremos tres épocas bien definidas: el período anterior a nuestra Guerra Civil, los años de la posguerra, y la reforma emprendida a partir del año 1967. Durante las casi cuatro primeras décadas de la centuria sólo cabe resaltar la fecha del 7 de Enero de 1908, en la que se promulgaron la Ley de Organización Marítima y la Ley de Armamentos Navales. Hasta ese momento se había vivido con las secuelas del fracaso colonial Los Arsenales en la historia del Apoyo Logístico del 98, continuando con la discutida aplicación de la Ordenanza de Arsenales de 1886, que había pretendido dos objetivos: la unidad de dirección y la mejora del sistema de acopios, a la vez que se progresaba en el viejo debate sobre la privatización de la función industrial. En 1911 se promulgó una nueva Ordenanza de Arsenales en la que ya se recogía el arrendamiento de los astilleros a la Sociedad Española de Construcción Naval (1909), aplicando así el criterio de su gestión por la iniciativa privada, que introducía tecnología inglesa (Vickers Ltd., Amstrong W y J. Brown Ltd.). A raíz de este paso, y coincidiendo con la construcción de los acorazados tipo España en Ferrol, se realizaron importantes obras (gradas del nuevo astillero, nimierosos talleres y un dique seco para carenar buques de hasta 184 m. de eslora), puesto que el Arsenal tenía que atender también al sostenimiento de estos acorazados que, por llevar turbinas de vapor y artillería pesada (8 cañones de 305 m/m.), entre otros muchos adelantos, requerían nuevos sistemas e instalaciones de apoyo. Hasta 1936, los Arsenales continuaron modernizándose con la progresiva introducción de equipos electromecánicos y ópticos en los diferentes «Ramos» técnicos (casco, máquinas, armas y electricidad). Esta fue otra exigencia derivada de la evolución tipológica de los buques de combate -cruceros, destructores, torpederos, submarinos, etc.-, en la que cristalizaron los planes de construcción naval de los años 1922 y 1926. Después de la Guerra Civil, y hasta la década de los años 60, se emprendió una decidida política de construcción de infraestructuras, es decir, todo aquello que se podía llevar a cabo sin una cooperación técnica internacional: ampliación de los astilleros y de las instalaciones navales en tierra. Dentro de esta línea de acción se creó la Empresa Nacional Bazán de Construcciones Navales Militares (11 de Mayo de 1942), y su Sección de Obras Civiles desarrolló un amplio plan de construcciones en los antiguos Arsenales y Estaciones Navales. En 1967 comenzó la aplicación de otra reforma para la organización logística que fue importantísima para el resto del siglo. Su doctrina recogía las múltiples experiencias de la Marina de los Estados Unidos de Norteamérica, especialmente las derivadas de los planes de ayuda, que incorporaban buques y modernizaciones de equipamiento, incluyendo la novedosa electrónica. El documento básico fue entonces el «Sistema 16», destinado a reorganizar el apoyo logístico siguiendo el modelo «staff-line». La Jefatura del Arsenal se dotaba así de unos órganos de dirección para el planeamiento y control económico, siendo las líneas ejecutivas las responsables del desarrollo de los elementos funcionales logísticos; es decir, una Jefatura Industrial para el mantenimiento de los buques e infraestructuras en tierra (servicios técnicos y talleres de casco, máquinas, armas y electricidad-electrónica, así como instalaciones navales), y otra Jefatura de Aprovisionamiento para abastecer de equipos, repuestos y pertrechos, incluidos los de consumo (combustibles, municionamiento y víveres). La calidad de los trabajos en los astilleros pasaba a ser controlada por una Inspección de Construcciones y Obras. En aquellos años fueron muy importantes los sucesivos desarrollos de las tecnologías logísticas, que se perfeccionaron y adaptaron con nuevos procedimientos de trabajo, tales como la organización de los mantenimientos (preventivos, programados y correctivos), y la gestión integrada de almacenes de aprovisionamiento en base a la normalización de materiales y nuevos documentos de previsión de necesidades con base estadística. Otra experiencia destacable fue la introducción de la doctrina del «Apoyo Logístico Integrado», para poder efectuar una previsión del «ciclo de vida» de los buques, desde su construcción hasta su desarme y desguace, abarcando una serie de «Planes Parciales» para el desarrollo de todos los elementos funcionales logísticos, especialmente en las dos primeras fases de determinación de necesidades y obtención. En el ámbito de la distribución también se iniciaron las primeras proyecciones del apoyo de los Arsenales a los buques destacados en zonas de operaciones alejadas de sus bases. La organización de un Arsenal arranca de su definición como «el conjunto de personas, medios de apoyo e instalaciones periféricas de la Armada, ya sea en recinto único o distribuido que, constituido de forma permanente y bajo un mando, realizan actividades de apoyo logístico a la Fuerza y a las Instalaciones Navales». Para el apoyo técnico, industrial y de aprovisionamiento, los Arsenales, además de líneas de atraque suficientes, cuentan con instalaciones industriales (talleres) y almacenes de aprovisionamiento (víveres, combustibles, vestuario, repuestos, pertrechos y municiones). Este enunciado de capacidades, de las que hablaremos en detalle más adelante, nos sirve para centrarnos en la organización actual, basada esencialmente en la filosofía y conceptos logísticos del ya citado «Sistema 16». El Jefe del Arsenal es un almirante u oficial superior del Cuerpo General y representa la máxima autoridad en la cadena de apoyo logístico en el ámbito de la Zona Marítima donde radica. Depende para sus cometidos del Almirante Jefe del Apoyo Logístico, y para desempeñar adecuadamente sus funciones de dirección cuenta con una organización que se estructura en: • Órgano Auxiliar de Jefatura • Jefatura Industrial • Jefatura de Instalaciones Navales • Jefatura de Aprovisionamiento • Inspección de Construcciones • A5mdantía Mayor El Órgano Auxiliar de Jefatura (OAJ) es el responsable de apoyar al Jefe del Arsenal en todas aquellas decisiones encaminadas al cumplimiento de su misión y, en particular, las relativas a personal, coordinación, organización y seguridad. La Jefatura Industrial (JIN) es responsable de la eficacia del mantenimiento de los buques asignados a ese Arsenal, de su Tren Naval (remolcadores, gabarras, lanchas de prácticos...), y de aquellos sistemas de armas de su competencia. De esta Jefatura también dependen todas las instalaciones y sistemas industriales y de metrología asociados o aplicables al mantenimiento. A la Jefatura de Instalaciones Navales (JIÑA) corresponde velar por el mantenimiento, conservación y ejecución de obras de todas las instalaciones de infraestructura que se encuentran dentro del territorio de la Zona Marítima donde radica el Arsenal. La Jefatura de Aprovisionamiento ( JAP) se encarga de la adquisición, almacenamiento y distribución de los repuestos, pertrechos, víveres, vestuario, combustibles y lubrificantes. La Inspección de Construcciones (JICO) efectúa el control y seguimiento del futuro inmediato de la Armada en cuanto a las nuevas construcciones de buques y sus sistemas de armas, así como de su modernización, mediante la supervisión técnica y de ejecución de los programas en curso, incluyendo el aseguramiento de la calidad. La Ayudantía Mayor del Arsenal (AYUMAR) es la responsable del personal militar y de su acuartelamiento, de la administración y control del personal civil, de la Capitanía de Puerto, de la seguridad interior y perimetral, del Tren Naval, de los servicios generales, del mantenimiento inmediato de las instalaciones propias del Arsenal y del movimiento y transporte. Para cubrir todas la funciones del Arsenal, esta estructura orgánica se complementa con otros órganos asesores y de apoyo, tales como el Consejo del Arsenal, la Sección Económico-Administrativa, la Asesoría Jurídica y el Órgano de Contratación del Jefe del Arsenal. Todas estas jefaturas, secciones y grupos orgánicos, bajo dirección única, garantizan la ejecución de la función del Arsenal en cuanto a su cometido en relación con la Fuerza, con las nuevas construcciones y, en general, con el tejido industrial y empresarial externo a la Armada. La función industrial del Arsenal, consustancial con su razón de ser, corresponde a la Jefatura Industrial, que es el órgano técnico activo para llevar a cabo el mantenimiento de los buques y sistemas de armas asignados en el «tercer escalón de mantenimiento», y su soporte industrial se estructura en cuatro áreas o «Ramos»: casco, máquinas, electricidad-electrónica y armas. Los talleres especializados están asignados a los «Ramos» antes citados, y a ellos les corresponde la ejecución de las obras del «tercer escalón» de su competencia, para lo cual disponen de las instalaciones y recursos necesarios, tales como máquinas-herramienta, equipos de medida, personal especialista, etc Los materiales los suministra generalmente la Jefatura de Aprovisionamiento, por lo que es esencial que su gestión se realice en perfecta coordinación con la Jefatura de Mantenimiento, para que estos materiales y los repuestos estén disponibles en el momento oportuno y, de este modo, el trabajo industrial sea eficiente. La Jefatura de Mantenimiento, dependiente y dentro de la organización de la Jefatura Industrial, es quien asigna las obras a los diferentes talleres de los «Ramos» o decide su «externalización». Es el elemento del enlace directo con los buques y controla, organiza y clasifica todos los «partes de mantenimiento», coordinando los paquetes de trabajo a realizar en cada unidad en el momento más adecuado y de acuerdo con los recursos disponibles. Para apoyar a la Jefatura de Mantenimiento y a los «Ramos», la Jefatura Industrial cuenta con una Sección Técnica, que se encarga de la custodia de los planos y de la documentación técnica, así como del control de la configuración de las unidades y sus sistemas armas. Mención aparte merece el Centro de Diagnosis, responsable del seguimiento del estado de los equipos (en base a la toma de vibraciones, análisis de aceites, curvas de tendencia, termografía, etc.), siendo así el soporte del mantenimiento por «estado» o «basado en la condición». Aquellas actuadones industriales de gran alcance que requieren el concurso de empresas externas al Arsenal -obras del «cuarto escalón de mantenimiento»-se contratan por la Jefatura de Apoyo Logístico de la Armada en Madrid, o bien directamente por el Arsenal con el apoyo de su propia organización. Para este tipo de obras, la Jefatura de Mantenimiento cuenta con un grupo de inspectores que efectúan su seguimiento con la ayuda del personal de los «Ramos». La capacidad industrial de la Armada se concentra en tres Arsenales principales (Cádiz, Cartagena y Ferrol), un Arsenal de segundo nivel (Las Palmas), y seis Estaciones Navales (La Grana, Puntales, La Algameca. Porto Pi, Mahón y SóUer). Las Estaciones Navales, que por su entidad no reúnen las capacidades propias de un Arsenal, mantienen una estrecha relación y dependencia funcional con el Arsenal correspondiente a la Zona Marítima donde están ubicadas. Un caso particular y digno de reseñar es el ISEMER (Instaladones del Segundo Escalón de Mantenimiento en Rota), cuyo objetivo inicial era el de proporcionar apoyo al Grupo de Combate, constituido por el portaaviones Príncipe de Asturias y seis fragatas de la clase Santa María, Su base conceptual reside en que el Mando Operativo disponga de una estructura orgánica con los medios necesarios de talleres y almacenes de repuestos para apoyar los mantenimientos del «primer escalón» (cuya ejecudón debe realizar el personal del buque), y ejecutar los correspondientes al «segundo escalón de mantenimiento». La adecuación de esta filosofía, de origen norteamericano, a nuestra Armada, se realizó, simplemente, hadendo depender al ISEMER de la Jefatura de Apoyo Logístico, en lugar de hacerlo del Mando Operativo. Su diseño se basó en un Mantenimiento imificado (talleres integrados y racionalmente dispuestos en un mismo edifido), con un Aprovisionamiento adaptado a sus necesidades específicas, una misma dependencia funcional y un sistema informático integral. Actualmente, el ISEMER tiene idénticas misiones a las de cualquier Arsenal, y atiende, fundamentalmente, a los buques de la Flota estacionados en la Base Naval de Rota. La función de Contratación Las atribudones en materia de contratación administrativa corresponden al Ministro y al Secretario de Estado del Ministerio de Defensa, como órganos de contratadón de la Administración General del Estado, y están desconcentradas -entre otras autoridades-en los Jefes de los Arsenales. La Mesa de Contratación del Arsenal, constituida con carácter permanente, es el órgano colegiado cuyo cometido es asistir al Jefe del Arsenal, y a otros órganos de contratación de la Zona Marítima que requieran su actuación, en la adjudicación de aquellos contratos que se realicen. Sus ñmciones, como órgano especializado en los procedimientos y formas de adjudicación, son: recibir las proposiciones para tomar parte en las licitaciones, resolver sobre su admisión, la apertura de las ofertas, solicitar los informes técnicos oportunos, elevar la propuesta de adjudicación, etc. Su composición es la siguiente: Un Presidente, un mínimo de 4 Vocales (designados por el órgano de contratación) y un Secretario. Entre los Vocales deberán figurar necesariamente un funcionario de entre quienes tengan atribuido legal o reglamentariamente el asesoramiento jurídico del órgano de contratación y, además, un Interventor. El Jefe del Arsenal cuenta además con una Unidad de Contratación como órgano de apoyo de carácter administrativo, para la correspondiente preparación y tramitación de los expedientes, pero sin las competencias atribuidas a la Mesa de Contratación. El futuro de los Arsenales no puede ser otro que una continuación en el camino que desde hace años se ha emprendido en la búsqueda de adecuar sus capacidades a las políticas de personal y logística. Y para ello, los Arsenales deben apoyarse en el entorno industrial regional y nacional, teniendo muy presente que su objetivo principal es apoyar a la Fuerza, intentando reducir el esfuerzo económico a un nivel sostenible. El proceso de modernización y concepción empresarial del futuro Arsenal debe comenzar por concentrar sus esfuerzos en la consecución de la «calidad total», cuya definición más breve podría ser la de «una actitud permanente orientada a la mejora continua», basada en unos objetivos que, en esencia y muy resumidamente, pretenden focalizar todas las actividades de la empresa hacia la «calidad», garantizándola por áreas de trabajo, con normas para su mejora y control permanente en todos los procesos, potenciando el espíritu de equipo y las relaciones interpersonales, así como la formación y colaboración del personal, e implicando a los directivos en una cultura y estilo de «gestión participativa». En esta línea de actuación se encuentra la ISO 9000 del 2000 (Sistemas de Gestión de Calidad), cuya aplicación a la funcionalidad de los Arsenales debe ser una meta a medio plazo que supondrá un Los Arsenales en la historia del Apoyo Logístico esfuerzo de análisis, organizativo y de reconsideración de flujos y procesos. La implantación de esta normativa, por supuesto enlazada con la aplicable a la de la seguridad e higiene en el trabajo, y con la ISO 14000 (en lo referente al medio ambiente), debe suponer un trabajo secuencia!, con las adecuadas reingenierías de procesos y acomodando, en cada momento, los sistemas y apoyos informáticos necesarios según la propia evaluación. Sin duda, la «motivación» será fundamental para que los «círculos de calidad» y «grupos de mejora» busquen la optimización de las funciones para ir alcanzando una orgánica flexible que sea capaz de adaptarse a la evolución, tendencias y nuevos criterios emergentes. En este sentido, deberán contemplarse en la futura organización del Arsenal una rama industrial y una rama de servicios, exigiendo a cada una de ellas la correspondiente normativa para que la globalidad funcione con el concepto de «calidad total». Es decir, se debe establecer una poKtica, unos objetivos y responsabilidades, con un enfoque dirigido a una «mejora continua». Como ya se ha mencionado anteriormente, la externalización no es un proceso novedoso y ni siquiera de estos últimos años. La autarquía de los Arsenales, al igual que la de los astilleros, ha ido desapareciendo hasta transformarlos en centros de síntesis con ingenierías concurrentes y capacidades limitadas. Para cristalizar este proceso se fueron externalizando paulatinamente algunas capacidades que no eran rentables, bien porque no se disponía ya del personal adecuado (jubilaciones no cubiertas), o por haber encontrado en la industria civil nacional empresas preparadas y altamente competitivas. Actualmente se están analizando las capacidades consideradas «no renunciables» de los Arsenales, y a las que habrá que potenciar con personal, formación permanente e infraestructura moderna y flexible. Aquellas otras capacidades que no estén disponibles en los Arsenales deben continuar externalizándose; pero este hecho plantea el problema de disponibilidad de suficientes técnicos de la Armada con capacidad para definir y acotar los trabajos, efectuar su seguimiento y control, y llevar a cabo las correspondientes pruebas funcionales. Esta problemática deberá acometerse con una formación continua y con la permanencia del personal técnico en empresas de tecnologías adecuadas, mediante el soporte contractual de convenios o contratos específicos para cada caso. Todo parece indicar que los Arsenales continuarán con este proceso de externalización, cuya práctica es perfectamente conocida. De hecho, existen ya contratos abiertos y específicos para el mantenimiento de determinados equipos, y se está trabajando para abrir otros nuevos e ir progresando en esta línea de actuación. Cabe citar, además, que el Órgano Central del Ministerio de Defensa está liderando un proceso racional de externalizaciones, en base a un planteamiento de búsqueda de familias de equipos homogéneos y comunes a los tres Ejércitos, y que irá implantándose de forma paulatina para aquellos equipos y sistemas que, en número suficiente, no requieran una especificidad propia. Otro tipo de externalización actualmente de moda es el DVD (Direct Vendor Delivery). Dentro de este concepto podríamos elegir el alcance necesario y a nuestra justa medida, desde la disponibilidad de los repuestos en propiedad y en almacenes de los proveedores, hasta la propia gestión de los almacenes de la Armada, o mantener en depósito los repuestos ya pagados en los almacenes del suministrador. En todo este amplio abanico de posibilidades se incluye la reparación en la base o fuera de ella, así como la gestión de repuestos, los transportes y la reparación de aquellas piezas o elementos susceptibles de ser reacondicionados. Por último, otro tipo de externalización que deberá tenerse en cuenta a la hora de reorganizar y redimensionar los Arsenales es la propuesta de Plataformas Industriales para el mantenimiento de las nuevas unidades, en las que llega a plantearse el mantenimiento «llave en mano», lo que representaría la externalización llevada al límite. Antes de finalizar con esta visión sobre los caminos y alternativas que se ofrecen a la externalización de los Arsenales, procede una reflexión en cuanto a los riesgos. Y ello, porque las externalizaciones, sean de la modalidad que sean, no deben abordarse si no se cumplen simultáneamente estas dos condiciones: disponibilidad de técnicos propios que sean expertos en las capacidades a externalizar, y existencia de varias empresas que compitan a la hora de conseguir el contrato (en caso contrario nos encontraríamos en una situación de no retorno y forzados a los precios indiscriminados de un monopolio). Además puede suceder que, en un determinado momento, alguna de las capacidades externalizables no tengan aplicación en la industria civil, y por lo tanto no sean rentables para las empresas contratadas y, en consecuencia, podría ocurrir que renunciasen al contrato o tratasen de imponer unos precios desproporcionados e insostenibles. En el diseño de las nuevas unidades navales, la proliferación de equipos y sistemas con soporte informático es tal, que obliga a una especialización creciente en las áreas de Hardware («autómatas», redes, equipos) y Software (lógica y programas). En este sentido, la organización del futuro Arsenal deberá contemplar la conjunción de ambas áreas, incidiendo prioritariamente en las capacidades necesarias para el mantenimiento de los programas de los sistemas que debe atender, bien con medios propios o acudiendo a la externalización. Desde hace años se viene buscando un apoyo informático que ayude a aumentar la eficacia de los Arsenales, y de hecho el ISEMER ya nació con un sistema de gestión adecuado a sus misiones. También en este campo está previsto que el Ministerio de Defensa cuente a medio plazo con sistemas informáticos integrados, no obstante lo cual, la Armada está empeñada en cubrir este período de transición con programas eficientes que permitan adecuar los Arsenales a la problemática actual, unificando criterios en todos ellos y siempre con la premisa de que este esfuerzo sea migrable en su momento a los citados sistemas integrados. Las experiencias con los programas JIM (Cartagena), SIGNAR y SEDAL (Ferrol) y MRMS (ISEMER), cristaUzarán en el programa GA-LIA (Gestión del Apoyo Logístico Integrado de la Armada) para todos los sistemas basados en tierra y compatible e interoperable con el programa EOLO que correrá a bordo de los buques. Los Arsenales, en cuanto a sus misiones, tienen sus orígenes conceptuales en las marinas de guerra cartaginesa y romana. La realidad actual nace en el siglo XVIII, como diseños perfeccionados de los existentes en Francia e Inglaterra. Desde su creación han ido evolucionando conforme se modificaba la tipología de los buques, cambiaban las circunstancias políticas, variaban los recursos presupuestarios, y el entorno industrial y social iban siendo diferentes. Hoy disponemos de unos Arsenales cargados de historia y con una estructura y orgánica consolidadas, pero buscamos la «excelencia», y para ello se está trabajando en varios frentes de forma simultánea: aplicación de la «calidad total», reingeniería de los procesos, optimación de la externalización, incorporación del mantenimiento de programas informáticos y la informatización total de la gestión. No seríamos justos si no termináramos diciendo que ya hoy se realiza un enorme esfuerzo en la aplicación al mantenimiento de nuevos conceptos o tendencias («disponibilidad», «fiabilidad» y «mantenibilidad»), y en el relevo paulatino del mantenimiento «basado en el tiempo» por el «predictivo», como resultado del «diagnóstico» del estado del equipo o sistema. El futuro a donde vamos es el final del camino de las decisiones, el trabajo y el análisis del hoy. Ese mañana busca la mayor eficacia y la mejora continua de los hombres y las instalaciones que constituyen el Arsenal, para así lograr que nuestra Fuerzas Navales sean eficientes a un coste sostenible.
España depende en gran medida de la mar. Todos somos conscientes de que las actividades marítimas son una componente esencial de la economía nacional y de que la compleja Administración Marítima es un área de vital importancia para nuestra nación. Este artículo resume la progresiva transformación que ha experimentado la Armada para adaptarse a sus actuales funciones como organismo colaborador de la Acción del Estado en la Mar, en temas donde antes era organismo responsable. Y todo ello como consecuencia del proceso de descentralización de la Administración General, y déla orientación cada vez más específica de la Armada hacia sus cometidos en Seguridad y Defensa. Todas las Comunidades Autónomas con costa, y hasta siete Ministerios, tienen competencias en diferentes áreas relacionadas con la actividad marítima; y la Armada, además de colaborar con todos ellos, continúa manteniendo la responsabilidad de proteger los intereses marítimos nacionales y el ejercicio de la soberanía y cumplimiento délas leyes en nuestras aguas jurisdiccionales. España es una nación que por su situación geográfica depende en gran medida de la mar. La actividad marítima es un componente esencial de la economía nacional; por mar se realizan alrededor del 83% de las importaciones y el 63% de las exportaciones; nuestra industria de pesca está a la cabeza de las de Europa y entre las principales 338 Sebastián Zaragoza Soto del mundo; casi el 20% del tráfico marítimo mundial pasa por el estrecho de Gibraltar, transportando 900 millones de toneladas, y 200.000 buques pasan al año por nuestras costas. Asimismo, la mayor parte de las industrias y empresas turísticas están asentadas en el litoral. Todo esto justifica la importancia que la Administración Marítima, entendida como el conjunto de Organismos del Estado con competencias en asuntos de la mar, debe tener en nuestra nación. No hace muchos años, la Administración Marítima era un área, dentro de la Administración General del Estado, en la que la Armada tenía amplias competencias. El tiempo ha ido orientando a la Armada, cada vez más, hacia los cometidos de Seguridad y Defensa en estrecha cooperación con nuestros aliados. La concentración del esfuerzo en esa dirección, junto con las tendencias descentralizadoras en la Administración han llevado a que distintos Ministerios hayan ido asumiendo, en temas de la mar, diferentes competencias que anteriormente ejercía la Armada. De esta forma, la Armada ha pasado a ser organismo colaborador en temas donde antes era organismo responsable. La Acción del Estado en la Mar Poco a poco, se han desarrollado una serie de convenios y acuerdos entre distintos Organismos de la Administración para distribuir competencias y regular la actividad marítima, que comprende aspectos tan diversos como el ejercicio de soberanía, la pesca, la vigilancia o las acciones policiales, la protección del medio ambiente marino, el control de la navegación y la seguridad, las cuestiones portuarias, el cumplimiento de acuerdos internacionales y el salvamento. Toda este conjunto de actividades es lo que llamamos la Acción del Estado en la Mar, es decir, el ejercicio de la autoridad del Estado para que la actividad marítima se regule de acuerdo con la legalidad establecida y queden protegidos los intereses marítimos nacionales. Según la Ley de Costas corresponde al Ministerio de Defensa, y por lo tanto a la Armada, la vigilancia militar de las costas y la vigilancia del cumplimiento de los convenios internacionales para preservar su entorno. En este marco, la Armada es responsable de una serie de actividades relacionadas con los intereses nacionales, que se materializan en el cumplimiento de misiones -algunas específicas y otras en colaboración con otros Organismos del Estado-que le obligan a disponer de medios para contribuir a la Acción del Estado en la Mar. La Armada y la Administración Marítima Actualmente, los Almirantes Jefes de las Zonas Marítimas son los responsables del ejercicio de la soberanía nacional y del control de las actividades marítimas en las aguas de su zona de responsabilidad. Esta responsabilidad se materializa en ima serie de acciones concretas, tales como velar por el ctmiplimiento de normas de salvaguarda de los aspectos que puedan afectar a la Defensa en su Zona Marítima, vigilar el cumplimiento de acuerdos, normas internacionales y Derecho Marítimo, proporcionar apoyo a la navegación marítima y aérea ante emergencias, ejercer el control del tráfico marítimo y, en general, proteger los intereses marítimos nacionales y hacer cumplir las leyes en su área de responsabilidad. Para el cumplimiento de estos cometidos los Almirantes de las Zonas Marítimas cuentan con Fuerzas de vigilancia y con las Comandancias y Ayudantías Navales que radican en su demarcación, y que constituyen la herramienta necesaria para posibilitar el ejercicio de sus funciones. Pero además, en determinadas situaciones, la Armada debe colaborar, de forma ágil y eficaz, con otros Organismos que también tienen competencias sobre aspectos relacionados con nuestros intereses marítimos. La Armada, hoy en día, se encuentra inmersa en un proceso de cambios en su Organización, que afectarán a su estructura territorial y a la forma y medios con los que contribuye a la Acción del Estado en la Mar. La futura Organización de los Ejércitos y la Armada, basada en criterios funcionales, traerá consigo la desaparición de las Zonas Marítimas, y el espacio marítimo nacional será concebido de forma global, como unidad geoestratégica de entidad única. Esta concepción tiene un importante soporte en los medios de Mando y Control que posee la Armada, que le permiten la dirección centralizada y la ejecución descentralizada de las diferentes actividades navales. Así, la actual Organización territorial de la Armada, se transformará en otra de carácter funcional en la que un mando único, el Almirante de Acción Marítima, con dependencia directa del Almirante Jefe del Estado Mayor de la Armada, será el encargado de dirigir la contribución de la Armada a la Acción del Estado en la Mar. Este Almirante, además de dirigir las acciones de vigilancia marítima y presencia naval, será el encargado de las relaciones institucionales de la Armada con las Autoridades de la Administración del Estado que correspondan en el ámbito marítimo. La colaboración institucional de la Armada El Ministerio de Defensa, y por lo tanto la Armada, colabora con otros siete Ministerios y, cuando ep necesario, con las Comunidades 340 Autónomas costeras, en tareas de Administración Marítima para regular las actividades en el medio marino. Este ámbito de colaboración institucional se puede sintetizar como sigue: Con el Ministerio del Interior La colaboración se encuadra en aspectos relativos a la seguridad en la mar, tales como tráfico de drogas, inmigración clandestina, crimen organizado o terrorismo. Esta colaboración se presta a los Cuerpos y Fuerzas de Seguridad del Estado y se realiza básicamente con el Servicio Marítimo de la Guardia Civil (SMGC), que tiene asignadas misiones que se desarrollan en el mar territorial y, sólo excepcionalmente, ñiera de éste. Para evitar interferencias o solapes entre el SMGC y la Armada se ha determinado una distribución general de los cometidos, asignando a la Armada los siguientes: • Presencia habitual en los caladeros de pesca nacionales para conocer las actividades que allí se realizan y servir como elemento disuasorio que evite el empleo de métodos ilegales. • Inspección a bordo de pesqueros para comprobar el cumplimiento de la legislación pesquera. • Adopción de medidas provisionales ante presuntas infiracciones. Estos cometidos se realizan en el Mar Territorial, en la Zona Económica Exclusiva y en la Zona de Protección Pesquera del Mediterráneo. Las relaciones entre la Armada y el SMGC son fluidas y existe un oficial de la Armada destinado en la Subdirección de Operaciones de la Guardia Civil que actúa como oficial de enlace. Se ha creado, además, un órgano de trabajo conjunto que ha abordado temas como: • La elaboración de un proyecto de Orden Ministerial sobre régimen, abanderamiento y matriculación de embarcaciones del SMGC. • La elaboración de un proyecto de Orden Ministerial relativo a habilitación del personal del SMGC para dotación y manejo de embarcaciones. ® Convenios de utilización de instalaciones de la Armada por el SMGC. En este contexto de colaboración con los Cuerpos y Fuerzas de Seguridad del Estado, también se ha firmado por los Ministerios de Defensa e Interior un «Acuerdo de colaboración en el ámbito de la La Armada y la Administración Marítima lucha contra el tráfico ilegal de drogas». En virtud de este acuerdo, el Ministerio de Defensa colabora, cuando sus misiones y capacidades se lo permiten, con medios e instalaciones de las Fuerzas Armadas en operaciones de apoyo a la Delegación del Gobierno para el Plan Nacional sobre Drogas. Con el Ministerio de Fomento La Armada colabora con el Ministerio de Fomento en materias de seguridad de la navegación, salvamento de vidas humanas, lucha contra la contaminación del medio marino, auxilios, remolques y salvamentos, y hallazgos y extracciones marinas, excepto aquéllas de carácter militar que son competencia exclusiva de la Armada. Entre las responsabilidades de este Ministerio existen dos áreas de especial importancia para la Defensa que implican colaboraciones de la Armada: • La ejecución de la Política de Defensa en cualquier aspecto que afecte a puertos, espacios marítimo-terrestres que son de propiedad estatal, y buques y medios de la Marina Mercante. • El estudio, programación, ejecución y supervisión de las posibilidades que ofrecen los puertos y medios de la Marina Mercante para tener prevista una eventual aportación de medios a la Defensa Nacional. Como muestra de colaboración entre la Armada y el Ministerio de Fomento, los Comandantes Navales pueden formar parte de los Consejos de Administración de las Autoridades Portuarias en puertos con marcado interés para la Defensa. En cuanto a control del tráfico marítimo, existen unas fluidas relaciones de cooperación y comunicación entre la Dirección General de la Marina Mercante y la Armada. También la Armada colabora con el Ministerio de Fomento en la elaboración de las normas de seguridad para el ejercicio de actividades subacuáticas. Con el Ministerio de Agricultura, Pesca y Alimentación En el ámbito del Ministerio de Agricultura, Pesca y Alimentación, el Ministerio de Defensa, y en su representación la Armada, colabora según el acuerdo sobre la Inspección y Vigilancia de las actividades relacionadas con la Pesca Marítima. Se tratan en este contexto distintos temas enfocados a cuestiones tan diversas como: optimizar la conservación de recursos pesqueros, conocer el estado de caladeros españoles o de interés para nuestra flota pesquera, garantizar el cumplimiento de los acuerdos internacionales suscritos por España y de la legislación en materia de pesca, efectuar el seguimiento de incidentes o sucesos extraordinarios en los caladeros, y colaborar en la asistencia y el apoyo a los pescadores. Así, existen acuerdos entre la Armada y la Secretaría General de Pesca para la utilización de los patrulleros Alborán, Chilreu y Arnomendi, con dotación de la Armada, en tareas de vigilancia e inspección de pesca. En estas campañas embarcan habitualmente inspectores nacionales o comunitarios. Con el Ministerio de Hacienda En lo referente al Ministerio de Hacienda, la relación con la Armada se mantiene a través de la Dirección Adjunta de Vigilancia Aduanera (DAVA). Esta Dirección es responsable de la persecución y represión en todo el territorio nacional, aguas jurisdiccionales, alta mar y espacio aéreo español, de los actos e infracciones de contrabando. Los buques de la DAVA tienen consideración de buques auxiliares de la Armada y existe una estrecha colaboración y coordinación para asegurar la eficacia de sus misiones. Estos buques están autorizados a detener, efectuar registros y aprehender buques españoles o extranjeros que naveguen por aguas fiscales españolas, sospechosos de portar contrabando. Los movimientos de estos buques sospechosos o intervenidos deben ser comunicados a las Autoridades del Ministerio de Hacienda y a las de la Armada, pudiendo ser solicitada la colaboración de buques de guerra para este tipo de operaciones. La colaboración con este Ministerio se extiende también a áreas como la formación de personal (por ejemplo en buceo) y a la emisión, por parte de la Armada, de patentes de navegación para sus embarcaciones. Con el Ministerio de Ciencia y Tecnología La principal colaboración de la Armada se desprende del Acuerdo del Consejo de Ministros de 27 de julio de 1988, en el que se aprobó la construcción del buque de Investigación Oceanógrafica Hespérides, construido con cargo al Ministerio (entonces de Educación y Ciencia) y cuya dotación y mantenimiento corresponde a la Armada. El Hes-La Armada y la Administración Marítima pérides, todos los años, efectúa diversas campañas de investigación oceanógrafica y científica, incluyendo una en aguas antarticas. Las actividades del Hespérides y del buque polar Las Palmas durante la Campaña Antartica, planificadas por el Ministerio de Ciencia y Tecnología en coordinación con el Estado Mayor de la Armada, se desarrollan anualmente con notable éxito, llevando a cabo diversos proyectos científicos y prestando apoyo logístico a las Bases Antárticas españolas Juan Carlos I y Gabriel de Castilla, Con el Ministerio de Educación y Cultura Existe un proyecto de acuerdo entre el Ministerio de Defensa y el de Educación y Cultura para preservar al patrimonio arqueológico submarino y realizar campañas con medios y recursos de ambos Ministerios para la prospección del suelo y subsuelo de las aguas jurisdiccionales, y para la localización, identificación y eventual extracción de pecios y cuantos bienes sumergidos puedan integrar el patrimonio histórico español. En estas campañas, la Armada aporta buques de apoyo a buceadores, así como personal buceador cuando se considera conveniente. Con el Ministerio de Asuntos Exteriores La capacidad de la Armada para actuar en representación propia o del Ministerio de Defensa en foros nacionales o internacionales para acuerdos o convenios en el ámbito marítimo, se pone de manifiesto, entre otros temas, en la colaboración de la Armada con el Ministerio de Asuntos Exteriores. La Armada tiene representación en la Comisión Internacional de imites entre España y Portugal, en la Comisión Internacional de los rineos y en la Comisión Interministerial de Política Marítima Innacional, donde se estudian temas relacionados con el Derecho del' que afectan a los intereses marítimos nacionales. Con las Comunidades Autónomas El artículo 148 de la Constitución Española establece que las Comunidades Autónomas podrán asumir competencias, entre otras, en materias de pesca en las aguas interiores (ríos, lagos, aguas continentales y aquéllas situadas desde la línea que delimita el Mar Territorial hacia el interior). Las Comunidades Autónomas litorales han asumido en sus Estatutos de Autonomía la competencia exclusiva en materia de pesca, marisqueo y acuicultura en aguas interiores, y han constituido sus propios servicios de vigilancia. Actualmente no existen convenios de colaboración entre Comunidades Autónomas y el Ministerio de Defensa que requieran la actuación o colaboración de la Armada en las aguas interiores nacionales. Otras formas de contribución Con independencia de lo anterior, la Armada cuenta con Organismos cuyas fundones tienen una estrecha relación con la Administración Marítima: • El Instituto Hidrográfico de la Marina es un Organismo de interés público nacional e internacional. Su misión es velar por la seguridad de la navegación en cuanto a obtener y difundir la información náutica necesaria. Esto incluye, como organismo técnico y científico, la ejecución de levantamientos hidrográficos y el estudio del relieve submarino en las costas y zonas marítimas, así como la publicación de cartas náuticas. También realiza labores de observación y estudio de los campos magnético y gravitatorio terrestre. El Instituto Hidrográfico representa al Estado español en la Organización Hidrográfica Internacional, y a la Armada en diversos organismos de carácter tanto nacional como internacional. • El Real Instituto y Observatorio de la Marina es un centro científico de la Armada que, a su misión específica como observatorio astronómico y geofísico, une la de investigación en aquellos campos de la ciencia físico-matemática que se consideran de interés para la Armada. Entre sus cometidos están la elaboración de los estudios técnicos y los cálculos relacionados con las Efemérides Astronómicas y la publicación de éstas, así como la adquisición, conservación, reparación y estudio de equipos cronométricos al servicio de buques de guerra, y la reparación, estudio y certificación del mismo material de los buques mercantes que le sea confiado a tal fin. Es depositario del Patrón Nacional del tiempo, y laboratorio asociado al Centro Español de Metrología. La Armada y la Administración Marítima A raíz de la entrada en vigor de la Ley Reguladora de los Auxilios y Salvamentos, se ha constituido un grupo de trabajo para estudiar el traspaso al Ministerio de Fomento de estos Organismos. De la descripción general que se ha expuesto sobre las colaboraciones que en materia de Administración Marítima presta la Armada a otros Organismos de la Administración del Estado, se deduce que el marco de actuación es muy variado y que, sin una buena coordinación, podrían producirse solapes en los cometidos asignados a diferentes Organismos. La coordinación es absolutamente necesaria para optimizar el rendimiento de los recursos puestos a disposición del Estado para gestionar la Administración Marítima, ya que los medios que se requieren para desarrollar los cometidos relacionados con la Acción del Estado en la Mar son costosos de obtener y mantener, y el personal que los utiliza está altamente cualificado y debe mantener im. adiestramiento constante. Dadas las particularidades del medio, la mar, la coordinación de cualquier operación a desarrollar en un único escenario con la participación de varios Organismos es compleja, pues se necesitan profimdos conocimientos del medio, personal con experiencia, recursos materiales fiables, y uniformidad en procedimientos de trabajo. Esta coordinación, que a alto nivel es interministerial y en ella se fijan normas y pautas de actuación en el ámbito de la legislación vigente, tiene que traducirse en normas operativas que agilicen la actuación coordinada en la escena de acción. Aunque no se pueden dictar normas concretas, al depender de las circunstancias específicas de cada caso, la acción debe estar basada en la unidad de Mando, en un conocimiento exacto y en tiempo real de la situación, y en la posibilidad de adoptar decisiones fundamentadas según se desarrollen los acontecimientos. Como resumen, podemos sintetizar tres ideas generales: • La Armada, además de ejercer sus propias responsabilidades permanentes en nuestros espacios marítimos de soberanía e in-Sebastián Zaragoza Soto 346 teres nacional, participa de forma coordinada con otros Organismos del Estado en la Administración Marítima, proporcionando los medios que materializan su capacidad de actuación en este ámbito. ® La Armada se encuentra en fase de reorganización para adaptar su estructura a las exigencias del entorno y para optimizar la eficacia de los medios de que dispone para contribuir a la Acción del Estado en la Mar. Esta reestructuración se sustenta en la concepción de un espacio marítimo de entidad única y en la capacidad de dirección centralizada y ejecución descentralizada. » Para obtener el máximo rendimiento de todos los recursos del Estado al servicio de la Administración Marítima, es necesaria una gran coordinación tanto a nivel general en los ámbitos ministeriales, donde se delimitan cometidos y competencias, como en el escenario de actuación, donde es necesario contar con unidad de Mando, exacto y actualizado conocimiento de la situación y toma de decisiones en el nivel, momento y lugar adecuados a cada situación particular. Con estas ideas básicas, la Armada reafirma la importancia que concede a sus relaciones con el conjunto de Organismos implicados en las tareas de Administración en el Ámbito Marítimo y compromete con decidida voluntad el mejor de sus esfuerzos en ese servicio a España.
Desde 1753, en que fue creado por el insigne marino Jorge Juany Santacilia, el Real Instituto y Observatorio de la Armada (ROA) ha sido el núcleo de la investigación científica de la Armada, manteniendo hoy día un reconocido prestigio tanto a nivel nacional como internacional. El autor de este artículo, director del ROA, a través de una síntesis descriptiva de la estructura orgánica del centro en cuatro Secciones (Efemérides, Astronomía, Geofísica, y Hora), nos introduce en la evolución histórica de esta institución y en la amplia gama de actividades que desarrolla en la actualidad, participando en numerosos proyectos y foros internacionales, y manteniendo relaciones de colaboración permanente con organismos científicos similares de diversos países. Sus publicaciones de efemérides astronómicas, sus trabajos en geomagnetismo, sismología, seguimiento de satélites, astrofísica, metrología, etc. etc., así como el hecho de ser el depositario del Patrón Nacional de la unidad de tiempo, son el exponente de que el ROA continúa siendo un centro científico en plena actividad y pujanza, y en no pocas ocasiones la voz de España en el concierto internacional de estas ramas del conocimiento y de la investigación. Finaliza el artículo con una breve referencia a la Escuela de Estudios Superiores, vinculada al ROA desde su creación y que continúa con sus cursos de «estudios mayores» manteniendo vivo el espíritu científico de la Armada, mediante la formación de un selecto núcleo de oficiales en las áreas de ciencias Físico-Matemáticas, Astronomía y Geofísica, y en la preparación para los cursos de Ingeniería. Rafael C. Boloix Carlos-Roca Introduccion Los avances que hoy día hemos alcanzado y disfi: utamos se deben al continuo esfiíerzo que la humanidad ha dedicado a la ciencia que, como define el Diccionario de la Lengua Española (RAE), es el «conocimiento cierto de las cosas por sus principios y causas». La técnica, por otro lado, no es más que el adecuado empleo y utilización de los procedimientos y conocimientos que la ciencia facilita y, aun siendo muy importante, está subordinada a la ciencia; piénsese que siempre se habla de investigación y desarrollo y no de lo contrario. Es necesario, en primer lugar, el conocimiento cierto de las cosas por sus principios y causas, es decir, la investigación; y luego, con base en estos conocimientos, efectuar su aplicación, el desarrollo. La Armada, a lo largo de su historia, repetidas veces ha dado prueba de que ha sabido entender y mantener viva esta mentalidad. Cuando lo ha considerado necesario para la adecuada formación, mejora y preparación de sus fuerzas, no ha dudado en potenciar la formación de sus oficiales en el nivel científico superior que estimó pertinente, ni en crear los centros científicos y técnicos que le eran precisos. Algunos de ellos continúan en su seno, otros lo están dentro del ámbito del Ministerio de Defensa, y otros continúan su andadura prestando su servicio al país desligados totalmente del estamento militar, bien como instituciones independientes, bien como facultades o cátedras en las diversas universidades españolas, como es el caso de la cirugía, cuyo inicio en España hay que remontarlo al año 1748 con la aprobación y entrada en funcionamiento, dentro de la Armada, del Real Colegio de Cirugía de Cádiz. Entre las instituciones de este carácter que continúan perteneciendo a la Armada se encuentra el Real Instituto y Observatorio de la Armada (ROA), centro científico fundado en 1753 a propuesta del insigne marino Jorge Juan y Santacilia, ejemplo vivo de la mentalidad científica de la Armada. A lo largo de su historia, próxima a cumplir doscientos cincuenta años, este centro se ha hecho acreedor de un reconocido prestigio tanto en el ámbito nacional como internacional y por él han pasado prestigiosos marinos, como el propio Jorge Juan, Tofiño, Malaspina, Vargas Ponce, Churruca, Ciscar, Cecilio Pujazón y un largo etc. Los denominados «estudios mayores», que iniciaron en el Observatorio un flujo continuo de formación de oficiales de la Armada, a un nivel superior de conocimientos científicos, continúan materializándose hoy día en su Escuela de Estudios Superiores. En el Prólogo a la Memoria de las actividades del Observatorio del año 2000, se dice que una visita rápida al Observatorio, en la El Real Instituto y Observatorio de la Armada que se nos presenta ante la vista un atractivo edificio del siglo XVIII, que alberga una magnífica biblioteca y una amplia colección de instrumentos antiguos, nos puede hacer creer que el Observatorio es un museo, cuando la realidad es bien distinta. Al igual que en ese prólogo, se pretende hacer ver en este artículo que el Observatorio es un centro científico en plena actividad y pujanza en diversas ramas del saber; y para ello, nada mejor que constatar, con un breve recorrido descriptivo, las múltiples actividades que se llevan a cabo en las cuatro secciones en que se estructura el Observatorio (Efemérides, Astronomía, Geofísica, y Hora), para finalizar con unas pinceladas sobre la Escuela de Estudios Superiores y su Biblioteca. La Sección de Efemérides es la más antigua de las cuatro que conforman la estructura básica del Observatorio. Sus orígenes se remontan a 1794, año en que se crea la Oficina de Efemérides, consolidándose formalmente como uno de los pilares del Observatorio con el primer Reglamento, aprobado en 1831. El Reglamento del Instituto y Observatorio de Marina actualmente en vigor, establece en su artículo 1.1.1. como una de las misiones de este centro «Los estudios teóricos y cálculos relacionados con las efemérides y la publicación de las mismas, realizados dentro de las normas reconocidas internacionalmente y en forma adecuada a sus aplicaciones varias, preferentemente a las náuticas y geodésicas». Esta misión la ha venido desempeñando la Sección de Efemérides desde su creación; su resultado final ha sido la publicación de las efemérides astronómicas necesarias en navegación, astronomía y geodesia, entendiendo por efemérides astronómicas, de una forma general, la comunicación de datos relativos a fenómenos astronómicos que han de producirse en el futuro, tales como posiciones de los astros, ortos, ocasos, eclipses, etc. El Observatorio inició esta labor en 1791 con la edición del Almanaque Náutico y Efemérides Astronómicas para el año bisiesto de 1792, y desde entonces se ha mantenido sin interrupción. Los avances científicos y los desarrollos tecnológicos producidos desde la publicación de las primeras efemérides han supuesto la lógica evolución de las efemérides astronómicas actualmente editadas por la Sección. Para la adecuada realización de esta tarea la Sección entiende de los problemas relacionados con la Mecánica Celeste. Aunque tradicionalmente se venían tratando problemas relativos a los objetos del sistema solar, como parte fundamental del cálculo de las efemérides astronónñcas, en los últimos años se han abordado, además, problemas de Mecánica Celeste en su vertiente más teórica y en relación con la teoría del satélite artificial, en estrecha colaboración con universidades españolas y extranjeras. La era espacial ha supuesto el resurgir de esta ciencia, recuperando viejas teorías y abriendo un sinfín de nuevos campos de investigación. Dentro de la gran variedad de problemas abiertos en esta disciplina, en esta Sección se trabaja ñmdamentalmente en dos líneas distintas: El estudio de la estabilidad de ciertos sistemas dinámicos, y la determinación de las denominadas órbitas periódicas. La primera de ellas, de carácter esencialmente teórico, trata del estudio de la estabilidad de soluciones de equilibrio de sistemas dinámicos, como es el caso de los satélites geoestacionarios. Si bien el estudio realizado sobre la estabilidad de estos satélites carece de una aplicación práctica inmediata, su conclusión ha llenado el vacío existente en esta parte de la teoría, contribuyendo a la comprensión cualitativa del problema y al progreso de las ciencias matemáticas en general. La segunda línea de trabajo, determinación de órbitas periódicas, es un campo de una mayor aplicación práctica, puesto que el conocimiento de dichas órbitas es muy importante para el diseño de misiones espaciales. Los trabajos realizados en este área, iniciados con miembros de la Universidad de Zaragoza, han supuesto colaboraciones con el «Centre National d 'Etudes Spatiales» (CNES), con el Departamento de Ingeniería Aeroespacial de la Universidad de Michigan (para la determinación de zonas seguras alrededor de asteroides) y con la Universidad Politécnica de Madrid (para el estudio del comportamiento de «tethers» o amarras espaciales). Las publicaciones más relevantes que en este campo edita el Observatorio son las siguientes: -Almanaque Náutico, Publicación anual que contiene las efemérides del Sol, la Luna, los planetas observables y las estrellas más brillantes, necesarias para resolver los problemas de navegación astronómica. Incorpora, además, un suplemento para la navegación aérea; y desde el año 1997 un Suplemento al Almanaque Náutico, con los ortos, ocasos y crepúsculos del Sol para latitudes extremas. -Efemérides Astronómicas. También de carácter anual, esta publicación va dirigida fundamentalmente a los astrónomos y a los geodestas. En ella se facilitan efemérides precisas de los objetos celestes y de los principales fenómenos astronómicos du-El Real Instituto y Observatorio de la Armada rante el año, así como los datos necesarios para realizar los cálculos que intervienen en la preparación y reducción de las observaciones astronómicas. A mediados del siglo XVIII la preocupación esencial de los marinos era la de conocer los elementos que les permitieran situarse en alta mar (hallar su latitud y longitud) y fijar su rumbo. La determinación de la latitud, mediante la medida de la altura de la estrella Polar o del Sol a su paso por el meridiano, no representaba una mayor dificultad, pero el conocimiento de la longitud no estaba resuelto de una forma asequible. La resolución de este problema exigía, por un lado, el desarrollo de una relojería más exacta, y por otro, el aumento en la precisión de las tablas que facilitaban la posición de los astros sobre la esfera celeste (efemérides). La fundación del Real Observatorio de Cádiz estaba orientada a mejorar, mediante observaciones astronómicas, la precisión con que se conocían las posiciones de los astros, así como proporcionar al navegante los elementos necesarios para la navegación astronómica. Fiel a esta tradición, la Sección de Astronomía desarrolla su actividad dentro del campo de la Astronomía de Posición (Astrometría). Su misión fundamental es la determinación de la posición de los astros y otras magnitudes relacionadas con la Astrometría. A lo largo de su existencia no sólo se ha alcanzado, siempre en colaboración con otros Observatorios, la precisión en la posición de los objetos celestes que los navegantes requieren para situarse en la mar, sino que se ha ido más allá, conforme la ciencia ha avanzado y han surgido nuevas exigencias. Una de ellas ha venido de la mano de los vehículos espaciales; en la segunda mitad del siglo XX ha sido la navegación espacial, no la marítima, la que ha solicitado de los observatorios astronómicos la mejora en la determinación de posiciones de los cuerpos celestes. Los trabajos en este campo los lleva a cabo la Sección de Astronomía con dos instrumentos casi gemelos: el Círculo Meridiano Automático Carlsberg (CAMC) y el Círculo Meridiano de San Fernando (CMASF). Por sus ubicaciones, este centro tiene la capacidad de observar desde 90° N a 90° S. Desde 1980 el Observatorio de la Armada participa junto a los Observatorios de Greenwich (RGO) y de la Universidad de Copenhague, gracias a la financiación de la Dirección General de Investigación Científica y Técnica, en los trabajos de observación e investigación del Círculo Meridiano danés, instalado en el Observatorio del Roque de Rafael C. Boloix Carlos-Roca los Muchachos de la isla de La Palma, y que es conocido como Círculo Meridiano Automático Carlsberg (CAMC). Este proyecto internacional comprende la observación de estrellas y planetas, análisis de resultados de los instrumentos de observación y la participación en la elaboración y publicación de la serie de catálogos «Carlsberg Meridian Catalogue. Estos catálogos, por la calidad de sus datos y por el amplio conjunto de objetos celestes que contienen, constituyen una contribución muy importante a la Astrometría Fundamental, definición de los Sistemas de Referencia Estelares, Dinámica Galáctica, Sistema Solar y estudios de interés astrofísico. La publicación de los resultados obtenidos con el CAMC ha permitido detectar los errores sistemáticos del catálogo FK5 (Fundamental E^atalog Nr 5), uno de los más importantes sistemas fundamentales de referencia entelar. El Círculo Meridiano de San Fernando CMASF fue convenientemente modificado, automatizado y posteriormente trasladado a Argentina en junio de 1996, a la estación de altura Carlos Ulrrico Cesco (CUC), perteneciente al Observatorio Felix Aguilar (OAFA) de la Universidad de San Juan, en la vertiente oriental de los Andes, en latitud 32° S, longitud 69° W y una altitud de 2330 metros. En octubre de 1997 comenzaron las observaciones válidas para la formación del primer catálogo del CMASF en el hemisferio sur. Los trabajos realizados con este instrumento han dado lugar ya a la publicación de un primer catálogo, con el que se amplía sensiblemente la calidad de las posiciones de las estrellas débiles del hemisferio sur. A partir de enero de 2000 comenzó un nuevo programa de observaciones para la elaboración de un mapa de estrellas hasta la magnitud 16 y declinaciones comprendidas entre 3°N y 60°S, y se están observando del orden de 30000 objetos celestes por noche generando un volumen de información de 2 Gbytes diarios. Dentro de los trabajos que se desarrollan con las observaciones realizadas con ambos instrumentos se enmarca el Proyecto de Investigación «Formación de Catálogos Astrométricos de -90° a +90° con los Círculos Meridianos Automáticos Carlsberg en La Palma y el del Real Instituto y Observatorio de la Armada en Argentina. El trabajo realizado mediante observaciones meridianas se ha complementado, en el Observatorio de San Fernando, mediante observaciones astrofotográficas. Esta actividad se ha llevado a cabo con el Astrógrafo Gautier, instrumento que ha prestado un magnífico servicio desde el año 1899 en que se inició el proyecto internacional de «La carta del cielo» y que finalizó en 1929. Fruto de este trabajo fue la El Real Instituto y Observatorio de la Armada publicación del catálogo correspondiente a la zona asignada a España y que contiene unas 250.000 estrellas. Posteriormente, en colaboración con otros centros se han estudiado las posiciones fotográficas de estrellas, galaxias, planetas, etc. En la actualidad, la actividad astrofotográfica es escasa, debido fundamentalmente a la deficiente calidad de cielo en la zona de San Fernando causada por la polución. La ciencia moderna exige conocer con todo detalle cómo gira la Tierra, no sólo para satisfacer la necesidad científica en sí de obtener el conocimiento más profundo sobre el comportamiento del cuerpo que nos soporta, sino por las consecuencias prácticas que de este conocimiento se derivan para su aplicación en la navegación espacial, el establecimiento de escalas de tiempo astronómico, la Radioastronomía, y la posibilidad de seguir los efectos precursores o posteriores a los grandes seísmos. Desde 1968 hasta 1983, el Observatorio de la Armada, con el Astrolabio Danjon, participó de forma activa en este campo de trabajo y es de destacar que fue el único en España que colaboró en la determinación de la Hora astronómica, a escala global. Si bien es cierto que los avances alcanzados por otras técnicas, fundamentalmente la utilización de las constelaciones de satélites GPS, han hecho obsoleto a este instrumento en este tipo de trabajo, en la actualidad, tras su adecuada transformación, su actividad se centra en el estudio de las medidas del diámetro del Sol, lo que constituye una aportación especialmente apreciada por los astrofísicos, que ven en estas medidas una manera de confirmar sus teorías sobre los fenómenos de física solar que implican unas determinadas variaciones de su diámetro, así como la respuesta de la atmósfera terrestre a la actividad solar. Se entiende por Geofísica la ciencia que estudia los aspectos físico-matemáticos de los fenómenos relacionados con la Tierra. Tradicionalmente se divide en siete grandes campos: Geodesia, Sismología, Meteorología, Géomagnétisme, Física de los Océanos, Vulcanología e Hidrología. De todas estas disciplinas, en la Sección de Geofísica del Observatorio se trabaja de forma asidua en géomagnétisme, sismología, geodesia y meteorología, radicando además en ella el Observatorio Geofísico de la Armada. La Sección se estructura en tres Servicios principales: Sismología, Géomagnétisme y Satélites, además de las actividades y trabajos relacionados con la Meteorología. Nace en 1879 con la finalidad de estudiar el campo geomagnético y controlar la variación de la referencia geomagnética, por su directa aplicación en la cartografía náutica. En dicho año se instala en el recinto del Observatorio de la Armada una estación variométrica (relativa) de tres componentes, modelo Adié, complementada por un magnetómetro Elliot y un teodolito Dower, para la observación de las referencias absolutas. Con su instalación nace el primer observatorio geomagnético de España, cuya serie temporal de datos es la tercera más larga del mundo. En la actualidad cuenta con una instalación con la que se efectúan: Medidas relativas de las tres componentes del campo magnético (variación en el tiempo), mediante diversas estaciones variométricas, y medidas absolutas del campo geomagnético (bases de referencia), con diversos magnetómetros e inclinómetro-declinómetros. Desde septiembre de 1996 la estación magnética de este centro forma parte de la Red Global de Observatorios Geomagnéticos, designada como INTERMAGNET, y colabora de forma regular con el «World Data Centre» (WDC, Boulder, USA), y el «British Geological Survey» (BGS, Edimburgo, Reino Unido), etc. Asimismo, los datos observacionales obtenidos contribuyen a configurar el Campo Geomagnético Internacional de Referencia (IGRF), publicado por la Asociación Internacional de Geodesia y Aeronomía (lAGA) a partir de datos de los observatorios terrestres y de satélites artificiales, y que son imprescindibles para calibrar y controlar los sensores geomagnéticos embarcados en satélites artificiales (CHAMP, Oersted, etc.), proyectos internacionales con los que también se colabora. Además de la labor propia de observatorio geomagnético, otra d€ las líneas de trabajo del Servicio de Geomagnetismo es la participaciór en campañas marinas. En esta línea se pueden mencionar las campañas anuales de la Zona Económica Exclusiva Española (ZEEE), en las qu( participa este Observatorio desde el año 1996, y en las que mediana el empleo como plataforma marina del BIO Hespérides, durante un me? al año, se está procediendo al levantamiento sistemático de la citadí ZEEE por medio de diferentes técnicas geofísicas. Como aplicaciones pu ramente científicas, podrían citarse un gran número de campañas marina, realizadas en los últimos años en colaboración con diversas institucione y organismos internacionales; baste mencionar que en el año 2000,; sólo en el Golfo de Cádiz, se ha participado en tres de dichas campañas designadas como Parsifal, Tasyo y Anastasia, financiadas tanto me diante fondos nacionales como de la Unión Europea. Finalmente, cabe mencionar como un último tipo de actividades, el apoyo en la calibración de equipos geomagnéticos que con carácter esporádico presta este Servicio. Se crea en 1898 con la finalidad de participar en el estudio de la sismicidad a nivel global. En dicho año se instala en el recinto del Observatorio el sismógrafo horizontal número 6 de Milne, primer sismógrafo instalado en España y uno de los 12 sismógrafos de la primera red sísmica desplegada a nivel mundial. Con su instalación nace la sismología instrumental en nuestro país. La posición geográfica del Observatorio, próximo a la frontera entre las placas continentales Eurasiática y Afiicana, le permite disfrutar de un lugar privilegiado para el estudio de la sismicidad de esta región, con las consiguientes aplicaciones que dicho estudio tiene en la predicción y prevención sísmicas. Para dicho fin se dispone en la actualidad de la siguiente instrumentación: -Red Sísmica de Corto Período: Consta en la actualidad de 10 estaciones sísmicas de corto período. Hasta la actualidad se han detectado más de 5000 terremotos en la zona desde la fecha de instalación de la red. -Estación Sísmica de Largo Período: Consta de 3 sismómetros Sprenghether instalados desde 1978 en los túneles del Observatorio, y está orientada a la detección y registro de la sismicidad lejana. -Red de Estaciones de Banda Ancha: Formada por un conjunto de estaciones sísmicas de banda ancha instaladas en las proximidades del Puerto de Santa María y Jerez (1996), Estación Naval de la Algameca (Cartagena, 1997), Estación Naval de Mahón (Menorca, 1998) y Ciudad Autónoma de Melilla (1999). Estas estaciones se encuentran asociadas a la red mundial GEO-FON y, a través de ésta, a otras redes mundiales tales como ORFEUS, IRIS, etc. Asimismo, todas estas estaciones participan en la actualidad en el proyecto europeo MIDSEA, coordinado por el Instituto ETH de Zurich (Suiza). Al igual que sucedía con el Servicio de Geomagnetismo, el Servicio de Sismología desarrolla diferentes actividades de investigación y técnicas, además de la labor propia como observatorio. En esta línea, participa de forma asidua en campañas de Geofísica de Refracción/Reflexión Sísmica, mediante el empleo de fuentes de energía en la mar Rafael C. Boloix Carlos-Roca o en tierra (p.e. cañones de aire del BIO Hespéridas o explosiones controladas en la mar) y registro en estaciones sísmicas portátiles desplegadas en tierra a lo largo de perfiles predefinidos, o mediante hidrófonos remolcados en la mar. Este tipo de campañas está orientado al estudio de la corteza y manto superior terrestre (hasta una profundidad de 40-50 km.), y podrían citarse como ejemplos más significativos las ya mencionadas campañas Tasyo y Parsifal, desarrolladas en aguas del Golfo de Cádiz, o la campaña GEODEC-GEOMAR desarrollada en aguas del Mar de Brandsfield (Antártida) en los meses de enero y febrero de este año. La difusión de los resultados de los trabajos en este campo se realiza a través de los Boletines Provisionales de Sismos y Anales de la Sección de Geofísica, y con la presentación de trabajos en foros nacionales e internacionales, tales como la Asamblea Hispano-Portuguesa de Geodesia y Geofísica, la Comisión Sismológica Europea (CSE), la Sociedad Geofísica Europea (EGS), la Unión Internacional de Geodesia y Geofísica (lUGG), etc., así como con su publicación en diversas revistas científicas. En febrero del año 1958, y merced a una colaboración con la «Smithsonian Institution» (USA), se instala en el recinto del Observatorio una cámara Baker Nunn, primer método global de seguimiento de satélites artificiales, incorporándose este Observatorio, como primera institución española y europea, a esta nueva disciplina. Con ella, este Observatorio, participó activamente en los 25 primeros años de la era espacial. A finales de los 60, mediante colaboración con el CNES-CERGA francés, se instala una primitiva estación láser de seguimiento de satélites artificiales, basada en un láser de rubí, antecesora de la actual estación de telemetría láser de segunda generación. La Estación Láser del Observatorio de San Fernando, código internacional 7824, es la única estación láser de seguimiento de satélites de la Península Ibérica y Norte de Afinca que se encuentra integrada en la red europea EU-ROLAS de estaciones láser, y es miembro del Servicio Internacional de Estaciones Láser (ILRS). En la actualidad, esta estación efectúa el seguimiento de forma sistemática de satélites bajos y medios (6000 km.), tanto en períodos nocturnos como diurnos y con una precisión que está por debajo de los 3 cm. Este hecho ha permitido que en el año 1997, y.por primera vez, esta estación láser fuera incluida dentro del grupo de estaciones que participan en la definición del Sistema El Real Instituto y Observatorio de la Armada Terrestre de Referencia Intemadonal (ITRF), generado por la Asociación Intemadonal de Gteodesia (lAG), y se está abordando ya la siguiente fase de desarrollo que conducirá al seguimiento de satélites altos (30.000 km.). Conviene destacar que el seguimiento láser de satélites artificiales es una de las cuatro técnicas fundamentales en geodesia, junto con la Interferometría de Larga Base (VLBI), el Sistema de Posicionamiento Global (GPS) y el Sistema DORIS (Doppler Orbitography and Radiopositioning Integrated by Satellite). No obstante, la técnica láser de seguimiento de satélites, integrada por tan sólo unas 40 estaciones a nivel mundial, es de importancia fundamental por ser el único procedimiento para medir la variación temporal del campo gravitatorio terrestre, y definir un sistema de referencia geocéntrico con precisión del orden de milímetros; además, es el único sistema capaz de monitorizar el movimiento vertical en un sistema de referencia absoluto, y de detectar redistribuciones de masa de gran escala en el interior de la Tierra, océanos y atmósfera. Desde el nacimiento del GPS como técnica de aplicación civil en geodesia, a principios de los 80, el Observatorio incorporó esta actividad dentro de su Servicio de Satélites, mediante la adquisición y puesta en funcionamiento de equipos geodésicos de observación GPS, primeros equipos en España de dichas características. Desde entonces, el Observatorio ha participado en diversas campañas, tales como las Campañas Geodésicas Antárticas, Campaña de Referenciación Europea EUREF89, EPOCH'92, Campaña de Referenciación de la Península Ibérica IBERIA'95, etc. Desde dichas fechas y hasta la actualidad el Observatorio ha desplegado diversas redes de observación GPS, de las que cabe destacar las siguientes: Estación permanente de Referencia (1995), que desde el año 1996 está incluida dentro de la red global de estaciones fundamentales IGS (International GPS Service for Geod5niamics), coordinada por la Asociación Internacional de Geodesia (lAG); y la Red GPS permanente, formada por cuatro Estaciones Geodésicas GPS permanentes, adicionales a la de San Fernando, instaladas en Cartagena (1997), Mahón (1998), Ciudad Autónoma de Melilla (1998) y Granada (2001). Todas estas actividades, que se están realizando en el campo de las aplicaciones geodésicas del GPS, tienen una continua repercusión en el ámbito científico nacional e internacional. Se mantienen colaboraciones permanentes con el Instituto Geográfico Nacional (IGN), Instituto Cartográfico de Cataluña (ICC), U. Complutense de Madrid, U. Politécnica de Madrid, U. Politécnica de Cataluña, U. de Jaén, U. de Cádiz, etc,. Y a nivel internacional existen relaciones con la Red Global IGS, Red Europea EUREF, Proyecto Internacional WEGENER, Agencia Espacial Italiana (ASI), CNRS-Cote de Azur (Francia), Danish Meteorological Institute (Dinamarca), Bundestag fur Kartographie et Geodasie (BKG, Alemania), etc. Además, la difusión de los resultados en este campo se realiza mediante la remisión de artículos a revistas especializadas y con la presentación de trabajos en las Asambleas Generales de la Asociación Internacional de Geodesia (lAG), del proyecto WEGENER, del IGS, de la Unión Internacional de Geodesia y Geofísica (lUGG), en la Asamblea Hispano-Portuguesa de Geodesia y Geofísica (AHPGG), etc. A medida que se fue desarrollando la astronomía en el Real Instituto y Observatorio de la Armada, surgió en paralelo la necesidad de tomar datos meteorológicos, con la finalidad de aplicar correcciones a las medidas astrométricas mediante modelos de refracción atmosférica. Aunque las medidas pluviométricas se remontan en su registro a 1811, los datos meteorológicos no se empezaron a publicar de forma secuencial e ininterrumpida hasta la aparición de los «Anales del Instituto y Observatorio de Marina de San Fernando» en 1870, siendo la serie meteorológica de San Fernando la más extensa de toda España a nivel temporal, y una de las más extensas a nivel global. Asimismo, este Observatorio fue el encargado de organizar y gestionar en su primera época el llamado Servicio Meteorológico Costero, que con el tiempo derivaría en el actual Instituto Nacional de Meteorología. Desde febrero de 1993, continuando la tradicional colaboración mantenida con el Instituto Nacional de Meteorología (INM), se encuentra instalada en el recinto del Observatorio una Estación Automática Digital Modelo SEAC, integrada en la Red Automática Nacional. La Sección de Hora del Real Instituto y Observatorio de la Armada en San Fernando se establece como tal en 1972, tras haber estado hasta entonces incluida como Servicio de Hora en la Sección de Astronomía. Está íntimamente ligada, desde sus orígenes, con la determinación y conservación con el máximo rigor y exactitud posibles de las escalas de tiempo astronómico, en función de las sucesivas definiciones de la unidad de tiempo del Sistema Internacional: El segundo. Tradicionalmente la Armada Española, en su interés por poder determinar con la máxima precisión la posición de sus buques, ha jugado un papel fundamental en el estudio y conservación de las escalas de tiempo, en el entendimiento de que un mejor conocimiento y mayor exactitud de la escala de tiempo conlleva una mayor precisión en la navegación. Los avances en la determinación de la medida del tiempo por métodos físicos dan paso, tras el nacimiento de los Patrones Atómicos de Cesio, a la definición del Segundo Internacional a partir de una propiedad física del átomo de cesio. Coincidente con el establecimiento de la Escala de Tiempo Atómico Internacional, el entonces Servicio de Hora se transforma en la Sección de más reciente creación del Observatorio. Por ello, en su origen, no puede desligarse de los trabajos realizados en el seno del Comité Consultivo para la Definición del Segundo, enmarcado en el desaparecido Buró Internacional de la Hora, cuyas funciones asume hoy en día el Buró Internacional de Pesas y Medidas. Para el desarrollo de sus funciones principales, la Sección está estructurada en tres Servicios: Hora, Cronometría Naval, y Electrónica y Calibración. Tiene como misión principal el mantenimiento de la unidad básica de tiempo, declarado a efectos legales como Patrón Nacional de dicha unidad, así como el mantenimiento y difusión oficial de la escala «Tiempo Universal Coordinado» (UTC(ROA)), considerada a todos los efectos como la base de la hora legal en todo el territorio nacional (Real Decreto 23 Octubre 1992, Núm. Su laboratorio está declarado como «asociado al Centro Español de Metrología» (Real Decreto 23 Octubre 1992, Núm. Para llevar a cabo el mantenimiento del patrón nacional y de la escala de tiempo UTC(ROA), dispone de una batería de patrones de frecuencia de haz de cesio e instrumentación para adquisición automática y control de datos generados por los patrones propios, así como de la instrumentación auxiliar adecuada. Esta escala, a la que genéricamente se hace referencia en este ambiente de trabajo como UTC(ROA), es decir. Tiempo Universal Coordinado del Real Instituto y Observatorio de la Armada, es la base, como ya se ha mencionado, de la Hora Legal Española. Está considerada por diversos autores extranjeros como una de las diez escalas más estables del mundo. Esta escala de tiempo está trazada a la escala de tiempo atómico Rafael C. Boloix Carlos-Roca internacional, TAI, mediante la aportación mensual de las lecturas de los patrones de cesio y la participación de este centro en una serie de intercomparaciones de tiempo utilizando la constelación GPS, y por medio de la técnica más precisa de intercomparación de escalas de tiempo existente en la actualidad: transferencia de tiempo y frecuencia mediante la técnica TWSTFT (Two Way Satellite Time and Frequency Transfer). Los niveles de precisión alcanzados con esta última técnica señalada son tales que, después de un ajuste cuadrático a las medidas, los valores RMS están por debajo de un nanosegundo. Como institución generadora del patrón nacional de tiempo y frecuencia, el Observatorio representa a España en distintos foros metrológicos internacionales. Así, es el representante español en el Comité Consultivo de Tiempo y Frecuencia del BIPM, actuando como miembro muy activo de distintos grupos de trabajo. Igualmente representa a España en el área de tiempo y frecuencia de EUROMET, organización europea para el intercambio de experiencia e infraestructura metrológica; y un miembro del Observatorio forma parte del Comité Científico del Foro Europeo de Tiempo y Frecuencia, el más importante foro científico europeo en este área. La difusión de la hora legal se efectúa siguiendo diferentes procedimientos: -Transmisión de señales horarias en HF, durante dos períodos de 25 minutos diarios, en 15006 y 4998 KHz, respectivamente, entre 10:00 y 11:00 horas UTC. -A través de INTERNET mediante el Protocolo NTP y servidor Hora.roa.es / ntp.roa.es. -Mediante calibraciones de patrones de tiempo y firecuencia. -Por medio de las intercomparaciones de medidas que esporádicamente son organizadas por la Entidad Nacional de Acreditación, y que pilota el Laboratorio de Hora del Observatorio. Servicio de Cronometría Naval Es el responsable de toda la cronometría de la Armada, llevando a cabo las labores propias de mantenimiento, reparación y desarrollo de nuevas instrumentaciones. Servicio de Electrónica y Calibración Es el responsable del mantenimiento de los patrones y electrónica asociada, y lleva a cabo la calibración de los diversos patrones de El Real Instituto y Observatorio de la Armada tiempo que existen en España, tanto en la industria nacional como en el ámbito de la Defensa. Además de las múltiples actividades que desarrollan las cuatro Secciones hasta ahora descritas, el Observatorio tiene encomendada también la importante labor de formar científicamente a algunos oficiales navales en estas ramas del saber, y ser el depositario y mantenedor del espíritu científico que siempre ha existido en la Armada. Para ello, cuenta con una Escuela y una Biblioteca, a las que obligadamente hay que hacer referencia, aunque sea muy brevemente. La Escuela de Estudios Superiores Junto a las actividades científicas, en el Observatorio se lleva a cabo una importante actividad docente, cuyos antecedentes se remontan a la propia fundación del Observatorio y de la Academia de Guardias Marinas, y a la responsabilidad asignada desde su creación de impartir los cursos de «estudios mayores». Por. esta Escuela, cuyos profesores son los Jefes de Sección y Servicio del Observatorio, han pasado un gran número de oficiales que han recibido la formación y preparación que, en cada momento, ha determinado como necesaria la Armada. En la actualidad, los cursos que en ella se imparten son los siguientes: -Estudios Superiores en Ciencias Físico-Matemáticas, curso conocido cariñosamente en el seno de la Armada como «curso de sabios». -Estudios Superiores en Astronomía y Geofísica. -Estudios complementarios. -Cursos para el acceso a Ingenieros Navales, Ingenieros de Armas Navales e Ingenieros Hidrógrafos. La creación en 1753 del Real Observatorio de Cádiz, producto de la política ilustrada de la época, fue un hito relevante en el desarrollo científico de la España del siglo XVIII. La conjunción entre enseñanza, práctica e investigación, contribuyó rápidamente al aumento de importancia de su Biblioteca, que desde un primer momento fue considerada como un instrumento científico más. Primero Jorge Juan, y Rafael C, Boloix Carlos-Roca más adelante Tofiño, hicieron todo lo posible por consolidar y aumentar sus fondos, de tal forma que, cuando en 1798 el Observatorio de Marina fue trasladado a su nuevo emplazamiento en la Isla de León, en el edificio construido por el Marqués de Ureña ya se reservó una sala para la ubicación de la Biblioteca. Durante el siglo XIX se produjo un continuo incremento de los fondos bibliográficos del Observatorio, motivado esencialmente por tres causas: la recogida de obras de otros centros de la Armada, la adquisición de libros en el extranjero, y el intercambio de publicaciones con otras instituciones. A partir de 1856, la creación de un Curso de Estudios Superiores con sede en el Observatorio, siguiendo la tradición iniciada en el siglo anterior cuando determinados oficiales de la Armada llevaban a cabo los llamados «estudios m.ayores», fue origen de la incorporación de un importante número de libros de carácter especializado para las nuevas necesidades docentes. A lo largo del siglo XX la expansión de la Biblioteca ha continuado a buen ritmo, hasta el punto de que sus dependencias ocupan actualmente la mayor parte del edificio principal del Observatorio. Sus más de 30.000 volúmenes, incluida la importante colección de publicaciones periódicas, forman una de las más interesantes bibliotecas científicas del país y constituyen un elemento inseparable del quehacer científico del Observatorio y de las tareas docentes de la Escuela de Estudios Superiores de la Armada. Junto a la magnifica colección de libros, la Biblioteca cuenta con una interesante colección de material cartográfico (más de 3.000 mapas), compuesta principalmente por cartografía náutica de las costas españolas de los siglos XVIII y XIX. Además, actualmente la Biblioteca tiene a su cargo el Archivo Histórico y la Colección de Instrumentos Antiguos, es decir, el patrimonio histórico tanto documental como científico de la institución. No pueden finalizar estas líneas sin reconocer expresamente que el prestigio que el Real Instituto y Observatorio de la Armada posee en el ámbito científico nacional e internacional, y que redunda en el de la propia Armada y en el de España, se debe al esfuerzo, trabajo y estudio continuado de todos y cada uno de los que, a lo largo de su historia, han trabajado y trabajan en él.
Se expone en este artículo la amplia labor que desarrolla el Instituto Hidrográfico de la Marina(IHM) y su participación en múltiples programas y proyectos nacionales e internacionales, representando a España y manteniendo relaciones permanentes de colaboración con diversas Organizaciones, Comisiones y Comités de carácter supranacional. Tras una síntesis histórica del IHM, cuyos orígenes en el Padrón Real de 1508 le otorgan la primacía mundial como Instituto Hidrográfico, se describen detalladamente las actividades que desarrolla el Instituto en las diferentes áreas de su competencia (Hidrografia, Geodesia y Fotogrametría, Cartografía, Navegación, Oceanografía), destacando el intenso y continuado trabajo que realizan sus buques hidrográficos y el proceso de transformación que se está llevando a cabo para implantar las modernas tecnologías en todos estos campos de actuación. Haciendo honor a la cita de que «Europa aprendió a navegar en libros españoles», se recogen también en este artículo las numerosas publicaciones que continúa editando el Instituto, como responsable que es de mantener actualizada la cartografía náutica y sus correspondientes avisos y ayudas a la navegación, para finalizar con una referencia a la labor docente que desarrolla su Escuela de Hidrografía. Para encontrar los orígenes de la actividad hidrográfica y de la cartografía española hay que remontarse a los siglos XIII, XIV y XV, El Instituto Hidrográfico de la Marina y muchas de sus cartas permanecieron en vigor hasta bien entrado el siglo XX. Asimismo, entre 1.789 y 1.794 tiene lugar la expedición Malaspina, que fue la más ambiciosa y completa hasta entonces realizada y que tuvo, entre otros, el objetivo de mejorar la cartografía de todas las posesiones españolas, elaborando un total de 185 cartas y 200 borradores. Con objeto de atender a la conservación de estos trabajos originales y a su reproducción para darlos a conocer a los navegantes, se impone como ineludible la creación de un centro científico, naciendo así la Dirección de Hidrografía en 1.797, en Madrid. La ingente labor realizada por este centro en algo más de un siglo de existencia se debe fundamentalmente al impulso de una serie de directores tan prestigiosos como Espinosa, Bauza, Navarrete, Conde de Aubarede, y Lasso de la Vega. Concretamente, este último inició en 1.851 la publicación de las hojas de Avisos a los Navegantes tal y como hoy la conocemos, y en las que empezaron a darse noticias sobre las alteraciones en las luces de faros. En 1.927 se suprime la Dirección de Hidrografía y se crea en el Observatorio de Marina la 4^ Sección, más conocida como Servicio Hidrográfico de la Armada, asumiendo el Director del Observatorio el cargo de Director de Hidrografía. En 1908 se sanciona y reconoce de forma oficial la Especialidad de Hidrografía en la Armada, estableciéndose en el vapor Urania la academia para su enseñanza. En 1921, España fue uno de los dieciocho estados fundadores del «Bureau Hidrográfico Internacional», organismo creado para fomentar la cooperación y normalización entre los Servicios Hidrográficos. En 1.943, y ante la necesidad de potenciar la hidrografía y recuperar su unidad, nace el Instituto Hidrográfico. Por Decreto 3.853/1.970 de 31 de Diciembre, se otorga al Instituto Hidrográfico de la Marina (IHM) la misión de velar por la seguridad de la navegación, en sus aspectos de obtener y difundir información sobre la mar y el litoral, y contribuir al progreso de la ciencia náutica. En cumplimiento de su misión, tiene como cometidos principales los siguientes: • Efectuar los levantamientos hidrográficos/oceanógraficos necesarios para el estudio del relieve submarino en nuestras costas Francisco J. Pérez Carrillo de Albornoz 368 y zonas marítimas, o en otras que el Estado español considere oportuno como consecuencia de convenios internacionales. • Elaboración de cartas náuticas y redacción de libros y documentos de ayudas a la navegación, así como su edición y distribución. • Elaboración de aquella cartografía temática y ejecución de programas de investigación que, por necesidades de apoyo a la Fuerza, se le asignen con un destino específico para la Armada. Asimismo, por Ley 7/1.986 de Ordenación de la Cartografía, se determina que será competencia del IHM la formación y conservación de la Cartografía Náutica básica, con lo que se confiere a su producción la categoría de cartografía de Estado y documentación oficial de preceptiva utilización para el navegante. Estos cometidos abarcan tres áreas fundamentales: • Adquisición de datos: Incluye los levantamientos hidrográficos y actividades oceanógraficas sistemáticas en zonas de responsabilidad nacional e internacional, así como la consulta de toda otra fuente de información cartográfica y náutica. • Tratamiento de Datos y Producción: Incluye la edición de cartas y publicaciones náuticas y la elaboración de informes y documentos descriptivos oceanógraficos, así como el mantenimiento de bases de datos georeferenciados. • Investigación y Desarrollo: Que contempla tanto la investigación aplicada en las áreas de Geodesia, Geofísica y Oceanografía, como el desarrollo de las infiraestructuras de adquisición de datos y sistemas de producción: La actividad en estas tres áreas ha de orientarse armónicamente, de manera que puedan determinarse y divulgar las siguientes características de cada zona geográfica concreta: • Configuración de la costa. • Relieve submarino y naturaleza del fondo, con especial énfasis en aquellos accidentes que constituyen un peHgro para la navegación. • Composición del subsuelo y sedimentos. • Comportamiento físico / químico de las masas de agua. • Existencia y estado de las Ayudas a la Navegación. Para llevar a cabo estas funciones, el IHM se encuentra dividido orgánicamente en cinco Secciones Técnicas: El Instituto Hidrográfico de la Marina -Navegación. Asimismo existe un Centro de Cálculo, que presta apoyo informático a todo el Instituto y a la Escuela de Hidrografía, esta última también ubicada dentro del IHM. Se describen a continuación cada una de estas Secciones Técnicas, haciendo especial hincapié en cuál es su cometido, cómo lo realizan y cuál es su futuro. La Sección de Hidrografía, es la encargada de proyectar, dirigir y comprobar los levantamientos hidrográficos necesarios para garantizar la seguridad de la navegación en nuestras zonas de responsabilidad. España posee una línea de costa con una longitud total de 5.300 Km y una extensión virtual de su ZEE de 3,4 millones de Km^. Las necesidades de adecuación de toda área a hidrografiar exige esfuerzos y recursos completamente diferentes en función del tráfico y márgenes de seguridad admisibles en cada zona, de acuerdo con lo especificado en la publicación especial S-44 de la Organización Hidrográfica Internacional (OHI), en vigor desde 1.997. Se pueden agrupar estas zonas de la manera siguiente: • Puertos, zonas de fondeo, canales de acceso a puertos y canales críticas, donde debe garantizarse un recubrimiento total del fondo con sistema multihaz y sonar de barrido lateral. La extensión total de esta zona se puede considerar de 20.000 Km^ Estos levantamientos, de los que se encontraban adecuadamente efectuados el 96%, de acuerdo con la nueva doctrina de la S-44 hay que efectuarlos de nuevo. • Áreas costeras hasta el veril de los 100 metros, no incluidas en el punto anterior, donde debe quedar asegurada la navegación marítima. La extensión total de estas áreas es de 74.000 Km^, de las que se pueden considerar adecuadamente levantadas im 95%. • Áreas continentales, con profundidades comprendidas entre 100 y 200 metros. La extensión total es de 50.000 km^, de los que se pueden considerar adecuadamente levantados un 96%. • Otras áreas hasta las 200 millas náuticas donde las profundidades superan los 200 metros. Hacen un total de 3,244 millones de Km^ si se considera lo que podría ser reclamado por España como ZEE. De ellos se llevan levantados un 7%. Para realizar estas misiones, el IHM cuenta con los seis buques hidrográficos Malaspina, Tofiño, Castor, Pollux, Antares, y Rigel, que efectúan, cada uno de ellos, una media de 165 días de mar al año. Adicionalmente se dispone del BIO Hespérides durante un mes al año, para realizar las campañas contempladas en el Plan de Investigación Hidrográfica y Oceanógrafica de la Zona Económica Exclusiva (ZEE), ñmdamentalmente para batimetría multihaz en aguas proñmdas. El pasado 30 de noviembre, se le entregó al Instituto Hidrográfico una lancha hidrográfica con todos los equipos del Sistema Hidrográfico Integrado instalados y que constituye la primera unidad de un grupo de tres, que relevarán a los ya cansados Castor y Pollux, entregados a la Armada en 1.965. Una vez adquiridos los datos a bordo de los buques, la Sección de Hidrografía los procesa para elaborar los correspondientes parcelarios, base de la cartografía náutica. Los datos digitales así obtenidos son incorporados a la Base de Datos Hidrográficos, en la que también se integran los de los antiguos parcelarios. Asimismo, esta Sección es responsable de la compilación de toda la información cartográfica y ambiental precisa para la conducción de las operaciones de la Guerra de Minas, en una publicación que se distribuye entre las Armadas aliadas y elaborada de acuerdo con la normativa de la OTAN. En diciembre de 1.999 se instaló en el B/H Rigel un sondador multihaz de aguas someras (hasta 200 metros) de alta tecnología, que permite al IHM cumplir con los requisitos fijados por la Organización Hidrográfica Internacional para los levantamientos de puertos, canales de acceso a puertos y canales críticas para la navegación. Con la incorporación de este sistema multihaz ha empezado una auténtica revolución en la hidrografía, ya que con el recubrimiento total deja de ser una ciencia estadística y desaparece el concepto de escala a efectos de planeamientos de trabajos, utilizando una Base de Datos que almacena gran cantidad de información en cada levantamiento (se pueden obtener hasta 4.500 datos de sondas con sus correspondientes metadatos cada segundo). Sección de Geodesia y Fotogrametría La Sección de Geodesia y Fotogrametría tiene como misión fundamental la de proporcionar toda la información terrestre necesaria para la producción de la cartografía náutica y apoyo a los trabajos de los buques hidrográficos. • La producción cartográfica requiere de esta Sección toda la información planimétrica y altimétrica del terreno, detalle de la línea de costa y parámetros de transformación entre sistemas de referencia. • El apoyo a los buques se realiza con el aporte de toda la información terrestre necesaria para el preciso desarrollo de los trabajos hidrográficos, es decir, la información relativa a la red geodésica nacional mantenida por el Instituto Geográfico Nacional y a la red de control hidrográfico establecida y mantenida por esta Sección, remitiendo a los buques los parámetros de transformación entre sistemas geodésicos. Todos estos campos de trabajo no dejan de lado el estudio, investigación y colaboración con otros organismos, nacionales y extranjeros, para contribuir con ellos al progreso de las ciencias geodésicas. Además de estas misiones principales, y que son su razón de ser, esta Sección presta apoyo a otras imidades de la Armada, tales como las de Medidas Contra Minas, proporcionándoles la información geodésica necesaria para el posidonamiento preciso durante el desarrollo de sus operaciones específicas. También se colabora con cualquier otra unidad o dependencia que necesite del conocimiento exacto de posiciones y medidas sobre el terreno. Para llevar a cabo su labor, esta Sección cuenta con dos Subsecciones estrechamente relacionadas entre sí: • La Subsección de Fotogrametría, que se encarga de elaborar proyectos y establecer directrices para la obtención de los levantamientos fotogramétricos que proporcionan información planimétrica del terreno, así como la coordinación con otros centros cartográficos de las Fuerzas Armadas, nacionales y autonómicos, para intercambio de productos geográficos y evitar duplicidades en la generación de información. • La Subsección de Geodesia, que realiza el estudio de las superficies geodésicas de referencia, de las redes geodésicas que sobre ellas se establecen, y genera los parámetros de transformación entre unas y otras. Independientemente de todos los trabajos que se realizan en la Sección para cumplir de forma cotidiana con la misión encomendada, merecen ser destacados, por su relevancia, los siguientes: Obtención de parámetros de transformación ED50 a WGSSé"^ Conforme avanza la Geodesia, se van elaborando sistemas de referencia cada vez más precisos, lo que conlleva la sustitución de unos por otros. Pero esta sustitución no es inmediata, sino que durante un período más o menos largo conviven los dos sistemas, hasta que la nueva referencia se adopta a todos los niveles y la antigua deja de ser necesaria. Esto es lo que sucede en la actualidad dentro de nuestro marco geográfico. Nos encontramos en un período de transición entre el sistema regional ED50 y el global y más preciso WGS84. Lo mismo ocurre en todas las regiones del planeta. Por tanto, muchos proyectos cartográficos se encuentran normalmente con la necesidad de trabajar con elementos referidos a los dos sistemas y obtener un producto final en uno sólo de ellos. La tendencia actual, en el IHM, es elaborar estos productos en el sistema WGS84. De esta forma, las posiciones obtenidas por el navegante con el sistema GPS pueden plasmarse directamente sobre la carta. En este sentido, el IHM, está finalizando una serie de campañas geodésicas para la obtención de parámetros de transformación entre estos sistemas para las distintas zonas del litoral nacional, mediante la observación geodésica de vértices con sistema GPS geodésico, con la idea de disponer conjuntos de dobles coordenadas WGS84 y ED50 para cada uno de ellos. De esta forma, con los algoritmos matemáticos adecuados, se obtienen los parámetros correspondientes. Gracias a estos trabajos, el IHM es el primer organismo que, a nivel oficial y nacional, ha publicado su cartografía para la Península en el sistema de referencia WGS84. Implantación de un sistema de fotogrametría digital. La actualización cartográfica necesita una herramienta de trabajo muy precisa para las tareas de control de calidad de la información cartográfica gráfica, procedente de la restitución numérica. La obtención del detalle de la línea de costa del litoral español se realiza exclusivamente en este centro, y para que esta información sea lo más fiable posible, hay que utilizar los medios más modernos en lo que a restitución fotogramétrica se refiere. Durante los últimos años, y gracias al avance de la informática, la fotogrametría ha experimentado importantes cambios con la El Instituto Hidrográfico de la Marina utilización de imágenes digitales; tales efectos han dado lugar a una nueva generación de instrumentos que son las Estaciones de Fotogrametría Digital, cuyo empleo se ha extendido a todas las tareas relacionadas con esta actividad. Después de 25 años de trabajo con los restituidores analógicos, y sin haber pasado por la generación de restituidores analíticos que empiezan a quedarse anticuados, las necesidades actuales de producción requieren un sistema actual, versátil, eficaz e integrado dentro de un sistema cada vez más compacto en cuanto a homogeneidad interna de trabajo, y abierto a su vez a fuentes externas de información. La integración reciente de una Estación Digital dentro del sistema de producción cartográfica del IHM, ha conseguido una gran fiabilidad y agilización en los levantamientos fotogramétricos e intercambio de información digital, que repercute en la seguridad, calidad y ritmo de producción. Una de las principales actividades del Instituto Hidrográfico de la Marina es la producción y mantenimiento de la cartografía que constituye su Catálogo de Cartas Náuticas, tanto en formato tradicional (papel) como en formato ENC (carta electrónica). El objetivo principal de una carta náutica es auxiliar al navegante en un tránsito seguro. La «carta» contiene por tanto todo lo que se conoce del fondo marino; muestra la profundidad por medio de sondas y veriles, y destaca los bajos y otras posibles obstrucciones, tales como pecios o cables submarinos. Asimismo contiene la configuración de la línea de costa y la franja de tierra adyacente con aquellas características topográficas y puntos conspicuos que son notables desde la mar. Figuran todas las ayudas a la navegación existentes en la zona (faros, boyas, balizas transpondedoras, etc.), junto con una abreviatura de sus características. Incluye los Dispositivos de Separación de Tráfico, así como derrotas recomendadas y fondeaderos designados o aconsejados. Y refleja también aquellas zonas restringidas o prohibidas, tanto para algún tipo de navegación como para alguna clase de barco o tipo de pesca. Es decir, una carta náutica incluye toda aquella información que se considera que el navegante puede necesitar en un momento determinado. Aquella información que no pueda contener la carta figura en las publicaciones náuticas complementarias, como son los Derroteros y Libros de Faros. Las cartas náuticas contienen mayor o menor detalle de información dependiendo del propósito para el que van a ser utilizadas. Por ello, y de acuerdo con su finalidad -que va ligada a un margen de escalas-, existen los siguientes tipos: -Generales, realizadas a escala menor de 1:3.000.000, dedicadas al planeamiento de navegaciones oceánicas. -Arrumbamiento, de escalas comprendidas entre 1:200.000 y 1:3.000.000, para su empleo en navegaciones a distancias medias. --Costeras, realizadas a escalas comprendidas entre 1:50.000 y 1:200.000, diseñadas para la navegación de cabotaje. -Aproches, editadas a escalas entre 1:25.000 y 1:50.000, proyectadas para su empleo en las entradas en puertos o pasos angostos. -Puertos o Portulanos, realizadas a escalas mayores que 1:25.000, donde se muestran con detalle las características e instalaciones existentes en un determinado puerto. En el pasado más reciente los desarrollos efectuados en la producción cartográfica del Instituto fueron dirigidos hacia la obtención directa y completa de los cuatro originales: negro, azul, amarillo y violeta en colores sólidos que pudiesen ir directamente a su pasado a planchas off-set para el proceso de estampación, evitando así las labores de esgrafiado, separación de colores a mano, y pegado de textos y símbolos (stripping) que se venían realizando. Conseguido esto, los esfuerzos se dirigieron a intentar cerrar la cadena digital en la producción de una carta náutica. Es decir, el objetivo era conseguir que la compilación de toda la información que da lugar a la carta náutica en un documento que denominamos minuta, se realizase en un entorno digital. Para ello se emplearon estaciones de trabajo que, utilizando programas típicos de diseño asistido (CAD), adecuados a la producción de cartografía náutica, obtienen una minuta digital a partir de ficheros digitales provenientes, fundamentalmente, de las secciones de Fotogrametría e Hidrografía. Todos estos procesos van unidos a la implantación de una red interna digital que enlaza El Instituto Hidrográfico de la Marina a las diversas secciones de este Instituto y al desarrollo de un Sistema de Información Geográfica para la producción y mantenimiento de la colección de cartas náuticas. Actualmente todas las nuevas cartas se realizan por medios automatizados. La Carta Náutica electrónica A partir de los progresos obtenidos por medio de la utilización de ficheros digitales y ordenadores en la producción de cartografía náutica en la forma tradicional, es decir en papel, había que dar el siguiente paso de obtener un producto digital para su uso directo por el navegante. El tráfico marítimo es, por su propia naturaleza, internacional. Por eso la cartografía náutica está sometida a estándares y reglas de uniformidad de carácter universal. Así como la carta de papel se fue normalizando a lo largo del tiempo, debido fundamentalmente a los trabajos efectuados en el seno de la Organización Hidrográfica Internacional(OHI), la carta náutica electrónica ya nace normalizada. Todos los países miembros de esta organización decidieron a priori cuál iba a ser el estándar para producir este tipo de cartografía. Estas cartas náuticas electrónicas están diseñadas para ser utilizadas en unos equipos denominados ECDIS (Electronic Chart Display and Information System), o sistemas que montados en los puentes de los barcos presentan al navegante en un formato normalizado la carta náutica electrónica. Además, permiten poder extraer información de los elementos cartográficos que la forman, habilitando en su caso la generación de alarmas si se aproxima algún peligro o restricción en su navegación. Su funcionamiento, es decir, los requerimientos que debe tener tanto físicos como del programa de navegación, debe asimismo cumplir una normativa, regulada en este caso por la Organización Marítima Internacional. Las cartas náuticas electrónicas producidas por el IHM se envían para su revalidación a un Centro Regional Europeo de Coordinación y Control (RENC), donde se unen con las elaboradas por otros Servicios Hidrográficos Oficiales para formar una base de datos que es puesta a disposición del navegante a través de una red de distribuidores. Una parte fundamental, si no la más importante, de la calidad de una carta náutica, es el nivel a que se mantiene la actualización 376 Francisco J, Pérez Carrillo de Albornoz de aquella información que contiene y que está relacionada con la seguridad de la navegación. Para ello, a partir de toda la información recibida en la Sección de Cartografía, se elaboran las correcciones pertinentes a las cartas náuticas editadas, y éstas se reúnen en el grupo semanal de Avisos a los Navegantes para su distribución. El navegante de esta forma puede tener su carta actualizada. En el caso de las cartas náuticas electrónicas, estas correcciones toman la forma de ficheros digitales que se envían al citado Centro Regional de Coordinación para Europa, para su distribución. El navegante puede obtenerlas a través de comunicaciones vía satélite, facilitando de esta forma el mantenimiento actualizado de su colección de cartas. Se podría definir como una Sección de producción dentro del Instituto Hidrográfico, al igual que la Sección de Cartografía. Sus misiones fundamentales son: • La edición y mantenimiento de todas aquellas publicaciones que complementan a las cartas náuticas, y la publicación de Avisos a los Navegantes, ya sea actuando como Coordinador Nacional de Avisos Costeros, o como Coordinador de Avisos de la NA-VAREA III (Mediterráneo y Mar Negro), una de las 16 zonas en que se divide la Tierra, cuya responsabilidad corresponde al IHM a efectos de Avisos a los Navegantes. • Igualmente se encarga de la publicación del grupo semanal de Avisos, que permite el mantenimiento de las cartas y publicaciones del Instituto. Una descripción de las publicaciones más interesantes puede ser la siguiente: Es un catálogo, publicado en dos volúmenes cada año y medio, en un formato internacionalmente aceptado, que contiene y describe todas las luces, señales fónicas y de balizamiento existentes en las siguientes zonas: desde el río Bidasoa en el Cantábrico hasta la frontera francesa en el Mediterráneo; desde la frontera Argelia/Túnez hasta Cabo Verde El Instituto Hidrográfico de la Marina (Senegal), en Africa; y las costas y aguas de los archipiélagos de Baleares, Canarias, Azores, Madeira y Cabo Verde. Es una publicación semejante a la anterior, dedicada a todas las instalaciones de radioayudas a la navegación: radiofaros, radiogoniómetros, estaciones costeras, sistemas de posicionamiento electrónico, etc..También sigue un formato normalizado internacionalmente y su periodicidad es bienal. Contienen una descripción literal de la costa, tal como es percibida por el navegante desde la mar, con énfasis en todo aquello que no puede ser gráficamente representado en una carta; en especial, zonas de peligros, condiciones meteorológicas y oceanógraficas reinantes, instrucciones para tomar los puertos y fondeaderos, capacidad e instalaciones de los puertos, etc.. Se trata de 4 derroteros en 6 tomos que abarcan, desde la frontera del Bidasoa hasta Cabo Verde en el Atlántico, y desde la frontera francesa hasta la argelina-tunecina en el Mediterráneo. Avisos a los Navegantes Para permitir las actualizaciones de las cartas náuticas, así como para informar al navegante de cuantas incidencias puedan suponer un peligro para la navegación, existe todo un mecanismo de difusión de la información urgente: el Boletín semanal de Avisos a los Navegantes y el Sistema de Radioavisos a la Navegación: -Boletín de Avisos a los Navegantes Es un boletín impreso, de periodicidad semanal, que se remite por correo a los suscriptores. Permite al navegante mantener al día todas sus cartas y publicaciones náuticas de forma coherente y completa, sin exigir de él gran esfuerzo. Es muy importante, para el usuario de las cartas y publicaciones náuticas, estar suscrito al Boletín de Avisos a los Navegantes, como forma de mantenerlas al día. Actualmente está en estudio la inclusión de todos los Avisos a los Navegantes en una página Web, de manera Francisco J. Pérez Carrillo de Albornoz 378: que el usuario, en todo momento, pueda extraer todos los avisos en vigor que afecten a su carta o publicación concreta. En atención al ámbito geográfico al que afectan, pueden ser: • Locales, en el dominio interno de un puerto, en general afectan únicamente al tráfico interior. • Costeros, en el entorno del litoral y hasta unas 200 millas de la costa. Interesan a los buques en tránsito entre puertos y son coordinados a nivel nacional por el IHM. • «Navárea», para zonas de alta mar y en rutas de tráfico internacional. Dado que en alta mar no puede hablarse de responsabilidades nacionales, la Organización Marítima Internacional (OMI) y la OHI han distribuido los océanos a estos efectos en un total de 16 áreas, conocidas como NAVAREAS. Cada una de ellas tiene un coordinador que centraliza y difunde los radioavisos que afectan a toda la zona. El IHM es el Coordinador de la Zona Navárea III, cuyo ámbito es el Mediterráneo y Mar Negro. La misión del IHM, como Coordinador de Radioavisos Costeros y de Radioavisos Navárea, consiste en recibir información, evaluarla, redactar el radioaviso siguiendo formatos normalizados y encaminarlo a las emisoras correspondientes, controlando su emisión. Para canalizar todo este flujo de información existe una red de datos (fi:*ame relay), red Mercurio propiedad de Telefonica, que enlaza todos los centros que de una u otra forma intervienen en la «Información de Seguridad Marítima» (Salvamento, Información Meteorológica y Radioavisos a los Navegantes): Centros de Control de Salvamento, IHM, Instituto Meteorológico Nacional, Estaciones Radiotransmisoras Costeras, etc. Como medios de difusión de las distintas clases de Radioavisos se emplean los siguientes: • Naváreas: Satélite de comunicaciones marítimas Inmarsat C, de impresión automática a bordo. Estos radioavisos se dan únicamente en lengua inglesa. ® Costeros: Estaciones Navtex próximas ( de impresión automática y sólo en lengua inglesa) y por fonía, en VHF y HF, a través de las estaciones radiocosteras de Telefónica, usando en este caso las lenguas inglesa y española. • Locales: emisoras locales de VHF, y HF en inglés y español. Desde el punto de vista de la Oceanografía, una de las principales misiones del Instituto Hidrográfico es el estudio de las mareas para su aplicación a la cartografía náutica y al Anuario de Mareas. Por ello, es necesario contar, por una parte, con largas series de datos de marea para mantener el Anuario de Mareas y, por otra, con una extensa red de puntos donde quede referido el Cero Hidrográfico, Datum vertical o Nivel de Reducción de Sondas. Estas dos necesidades han llevado a la Sección de Oceanografía a desarrollar dos líneas de actuación paralelas, una con mareógrafos permanentes y otra con mareógrafos portátiles. El Instituto Hidrográfico participa en el programa RIMA (Integración de Redes Mareográficas) junto al Instituto Geográfico Nacional, al Instituto Español de Oceanografía y al Ente Público Puertos del Estado. Este programa, que nació como proyecto de investigación financiado por la CICYT, con la finalidad de armonizar las redes de mareógrafos permanentes gestionados por los distintos organismos, implantar el Cero Hidrográfico como nivel de referencia en todos los puntos de observación e identificar las carencias nacionales en lo relativo a la observación de las mareas, permanece bajo la forma de programa, sin financiación extraordinaria, proporcionando un marco adecuado para el flujo de la información. El Instituto Hidrográfico ha cubierto áreas con déficit en la observación de las mareas instalando mareógrafos permanentes en los puertos de Pasajes y Burela. En un futuro próximo se dotará a estos mareógrafos de la infraestructura necesaria para la recepción centralizada de datos. La continua actividad de la flota hidrográfica requiere de la determinación del Cero Hidrográfico en los lugares donde se realiza un levantamiento hidrográfico, así como contar con datos de marea referidos a dicho nivel. Con este fin, utilizan las comisiones hidrográficas mareógrafos de presión portátiles. Uno de los principales avances tecnológicos que ha logrado el Instituto Hidrográfico radica en el sistema de calibración de estos mareógrafos. Dicho sistema, diseñado y construido en la Sección de Oceanografía, permite obtener una calibración tal que, en el rango de uso portuario, el error total, incluidos los errores de reloj, es inferior a los tres centímetros al 95%. Este nivel de error es más pequeño que el requerido por la OHI para los levantamientos hidrográficos de zonas de especial peligro para la navegación. El Comité de Mareas de la OHI, que cuenta con un miembro del Instituto Hidrográfico, redactó una nueva definición para el Cero Hidrográfico basada en las componentes armónicas. Dicha definición, apro-bada por la Conferencia Hidrográfica, plantea un problema en los puertos donde se realiza un nuevo levantamiento, puesto que requiere un año de observaciones de marea para alcanzar el nivel de precisión requerido. El Instituto Hidrográfico está desarrollando un método, basado en el cruce espectral con los puertos principales, que permite obtener el Cero Hidrográfico en los puertos secundarios, dentro de los niveles de precisión requeridos, a partir de cortos períodos de observación. No menos importante que la anterior, también son misiones del Instituto Hidrográfico el apoyo a la Fuerza Naval y contribuir al progreso de la Oceanografía. La primera de ellas se realiza mediante la elaboración de informes ambientales, previos al comienzo de las operaciones y ejercicios, y el apoyo directo durante su desarrollo. En este año va a producirse una sustancial variación en esta actividad, puesto que, por primera vez, la Sección de Oceanografía va a actuar como Centro de Fusión de Datos en apoyo a un ejercicio internacional auspiciado por la Alianza Atlántica. La búsqueda de la mejora de este apoyo ambiental y la contribución al progreso de la Oceanografía tienen tantos puntos en común, que proporcionan el marco idóneo para la colaboración con instituciones externas a la Armada, tanto nacionales como internacionales. La Escuela de Hidrografía, ubicada dentro del IHM, tiene como misión fundamental la formación del personal hidrógrafo de la Armada en todas sus categorías, existiendo cuatro niveles según la función a desempeñar:. • Oficial Ingeniero Hidrógrafo, para la dirección técnica de la actividad en las Secciones del Instituto Hidrográfico. • Oficial Especialista en Hidrográfica, para dirigir los levantamientos hidrográficos desde buques y comisiones hidrográficas. • Suboficial Especialista Hidrógrafo, técnico a cargo de la ejecución de trabajos y operaciones con sistemas y equipos en buques e Instituto Hidrográfico. • Personal de Marinería profesional de la especialidad de Maniobra y Navegación, como auxiliares en diferentes funciones en los levantamientos hidrográficos. La formación de todo este personal se materializa a través de las siguientes categorías de cursos de Formación, Perfeccionamiento y Monográficos: El Instituto Hidrográfico de la Marina -Cursos de Formación Sólo existentes para el Acceso a la Escala de Suboficiales del Cuerpo de Especialistas, como especialidad fimdamental. De los dos años de formación para acceder al empleo de Sargento, el primero se desarrolla en común con el resto de las especialidades en la Escuela de Suboficiales; y el segundo se realiza íntegramente en la Escuela de Hidrografía. Este curso está reconocido desde 1.997 por el Comité Consultivo de la Federación Internacional de Topógrafos y por la Organización Hidrográfica Internacional, dentro de la categoría «B» de Hidrógrafos. A él asisten regularmente suboficiales de países hispanoamericanos y del norte de África, beneficiarios de becas del Ministerio de Defensa. -Cursos de Perfeccionamiento • Ingeniero Hidrógrafo, con una duración de dos años, para oficiales del Cuerpo General, Escala Superior, que sean ya especialistas en Hidrografía. La enseñanza está orientada a la especialización en alguna de las ramas de la actividad del Instituto. Generalmente consiste en un primer año en el Real Observatorio de la Armada, donde se les imparten materias de ciencias y metodología, así como de medios y procedimientos para la investigación, y un segundo año concertado con las Universidades de Jaén y Cádiz donde cursan estudios de 2° y/o S"" ciclo de las carreras de «Ingeniero Superior en Geodesia, Cartografía y Fotogrametría» y «Ciencias del Mar», respectivamente. También se cursan «Master» en diferentes Universidades extranjeras, según las necesidades del IHM. • Oficiales Especialistas en Hidrografia, con una duración de diez meses, para oficiales del Cuerpo General y del Cuerpo de Especialistas, dividido en dos fases: un bloque teórico de la especialidad en la Escuela de nueve meses, y un mes de prácticas de fin de curso, donde se elabora el levantamiento completo de un parcelario. Este curso está acreditado desde 1.987 como de Hidrógrafo categoría «A», por el Comité Consultivo FIG/OHI mencionado an- Francisco J. Pérez Carrillo de Albornoz teriormente, lo que supone un reconocinñento al máximo nivel internacional. • Aptitud de Hidrografía y Cartografía para Cabos 1° y Cabos. Se imparte en la actualidad con una duración de 80 días lectivos, para Cabos procedentes de la Especialidad Fundamental de Maniobra y Navegación. ® Aptitud de Hidrografía Elemental para Marineros. Se imparte en la actualidad con una duración de 60 días lectivos, para marineros profesionales procedentes de la Especialidad Fundamental de Maniobra y Navegación. En esta Escuela se imparten también diversos cursos monográficos relacionados generalmente con la detección submarina y el posicionamiento de precisión, aspectos de gran importancia para determinadas funciones específicas: ® Sistemas de Posicionamiento ® Sistema Hidrográfico Integrado de la Marina Española (SHIME), para personal hidrógrafo.. ® Sonar de Barrido Lateral. Acústica, Propagación y Predicción de Alcances Sonar. Estos cursos tienen una duración que oscila entre treinta y cuarenta horas y están orientados a oficiales y suboficiales de Hidrográfica, Fuerza MCM y Flota. A modo de epílogo Para finalizar esta presentación del IHM parece conveniente resaltar algunos aspectos de sus múltiples actividades, tanto a nivel nacional como internacional. En primer lugar, que por Ley 7/1986 de Ordenación Cartográfica, se determina que será competencia del IHM la formación y conservación de la cartografía básica, con lo que se confiere a su producción la categoría de Cartografía de Estado y de documentación oficial de preceptiva utilización para el navegante. Destacar de nuevo que el IHM representa a España en la Organización Hidrográfica Internacional, con sede en Monaco, y participa activamente en la Comdsión Hidrográfica del Mediterráneo y Mar Negro, en la Comisión Cartográfica de la Región Antartica, y en varios Comités El Instituto Hidrográfico de la Marina (Carta Electrónica, Radioavisos, Sistemas de Información, etc..) y Grupos de Trabajo (Naváreas, Diccionario Hidrográfico, Planificación, etc..) Asimismo, forma parte del Comité de Seguridad Marítima y del Subcomité de Seguridad de la Navegación y Radiocomunicaciones SAR, ambos pertenecientes a la Organización Marítima Internacional (OMI). Dentro de la OTAN, el IHM participa en varios grupos de trabajo, destacando el MILOC y el Comité Científico de SACLANTCEN. En cuanto a organizaciones nacionales, forma parte de varias comisiones y grupos, entre los que cabe destacar: -Consejo Superior Geográfico -Comisión española de Geodesia y Geofísica -Comisión nacional de Faros y Señales Marítimas. Por último, parece oportuno señalar que para llevar a cabo toda esta labor, el IHM cuenta con el siguiente personal civil y militar: -30 oficiales de todos los cuerpos y escalas -59 suboficiales de varias especialidades. -40 funcionarios civiles -129 civiles (personal laboral) Notas
El estudio de los fundamentos de la matemática es, desde hace un siglo, competencia de la Lógica Matemática. Se trata de un fenómeno bien característico del siglo XX: la propia matemática trata de dar cuenta de sus bases, convirtiéndose en una ciencia "reflexiva" que da lugar a la llamada metamatemática. Por usar la habitual metáfora de la ciencia en tanto edificio, es como si la arquitectura tratara de extender su campo de estudio para dar cuenta también de las bases geológicas en que tienen que asentarse, por necesidad, sus construcciones. No hay duda de que la Lógica Matemática es una de las ramas matemáticas más propias del siglo XX, y más innovadoras (el otro gran ejemplo es la Topología). La lógica tiene una larga historia, que hunde sus raíces en la Antigüedad y la Edad Media, pero aquí nos referimos a la profunda renovación y transformación que produjo la interacción entre lógica y matemáticas en los años 1850-1940. El ascenso de la Lógica Matemática vino impulsado por cambios profundos en la concepción de las matemáticas, y a la vez su desarrollo en el siglo XX ha seguido generando cambios profundos. Es importante mencionar, asimismo, las innegables implicaciones que ha tenido la teoría lógica moderna a múltiples niveles: sobre todo el desarrollo de la computación, también en el campo de la lingüística, e incluso en filosofía dentro de la tradición analítica. A grandes rasgos, cabe decir que la Lógica Matemática se descompone en las siguientes partes: (i) lógica elemental y sistemas formales; (ii) teoría de conjuntos; (iii) teoría de la computabilidad; (iv) teoría de la demostración; y (v) teoría de modelos. Pues bien, Gödel hizo aportaciones fundamentales a todos estos temas, aportaciones que fueron "directas al hueso", como se dice en inglés: atacando cuestiones verdaderamente clave y de implicaciones claras para los fundamentos de las matemáticas. Su obra dejó huella, pues esas aportaciones ayudaron a conformar las distintas ramas de la Lógica y reorientaron la discusión en su conjunto. En 2006 se ha celebrado ampliamente el centenario de Kurt Gödel, quien, sin llegar a ser el mayor matemático del siglo XX, es indiscutidamente reconocido como el mayor lógico. Alfred Tarski, hombre ambicioso y quizá algo presuntuoso, llegó a comentar a un buen colega que se consideraba "the greatest living (sane) logician", con lo que evitaba -no muy sutilmente-el problema de su comparación con Gödel. Al nacer Kurt Gödel, en abril de 1906, la comunidad matemática internacional se encontraba en plena discusión sobre las bases y las implicaciones de una serie de transformaciones fundamentales. Durante el XIX, la matemática había dejado de ser una "ciencia de las magnitudes", sus conceptos habían alcanzado un grado de abstracción sin precedentes, sus teorías se habían desarrollado mucho en extensión y profundidad, y al hacerlo surgía lo que hemos solido llamar "matemática moderna". Como muestra de lo que pretendo indicar, baste el siguiente ejemplo: en 1800, la idea de número real se consideraba un concepto científico impuesto por la realidad, por la presencia de magnitudes continuas en el mundo físico; en 1900, por contra, los números reales eran considerados producto del pensamiento puro, en tanto elementos de un conjunto dotado de la estructura de cuerpo ordenado arquimediano y completo. Estructura cifrada por Hilbert en 18 axiomas bastante simples, cuya mera consistencia lógica (la ausencia de contradicciones derivables lógicamente de esos 18 axiomas) era suficiente, en su opinión, para garantizar la existencia del conjunto de los reales. La nueva matemática, impulsada especialmente desde Alemania por la escuela de Hilbert, se configuraba como un estudio de estructuras abstractas sobre la base de la axiomática y la teoría de conjuntos. Esta orientación suponía una ruptura respecto a la matemática del pasado, centrada en números, figuras y fórmulas: estos elementos tradicionales parecían "constructibles", generables paso a paso y resolubles paso a paso, al menos en principio, mientras que en torno a 1900 se hacía cada vez más claro el carácter "no constructivo" de la matemática moderna. Pero en el mismo momento en que la nueva tendencia parecía triunfar; cuando en el gran Congreso Internacional de París, 1900, el célebre Henri Poincaré la saludaba reconociendo que con ella se había alcanzado el rigor total; entonces surgían también dudas serias sobre la legitimidad de los métodos y los fundamentos postulados por la matemática moderna. Las dudas tuvieron sobre todo dos fuentes: 1. las paradojas de la teoría de conjuntos, descubiertas por Cantor hacia 1897 y desarrolladas por Russell: la paradoja de Burali-Forti o de la totalidad de los números ordinales transfinitos; la paradoja de Cantor o de la totalidad de los cardinales transfinitos; la paradoja de Zermelo-Russell o de la totalidad de los conjuntos que no son elementos de sí mismos; y otras muchas paradojas de naturaleza más lingüística o semántica; 2. los métodos de demostración basados en el axioma de elección, usados por Zermelo en 1904 para demostrar la "existencia" de un ordenamiento especial de los números reales (un buen orden sobre R) que nadie sabía cómo definir o "construir", esto es, cuya naturaleza "no constructiva" era tan evidente como para motivar una ola de críticas entre matemáticos franceses, alemanes y de otras naciones. Consecuencia de este fermento de ideas fue un debate creciente sobre los fundamentos de las matemáticas, donde frente a los partidarios de la nueva matemática surgieron proponentes de enfoques más o menos rupturistas, liderados por algunos de los primeros espadas en matemáticas: el propio Poincaré, el intuicionista holandés Brouwer, o el alemán Weyl. Mientras Poincaré y Brouwer comenzaban a especificar qué postulados y métodos de la matemática conjuntista encontraban objetables, un colaborador de Hilbert, Ernst Zermelo, dedicaba su tiempo a formular un sistema simple de axiomas que fuera suficiente para edificar toda la teoría de conjuntos (sistema que incluía el polémico axioma de elección, pero a la vez excluía las paradojas de Burali-Forti, Cantor y Russell). Su sistema, llamado hoy de Zermelo-Fraenkel y denotado por las siglas ZFC, acabaría convirtiéndose en la axiomática más ampliamente aceptada como base para todo el edificio matemático. En el desarrollo de las discusiones durante el primer tercio del XX, tres tendencias o "ismos" se dejaron notar especialmente: 1. el logicismo, surgido tiempo antes con Dedekind y Frege, luego revitalizado por Russell, quienes defendían que todos los conceptos y principios de las matemáticas pueden en último término reducirse a conceptos y leyes puramente lógicos; 2. el formalismo, que a grandes rasgos se identificaba con la posición de Hilbert: la matemática moderna se justifica por la posibilidad de axiomatizar con precisión sus principios, añadiendo la demostración rigurosa de que tales axiomas no llevan a contradicción (son consistentes); 3. y el intuicionismo, una creación matemática original de Brouwer, que rechazaba los métodos de la matemática moderna y los reemplazaba por métodos alternativos; métodos de elaboración más compleja, pero que parecían tener garantías especiales de evidencia y seguridad por basarse directamente en nuestras intuiciones del número y del continuo. Frente al avance crítico de Brouwer y otros, el matemático más famoso de aquellos tiempos, David Hilbert, empeñó todo su prestigio en la promesa de ofrecer una demostración de consistencia para la aritmética y para la teoría de conjuntos. Se trataba de poner las bases de la nueva matemática más allá de toda duda razonable, al menos en cuanto a sus garantías lógicas: "eliminar de la faz de la tierra, de una vez y para siempre, las dudas escépticas sobre los fundamentos de las matemáticas", como diría en 1927. En una conferencia "Sobre los problemas futuros de las matemáticas" impartida en el Congreso Internacional de 1900, que llegaría a hacerse legendaria, los dos primeros problemas eran sendas apuestas por el triunfo de la teoría de conjuntos y la axiomática: 1. "el problema cantoriano de la potencia del continuo"; 2. "la consistencia de los axiomas aritméticos". El propio Hilbert trató de resolver estos dos problemas con diversas aportaciones realizadas en 1905 y durante los años 1920, especialmente en su trabajo "Sobre el infinito" de 1925. Pero ninguno de sus tenaces intentos dio los frutos deseados. Sería precisamente Kurt Gödel, en 1931 y 1939, quien lograra avances definitivos en ambos frentes, y alguno de ellos en la dirección contraria a las esperanzas de Hilbert. Desde 1905, los esfuerzos de Hilbert fueron en la dirección de aprovechar las posibilidades técnicas creadas por la Lógica Matemática, con la intención de realizar un estudio matemático de las propias teorías y demostraciones matemáticas. A esto llamó metamatemática o teoría de la demostración: el estudio de las posibilidades deductivas o demostrativas engendradas por un sistema axiomático dado posibilitaría, en su opinión, establecer el resultado negativo de que un sistema dado no puede dar contradicciones. Históricamente, el avance de la lógica moderna se había iniciado con el desarrollo de nuevos cálculos "del razonamiento" (Boole, Frege, Peirce, Peano) y con el despliegue de la teoría de conjuntos en tanto elemento sistematizador y rigorizador del edificio matemático (Cantor, Dedekind, Zermelo, Russell). La fusión de ambas tendencias se produjo gradualmente en las primeras décadas del XX, bajo el impacto de los serios problemas que antes mencionamos: las paradojas conjuntistas y la llamada "crisis fundacional". Para resolver las paradojas y demás problemas se mostraba conveniente emplear los nuevos lenguajes lógicos, estrictamente regimentados y formalizados. Y esta conveniencia se tornó necesidad en el contexto del programa metamatemático de Hilbert, como veremos más abajo. Cuando el joven Gödel comenzó sus estudios en la Universidad de Viena, años 1920, parece ser que su intención era dedicarse a la física. Sin embargo, el impacto de las lecciones sobre teoría de números del gran matemático Furtwängler le movió a cambiar dedicación, y su relación con miembros del famoso Círculo de Viena le puso en contacto con la lógica matemática de Russell. Teoría de números y lógica matemática: una combinación natural de suyo, pero que estaba llamada a alcanzar nuevas cotas de profundidad gracias a Gödel. Pronto Kurt se encontraba preparando la tesis doctoral bajo la dirección de Hans Hahn, matemático y miembro prominente del Círculo: su tema, resolver un problema planteado por Hilbert & Ackermann en sus Grundzüge der theoretischen Logik (Fundamentos de lógica teórica, Springer Verlag, 1928). La consolidación definitiva de la Lógica Matemática, tal como hoy la entendemos, tuvo lugar en los años 1920 y 1930 bajo el impulso de Hilbert, Bernays y sus seguidores. El texto con el que Paul Bernays recogió y desarrolló las clases impartidas por Hilbert en el invierno de 1917/18, en Gotinga, puede considerarse el primer manual moderno de lógica matemática. Alcanzó la publicación unos años más tarde en los Grundzüge de Hilbert & Ackermann. La obra de Gödel se inscribiría plenamente en este contexto, y ha sido sin duda la más influyente contribución a la lógica de todo el siglo XX, que acabó por revolucionar el estudio de los fundamentos. ¿Por qué eran importantes los formalismos de la nueva lógica? Parte de la respuesta ha quedado ya indicada, pero falta decir qué los hacía imprescindibles para Hilbert. La idea clave de la nueva lógica matemática fue desarrollar un lenguaje formal perfectamente preciso con el que expresar los enunciados matemáticos, en particular los axiomas, y codificar reglas de inferencia que permitieran hacer totalmente precisas las demostraciones. Pensemos en la teoría de conjuntos: esta teoría, llevada a grandes alturas informalmente por Cantor y Dedekind, fue luego codificada y formalizada por Zermelo, Fraenkel, Skolem y otros. Dado un conjunto C existe otro, (C), cuyos elementos son todos los subconjuntos de C, queda codificado por el enunciado formal: [que leemos: "Para todo c existe un d tal que para todo x, x pertenece a d si y sólo si x es subconjunto de c"; nótese que d = (c), y que el símbolo admite definición explícita en términos de ]. Cuando todos los axiomas son formalizados, la teoría entera queda reducida a lo que llamamos un sistema formal; las deducciones dentro de la teoría se reducen a emplear única y exclusivamente las reglas de inferencia, son puramente formales. La teoría no es ya otra cosa que la totalidad de los enunciados (en el lenguaje formal que se ha estipulado con toda precisión) que son consecuencias lógicas de los axiomas. Esta idea capital fue inventada por Frege hacia 1879, pero lo que para él era meramente una cautela metodológica al servicio de la filosofía, se convirtió con Hilbert en la clave para transformar problemas de fundamentos en problemas puramente matemáticos. Hilbert venía defendiendo que el matemático sólo debe preocuparse de la consistencia o no-contradictoriedad de sus axiomas. Por supuesto, las ideas matemáticas tienen origen en la experiencia cotidiana, en la física, etc., pero con el tiempo los conceptos matemáticos son sometidos a crítica y las teorías son elevadas al estatus de puros entramados conceptuales. Llegados a este punto, estamos en el mundo abstracto de la matemática pura, y podemos afirmar la existencia de cualesquiera objetos, siempre que sus propiedades características y las relaciones entre estos objetos queden recogidas en un entramado conceptual -un sistema axiomático-que sea consistente. A fin de cuentas, para Hilbert la expresión "existe x", en matemáticas, apunta sólo a una existencia ideal, o si se quiere la admisibilidad del objeto x (caracterizado por ciertos axiomas) en un mundo de abstracciones lógico-conceptuales. Supongamos que todo eso es correcto, y que por tanto basta con la simple consistencia lógica: la ausencia de toda contradicción en el plano rígidamente reglamentado de la teoría matemática, del sistema formal. El problema era: ¿cómo demostrar que las teorías interesantes son consistentes? La teoría de los números reales formulada por Dedekind y Hilbert, o la teoría de conjuntos codificada por Zermelo, tienen ya un grado de complejidad notable. Cualquier dominio de objetos (por muy "ideales" que sean) en el que se verifique una teoría u otra debe ser un dominio infinito bastante complejo. El sistema de Zermelo era fruto de una reflexión profunda, permitía trabajar libremente con conjuntos al tiempo que eliminaba las paradojas, pero ¿realmente lograba eliminar toda contradicción? Las matemáticas del infinito habían conducido a contradicciones difíciles de superar, tanto que algunos matemáticos muy influyentes habían apostado por el finitismo estricto: eliminar el infinito del universo conceptual de las matemáticas. La idea crucial debió ocurrírsele a Hilbert en el transcurso de 1903, con motivo de reflexiones renovadas acerca de las dificultades que enfrentaba la teoría de conjuntos en tanto fundamento. Su intuición genial fue que la formalización de las matemáticas por medio de la lógica permitía tratar el problema de la consistencia como un problema matemático simple: mera cuestión de combinatoria finita, representable incluso como un problema de teoría de números. Cada teoría matemática, al ser formalizada, se reduce a un sistema finito de símbolos: todo teorema es el resultado de una serie finita de inferencias (reguladas por las reglas de inferencia) que en último término se originan en los axiomas, los cuales no son más que secuencias finitas de símbolos. La cuestión es, entonces, si la combinatoria finita de símbolos que es la teoría puede originar la demostración de una contradicción. Una contradicción no es más que una fórmula de la forma: (p ¬p), y en el contexto de la lógica formal basta incluso preguntarse si una contradicción concreta, una sola, es deducible (por ejemplo, si el sistema contiene símbolos para los números, basta saber si hay una deducción de la fórmula 0>1). Estudiar las inferencias y deducciones formales en las teorías matemáticas formalizadas era, precisamente, el objetivo de la teoría de la demostración o metamatemática de Hilbert. Sería posible, así, analizar toda una serie de características de las teorías matemáticas. He aquí las principales: -independencia o dependencia de los axiomas entre sí; -completud de la teoría, esto es, si todos los enunciados relevantes (delimitados de manera sintáctica o semántica) son deducibles; -decidibilidad de los enunciados, o sea, si existe un algoritmo que permita saber que un enunciado pertenece a cierto conjunto de ellos; -y sobre todo el problema de la consistencia, cuya solución debía eliminar para siempre las dudas escépticas. El programa se trató de desarrollar de manera progresiva, como era natural. Se esperaba dar primero una demostración de consistencia de la aritmética de Peano (el sistema axiomático para los números naturales), y más tarde proceder a establecer la consistencia de la aritmética de los números reales (con lo que quedaría fuera de dudas el análisis matemático). En el camino, se delimitó toda una serie de sistemas y se perfeccionaron los métodos de la lógica. Ya en las lecciones de 1917/18, mencionadas arriba, se caracterizaba con precisión lo que hoy llamamos la lógica de primer orden. En este sistema lógico, el más importante para las matemáticas y el estudio de sus fundamentos, contamos con símbolos para las conectivas lógicas 'y','o','no','si... entonces...', respectivamente:,, ¬, o, y para los cuantificadores 'para todo x','existe un x', respectivamente: Siendo el sistema puramente formal, los objetos en el dominio de los cuantificadores son individuos cualesquiera: no existen en lógica de primer orden recursos para "ha-blar" de "todas las propiedades". (Esto exigiría lógicas de segundo orden o de orden superior, las cuales presentan problemas en el contexto de los fundamentos de la matemática.) Hilbert & Ackermann, en su obra citada (1928), planteaban el problema de demostrar que ese sistema lógico básico, la lógica cuantificacional o de primer orden, es completo en el sentido antes indicado. Este limitado pero importante problema fue el objeto de la tesis de Gödel, defendida en 1929. Pongamos que S es un conjunto cualquiera de fórmulas en el lenguaje de la lógica de primer orden (LPO). Gödel demostró que todas las consecuencias lógicas de S resultan demostrables a partir de las fórmulas de S mediante las reglas de inferencia de LPO. Para ello, Gödel estableció que todo conjunto (consistente) de fórmulas en el lenguaje LPO tiene un modelo enumerable en el sentido de la teoría de conjuntos (es decir: el modelo es finito o admite correspondencia uno-a-uno con los números naturales). De aquí se deducía otra consecuencia importante respecto a las propiedades de la LPO: el teorema de compacidad, que tendría gran importancia en el contexto de la teoría de modelos. Gödel obtuvo así un metateorema lógico que suele estudiarse en todo curso universitario de lógica matemática 1. Pero lo mejor estaba por llegar. INCOMPLETUD Y TEORÍA DE LA DEMOSTRACIÓN Demostrar la completud de la lógica de primer orden era un avance hacia la realización del programa que Hilbert se había marcado como objetivo de su metamatemática. Recordemos que se trataba de investigar varias propiedades de los sistemas formales: independencia de los axiomas, completud, decidibilidad, y consistencia. Hilbert asumía, de manera algo implícita o a veces indirecta, que no sólo LPO, sino también otros sistemas formales eran completos y consistentes: en particular, varios sistemas formalizados como el de los axiomas de Dedekind y Peano; el sistema de axiomas de los números reales; y el sistema axiomático ZFC de la teoría de conjuntos. Y obviamente, Hilbert suponía que los métodos empleados en metamatemática eran suficientes para demostrar que dichos sistemas son consistentes. Gödel saltó a la fama con su enorme logro de 1931: la demostración del Primer Teorema de Incompletud, y la idea de cómo demostrar un segundo teorema del que hablaremos más abajo. Tras anunciar los teoremas en varios lugares, Gödel los publicó en su obra "Sobre proposiciones formalmente indecidibles de los Principia Mathematica y sistemas afines", aparecida en la revista Monatshefte für Mathematik und Physik. Estos resultados de la metamatemática arruinaban buena parte de las esperanzas de Hilbert. No tendría sentido aquí intentar una descripción precisa del contenido y los métodos de ambos teoremas 2. Nos limitaremos a dar una idea de su tendencia fundamental y de sus repercusiones. Los sistemas formales definidos o codificados en la lógica de primer orden son, como hemos visto, de carácter finito y combinatorio. Cada enunciado es una secuencia finita de símbolos -por ejemplo: ) -y hay algoritmos que determinan si una secuencia dada está bien formada o no. Cada demostración formal es una secuencia finita de fórmulas, que puede escribirse como varias líneas, en cada una de las cuales aparece una fórmula. Una nueva línea en la demostración se justifica pura y simplemente por las reglas de inferencia (formales o combinatorias) y por una o varias de las líneas que la preceden. Y hay algoritmos que determinan si una secuencia dada de fórmulas es o no es una demostración. En resumidas cuentas, al formalizar una teoría matemática en LPO, lo que estamos haciendo es reducir todo lo relativo a los enunciados de la teoría y sus demostraciones a un mero asunto de combinatoria de símbolos. Precisamente por ser consciente de esto, Hilbert se convenció de que era posible desarrollar una teoría matemática de las demostraciones formales. Pensemos ahora en la teoría de números. Los números naturales son instrumentos que manejamos para representar todo tipo de fenómenos de carácter finito. Más aún, cualquier cuestión que sea sólo de carácter combinatorio y finito puede siempre ser reformulada como una cuestión acerca de números (Tait 1981). Esto no debería sorprendernos mucho, y hoy menos que nunca. Recuerdo al lector que, en el mundo digital que nos hemos creado, los números naturales nos permiten codificar todo tipo de informaciones: programas informáticos, por supuesto, y el contenido de cualquier libro, y gráficos, etc., pero también la cara de mi abuelo (tal como queda reflejada en una fotografía) y las melodías y armonías de la sinfonía 41 de Mozart tal como las interpretara von Karajan... ¡o la voz de Hilbert en el año 1930! 3 Con más razón, y con mucha mayor precisión, pueden los números codificar todos los asuntos de combinatoria finita. Tratemos ahora de reunir y combinar lo que acabamos de decir en los párrafos anteriores. Dado que cualquier sistema formal es de carácter combinatorio y finito, resulta posible establecer una representación o codificación de la información relevante sobre el sistema mediante números naturales. Es decir, podemos asignar números a los símbolos del sistema, y también a las fórmulas del sistema. Y lo más interesante: las relaciones entre las fórmulas se corresponderán también con relaciones bien definidas entre sus códigos numéricos. Esto es, lo relativo a la metamatemática del sistema es codificable en términos aritméticos. Semejante codificación digital del sistema formal y su metateoría se llama a veces una gödelización, y los números asignados se llaman "números de Gödel" (o incluso "gödels" a secas) de los signos, fórmulas, demostraciones, etc. Una vez realizada esa codificación, es posible determinar efectivamente propiedades como si cierto número n es el número de un signo, o si es el número de Gödel de una fórmula. Dada una teoría T, hay algoritmos para determinar si cualquier fórmula dada es un axioma, si cierta ristra de fórmulas es una demostración formal, etc. Por tanto, es posible determinar efectivamente propiedades como las siguientes: si el número n es el número de Gödel de un axioma, o es el número de una demostración formal. Y también se puede determinar efectivamente la relación que se da entre los números n y m cuando m es el gödel de una demostración formal a partir de T de la fórmula cuyo gödel es n. ¿Por qué resulta todo esto interesante? Simple y llanamente, porque se trata de métodos muy fructíferos, y porque fue explotando las posibilidades de esas codificaciones (esa aritmetización de la metamatemática) como Kurt Gödel logró establecer sus llamativos resultados de 1931. La teoría de los números naturales, en particular, puede ser axiomatizada y formalizada: se trata de la Aritmética de Dedekind-Peano (ADP). Pero aplicando el procedimiento de gödelización, se obtiene una representación del sistema formal ADP dentro de la propia aritmética; y por tanto, es posible representar el sistema y su metamatemática JOSÉ FERREIRÓS dentro de sí mismo. Lo cual permitía, dando un nuevo giro a la reflexividad que está aquí involucrada, obtener un resultado capital. Gödel supo emplear las relaciones aritméticas para "cocinar" una fórmula j que no puede ser demostrada ni refutada dentro del sistema formal, so pena de inconsistencia 4. La fórmula j de Gödel se obtiene considerando cuidadosamente la manera concreta en que se ha "gödelizado" el sistema formal, por ejemplo ADP. Conociendo el modo en que las propias relaciones aritméticas interpretan o codifican propiedades metamatemáticas, es posible interpretar j como una afirmación de su propia indemostrabilidad 5. La fórmula j está construida de tal modo que, si j fuera demostrable en el sistema formal, éste sería contradictorio; y si la negación de j fuera demostrable, también sería contradictorio. Suponiendo pues que el sistema sea consistente (como creemos que lo es ADP y los demás sistemas que interesan a los matemáticos), la fórmula j es formalmente indecidible dentro del propio sistema. Pero, como añadía el propio Gödel, De la observación que [j] afirma su propia indemostrabilidad, se sigue inmediatamente que [j] es correcta, puesto que [j] es ciertamente indemostrable (pues es indecidible). Y así, la proposición que es indecidible en el sistema PM resulta con todo ser decidida por consideraciones metamatemáticas. Aunque el sistema formal particular para el que Gödel demostró su Primer Teorema era el mencionado PM (basado en los Principia Mathematica de Whitehead y Russell), estaba claro que resultados análogos se podían demostrar para ADP o para sistemas como el ZFC de la teoría de conjuntos. En la descripción anterior no hemos entrado en detalles técnicos, pero como el lector podrá imaginar se ha establecido con toda precisión la clase de los sistemas afectados. Para la gödelización o aritmetización de la metateoría no hace falta ni siquiera disponer de toda la aritmética, es suficiente con una parte de ella (llamada aritmética recursiva primitiva). Cualquier sistema formal que tenga la capacidad expresiva suficiente para formular esa parte de la aritmética, está sujeto al Primer Teorema de Gödel. Esto sucede con la teoría de conjuntos o los sistemas formales para el análisis. La existencia de un sistema formal incompleto no es en sí particularmente sorprendente. Un sistema puede ser incompleto simplemente porque no se han descubierto todos los axiomas necesarios. Lo que demostró Gödel es que, en casos de gran importancia como la aritmética o el análisis real, nunca se puede lograr un conjunto completo de axiomas. La incompletud es esencial: cada vez que se añada un nuevo axioma siempre habrá otra proposición que resulte indecidible. Según parece, Kurt Gödel tuvo siempre preferencia por la idea de que las matemáticas estudian un dominio de objetos, de entidades independientes cuya existencia y propiedades son objetivas. Parece ser que en su juventud limitaba esa actitud suya a los números naturales, mientras que consideraba como creaciones humanas a las ideas matemáticas más avanzadas (el concepto de conjunto, por ejemplo). Pero poco a poco su "platonismo" o realismo con respecto a los objetos matemáticos se fue ampliando, hasta incluir los conjuntos. En esto tuvieron un papel importante sus trabajos sobre la teoría de conjuntos y su metamatemática. Las contribuciones de Gödel en este campo fueron muchas y de gran calado. Para empezar, la visión intuitiva de los conjuntos que hoy prefieren los especialistas (denominada la concepción iterativa de los conjuntos) fue aportación de Gödel en los años 1930 y 1940. Según esta concepción, comenzamos con un dominio limitado de objetos, por ejemplo los números naturales, y formamos conjuntos de esos objetos. Y la operación "conjunto de" puede iterarse, para formar conjuntos de conjuntos de conjuntos... Dicho proceso iterativo se concibe como abierto y absolutamente sin límites. La idea no está exenta de dificultades, pero ofrece una concepción sólida que justifica con relativa facilidad los axiomas habituales del sistema de Zermelo-Fraenkel, y aclara también por qué las famosas paradojas o contradicciones no afectan a la teoría axiomática de conjuntos. Más importantes todavía fueron las contribuciones técnicas que Gödel realizó hacia 1940. Se trató de aplicar los métodos de la lógica matemática al estudio metateórico del sistema axiomático de Zermelo-Fraenkel (y otros sistemas alternativos de teoría de conjuntos). Suponiendo dado un modelo M del sistema de Zermelo-Fraenkel, Gödel consideró un submodelo (en el interior de M) constituido por lo que se denominan conjuntos constructibles. Tales modelos internos resultaron tener propiedades de gran interés, permitiendo resolver varias dificultades. Como vimos antes, desde comienzos de siglo venía existiendo una gran controversia en torno al Axioma de Elección. Con sus nuevos métodos, Gödel demostró en 1939 que, si la teoría de Zermelo-Fraenkel (sin Axioma de Elección) es consistente, entonces también lo es la teoría ZFC que añade a la anterior dicho axioma. Esto es así, porque dado un modelo del simple sistema Zermelo-Fraenkel, el modelo interno de conjuntos constructibles satisface a la teoría ZFC. Gracias a este resultado, las cautelas extraordinarias que se venían tomando en relación al Axioma de Elección perdieron base. Análogamente, Gödel demostró que la Hipótesis del Continuo de Cantor puede añadirse a la teoría ZFC sin que afecte en absoluto a su consistencia. Pero Gödel creía que, en realidad, la Hipótesis de Cantor era independiente de los axiomas habituales, de modo que a fin de cuentas no era sino una proposición indecidible en la teoría de conjuntos estándar. Los trabajos de Paul Cohen en los años 1960, que introdujeron una nueva etapa en el desarrollo de la teoría de conjuntos (con su método de forcing) y le valieron la Medalla Fields, confirmaron plenamente esa idea. Finalmente, nuestro hombre fue también el gran impulsor de lo que se llama a veces el "Programa de Gödel" en teoría de conjuntos, que encuentra su justificación en resultados como los anteriores y en el Teorema de Incompletud. La idea era avanzar hacia un mejor conocimiento del universo de los conjuntos introduciendo axiomas que establecen la existencia de lo que se llama "grandes cardinales" (con una modestia en la expresión que algunos califican de poética). Si la teoría de conjuntos estudia los cardinales infinitos, todos los cuales parecen enormes o incluso monstruosos a una persona media, los "grandes cardinales" son exorbitantemente grandes. Pero su estudio ha guiado buena parte de la labor de los especialistas durante el último medio siglo, produciendo resultados notables y de una sofisticación matemática muy considerable. Sigue siendo un problema abierto si la introducción de grandes cardinales conducirá a resolver el Problema del Continuo de Cantor. Gödel creía, en realidad 6, que la hipó-tesis de Cantor es falsa, y que la cardinalidad del continuo es 2. Según importantes especialistas, hay resultados recientes que apuntan en esta misma dirección, pero todavía se está lejos de ninguna demostración fehaciente. REPERCUSIONES: EL PANORAMA EN FUNDAMENTOS Según vimos, durante el primer tercio del siglo XX las principales corrientes, dentro del estudio de los fundamentos de la matemática, eran logicismo, formalismo e intuicionismo. Las aportaciones de Gödel afectaron profundamente a toda la discusión y contribuyeron quizá más que ninguna otra a modificar sus términos. Cabría argumentar que el logicismo estaba ya en pleno retroceso antes de Gödel, pero en todo caso sus resultados afectaron a esta corriente del mismo modo que al formalismo. Ambas propugnaban la formalización completa de las teorías matemáticas, y presuponían ingenuamente que los nuevos sistemas formales (especialmente los de importancia práctica, como los sistemas para la aritmética y el análisis real) serían completos. El Primer Teorema de Incompletud de 1931 cayó no como un jarro, sino como una verdadera inmersión en agua fría, y sus consecuencias se sentirían por muchos años. Se sienten todavía, porque es un resultado inapelable que afecta a nuestra comprensión del conocimiento matemático. En mi opinión, contraria a lo que piensa algunos matemáticos, la conclusión principal es que no se puede identificar las matemáticas con una (o varias) teorías formales; pero esto tampoco nos arroja en brazos del platonismo. Las teorías formales son instrumentos matemáticos de gran alcance y de gran interés. También interés práctico, ya que los desarrollos de la lógica matemática asociados al nombre de Gödel han conducido a las teorías de la computabilidad, constituyendo la base teórica del desarrollo de la tecnología de computadores. Pero las teorías formales son instrumentos que tienen límites severos: en los casos interesantes son incompletas, no sirven para caracterizar unívocamente el dominio de entidades que se pretende estudiar, etc. Gödel contribuyó más que ningún otro a aclarar esta situación. La tendencia que se vio más afectada fue la formalista, y en particular el Programa de Hilbert para la demostración JOSÉ FERREIRÓS de que las teorías matemáticas son consistentes. Gödel no sólo demostró el teorema del que hablamos en la sección 3, sino también un Segundo Teorema de Incompletud. Los procedimientos de gödelización o aritmetización hacen posible formular una fórmula Con(S) que codifica la consistencia del sistema formal S, y esto puede hacerse de tal modo que la fórmula j que vimos en la sección 3 sea deducible de Con(S). Los detalles técnicos son delicados, de manera que la demostración de este Segundo Teorema es bastante más difícil que la del primero. Pero la consecuencia es clara: la fórmula Con(S) es también indecidible. La consistencia de un sistema formal de este tipo no es demostrable sin emplear medios que no son codificables dentro del propio sistema. El Programa de Hilbert pretendía demostrar la consistencia de la aritmética ADP, de ZFC, y sistemas afines mediante medios finitos. Pero tales medios son codificables dentro de cualquiera de dichos sistemas. Gödel estableció pues que la meta que Hilbert se había fijado era inalcanzable. Por aclarar la situación metafóricamente, el intento de Hilbert quedó en una posición similar a los del barón de Münchhausen (personaje literario de Rudolf Erich Raspe): el barón había caído con su caballo en una ciénaga, e intentaba salir tirándose de su propia coleta. Igualmente fútiles parecían los intentos de resolver las dudas escépticas sobre las matemáticas con medios matemáticos. En seguida, Gödel pasó a estudiar otros aspectos de los sistemas formales que tenían interés para la polémica entre formalistas e intuicionistas. Los intuicionistas, ya lo vimos, ponían objeciones a los métodos usuales en matemáticas, hasta el punto de rechazar incluso la forma normal de argumentar en aritmética. Así elaboraron una "aritmética intuicionista", y esta teoría acabó siendo formalizada en un sistema que llamaremos AI. Pues bien, en 1933 Gödel demostró que si el sistema AI es consistente, también lo es la aritmética "clásica" del sistema ADP. No era un resultado tremendo, pero cuestionaba las dudas de los intuicionistas. También sirvió para clarificar las ideas de los especialistas en fundamentos, que hasta entonces habían confundido los métodos finitarios con los métodos intuicionistas. Se entendía ahora, por fin, que los segundos van más allá de los primeros. Tras todos estos giros, el panorama en fundamentos acabó mutando. El formalismo siguió estando fuerte a mediados del XX, aunque más como ideología conveniente que como una alternativa seria, ya que se había ido la esperanza de conseguir la clave de bóveda que debían haber constituido las demostraciones de consistencia. Hacia 1950, el logicismo había casi desaparecido, porque a las dificultades mostradas por Gödel se le unían otras específicas suyas. Entretanto, las peculiaridades de los métodos matemáticos, que la Lógica Matemática hizo tanto por clarificar, se convertían en argumentos plausibles a favor del platonismo. Y así, la tendencia preferida por Gödel se volvió una alternativa sólida en la práctica, aunque rodeada de dificultades filosófico-científicas 7. El intuicionismo y, más en general, las posiciones denominadas constructivistas no desaparecieron, pero se consolidaron como una alternativa minoritaria. Así pues, y hablando a grandes rasgos, en la segunda mitad del siglo eran mayoritarias las posiciones que combinaban de modos diversos aspectos del formalismo y del platonismo 8. Un triunfo más de Gödel. La teoría de la demostración, por cierto, ha seguido desarrollándose con gran éxito. Téngase en cuenta que los propios teoremas de Gödel, por sorprendentes que fueran sus resultados, constituían grandes éxitos de los métodos metamatemáticos. Pero no ha resultado ser la panacea anunciada por Hilbert. Otra gran figura del siglo XX, John von Neumann, se había dedicado con ahínco al estudio de los fundamentos y al Programa de Hilbert. Tras los teoremas de Gödel, que von Neumann fue quizá el único en comprender inmediatamente, su desencanto con estos temas fue enorme. Decidió volverse hacia campos de las matemáticas que no fueran tan abstractos, sino que estuvieran en contacto directo con las ciencias, con la inyección vivificadora de ideas procedentes de la experiencia. El desarrollo intelectual de Gödel fue en otra dirección. Continuó trabajando con intensidad en lógica matemática y fundamentos en las siguientes décadas. Pero, poco a poco, se fue centrando más en tratar de darle justificación filosófica a sus ideas preferidas. Se entregó así al estudio de textos filosóficos, a la reflexión sobre la obra de Leibniz y sobre la fenomenología de Husserl. Especuló con la posibilidad de elaborar una nueva ontología de los conceptos, y así fueron pasando los años, cada vez más recluido en el Institute for Advanced Study de Princeton. Continuaron la coherencia enorme y cierta tendencia a la obsesión que habían caracterizado su vida, y caracterizaron también su muerte por "desnutrición e inanición" en 1978. S. González y C. Martínez RESUMEN: El objetivo del trabajo es mostrar el papel esencial que juegan actualmente las matemáticas en la teoría de la información. El trabajo está pensado para no especialistas y pretende dibujar en unas breves pinceladas como es la situación actual. PALABRAS CLAVE: Códigos correctores de errores, criptografía, información digital, clave pública, clave secreta. La información, tanto por la cantidad como por la velocidad con la que circula, se ha convertido en una seña de identidad del momento actual. El trabajo de Shannon, en el que se da carácter matemático a la información, convirtiéndola en algo que se puede medir y tratar de modo científico, representó, sin lugar a dudas, un punto de inflexión en la teoría de la información. Hoy en día nadie duda de que la información es poder y como tal, un bien valioso que tiene que ser protegido de ataques a su integridad o a su confidencialidad. Si lo pensamos detenidamente, la cantidad de información, en muchos casos información muy sensible, que circula actualmente por canales más o menos públicos, puede hacernos sentir vértigo. La mayoría de nosotros entra de modo habitual en Internet y sabe que se puede encontrar información sobre prácticamente todo, si uno sabe buscarla. Tambien estamos acostumbrados a intercambiar información con nuestro banco, con una agencia de viajes o realizando compras a través de la red. Es claro que todos nosotros deseamos tener la seguridad de que la información que enviamos sólo es accesible para su legítimo receptor y que no cae en "manos indebidas". La seguridad de la información ha pasado de ser exclusividad de la Política, la Diplomacia, los Servicios de Inteligencia o las Altas Finanzas, a convertirse en algo cotidiano, que en mayor o menor medida nos afecta a todos y cada uno de nosotros. Parece claro que la información tiene que ser protegida, tanto en los aspectos de fidelidad de la información, detectando y corrigiendo los posibles errores generados por el ruido (nombre genérico para todas las perturbaciones eléctricas, magnéticas o de cualquier tipo que afecten al canal por el que se transmite la información) como en el aspecto de confidencialidad e integridad de la misma. Y en este punto las Matemáticas juegan un papel de extraordinaria importancia. Siguiendo a N. Koblitz podemos decir que: "La enorme utilidad de las matemáticas en la seguridad de la información está bordeando el misterio y no existe explicación racional para ella", parafraseando a Eugene Wigner que escribió esa afirmación en relación al papel jugado por las matemáticas en las Ciencias Naturales y especialmente en Física. Cuando hablamos de información siempre tenemos en mente información digital, secuencias de ceros y unos, que pueden ser transmitidos por un canal. La información de un periódico o de una fotografía no es digital, pero se puede transformar en información digital y por eso podemos leer el periódico por internet o enviar fotografías por correo electrónico. Los códigos se inventaron para corregir los errores que se producen en la comunicación a través de canales con ruido. Tratan de reproducir lo que hacemos en la vida cotidiana cuando estamos hablando y un ruido ambiental nos impide entender lo que nos ha dicho nuestro interlocutor. Le pedimos que nos repita lo que ha dicho. Por eso el primer paso es la detección de los errores en la información recibida. Pero no siempre podemos solicitar que nos reenvíen la información que ha llegado defectuosa. Aparte del coste que tiene el uso del canal, puede ser inviable. Pensemos en información almacenada en un disco y que se abre al cabo de un tiempo, cuando ya no se puede pensar en su reenvio. O en una fotografía enviada por un satélite espacial desde una posición concreta. Se añade a la información que se quiere enviar una serie de dígitos (de control) que no contienen información, pero permiten detectar y, eventualmente corregir, errores, siempre que el número de errores producidos no exceda la capacidad correctora del código. Los códigos correctores forman parte de nuestra vida cotidiana, como ocurre con la letra que se añade al DNI o el ISBN de los libros. También lo utiliza la naturaleza en el código genético, aunque no sepamos exactamente como funciona. En el diseño de códigos correctores de errores cuyo almacenamiento no desborde las capacidades de nuestro ordenador, las matemáticas juegan un papel decisivo. Todos los códigos considerados de modo usual son códigos lineales, es decir, disponemos de todas las herramientas del álgebra lineal. Pero no son las únicas. Teoría de cuerpos finitos, polinomios sobre ellos, geometría algebraica o matemática discreta (diseños, geometrías finitas, etc.), teoría de anillos, son algunas de las partes de las matemáticas que juegan un papel importante en la teoría de códigos correctores de errores. Dado que en general no existen algoritmos eficientes para la descodificación de un código lineal, el diseño de códigos con buenas propiedades, es decir con algoritmos de descodificación eficientes, sigue siendo un campo abierto al trabajo y la imaginación de los mate-máticos, que pueden aplicar las técnicas y herramientas que les son familiares; probablemente en algunos casos de modo sorprendente. Pero nuestro objetivo es poner de relieve el papel que juegan las matemáticas en la seguridad de la información. La protección de la información, o más concretamente de cierto tipo de información, ha sido una preocupación de la humanidad desde tiempos remotos. Todos hemos oido hablar del cifrado usado por César para enviar sus mensajes o del escítalo de los lacedemonios. En algunos casos los procesos de cifrado fueron especialmente eficaces. Pensemos en los jeroglíficos usados por los sacerdotes egipcios, que no fueron descifrados hasta el siglo XIX. Todos estos cifrados, usados desde la antigüedad corresponden a lo que hoy llamamos criptografía de clave privada o simétrica. El texto se enmascara, transformándolo en un texto cifrado, usando para ello una clave que debe permanecer secreta y debe ser conocida sólamente por el remitente (o emisor) del mensaje y su legítimo receptor, que básicamente utiliza la misma clave para recuperar el mensaje original, o en todo caso, el coste computacional de cifrar y descifrar un mensaje es el mismo. La auténtica revolución que cambió el panorama de la criptografía se produjo en el año 74, con el artículo en el que Diffe y Hellman introducen la criptografía de clave pública. La idea base es que la clave de cifrado de un determinado usuario A sea pública y cualquier otro usuario de la red le pueda enviar mensajes cifrados a A usando dicha clave pública. Pero sólo A, que tiene la clave privada, será capaz de descifrar los mensajes cifrados. ¿Cómo es posible que cualquier usuario pueda cifrar mensajes y no pueda descifrarlos? Es en este punto dónde las matemáticas juegan un papel esencial. La existencia de criptografía de clave pública se basa en la existencia de funciones de una vía. Una función de una vía es una función para la cual es fácil calcular la imagen de cualquier elemento, pero la determinación de la imagen inversa de un elemento, aún sabiendo que exista, es muy costoso computacionalmente, de hecho inasumible. Los criptosistemas de clave pública más usuales se basan en el problema de la factorización (RSA) y en el problema del logaritmo discreto. Dados dos números primos, aunque sean muy grandes, se pueden multiplicar sin problemas, pero factorizar un número grande (pensemos en números de 200 cifras decimales), aún sabiendo que es compuesto, es extremadamente costoso y requiere un tiempo que no lo hace factible. Para diseñar un esquema RSA el usuario debe elegir dos primos grandes p y q (para garantizar la seguridad p y q deben cumplir algunas propiedades adicionales) y un cierto entero e, que también veremos debe cumplir alguna condición. Su clave pública será el par (N, e) dónde N = pq. De este modo, los mensajes, que se identifican previamente con clases de restos módulo N (o si se quiere con enteros positivos menores que N), se cifran haciendo una exponenciación modular. Es decir, el cifrado de un mensaje m es el resto de dividir m e entre N. Notemos que para descifrar necesitariamos hallar la inversa de la exponenciación anterior módulo N, lo que en general no se puede hacer si no se dispone de una información adicional, de la que dispone el propietario de la clave y que debe evitar llegue a ser conocida. En este caso dicha información adicional es el par de números primos p y q en los que se factoriza N. Dado un entero n mayor que 1, se llama función de Euler de n, f(n), al número de enteros positivos, menores que n y relativamente primos con n. Si tratamos de calcular la función de Euler de un número grande n, el procedimiento es muy costoso computacionalmente, comparable al coste de factorizar el número n. Pero si conocemos a priori la factorización de n, entonces es inmediato calcular f(n). En nuestro caso, si N = pq, entonces f(N) = (p -1) (q -1). Tambien probó Euler (del que se conmemora este año el 300 aniversario de su nacimiento) que si a es un entero relativamente primo con N, entonces la potencia f(N) de a es congruente con 1 módulo N (a f(N) ≡ 1 mod N). Si elegimos el entero e relativamente primo con f(N), entonces podemos encontrar muy fácilmente, usando el algoritmo euclídeo de la división, otro entero d tal que ed ≡ 1 mod f(N). Ahora para el propietario de la clave es muy fácil descifrar. Para recuperar el mensaje m cuyo texto cifrado es c (c ≡ m e mod N) sólo tiene que hacer una nueva exponenciación, m ≡ c d mod N. Son resultados de teoría de números los que suministran la función de una vía en la que se sustenta la seguridad del RSA. Otra función de una vía viene asociada al problema del logaritmo discreto. Si G = es un grupo cíclico convenientemente elegido, es computacionalmente imposible encontrar, para un elemento arbitrario y del grupo, el exponente x tal que y = g x. Tal exponente x se llama el logaritmo discreto de y en base g. En particular se sabe que ese es el caso si tomamos como grupo cíclico el grupo multiplicativo de los elementos no nulos de un cuerpo finito (suficientemente grande) o el grupo asociado a una buena curva elíptica. En este caso, si un usuario A quiere diseñar un criptosistema de clave pública tipo ElGamal, selecciona un adecuado grupo cíclico G =, que hace público al igual que el generador del mismo y también hace público un elemento del grupo, y con y = g k, siendo k un número adecuado que debe mantener secreto, difícil de determinar para cualquier otro usuario y que permitirá a A descifrar los mensajes que le envian. Notemos que k es el logaritmo discreto de y en base g, luego la seguridad del sistema se basa en que sea computacionalmente imposible calcularlo. Ahora los mensajes se identifican de algún modo con elementos del grupo. Para cifrar el mensaje m, otro usuario B determina aleatoriamente un r y envia el par (g r, my r ). Para descifrar el mensaje, A considera la primera componente del par, g r y la eleva a su clave privada k. Como (g r ) k = (g k ) r = y r, para recuperar el mensaje m basta que divida la segunda componente del par recibido por el elemento (g r ) k que acaba de calcular. Notemos que r tambien debe elegirse de modo adecuado, pues un tercer usuario podría recuperar el mensaje concreto m si es capaz de determinar r que es el logaritmo discreto en base g de la primera componente del mensaje cifrado. OTROS TIPOS DE CRIPTOGRAFÍA Hay otras muchas partes de las matemáticas que tienen aplicaciones en Criptografía. Por ejemplo la Combinatoria. En el año 78 se recibió con entusiasmo una propuesta de Hellman y Merkle de un criptosistema basado en el problema de la mochila. El problema de la mochila consiste en, dada una sucesión de números {b 1,..., b n } y un número S (menor o igual que la suma de los términos de la sucesión) determinar si es posible encontrar algunos términos de la sucesión cuya suma nos dé el número S. Se sabe que en general es un problema difícil y no existe ningún algoritmo eficiente para resolverlo (en términos de teoría de la complejidad es un problema NP-completo). Pero existe un caso en el que el problema es especialmente sencillo de resolver, las llamadas sucesiones supercrecientes, en que cada término es mayor que la suma de los que le preceden. Por ello se parte de una sucesión supercreciente, que forma parte de la clave secreta, y se enmascara con una serie de operaciones algebraicas, que tambien deben mantenerse secretas, para transformarla en una sucesión aparentemente arbitraria y sin "buenas propiedades", que es la clave pública. El recuperar el mensaje enviado a partir de su texto cifrado obligaría a un usuario no autorizado a resolver el problema de la mochila en un caso difícil, mientras que el propietario de la clave lo transforma, deshaciendo las operaciones algebraicas de su clave secreta, en un problema de la mochila en el caso sencillo de sucesiones supercrecientes, para las cuales existe un algoritmo muy eficaz. Este esquema de cifrado y descifrado era muy eficiente, unas 100 veces más rápido que el RSA. Pero en 1984 Shamir, uno de los padres del RSA, rompió completamente el criptosistema, sin recuperar la clave secreta, sino encontrando nuevos elementos que jugaban un papel análogo y le permitian recuperar el mensaje en claro sin conocer la clave secreta. Aunque se intentó salvar el criptosistema, introduciendo iteraciones y modificaciones, todas ellas fueron rotas por Shamir. Durante un tiempo se consideró que la criptografía basada en problemas combinatorios no tenia futuro, a pesar de la existencia de muchos problemas NP-completos conocidos que serian los candidatos naturales para definir una función de una vía. No obstante hoy en día se ha recuperado la idea de utilizar problemas de combinatoria y se está produciendo una notable actividad en esta dirección, si bien no hay todavía ninguna propuesta concreta que sea viable y eficaz. La aparición de los ordenadores cuánticos supondria una amenaza letal para los sistemas criptográficos de clave pública más utilizados (basados en factorización y en el problema del logaritmos discreto), dado que el proceso de multiplicar dos números y la factorización de un número pasarian a ser problemas de complejidad similar con un ordenador cuántico. Por ello se han buscado primitivas criptográficas basadas en otros aspectos matemáticos, con problemas en los que un ordenador cuántico no supondría un cambio sensible. Una de las ramas que ha jugado y juega un papel fundamental es la teoría de grupos, tanto finitos como infinitos. En general los grupos infinitos considerados en criptografía son finitamente presentados, es decir admiten un conjunto de generadores finito que satisfacen un conjunto finito de relaciones. Los esquemas propuestos se basan en la conocida dificultad de dos problemas, el de la palabra (¿podemos determinar si una palabra en los generadores representa o no el elemento identidad en el grupo?) y el de la conjugación (determinar si dos elementos del grupo son o no conjugados en el grupo). En el caso de grupos finitos en general las propuestas se basan en la existencia de ciertos conjuntos, con propiedades especiales, que permiten escribir todos los elementos del grupo como producto de elementos de dichos conjuntos (como signaturas logarítmicas, mallas o cubiertas, ver [15]). También se han utilizado grupos Braid en criptografía, si bien los esquemas diseñados han sido criptoanalizados en la mayoría de los casos. Finalmente, en este sentido, comentemos que la primera propuesta de diseño para un criptosistema IND-CCA (que se ha convertido actualmente en la noción standard de seguridad deseable), se debe a Cramer y Shoup tomando como base grupos abelianos. También se han presentado propuestas basadas en grupos no abelianos (ver [16]). Las exigencias de seguridad han ido cambiando, dependiendo de necesidades y del perfeccionamiento y la sistematización lograda por el criptoanálisis. Se han desarrollado diversas nociones de seguridad, siendo este un campo teórico de trabajo en el que aún queda mucho por hacer. La noción de seguridad considerada depende de la cantidad de información conocida por un adversario y el tipo de ataques que pueda llevar a cabo. En algunos casos el adversario conoce pares de texto y sus cifrados, pero en otros casos puede ob- tener el cifrado de cualquier mensaje previamente elegido, como ocurre en la criptografía de clave pública. Tambien puede ocurrir que cuando el atacante trata de recuperar un mensaje concreto m a partir de su cifrado c, tenga acceso al descifrado de cualquier otro texto cifrado. El criptoanálisis y la criptografía van íntimamente ligados. Antes de proponer un sitema de cifrado, es necesario hacer una tarea de criptoanálisis, para tener una mínima seguridad de la robustez del esquema. El criptoanalista, en su tarea de buscar vulnerabilidades de los esquemas propuestos, utiliza gran variedad de herramientas matemáticas: técnicas estadísticas, algebraicas, algoritmos de optimización, teoría de números, etc. Una de las técnicas más potentes utilizadas por el criptoanálisis está basada en retículos. Un retículo es el conjunto de combinaciones lineales enteras de un conjunto de vectores linealmente independientes (su estructura en dimensión 2 ó 3 se parece a una red). Estas estructuras tienen aplicaciones en otras partes de las matemáticas, como álgebras de Lie, en teoría de códigos correctores o en otras ciencias, como la cristalografía. Las aplicaciones a criptología se hacen a través de la resolución de ciertos problemas como el del vector más corto. La complejidad de los mejores algoritmos conocidos para resolverlos crecen, al menos en el peor de los casos, exponencialmente con la dimensión del retículo. Sin embargo A. J. Lenstra, H. W. Lenstra y L. Lovász vieron que si se quiere encontrar un vector relativamente corto, el problema es mucho más fácil y diseñaron un algoritmo, el LLL, que lo resuelve en un tiempo de ejecución que es polinomial en la dimensión del retículo. El algoritmo LLL se utilizó en el problema de la mochila y en el criptoanálisis al sistema mencionado propuesto por Merkle y Hellman y también para probar la debilidad de algunas funciones hash (que juegan un importante papel en criptografía) o la vulnerabilidad de algunos generadores pseudoaleatorios de números. Aunque la aplicación más espectacular de los retículos ha sido en criptoanálisis, también se han aplicado en criptografía. Ajtai y Dwork propusieron un criptosistema de clave pública basado en una variante, tambien difícil, del problema del vector más corto y además la seguridad se basaba en la difícultad de resolver el problema en un caso cualquiera, no en uno especialmente desfavorable. Pero si el tamaño de las claves es grande, el criptosistema es ineficiente y si se reducen las claves, el criptosistema es, a pesar de todo, vulnerable. Goldwaser, Goldreich y Halevi propusieron otro criptosistema de clave pública cuya seguridad dependia de otro problema difícil, el encontrar el vector de un reticulo más cercano a otro vector dado. Este algoritmo es más eficiente que el de Ajtai y Dwork, pero la forma especial de los retículos utilizados los hace vulnerables ante un cierto tipo de ataques. En la actualidad sólo existe un criptosistema de clave pública en uso que se basa en retículos, si bien no en su descripción inicial. El ataque más fuerte conocido se basa en resolver el problema del vector más corto en un retículo que se construye a partir de la clave pública y que no consigue resolverse porque se pueden utilizar dimensiones grandes debido a la eficiencia del sistema. Hay que hacer notar, sin embargo, que no hay ninguna demostración de que atacar al sistema pase necesariamente por resolver el problema del vector más corto. Coppersmith realizó un significativo avance en el campo del criptoanálisis al publicar en 1996 unos algoritmos basados en retículos que permitian encontrar, con complejidad polinómica, soluciones pequeñas de ecuaciones enteras. Una versión modificada y más operativa dada por Howgrave-Graham permitió encontrar soluciones pequeñas de ecuaciones modulares. El diseño por parte de Boneh y Durfee de un algoritmo para atacar el RSA cuando la clave privada se escoge demasiado pequeña ha sido, probablemente, la aplicación más importante. Finalmente notemos que en ocasiones herramientas del criptoanáliss se utilizan para probar la seguridad de un sistema criptográfico. Es el caso de un algoritmo de Coppersmith que busca raíces pequeñas de ecuaciones enteras en dos variables y que fue utilizado por May para probar que, en ciertas condiciones, la seguridad del RSA es equivalente al problema de la factorización. No se debe deducir de lo anterior, que la criptología se reduce al diseño de criptosistemas y al posterior estudio de sus debilidades en el criptoanálisis. Los problemas de los que se ocupa la criptografía son muy numerosos y no podríamos enumerarlos en estas páginas. Aparte del uso de passwords, ya generalizado, y todo lo que rodea al comercio y dinero electrónico, mencionaremos, a modo de ejemplo, sólo algunos de ellos: Autenticación de mensaje y firma digital: Se trata de una de las principales aplicaciones de la criptografía de clave pública, aunque en muchas ocasiones se combine con clave privada. La firma digital, a diferencia de la manuscrita, garantiza no sólo que el emisor es quien afirma ser, sino que el mensaje llega a su destinatario sin alteraciones o modificaciones en el mismo. Compartición de secretos: Se quiere dar información a un grupo de gente de modo que una información secreta sea recuperada si cualquier subconjunto de k personas colabora, pero no se consiga si son sólamente k -1 los que colaboran. Acuerdo de bit: Reproduce el proceso de lanzamiento de una moneda entre dos personas que están a distancia y tienen que interactuar de modo secuencial y no en el mismo instante. Pruebas de conocimiento cero y transferencia olvidadiza (oblivious transfer): Se utiliza cuando una persona quiere convencer a otra de que posee una información o es capaz de hacer algo (por ejemplo demostrar un teorema) sin revelar los detalles. Un modo de construir pruebas de conocimiento cero no interactivas es a través de un canal de transferencia olvidadiza, que es un sistema para enviar dos paquetes de información cifrada sabiendo emisor y receptor que sólo uno de los dos paquetes puede ser descifrado y leido por el receptor y el emisor ignora cual de los dos paquetes será el que puede leer el receptor. A los anteriores problemas podemos añadir el descubrimiento parcial de secretos, la venta de secretos, esquema electoral, transferencia inconsciente, firma de contratos, correo con acuse de recibo, etc. Como vemos la lista se prolonga de un modo realmente impresionante y la actividad en el campo es incesante. Basta echar un vistazo a las actas de alguna de las importantes reuniones que se celebran anualmente en el ámbito internacional, por ejemplo las del último Eurocyrpt en San Petersburgo (el de este año será en Barcelona) o a las de TCC 2007 (Theory of Cryptography Conference) que se celebrará este febrero en Amsterdam para ver la cantidad de investigación que se está realizando. Hemos tratado de reflejar como distintas partes de las Matemáticas han jugado y están llamadas a jugar un papel esencial en el desarrollo de la Criptografia, especialmente en Clave Pública. Por supuesto la seguridad de la información necesita profesionales de muchos ámbitos, y muy especialmente informáticos. Shafi Goldwasser publicó un artículo en los Proceedings del IEEE en 1997 con el título: "Nuevas direcciones en Criptografía, Veinte años más tarde", en alusión a los 20 años transcurridos desde la introducción de la Criptografía de clave pública. El subtítulo de dicho artículo es "Criptografía y Teoría de la Complejidad: un emparejamiento hecho en el cielo". Esta idea aparece también expresada por Koblitz, que plantea la importancia de propuestas en criptografía, aunque no sean prácticas ni aplicables eventualmente. Las cuatro razones esgrimidas para ello son: Pueden dar origen a nuevas cuestiones matemáticas o generar nuevos puntos de vista sobre teorías anteriores. Pueden sugerir nuevas líneas de investigación en aspectos teóricos de Ciencias de la Computación y arrojar luz sobre las interrelaciones entre clases de complejidad. Pueden ser un medio de popularizar matemáticas y Ciencias de la computación. Pueden ser un medio efectivo para la enseñanza a niveles no-universitarios. Por tanto los matemáticos han jugado y están llamados a jugar un importante papel en la seguridad de la información. Y al mismo tiempo, la fructífera relación con Ciencias de la Computación debe ser cuidada, mantenida y estimulada.
A los lectores de la revista Arbor debe resultarles familiar el contenido de este artículo puesto que el Consejo Superior de Investigaciones Científicas fue pionero y decidido impulsor de la presencia española en la Antártida y déla construcción del buque de investigación oceanógrafica «Hespérides», El capitán de navio Cordón, que fue su comandante durante dos años, resume atinadamente los antecedentes históricos de este empeño y del complejo proceso de adhesión de España al Tratado Antartico hasta llegar a la construcción de este buque de investigación multidisciplinar, de cuyas características y equipamiento científico hace una detallada descripción que resulta del máximo interés para quienes estén relacionados o deseen asomarse a este apasionante campo de la ciencia. La participación continuaxia de la Armada desde 1987 en las campañas antarticas queda claramente reflejada a lo largo del artículo, así como las múltiples actividades y trabajos que se realizan a bordo del «Hespérides» en estrecha colaboración con otros organismos nacionales, en una clara y decidida voluntad de presencia y contribución de la Armada a la investigación científica. En octubre de 1988, el Gobierno español tomaba una decisión que sería trascendental para la ciencia española: la decisión de construir un buque de investigación oceanógrafica para prestar apoyo logístico y operar en la Antártida. Para poder valorar este acontecimiento de importancia capital para la investigación oceanógrafica española es necesario comprender la convergencia y sinergia de dos fuerzas en el campo de la ciencia: la voluntad política y ambición científica para formar parte del selecto «club» de naciones del Tratado Antartico, y los anhelos de la comunidad oceanógrafica española para disponer de un buque multidisciplinar del nivel adecuado a nuestro potencial y a la importancia que debe tener la Ciencia y la Tecnología Marina (CYTMAR) en un país de condición marítima como España. De la Investigación Oceanógrafica en España Durante los años 70 y 80 del siglo pasado, la investigación oceanógrafica, al estar enfocada eminentemente a los recursos pesqueros, se centraba en las aguas costeras españolas y del Atlántico, y por tanto estaba liderada por el Instituto Español de Oceanografía (lEO). Los buques de investigación eran en realidad pesqueros transformados, de tnios 30 metros de eslora y de reducido desplazamiento, lo que llevaba consigo una gran carencia de equipamiento científico y de capacidad para embarcar científicos y técnicos. Como ejemplos pueden citarse el Cornide de Saavedra perteneciente al lEO o el García del Cid del Consejo Superior de Investigaciones Científicas (CSIC). Naturalmente, la creciente comimidad científica marina española, como es lógico, anhelaba disponer de un buque de investigación oceanógrafico multidisciplinar y con un equipamiento científico moderno, al más alto nivel, que permitiese a nuestros investigadores integrarse en la naciente comunidad científica europea, aspirando a ser competitivos en determinados campos de las ciencias del mar. Hasta finales de la década de los 80, el máximo aliciente para cualquier científico español era formar parte de algún equipo de investigación extranjero y tener opción a embarcar en buques oceanógraficos de mayor porte y capacidad tecnológica. De la presencia española en la Antártida Conviene resaltar que en 1603 tiene lugar el primer avistamiento de las islas Shetland del Sur por el Almirante Gabriel de Castilla cuando navegaba en persecución de buques holandeses e ingleses con su navio Buena Nueva por el entonces denominado Mar de Castilla (hoy en día Paso Drake o Mar de Hoces). En honor del Almirante toma su nombre una de las dos actuales Bases Antárticas Españolas El «Hésperides» y la aportación de la Armada. (BAEs), concretamente la situada en Isla Decepción de las Shetland del Sur y que está gestionada por el Ejército de Tierra. En 1818 tiene lugar la pérdida del navio San Telmo (de ¡75 años!) lleno de soldados españoles enviados hacia Lima para intentar sofocar los movimientos independentistas. Naufragó en la parte norte de Isla Livingston pereciendo los 644 españoles embarcados. En esta isla, en Bahía Sur, se encuentra situada la otra BAE Juan Carlos I (JCI). En 1957 y 1958 tiene lugar el Año Geofísico Internacional (AGI), centrado en la investigación en la Antártida, y España tiene que renunciar a tomar parte en las investigaciones del AGI debido a las carencias científicas, técnicas y logísticas de aquellos años. En 1958 tiene lugar la creación del SCAR (Scientific Committee on Antarctic Research), organización no gubernamental de carácter científico. El acceso al SCAR de las naciones sólo puede efectuarse por medio de investigaciones científicas relevantes en la Antártida, y demostrando fehacientemente un interés mantenido y sólido. En 1959 tiene lugar la firma del Tratado Antartico (TA) por los 12 países signatarios originales: Reino Unido, Noruega, Francia, Bélgica, EE.UU., Unión Soviética, Japón, Nueva Zelanda, Australia, Sudáírica, Argentina y Chile (en cursiva países con reclamaciones territoriales sobre la Antártida). El tratado fijaba que se procedería a su revisión a los 30 años de su firma, es decir en 1989; y también contempla que es interés de toda la humanidad que la Antártida continúe utilizándose siempre exclusivamente para fines pacíficos y que no llegue a ser escenario u objeto de discordia internacional, a la vez que se reconoce la importancia de las contribuciones aportadas al conocimiento científico como resultado de la cooperación internacional (AGI y SCAR). Aunque España estuvo ausente del AGI y no formaba parte del SCAR, algunos científicos españoles sí formaron parte de algunas expediciones e investigaciones extranjeras (Luis Aldaz, Pepe Ballester, Josefina Castellví,..) e hicieron una auténtica labor de «apostolado», haciendo ver la necesidad de que España llegase a ser un miembro activo del selecto «club» de naciones que formaban parte del TA. Por ello, no es de extrañar que en 1982 España solicitase su ingreso como miembro adhérente del Tratado Antartico, siendo admitida con fecha 31 de marzo de ese mismo año. En realidad fue tan solo la expresión formal por parte del Gobierno español de demostrar su interés por las actividades científicas que se desarrollaban en la Antártida. A partir de dicha fecha los acontecimientos se precipitan. Así, en 1983 tiene lugar la que iba a ser la primera campaña científica española en la Antártida y que quedó én una aventura, la de la goleta Idus de Marzo, que contó con el apoyo inicial del lEO; pero una serie de retrasos y averías hicieron postergar su llegada a la Antártida a finales de marzo, ya acabado el verano austral. Sin embargo, las bellísimas imágenes grabadas tuvieron una gran importancia en la divulgación de la existencia e importancia de la Antártida. En 1984, y con motivo de la II Semana de Estudios del Mar (Cartagena), tiene lugar la presentación de un proyecto de buque oceanógrafico polar español (AH-41) por la Empresa Nacional Bazán (actual Izar), que en diciembre de ese mismo año ñie sometido a la consideración del Ministerio de Asuntos Exteriores (MAE) como Propuesta de Estudio de Previabilidad. Al año siguiente, en la III Semana de Estudios del Mar, la EN Bazán expone un documento denominado «Definición de los requerimientos básicos del Buque de Investigación Oceanógrafica BIO y proyecto de contrato», que más tarde es presentado por la citada empresa, consiguiendo la asignación de un crédito por parte del MAE. En 1986 tiene lugar la expedición científica a la Antártida en los pesqueros Nuevo Alcocero y Pescapuerta IV organizada por el lEO, y enfocada principalmente a evaluar los potenciales recursos pesqueros. En 1987 se consigna una partida presupuestaria en el entonces Ministerio de Educación y Ciencia (MEC) para la construcción de un Buque de Investigación Oceanógrafica BIO con capacidad subpolar (el crédito se consignó como del CSIC). Ese mismo año tiene lugar la auténtica primera campaña científica antartica española auspiciada por el Real Observatorio de la Armada (ROA) en el buque chileno alquilado Río Baker, con objeto de prestar apoyo e iniciar las primeras actividades científicas y levantamientos hidrográficos previos a la instalación de la primera base española en la Antártida. El 6 de enero de 1988 tiene lugar, en Isla Livingston, la apertura de la BAE Juan Carlos I, formada por unos contenedores finlandeses y un módulo de laboratorios embarcado en Vigo en el buque polaco alquilado Garnulszewsky, siendo los costes financiados por el MAE, quien transfiere la BAE al CSIC para su gestión operativa. A la vista de estas actividades, el 21 de septiembre de 1988, España es admitida como miembro consultivo, de pleno derecho, con voz y voto del Tratado Antartico. Este hecho conlleva asumir las responsabilidades del Art. IX.2 del TA que dice extractadamente: «tendrá derecho.... mientras dicha Parte Contratante demuestre su interés en la Antártida mediante la realización en ella de investigaciones científicas importantes, como el establecimiento de una estación científica o el envío de una expedición científica.» Para ello es necesario la creación de una comunidad considerable con medios y experiencia en el campo El «Hésperides» y la aportación de la Armada... operativo-logistico, técnico y científico. Hay que indicar, desde el principio, que operar en la Antártida es difícil y costoso, siendo necesaria la coordinación y cooperación internacional, que además es un mandato del TA. También conviene resaltar que hoy en día tan sólo hay 27 países con «status» de miembro consultivo, de un total de 45 que están adheridos al TA. Volviendo al importante año de 1988, en diciembre tiene lugar la I Expedición a la Antártida en el Remolcador de la Armada Las Palmas y la apertura del -entonces denominado así-«Refiagio» del Ejército de Tierra Gabriel de Castilla en Isla Decepción. En esta campaña y las dos siguientes, también realizadas por el buque Las Palmas, continúan efectuándose trabajos topográficos, geológicos y geofísicos, así como el levantamiento hidrográfico de las primeras cartas náuticas de la zona (Bahías Sur, Walker y Falsa), incluida la del bajo de isla Answer, donde recientemente había naufiragado el buque argentino Bahía Paraíso. En 1990tiene lugar la botadura del BIO (todavía no tenía asignado un nombre y se especulaba con Mar Antartico), siendo su madrina S.M. la Reina Doña Sofía. Gracias a estas iniciativas, que demostraban el interés español en la Antártida y los méritos científicos de las primeras campañas antarticas, ese mismo año de 1990 España ingresa en el SCAR. En abril de 1991 finaliza la III Campaña Antartica del Las Palmas y, un mes más tarde, tiene lugar la entrega del BIO Hespérides a la Armada. El año finaliza con un importante hito y el éxito de nuestra diplomacia con la firma del «Protocolo de Madrid» sobre protección del medio ambiente en la Antártida y sus ecosistemas asociados. España queda así vinculada con la Ciencia y con la Antártida. Ese mismo mes de diciembre comienza la I Campaña Antartica 91/92 del Hespérides, volviendo el Las Palmas a sus cometidos de remolcador de altura de la Armada. Es importante reseñar que en 1999 entró en vigor el «Protocolo de Madrid», por lo que todas las actividades científicas y logísticas deben ajustarse a su estricta normativa para conseguir la protección del medio ambiente antartico y sus ecosistemas asociados al sur del paralelo 60° del hemisferio austral. El aumento de los requerimientos de apoyo logístico a nuestras BAEs, con la ampliación y aumento de su capacidades, el apoyo logístico prestado a la Base Antartica Búlgara (BAB) San Clemente de Orhida -en razón de su vecindad a nuestra BAE JCI en Bahía Sur-, así como la necesidad de dedicar más tiempo operativo del Hespérides a las campañas científicas oceanógraficas antarticas, obliga a tomar la decisión de incrementar la capacidad de apoyo logístico, y así, el 1 de diciembre de 2000 se inicia la apertura de las BAEs y de la BAB mediante dos buques de la Armada Española: el Hespérides en su X Campaña Antartica, y la vuelta a la Antártida del Las Palmas en lo que sería su IV Campaña Antartica. Actualmente, ambos buques de la Armada están realizando sus campañas antarticas 2001/2002, las números XI y V respectivamente. En julio de 2001 se nombró un embajador español permanente para el TA. Para comprender la importancia que ha tomado la participación española, conviene destacar que en el año 2004 tendrá lugar una Reunión Consultiva del TA en España. El buque de apoyo logístico y de investigación oceanógrafica polar de la Armada Hespérides (A-33) El Buque de Investigación Oceanógrafica BIO Hespérides ñie construido en la factoría de Cartagena de la EN Bazán con la partida presupuestaria aprobada el 24 de diciembre de 1987 dentro del entonces MEC. El Consejo de Ministros (21 junio 1988) autorizó al CSIC a «disponer» la construcción de un buque oceanógrafico con capacidad antartica, dentro de sus créditos de inversión aprobados, y al Ministerio de Defensa a «contratar» la construcción del citado buque, correspondiéndole la dirección e inspección de la obra. Finalizada la construcción, el buque quedaría integrado en el Ministerio de Defensa, para lo cual sería dado de alta en la Lista Oficial de Buques de la Armada, quien proporcionaría su dotación. En el citado Consejo de Ministros se acordaba también la constitución de un órgano interministerial de planificación de campañas, al que serían sometidas para su aprobación todas las propuestas de campañas a realizar por el buque. En el momento de redactar estas líneas ha desarrollado con éxito más de 75 campañas científicas. Nunca ha faltado a su cita anual con la Antártida en los veranos australes (su actual campaña antartica 2001/2002 es la XI). El buque ha reaUzado un total de más de 2.500 días de mar (el máximo anual fue de 263 días en 1999), siendo el primer barco español en atravesar el Círculo Polar Antartico (febrero de 1993). Son cifiras que impresionan, porque detrás de ellas está la labor callada y cotidiana de las distintas dotaciones de la Armada que han ido relevándose desde ese ya lejano mes de marzo de 1991 en que efectuó su primera salida a la mar. Estamos pues ante un buque excepcional en el más amplio sentido de la palabra. Por una parte, es el único buque español con capacidad El «Hésperides» y la aportación de la Armada... polar (diseñado específicamente para operar en la zona antartica durante el verano austral hasta los 65° de latitud sur, y cumplir con los compromisos asumidos por España como miembro consultivo del TA desde 1988 -capacidad de prestar apoyo logístico y de investigación oceanógrafica en la Antártida-); y por otra, posee un equipamiento científico multidisciplinar extraordinario de geología y geofísica marina, hidrografía, oceanografía física y química, y de biología marina, sin parangón en España; y muy especialmente en lo que se refiere a su equipamiento de ecosondas (dos multihaz, biológica, paramétrica para sedimentos, y monohaz de precisión) y a su equipamiento para campañas de sísmica multicanal de reflexión, con un conjunto hidrofónico remolcado de 96 canales y 2,5 km de longitud que le permite investigar la estructura de la corteza terrestre hasta 8 kilómetros de proñmdidad. Además, por su eslora, autonomía y tonelaje, es el único BIO español con capacidad oceánica real (lo que se denomina buque azul),que le permite operar sin ningún tipo de apoyo en cualquier mar u océano del globo (actualmente tan sólo le falta navegar por el Indico y por el océano Glacial Ártico). Con ser tan singular en todo lo anteriormente apuntado, quizá su aspecto más relevante sea el de ser el único buque nacional de investigación en ciencias marinas abierto a la participación de cualquier grupo científico español, o de la Unión Europea; participación que se hace en base exclusivamente al mérito científico del proyecto presentado y a su adecuación a las prioridades marcadas por el Plan Nacional de Investigación, Desarrollo e Innovación Tecnológica (I+D+I). Por todo lo expuesto, no es de extrañar que el Hespérides fiíese la primera de las grandes instalaciones científicas nacionales, distinción que ahora comparte junto con otras nueve, entre las que cabe destacar el Gran Telescopio de Canarias (GRANTECAN) en la isla de La Palma y las ya citadas Bases Antárticas Españolas (BAEs) Juan Carlos I y Gabriel de Castilla. La actual Comisión de Gestión (científica) del Hespérides está formada por representantes de los Ministerios de Ciencia y Tecnología, Defensa, Medio Ambiente, Educación, y Agricultura, Pesca y Alimentación (llama la atención que no tenga representante el MAE). Por parte de las Instituciones y Organismos Públicos de Investigación (OPIs), esta Comisión cuenta también con representantes de la Armada (el comandante del buque), lEO, Secretaría General de Pesca, CSIC, Consejo de Universidades, y el Instituto Nacional de Meteorología (INM). Características más relevantes del Hespérides Las características más sobresalientes del Hespérides son: Eslora máxima: 82,5 mts. (un poco alejado de la óptima para aguantar la mar en las grandes extensiones oceánicas, como el Pacífico, pero excelente para maniobrar en el hielo). Manga: 14,33 mts. (valor que indica una gran superficie disponible en cubierta, gran capacidad de apertura y suficiente protección a la hélice cuando se navega avante abriendo camino entre el hielo marino). Calado máximo: 5,20 mts. (relativamente escaso para su ñmción como rompehielos, pero que permite el acceso a muchas zonas de poca profimdidad con seguridad). Desplazamiento a plena carga: casi 3.000 toneladas (compárese con otros rompehielos, como el Almirante Irízar de la Armada argentina de 15.000 toneladas). Velocidad máxima: 15 nudos. Capacidad para almacenar 4 meses de víveres para 90 personas. Autonomía en combustible para llevar a cabo campañas científicas de hasta 2 meses en operación continuada en la mar (500.000 Its de gasóleo). Diseñado para poder navegar hasta 9 meses ñiera de su Arsenal de apoyo (Cartagena), con un ciclo de vida total de 25 años y una modernización prevista a los 8/9 años. Casco rompehielos para hielo marino de primer año (hasta 40 cm) a 5 nudos de velocidad. De su aspecto exterior, enseguida llama la atención su característica proa de rompehielos (que se quiebra por el peso o desplazamiento del barco), estando hecha la obra viva de su casco de un acero especial de alta resiliencia (elasticidad a bajas temperaturas). Carece además de apéndices y posee una barquilla que protege con una plancha de titanio todos los transductores de las ecosondas. Dispone también de una hélice transversal para mover la proa («bow thruster»), y posee las siguientes características que le permiten que el Lloyds le haya concedido la clasificación «Ice Class lOOA IC»: En la parte de popa tiene unas aletas deflectoras del hielo para protección de la hélice, un solo eje (menos vulnerabilidad de las palas de la hélice al estar más próximas a la crujía), propulsión eléctrica de gran potencia, hélice y ancla de respeto, dos tomas de aspiración para el agua de mar de refirigeración (con posibilidad de inyectar agua caliente en los conductos para fimdir el hielo que pueda haberse aspirado), aislamiento térmico del casco y mamparos, calefacción, aceite hidráulico especial para bajas temperaturas, duplicidad de todos los sistemas vitales (radares, equipos de navegación,..), trajes y botes de supervivencia en aguas fiías, etc, etc.. A pesar de tener un solo eje, el barco está dotado de gran maniobrabilidad gracias al sistema Schilling-Vectwin que, por medio de El «Hésperides» y la aportación de la Armada... dos palas o timones independientes, controlados por un ordenador y un «joystick», permiten dirigir el chorro de expulsión de la hélice en los 360°, lo que capacita al buque para mover la popa en cualquier dirección, incluso ir atrás dando avante con la hélice cuando se sitúan ambas palas perpendiculares al eje de la hélice. Existen 5 puestos para control y posicionamiento del buque (puente, alerones de babor y estribor, central de máquinas y central de maniobra). Posee un Sistema de navegación integrado KONMAP, un radar de banda S (DECCA) con consola ARPA y dos radares de banda X (DECCA y KODEN), sistemas de navegación por satélite diferencial DGPS (Seastar y Trimble), xm sondador SIMRAD EM-200, un sonar de hielos SIMRAD, una unidad de referencia vertical (necesaria para las ecosondas multihaz), varios radiogoniómetros flocalizadores de emisores) para MF, HF y VHF, 2 giroscópicas SPERRY, un receptor fax meteorológico, un sistema de comimicadones por SatéHte Inmarsat-B (teléfono, fax, télex, transmisión de datos), y un receptor de imágenes por satélite de alta resolución TERASCAN. En cuanto a su sistema de energía y propulsión, el Hespérides tiene una configuración de central eléctrica (AEG Ibérica) con 4 grupos diesel alternadores (2 x 1.300 Kw /660 v/ 50 hz, y 2 x 650 Kw /660 v. / 50 hz.) y cuenta además con 1 grupo de emergencia de 120 kw. Su planta propulsora diesel-eléctrica le permite una gran potencia (necesaria para su fim.ción de rompehielos) con un bajo nivel de ruidos (necesario para no interferir los eqxiipos acústicos), regulación fina de la velocidad para trabajos científicos y una gran flexibilidad de empleo, sin deteriorarse por efectuar trabajos a velocidades bajas o encontrarse parado en estación durante períodos prolongados de tiempo. La hélice, de cinco palas y 3 mts de diámetro, es movida por dos motores eléctricos principales (MEP) de corriente continua, montados en tándem, de 1.400 Kw de potencia cada uno a 220 rpm, directamente acoplados a la línea de ejes. El sistema de estabilización antibalance es de tanque pasivo por carena líquida (en la época de construcción del Hespérides aún no estaban desarrolladas las aletas estabilizadoras retráctiles para poder navegar entre hielos). La planta de tratamiento de residuos está compuesta por: sistema de vacío para aguas negras (con tratamiento físico-químico), separador de agua y sustancias oleosas de sentinas, incineradora, compactadora/trituradora de basuras, tanque de almacenamiento de lodos y aceites, y un tanque de tratamiento para «aguas grises» de la cocina. Está equipado con medios de lucha contra la contaminación marina por posibles derrames de combustible, y con una instalación de detección y lucha contraincendios. El agua dulce es producida por medio de 2 potabilizadoras de osmosis inversa. Los elementos móviles de potencia (chigres, cabestrantes, grúas y pórticos) se accionan por medio de 2 plantas hidráulicas; y dispone también de 2 compresores de aire (para las campañas de sísmica pueden llevarse otros dos en contenedores colocados en la cubierta principal). Los elementos más importantes para la maniobra y medios de apoyo logístico son: 3 pórticos para arriado e izado de equipos científicos (uno grande en popa y dos en la banda de estribor, ya que todas las descargas líquidas del barco se hacen por la banda de babor y así se evita el riesgo de contaminar las muestras), 5 chigres científicos con un puesto de control automático en la central de maniobra y repetidores en puente y laboratorio, un sistema de cámaras de televisión para vigilancia de la maniobra, 2 grúas (una a proa y otra a popa) que sirven a 2 pañoles de oceanografía, carga y almacenaje de material de transporte, 3 embarcaciones neumáticas ZODIAC MK-V para apoyo logístico y transporte de personal, 1 embarcación semirrígida DUARRY hidrográfica, 2 botes de salvamento polares autónomos de 40 plazas cada uno tipo BSC-40M, 8 balsas de salvamento DUARRY de 25 plazas cada una, 1 embarcación neumática con pescante FERRI de arriado rápido para recogida de hombre al agua (en la Antártida hay que recoger al náufirago antes de tres minutos o fallecerá por hipotermia). La cubierta está preparada para toma de helicópteros (importantísimo para la posible evacuación o transporte de accidentados o enfermos), con sistemas de aynda a la navegación, luces especiales, y toma de combustible JP5, y un hangar telescópico. El buque dispone de una Enfermería altamente equipada, con baño para tratamiento hipotérmico. Cuenta asimismo con una cámara de tratamiento hiperbárico múltiple, que junto con un equipamiento especial permite efectuar operaciones de buceo en aguas polares con las máximas garantías. El personal embarcado tiene asignado un vestuario especial polar, con 90 trajes especiales para supervivencia en aguas frías. Un barco excepcional como es el Hespérides tiene también algunas instalaciones poco frecuentes en otros buques, como son: sala de conferencias, biblioteca, peluquería, gimnasio, y sauna finlandesa. Tiene capacidad para proporcionar alojamiento y comida para 94 personas (57 miembros de la dotación de la Armada, y hasta 30 científicos y técnicos civiles que cambian en cada campaña científica, más una reserva de 7 plazas). El «Hésperides» y la aportación de la Armada. Cuenta con un nivel de repuestos y pertrechos que permite que los mantenimientos sean efectuados por la dotación, y lograr una autonomía de 9 meses fuera de la base. Resumiendo, el Hespérides dispone de todos los servicios que pudiera tener una pequeña ciudad que previese vivir aislada durante períodos de varios meses y que, además, tuviese que aprovisionar y apoyar logísticamente en todo a otros dos núcleos de población de unas 15 personas durante tres meses (nuestras Bases Antárticas), e incluso apoyar logísticamente a la ya citada Base Antartica Búlgara San Clemente de Orhida, en Isla Livingston. El Hespérides, está especialmente preparado para realizar trabajos de geología, geofísica marina, oceanografía física y química, y biología marina. Las unidades de control, análisis y registro de datos se hallan repartidas en trece laboratorios con una superficie total de 380 m^, destacando la existencia de un «laboratorio fi:ío» (se puede regular hasta -20° C y permite simular las condiciones de la Antártida) y de un laboratorio para empleo de isótopos radiactivos (como trazadores de procesos biológicos). Algunas unidades de medición, toma de datos y muestras, están situadas en el casco del buque (sistema de sondas y correntímetro doppler); no obstante, la mayoría son arriadas desde cubierta, con el buque parado en estación o bien remolcadas con el buque navegando. Existe a bordo una red informática tipo ETHERNET con 80 puestos de trabajo. A través del Sistema de Adquisición de Datos Oceanógraficos (SADO) se adquieren, distribuyen y almacenan todos los parámetros que son obtenidos de forma continua con el termosalinógrafo, la estación meteorológica y el sistema de navegación. La Política Marítima Nacional En las sociedades más avanzadas de este inicio de siglo, la ciencia y la tecnología, junto a la capacidad de innovación, constituyen los elementos básicos para el progreso de las naciones y para atender las demandas sociales, económicas y culturales de sus ciudadanos. La condición de España como nación marítima es una palpable realidad derivada de la geografía, la historia, su cultura milenaria vinculada al Mediterráneo y al Atlántico, el asentamiento de la mayor parte de la población en las zonas costeras, el gran peso económico del insustituible transporte marítimo, la importancia económica de la pesca, el creciente desarrollo de la acuicultura, la creciente demanda del sector turismo, la creación de infraestructuras relacionadas con el ocio y los deportes náuticos, etc. etc. Todo ello debería llevar a una poKtica marítima nacional que primara y concediera gran importancia a los aspectos marítimos enunciados, y que afectan a instituciones y agentes de muy diversa naturaleza, tanto pública como privada. ¿Es realmente consciente la nación española de su carácter marítimo y de las ventajas y riesgos que conlleva? De lo expuesto se deduce que el mayor reto a que nos enfrentamos es un problema de concienciación de la sociedad y de colaboración, cooperación y coordinación de muy diversas instituciones y organizaciones del Estado, de las comunidades autónomas, de la administración local y de las propias empresas, para lograr la integración y aprovechamiento de los recursos disponibles de una forma eficiente y eficaz y lograr una investigación científica de calidad en ciencias y tecnologías marinas, que asegure el desarrollo sostenido de generación de conocimientos que incrementen el bienestar social y cultural de los ciudadanos y que mejore la competitividad de nuestras empresas a través de la innovación tecnológica. Por ello, el Plan Nacional para 2000-2003 se denomina de «Investigación Científica, Desarrollo e Innovación Tecnológica», enfocado, en lo que atañe a la política marítima, a la gestión y sostenimiento de los ecosistemas marinos para conservar su uso futuro. ¿Cómo contribuye la Armada a este Plan Nacional? En primer lugar, apoyando logísticamente al Hespéridas para posibilitar su extraordinaria operatividad, y, lo más importante, proporcionando una dotación de 57 profesionales embarcados, que tiene que detraer de sus escasos recursos de personal, dándole prioridad sobre otras unidades. Asimismo, ha supuesto un notable esfuerzo la reactivación del buque Las Palmas, que vuelve a prestar apoyo logístico a las Bases Antárticas desde el año 2000. Su contribución a la ciencia también la realiza la Armada a través del Instituto Hidrográfico de la Marina (IHM) y del Real Instituto y Observatorio de la Armada (ROA), que cada vez se integran y colaboran más en campañas científicas con diversos grupos de investigación españoles y extranjeros. Pero, sin duda, la mayor contribución directa a la ciencia y a la sociedad española lo hace por medio de las campañas en la Zona Económica Exclusiva Española (ZEEE), de las que ahora hablaremos con más detalle. Contribución de las Campañas ZEEE a la Política Marítima Nacional Por acuerdo del Consejo de Ministros, de fecha 23 de abril de 1993, se dispuso que el BIO Hespérides fuese utilizado durante un El «Hésperides» y la aportación de la Armada. mes al año como plataforma de investigación para fines relacionados con la Defensa Nacional. En mayo y septiembre de ese mismo año se promulgan dos órdenes ministeriales, estableciendo el Plan de Investigación Hidrográfica y Oceanógrafica de la ZEEE, que es incluido en 1994 como un anexo al Plan Cartográfico de las Fuerzas Armadas. Este «Plan ZEEE» da prioridad a la obtención de datos batimétricos, que se realiza por medio de los sondadores multihaz que van cubriendo de modo continuo un ancho de barrido de tres a siete veces el valor de la profundidad, lo que permite adquirir datos para la elaboración de la cartografía de grandes zonas marítimas en un período de tiempo relativamente corto. En las campañas de los años 1995, 96 y 97, los levantamientos se efectuaron en las islas Baleares. Las campañas de 1998, 1999 y 2000 se efectuaron en las islas Canarias, a solicitud y por convenio entre el Gobierno de la Comunidad Autónoma de Canarias y el Ministerio de Defensa, completándose la parte más importante del área marítima alrededor del archipiélago, que engloba su plataforma insular y las zonas más significativas e interesantes desde el punto de vista de la morfología. La campaña ZEEE-2001 se efectuó en aguas de Galicia. Aunque la hidrografía es prioritaria, el magnífico equipamiento científico multidisciplinar del Hespérides permite cubrir simultáneamente otros importantes objetivos en el campo de la oceanografía, geofísica y geología marina, efectuándose la medición de parámetros relativos a la constitución de los sedimentos superficiales, geomagnetismo y gravimetría (permite hacer inferencia acerca de la estructura geológica del subsuelo marino), masas de agua, perfiles de temperatura y velocidad del sonido en función de la profimdidad, y medición continua de la temperatura, salinidad, fluorescencia o toma de muestras de agua del mar a cinco metros de profundidad. Es decir, el Hespérides lleva a cabo un registro continuo de múltiples datos, sin necesidad de variar su velocidad o tener que pararse en estación mientras recorre las líneas de sonda. Son responsables del cumplimiento de los objetivos propuestos: el IHM en cuanto a la adquisición y procesado de los datos necesarios para la producción de cartas náuticas y de la información hidrográfica y oceanógrafica de interés para la Defensa; y el lEO en lo que se refiere al conocimiento de las características geológicas, geofísicas y morfológicas del fondo oceánico, las características físicas y químicas de las aguas suprayacentes, así como la exploración y posible explotación de los recursos biológicos marinos. Las campañas ZEEE son un ejemplo de la sinergia que se produce entre distintos organismos en la aproximación multidisciplinar para la investigación en ciencias del mar. Así, el IHM es responsable de la batimetría e hidrografía, el lEO de la morfología y sedimentos del lecho marino, la Universidad Complutense de Madrid (UCM) de los estudios gravimétricos, y el ROA del géomagnétisme. Además, en estas campañas ZEEE suelen también embarcar investigadores y becarios de la Universidad de Las Palmas, Universidad de Cádiz, y del Instituto Tecnológico y Geominero de España (ITGE). Estas campañas ZEEE del Hespérides proporcionan una información esencial sobre las características geográficas, geológicas y geofísicas del fondo marino, de las corrientes y mareas, y de algunas de las características físicas del mar suprayacente, básicas para cualquier estudio de ciencias del mar, y para la infraestructura del transporte marítimo, favoreciendo así la seguridad, eficacia y economía de la navegación como ayuda a la salvaguarda de la vida humana y las propiedades marítimas. Facilitan la protección y gestión del medio ambiente, fomentan el desarrollo sostenido y sostenible de las zonas marítimas españolas, y prestan su apoyo a las distintas administraciones y organismos nacionales, así como a la actividad e industria pesquera. La necesidad de disponer de esta información, que hemos calificado como esencial y básica, es lo que llevó a la creación en distintos países de los Servicios Hidrográficos Nacionales, que en el caso de España corresponde a nuestro IHM, institución ya bicentenaria. El Hespérides ha supuesto un gran salto cualitativo en la investigación al disponer de tecnología marina de última generación, lo que le permite obtener y procesar datos hidrográficos y oceanógraficos de gran calidad y precisión, básicos para cualquier estudio o campaña científica de las múltiples que forman las distintas ramas del árbol de la ciencia del mar. El transporte marítimo es la red internacional con mayor peso económico, mayor volumen de carga y también el más vulnerable, pues el 80 por 100 de todo el comercio exterior mundial se efectúa por vía marítima. De hecho, la protección de las líneas de comunicación marítimas constituye una de las principales misiones de cualquier marina de guerra, y el dimensionamiento del número de escoltas y buques de guerra de minas necesarios se hace en función de este cometido prioritario. En tiempo de paz, el requerimiento básico del tráfico marítimo es disponer de una cartografía fiable, precisa, adecuada y actualizada con cartas náuticas modernas (electrónicas o digitalizadas), derroteros, libros de faros, anuarios de mareas, etc.,que permitan una navegación segura y la elección de las rutas más rentables. No hay que olvidar que la falta de información precisa obliga a los grandes buques a elegir derrotas más largas y a evitar entrar en puertos cuyos El «Hésperides» y la aportación de la Armada. accesos son dudosos. Tanto es así que el Convenio para la Seguridad en la Mar considera que un buque no está listo para navegar si no dispone de cartas náuticas actualizadas para su derrota prevista y zonas de recalada, y de portíllanos de los posibles puertos y fondeaderos de arribada. La información obtenida en las campañas ZEEE es necesaria para la administración de la zona marítimo-costera, para el mantenimiento, dragado, limpieza y desarrollo de los puertos (diques de abrigo, varaderos, espigones, etc.), el control de la erosión de la zona marítimo-terrestre, la delimitación de áreas para deportes náuticos y ocio marítimo, el turismo (calidad de los servicios, de las aguas y playas) la ubicación de zonas adecuadas para depuradoras y canalización de aguas residuales, plantas desalinizadoras, vertederos industriales, vertederos de explosivos, zonas permanentes de ejercicios para submarinos, piscifactorías, cetáreas, bateas para mejillones, jaulas de engorde de peces, granjas de acuicultura, arrecifes artificiales para las reservas de pesca, zonas de extracción de depósitos minerales, movimientos de arena, arrecifes de protección de playas, infraestructuras portuarias, instalaciones en alta mar (plataformas, islas artificiales), tendido de tuberías y cables submarinos, etc. etc. Las campañas ZEEE son también fundamentales para el estudio de la exploración y explotación de los recursos marinos renovables y no renovables. Aquí conviene recordar que el Convenio de Naciones Unidas sobre la Ley del Mar (UNCLOS), que entró en vigor en 1994, determina que las naciones tienen un plazo de 10 años para presentar sus reclamaciones para extender el limite de sus Zonas Económicas Exclusivas más allá de las 200 millas náuticas, hasta un máximo de 350 millas. Estas reclamaciones han de estar basadas en la batimetría (situación del veril de los 2.500 metros de profundidad), la forma y cambio de pendiente del margen continental y en las características geológicas del lecho marino (presencia de sedimentos). Los Servicios Hidrográficos Nacionales (en nuestro caso el IHM) son los únicos organismos competentes para proporcionar la información para documentar dicha reclamación, que tiene que presentar y negociar nuestro MAE para el trazado de los límites de nuestra ZEEE. Probablemente, la única zona susceptible de reunir las condiciones citadas anteriormente, y que no está sujeta a litigio con nuestros países vecinos, sea la parte occidental de la ZEEE de Galicia, por lo que no es de extrañar que la última campaña de la ZEEE (2001) haya tenido lugar en las citadas aguas atlánticas. Las campañas ZEEE son de interés para la Defensa Nacional porque la Armada es un usuario muy importante de los datos hidrográficos obtenidos para la selección de las derrotas y canales a seguir por el tráfico marítimo en tiempo de guerra o amenaza de minas, playas aptas para los desembarcos anfibios y cartas náuticas de precisión y especiales para submarinos. En general, para cualquier operación aeronaval, es necesario disponer de datos oceanógraficos, hidrográficos y de acústica submarina actualizados y precisos que posibiliten el planeamiento de misiones y tener información de aquellos factores ambientales que pueden incidir en la eficacia de armas y sensores, sobre todo en vista del actual giro estratégico hacia las denominadas «operaciones marítimas de litoral». Este nuevo escenario estratégico marítimo litoral, que contempla la respuesta inmediata a situaciones de crisis, operaciones para la implementación de la paz y operaciones de ayuda humanitaria, ha llevado a la OTAN a la creación de una organización de Evaluación Ambiental Rápida (REA-Rapid Environmental Assessement). No es de extrañar, pues, que la Armada tenga un firme compromiso en mantener una posición de liderazgo en hidrografía y oceanografía que le permita afirontar con éxito las operaciones marítimas y aeronavales del futuro, y para ello tiende a buscar y fomentar la colaboración y cooperación con la comunidad científica española y europea, con las Universidades, OPIs, e incluso con las empresas. En este sentido, el Hespérides proporciona un claro ejemplo de fructífera simbiosis, del que hay que extraer enseñanzas para un futuro más ambicioso. Las ventajas del Hespérides como buque de la Armada Como buque de la Armada, tiene la consideración legal de parte integrante del territorio nacional, y por tanto goza del principio de inmunidad soberana, aplicable a los requisitos y exigencias derivados de todos los convenios internacionales ratificados por España. Bien es verdad que el Hespérides cumple con todos estos convenios por voluntad de la Administración española, pero nunca se le podrían exigir presuntas responsabilidades por supuesto incumplimiento. En su propia consideración de buque de la Armada, goza de una representación institucional ante los demás países, que difícilmente podría ostentar si perteneciese a un instituto u organismo civil. De aquí que el Hespérides también lleve a cabo labores de representación en las relaciones internacionales, lo que denominamos «mostrar el pabellón». En cierto aspecto es semejante a nuestro Buque Escuela de Guardiamarinas Juan Sebastián de Elcano, asignándole carácter de cuasiembajada flotante española, especialmente en escalas en el ex-El «Hésperides» y la aportación de la Armada. tranjero y encuentros internacionales con ocasión de Exposiciones Universales o Científicas. Las campañas de investigación del Hespéridas han contado siempre con una amplia cobertura en los medios de comunicación social, quizá atraídos inicialmente por el exotismo de las navegaciones antarticas, pero que ha conducido a que este buque sea conocido en casi toda España. Las ruedas de prensa, entrevistas y reportajes sobre las distintas campañas, han llegado a provocar un constante seguimiento de los medios de comunicación social y de la opinión pública sobre las actividades científicas del Hespérides, La excelente idea de abrir, a partir de 1998, una página web en las campañas antarticas ha aumentado extraordinariamente el grado de conocimiento del Hespérides y de sus trabajos entre la sociedad española, que no hay que olvidar es la que, a fin de cuentas, financia y se beneficia de sus resultados. Por tanto, el Hespérides contribuye a la divulgación y difusión cultural de la ciencia a nivel del hombre de la calle, aumentando la percepción social de la importancia de la investigación oceanógrafica, haciendo partícipe a la sociedad española de los logros científicos alcanzados, de la importancia de los océanos y mares, y por ende, de la condición marítima de España. Las actividades llevadas a cabo por el Hespérides en el extranjero son muy importantes para diñindir el nivel tecnológico español, la calidad de nuestra I+D+I y de nuestros investigadores, y a la vez, demostrar que se cumplen los compromisos adquiridos en los tratados internacionales, como el Tratado Antartico y el Protocolo de Madrid. El Hespérides está apoyado logística y organizativamente por una institución como la Armada, que cubre todo el espacio marítimo de interés nacional con sus Arsenales, Bases, Comandancias y Ayudantías Navales, e incluso cuenta con el apoyo, en el extranjero, de las Agregadurías de Defensa y Navales, lo que posibilita su carácter de buque oceanógrafico estratégico. La Armada aporta una dotación altamente cualificada y es la responsable del mantenimiento y del alistamiento operativo del buque para las campañas científicas. Hasta la fecha, el Hespérides ha efectuado más de 75 campañas científicas, en las que han participando cerca de 2.000 científicos e investigadores, con los apoyos y servicios prestados a bordo durante las 24 horas del día para cada una de las campañas. Si el Hespérides no dependiese orgánicamente de la Armada, y dada su elevada programación de actividades científicas -con una media anual de 255 días de mar y 10 meses fuera de su base, incluidas las Navidades-, necesitaría un mínimo de dos tripulaciones para alternarse. que tendrían que percibir elevados emolumentos para retribuir tan alta actividad en zonas tan alejadas de España y que estarían sujetas a las limitaciones derivadas de los correspondientes convenios laborales. La dotación de la Armada, con su esfuerzo y entusiasmo, proporciona todos los servicios y apoyos necesarios para posibilitar la investigación científica oceanógrafica a bordo y el apoyo logístico a nuestras Bases Antárticas, habiendo conseguido rentabilizar la utilización del barco al máximo, con una dotación relativamente reducida pero consciente de que su misión es apoyar y colaborar con los científicos embarcados para lograr unos resultados de calidad que contribuyan al prestigio internacional de la ciencia española. Otro aspecto importante a considerar es que en casi todos los países iberoamericanos, la investigación oceanógrafica en general y la antartica en particular es llevada a cabo por las Armadas o Marinas de Guerra, dados los importantísimos intereses estratégicos en juego en la región; por tanto, que el «Hespérides» sea un buque de la Armada permite facilitar enormemente las relaciones institucionales internacionales, de intercambio, y de colaboración, así como los necesarios apoyos logísticos en la mar y en las bases. Además, el IHM y el ROA son organismos de la Armada con larga tradición científica y reconocido prestigio internacional, y ambos organismos, en estrecha colaboración con el lEO, como hemos visto, se coordinan y participan activamente en las campañas de investigación de la ZEEE. Estas campañas han favorecido también los contactos y colaboraciones del IHM y ROA con las más diversas Universidades. Queda para el final una faceta muy relevante que proporciona al Hespérides una marcada singularidad y excepcionalidad. Es el único buque de investigación oceanógrafica abierto a la participación de cualquier científico o investigador español, o de la Unión Europea; participación que se hace en base exclusivamente al mérito científico de los proyectos de investigación propuestos y su adecuación a las prioridades marcadas en el Plan Nacional de I+D+I. Y precisamente por tratarse de un buque de la Armada queda asegurada esta apertura real a la comunidad científica, actuando como catalizador e impulsor de un «trabajo en equipo», que difícilmente podría conseguirse de otra forma y que hasta la fecha ha dado excelentes resultados. La participación total de investigadores embarcados en todas las campañas puede resumirse así: un 35% han sido del CSIC, el 34% de las Universidades, el 16% extranjeros, el 10% del lEO y el 5% de la Armada. Para mantener y potenciar esta «accesibilidad y disponibilidad», desde el año 1998 el Hespérides está efectuando cometidos de buque-escuela, El «Hésperides» y la aportación de la Armada... embarcando profesores y alumnos de las facultades de Ciencias del Mar, aprovechando los tránsitos entre campañas. La gran capacidad científica multidisciplinar del Hespérides excede a la de cualquier grupo de investigación español, lo que exige la colaboración de distintos grupos a bordo (físicos, químicos, geólogos...), acentuando el carácter multidisciplinar de la investigación oceanógrafica y produciendo un efecto sinérgico de cooperación, colaboración y cohesión de los distintos grupos científicos españoles, y de éstos con los de la Unión Europea. En resumen, y como establece el Plan Nacional de I+D+12.000-2.003, el Hespérides, buque de la Armada, gran instalación científico-técnica española, desempeña un cuádruple papel: Favorece la I+D4-I en CYTMAR, cataliza la innovación y desarrollo tecnológico en las áreas relacionadas con el diseño y construcción de buques de investigación oceanógrafica y su equipamiento, impulsa la colaboración internacional, y refuerza la cohesión científica y tecnológica española.
El autor de este artículo, director del Museo Naval y del Instituto de Historia y Cultura Naval, logra introducirnos en la historia de la Armada desde el siglo XVUI a través de unas pinceladas descriptivas de los principales fondos patrimoniales que se conservan en el Museo Naval, cuyas salas abarcan una temática realmente diversa y abrumadora: modelos de buques y arsenales, cartografía, colecciones documentales, instrumentos náuticos, iconografía, etnografía, medallística, numismática, vexilología, etc. etc. Refleja también el artículo los orígenes de estos fondos y su progresivo enriquecimiento a lo largo de los años, así como la paralela evolución de la configuración orgánica del Museo Naval, con especial relevancia del importante papel que desempeña su Patronato, auténtico motor de cuantas actividades se llevan a cabo. Con respecto al Instituto de Historia y Cultura Naval, cuyos orígenes se encuentran en el seno del Consejo Superior de Investigaciones Científicas, se describe la ingente labor de investigación que se está realizando mediante publicaciones de carácter periódico, premios «Virgen del Carmen», trabajos monográficos. Revistas de Historia Naval, Jornadas de Historia Marítima, ciclos de conferencias, etc. etc. En definitiva, ambos organismos. Museo e Instituto, son los depositarios e impulsores de la Armada para difundir en la sociedad española algo tan ligado a nuestra historia y condición como es la Cultura Naval. Entre las opciones que se presentaban para hablar de estas dos instituciones, cuya misión principal es la de difundir y potenciar el conocimiento y acercamiento del pueblo español a la Armada y a todos los temas relacionados con la mar, se ha elegido -dada la limitada extensión de esta colaboración-la de darle un enfoque más bien divulgativo, con objeto de dar a conocer los orígenes, evolución, situación actual y proyectos del Museo y del Instituto, ambos ampliamente relacionados y prestigiados en el ámbito cultural que les es propio, pero siempre necesitados de más y mejor difusión. El Museo Naval y sus fondos patrimoniales El Museo Naval fue creado por Real Decreto de S.M. el Rey Carlos IV el 28 de septiembre de 1792, y puede por tanto considerarse esta iniciativa como una de las últimas consecuencias culturales de la Ilustración, que tantos y tan prestigiosos representantes tuvo en la Real Armada. Por desgracia, y a pesar de estar la Marina en su apogeo, la ocasión no fue tan favorable como parecía prometer. Los continuos enfrentamientes navales con Inglaterra, la Guerra de la Independencia, los conflictos de emancipación de las posesiones americanas, el nefasto reinado de Fernando VII y la Primera Guerra Carlista, configuran un dilatado y convulso período en el que por momentos la Armada llegó casi a desaparecer, y que impidió, lógicamente, llevar a cabo lo previsto en el Decreto de 1792. Hay que esperar hasta el año 1843 para que, con medio siglo de retraso, se inaugure al fin el Museo en su primera sede del «Palacio de los Consejos». Pero poco duró en ese asentamiento, ya que dos años más tarde pasó a la llamada «Casa del Platero», que fue declarada en ruina en 1851 y originó su forzoso traslado a unas dependencias del «Palacio de los Ministerios», donde después de tan azaroso peregrinaje pudo reinaugurarse solemnemente por la reina Isabel II en noviembre de 1853. Allí continuó sin mayores sobresaltos hasta 1932, en que se trasladó al edificio del antiguo Ministerio de Marina, próximo a la plaza de Cibeles, donde, con algunas remodelaciones y ampliaciones importantes, continúa en la actualidad. Volviendo a los orígenes, conviene reiterar que la decisión de crear el Museo supone la culminación de una política desarrollada a lo largo del siglo XVIII para potenciar todas las ramas del conocimiento aplicables a la Marina, mediante el establecimiento de centros educativos El Museo Naval y el Instituto de Historia y Cultura Naval y científicos de alto nivel para la formación de oficiales: Real Compañía de Guardiasmarinas de Cádiz en 1717 (ampliada en el transcurso del siglo a Ferrol y Cartagena), Colegio de Cirugía de la Armada en 1748, Observatorio Astronómico de la Marina en 1753, Depósito Hidrográfico en 1770 y Escuela de Ingenieros de Marina en 1772. Claro está que este proceso respondía armónicamente a otro similar de crecimiento de la Real Armada en buques, arsenales y astilleros, sin parangón histórico anterior o posterior. Como ya se ha comentado, este excelente entorno material, científico y cultural debería haber favorecido el nacimiento de un espléndido «Museo de Marina», como así se denomina en el Decreto, para que «a más de la Biblioteca General reúna todas las Ciencias Naturales que son necesarias para la completa instrucción del cuerpo de la Armada y consiguiente utilidad ». A pesar de que este momento de auge no pudo plasmarse en esa realidad, sí propició la formación de un substrato cultural y de amor a la tradición, que permitió, cincuenta años después, constituir el Museo con unos fondos iniciales numerosos y valiosísimos que habían sido ejemplarmente conservados en tiempos de grandes riesgos y penurias. Estos primeros fondos del futuro Museo procedían de las Reales Compañías de Guardiasmarinas, los Arsenales y el Observatorio Astronómico, amén de algunos de origen más antiguo, preservados milagrosamente del desinterés y la incuria. De forma aún más específica, se comisionó a diversos oficiales de la Armada para la compra de objetos y libros en distintos países europeos y para recopilar docxmíentos diseminados por archivos oficiales y particulares de casas nobles, relacionadas de antiguo con nuestra historia marítima. Tras el paso decisivo de la inauguración del Museo en 1843, se recuperaron con gran entusiasmo todos esos fondos mencionados y se nutrieron con nuevas aportaciones procedentes fundamentalmente de las colecciones reales -de ahí la espléndida serie de modelos de buques, arsenales y astilleros de los siglos XVIII y XIX-y también de donaciones de familias de honda raigambre marinera. Es de obligada mención en este punto la existencia de un modelo de galeón flamenco datado en 1593, procedente de la Armería Real y depositado por orden de Isabel II. Se considera por tradición un obsequio de una embajada flamenca a Felipe II, y está reputado como único de su tipo del siglo XVI que se conserva en Europa. Espigando entre los hechos más notables que jalonan el enriquecimiento progresivo de los fondos museísticos y archivísticos, hay que reseñar la incorporación a principios del pasado siglo de las riquísimas Fernando Riaño Lozano 408 colecciones existentes en el extinto Depósito Hidrográfico, constituidas por manuscritos, planos, cartas náuticas, grabados y dibujos, y otras sobre navegación, astronomía y viajes. Entre las joyas cartográficas se encuentra una pieza única en el mundo, la carta original elaborada por Juan de la Cosa en 1500, en la que por primera vez se reflejan las principales islas del Caribe y un nebuloso perfil de la Tierra Firme. Las circunstancias que rodean a la adquisición de esta carta merecen ser comentadas: Fue presentada con toda probabilidad a los Reyes Católicos y depositada en la Casa de Contratación de Sevilla, desapareciendo de allí por causas nunca aclaradas, aunque el expolio napoleónico siempre está presente. De hecho, vuelve a documentarse su existencia, después de más de 300 años, al salir a subasta en París en 1832 y adquirirla el embajador de Holanda en esa capital. A la muerte de este propietario en 1853 es nuevamente subastada y adquirida por el Estado español a instancias del Ministro de Marina en la respetable cifra de 4.321 finances, quedando depositada en el Museo ese mismo año, hecho insólito de sensibilidad histórico-cultural en época tan poco propicia. A esta carta de Juan de la Cosa hay que unir una serie muy valiosa de portulanos y atlas de los siglos XVI y XVII, como los de Mateo Prunes (1563) y Diego de Homen (1561), y los de Brunes, Ortellius, Waghenaer, Janssonius y Mercator. También es riquísima la cartografía del siglo XVIII, que reúne más de 7.000 cartas, casi todas manuscritas, y entre ellas una colección muy completa y singular de las costas americanas. Igualmente proceden del Depósito Hidrográfico la serie de colecciones de documentos sobre temas navales, de extraordinario valor y reunidas con gran celo y competencia por una serie de eruditos oficiales de Marina de los siglos XVIII y XIX, por lo que llevan su nombre: Fernández de Navarrete, Sanz de Barutell, Vargas Ponce, Zalvide y Vázquez de Figueroa. Aunque han sido incorporadas con posterioridad, y por tanto no proceden del Depósito, conviene mencionar también otras importantes colecciones donadas por los oficiales que las constituyeron o por sus descendientes. Por último, son prácticamente contemporáneas, las de Guillen y González-Aller, ésta última con su recopilador aún en plena actividad. Ha sido obligado detenerse con algo más de detalle en este tema de las colecciones documentales, para subrayar el enorme interés histórico de estas recopilaciones y la vitalidad de este encomiable proceso. El Museo Naval y el Instituto de Historia y Cultura Naval llevado a cabo con entusiasmo y sacrificio por profesionales de la Armada durante más de dos siglos. Siguiendo este procedimiento descriptivo de dar pinceladas un poco anárquicas para destacar las piezas más relevantes, es preciso hacer mención de los instnmaentos náuticos que, lógicamente, tienen una importante presencia en el Museo. Las colecciones de astrolabios astronómicos, cuadrantes, octantes, sextantes, brújulas, «agujas de marear», «relojes de longitud», cronómetros marinos, catalejos, relojes de sol y esferas amulares y celestes, constituyen un muestrario de primer orden. Pueden mencionarse, en particular, el Estuche Instrumental de Felipe II fabricado por Wolkmer en 1596, el Estuche de Navegación obra de Pierre du Jardin de 1645, los astrolabios astronómicos, uno anónimo fechado en 1563 y otro firmado por Miguel Coignet en 1598, y así podría citarse una dilatada lista que haría la relación interminable. En el campo de la iconografía, óleos, acuarelas, dibujos y grabados, el Museo posee unos fondos muy interesantes, aunque menos espectaculares que los hasta ahora descritos. En la pintura del siglo XVII, su principal apoyatura son los óleos cedidos en depósito por el Museo del Prado, y entre ellos los referidos a batallas navales hispano-holandesas de Juan de la Corte. En el siglo XVIII el censo de marinistas españoles fue escasísimo y hubo que aguardar al notable plantel surgido en el XIX y principios del XX para enriquecer de forma importante estos fondos. Factor básico fue la figura de «pintor-restaurador del Museo», creada desde época muy temprana y que fue cubierta sucesivamente por expertos en temas navales tan notables como Monleón, Cortellini y Caula, y ya en el siglo XX por García Condoy. También Brugada, posiblemente el mejor marinista del XIX, sin estar directamente contratado por el Museo, trabajó con frecuencia para él, dejando una sobresaliente obra pictórica que ha seguido incrementándose hasta fechas recientísimas. Otro tipo de colecciones sorprendentes por su exotismo e importancia son las que se encuentran en la «Sala de Etnografía». Gracias al celo y desprendimiento de una serie de oficiales ilustrados destinados en Filipinas se fueron recibiendo donaciones de colecciones particulares, que acabaron constituyendo unos fondos de armas ofensivas y defensivas, modelos de embarcaciones y objetos diversos de Filipinas, Extremo Oriente e Islas del Pacífico, de un valor verdaderamente notable. Existen también colecciones de medaUística y nxmíismática muy enfocadas a la temática naval y por tanto interesantes dentro de su especialización. La vexilología no tiene una especial relevancia dentro de la zona expositiva del Museo, pero sí se preservan y restauran todas las ban-Fernando Riaño Lozano 410 deras y uniformes que tienen entrada en las colecciones. En este punto es obligado mencionar la existencia de dos piezas excepcionales que realzan por sí solas la colección: -El Estandarte Real de los Oquendo, de finales del siglo XVI, que tiene unas dimensiones de aproximadamente tres y medio por cuatro metros y es de seda adamascada. Está pintado al óleo con el escudo real de Felipe II y motivos religiosos. El estandarte lleva vaina para driza con objeto de ser izado en la mar. Pudo haber sido utilizado por el almirante Miguel de Oquendo, por su hijo Antonio también glorioso almirante, o por ambos. Se encuentra en el Museo desde 1991, depositado por su propietario el Duque del Infantado, procedente de su casa solariega de Lazcano en Guipúzcoa, y actualmente se le está realizando una completa restauración en el taller de textiles del Museo. -El Repostero de la casa ducal de Fernán Núñez, de seda adamascada roja y grandes dimensiones (6,80 x 8,65 m), que fue pintado al óleo hacia 1690 por Meneses -discípulo aventajado de Murillo-, por encargo del conde de Fernán Núñez, capitán general de la Armadas del Mar Océano. El encargo tenía por objeto recubrir dignamente un trofeo de Lepanto, la vela de una galera turca apresada por tin antepasado. Fue donado al Museo en 1986 por el duque de Fernán Núñez y por su hermana la duquesa de Arco. No se debe finalizar este apresurado repaso sin mencionar una sala muy especial, en la que se contienen importantes piezas recuperadas de un hallazgo submarino. Se trata del galeón español San Diego, hundido en combate con buques holandeses en 1601 cerca de Manila, cargado de mercaderías para el tráfico con Acapulco. El hallazgo lo realizó un buceador fi:'ancés, y aproximadamente una tercera parte de las piezas extraídas -cañones de bronce, armas, mimiciones, variados objetos de uso cotidiano a bordo, vasijas y cántaras orientales de todo tipo, así como una extraordinaria colección de porcelana china Ming-son las que se exhiben en el Museo, en calidad de depósito, donación o dación al Estado. Naturalmente, todo lo expuesto hasta aquí se refiere a la sede madrileña del Museo Naval, que constituye sólo una parte, aunque muy importante, de su patrimonio total, que está formado además por todos los objetos, libros y documentos depositados en: -El Panteón de Marinos Ilustres de San Fernando (Cádiz). -Los Museos de las Zonas Marítimas, con sede en edificios navales históricos de Ferrol, San Fernando, Cartagena y Las Palmas de Gran Canaria. El Museo Naval y el Instituto de Historia y Cultura Naval -El Archivo-Museo «Don Alvaro de Bazán», en el Palacio del Marqués de Santa Cruz, de El Viso del Marqués (Ciudad Real). -El Museo Marítimo de la «Torre del Oro», de Sevilla. -Los fondos de valor histérico-artístico depositados en los centros, dependencias y unidades de la Armada. Más adelante se incidirá nuevamente en este asunto para describir la estructura orgánica y de dependencias en que están configurados todos estos centros, llamados periféricos, que constituyen, se insiste en ello, parte integral del ente orgánico «Museo Naval». Lógicamente, por razones de capacidad y representatividad, la sede de Madrid asume las principales responsabilidades. En concreto, y en los aspectos más puramente museísticos, en ella se concentran los mayores medios de restauración, representados por acreditados gabinetes y talleres de pintura, textiles, papel y encuademación, modelismo naval, armas y ebanistería. Este considerable potencial permite atender también las necesidades más especializadas de los centros periféricos. Asimismo, en las instalaciones de Madrid se atienden y canalizan la inmensa mayoría de las consultas que se efectúan a los fondos documentales, bibliográficos, cartográficos, etc., para lo que se dispone de una Sala de Investigadores y una Cartoteca. Aunque, como ya se ha señalado, una gran parte de los fondos patrimoniales se encuentra distribuida por las instituciones y centros periféricos, puede resultar indicativo dar unas cifras sobre los existentes en la sede de Madrid: -Planos de buques, del orden de 1.300 de los siglos XVII al XX. -Estampas calcográficas y dibujos originales, 1.350 de los siglos XVII y XVIII. -Folletos singulares de los siglos XVI a XVIII, 6.135 Como más significativo en cifras, fuera de la capital, cabe señalar que sólo en el Archivo General de la Marina «Don Alvaro de Bazán» existen unos 17 kilómetros de estanterías, que contienen los fondos documentales de la Armada desde mediados del siglo XVIII. Una actividad fundamental de toda institución cultural, y más si se trata de un museo, es la de organizar exposiciones en su propio recinto, o colaborar con la iniciativa de otros aportando los fondos más adecuados para lograr la difusión y prestigio propios y la máxima brillantez del evento a celebrar. En este sentido, el Museo Naval, desde su creación, ha mantenido una decidida política de aportación y cooperación en exposiciones ajenas, a las que por cierto ha sido tradicionalmente muy requerido. Ya en 1855, sólo doce años después de su inauguración, el gobierno francés invitó al Museo Naval a participar en la Exposición Universal de París. Fue la primera concurrencia a una exposición extranjera, y debió ser buena la experiencia pues volvió a participar en las celebradas en los años 1867 y 1877. Desde entonces la actividad ha sido continua y los fondos del Museo, de mayor o menor entidad y categoría, se han paseado en infinidad de ocasiones por toda España, multitud de veces por Europa, con frecuencia por América del Norte y del Sur, y en alguna rara oportunidad por Extremo Oriente, Japón y Australia. Otra actividad ineludible es la de editar todo lo que contribuya a la mejor difusión y actualización de los fondos patrimoniales, y también en esta faceta el Museo Naval ha tenido -y tiene-una relevante actividad, sobre todo a partir del primer tercio del siglo XX. Como sería absurdo intentar siquiera una enumeración de las obras directamente publicadas, propiciadas o impulsadas de forma decisiva por el Museo, hay que limitarse simplemente a trazar un bosquejo de las personalidades, circunstancias culturales y conmemoraciones principales, que han ido configurando su política editorial. Después de un prolongado período en el que las ediciones del Museo se limitaron prácticamente a la actualización periódica de un modesto, aunque riguroso catálogo, el primer impulso importante lo llevó a cabo el que sería su director durante casi cuarenta años, el almirante Guillen Tato -el inolvidable Don Julio-que dejó una huella imborrable en la Armada. Su portentosa erudición y capacidad de trabajo -fue académico y secretario perpetuo de la Real Academia de la Historia-le capacitaron para escribir sobre cualquier tema de la historia naval. Ninguna inquietud cultural le fue ajena a esta irrepetible figura, cuyas obras inundan el dilatado período comprendido entre 1928 -fecha de su primera publicación «Los marinos que pintó Goya»-y la de su fallecimiento en 1973. Con este poderoso impulso, las publicaciones se multiplican y alcanzan cotas realmente notables, especialmente con ocasión de las grandes conmemoraciones históricas: 1971 Cuarto Centenario de Lepante, El Museo Naval y el Instituto de Historia y Cultura Naval 1988 Cuarto Centenario de la Gran Armada, 1992 Quinto Centenario por antonomasia, y 2000 Quinto Centenario del nacimiento de Carlos V. En paralelo con ello se emprende una importantísima campaña de ediciones facsimilares de los principales libros de navegación y cosmografía de autores españoles del siglo XVI, y de las obras más importantes del gran historiador y marino del siglo XIX don Cesáreo Fernández Duro, también, como Guillen, académico y secretario perpetuo de la Academia de la Historia. «La Expedición Malaspina», en nueve tomos extraordinariamente editados; la rigurosa y dilatada obra del prestigioso historiador, marino y antiguo director del Museo capitán de navio Cerezo Martínez; la ya extensa y enjundiosa obra del almirante González-Aller, director también del Museo durante un espléndido período de nueve años; los notables estudios históricos y cartográficos de Dolores Higueras, actual directora técnica;.... todas estas obras constituyen, en ñn, sólo una parte de los planes editoriales, llevados a cabo con ilusión y competencia por los miembros del personal facultativo del Museo, y por algunos entusiastas colaboradores, cuya mención resulta imposible. Quedaría incompleta esta apresurada exposición si no se resaltase de forma expresa a un organismo de la mayor representatividad e importancia para el Museo: el Patronato. El Patronato del Museo Naval En 1932, el mismo año de la instalación del Museo en su actual sede, se crea el Patronato del Museo Naval, siendo su primer presidente el marqués de Santa Cruz, y uno de los vocales el duque de Veragua. Desde el principio el Patronato se muestra especialmente activo y eficaz, y así en 1933 propone la instalación de un Museo Marítimo, dependiente del Naval de Madrid, en la Torre del Oro de Sevilla, antigua sede de la Comandancia de Marina del Guadalquivir, autorizándose la propuesta en 1936. Después de la Guerra Civil continúa el Patronato con importantes iniciativas, destacando de manera singular sus gestiones para conseguir la cesión por parte del marqués de Santa Cruz de su palacio de El Viso, para la instalación del Archivo-Museo «Don Alvaro de Bazán». El contrato de arrendamiento con la Armada tiene una duración de noventa años al precio anual de una peseta, por lo que al entrar este año en la era euro, y para no alterar la tradición, ha sido necesario efectuar acopio de esos antiguos billetes hasta el año 2040. Otro hito determinante en la marcha del Patronato fue la designación en 1982 como Presidente de S.A.R. don Juan de Borbón y Battemberg, conde de Barcelona y Capitán General de la Armada. Al fallecer Don Juan en 1993, después de un fi^ictifero período de diez años en los que dio cumplida muestra de su proverbial amor a la Armada, file designado para relevarle S.A.R. don Carlos de Borbón Dos Sicilias, duque de Calabria, que continúa como actual Presidente del Patronato. Se considera conveniente en este punto transcribir los aspectos más relevantes de la base legislativa que sustenta a esta institución, el «Reglamento del Museo Naval y su Patronato», aprobado por Real Decreto de 1 de marzo de 1996. Se trata de una reglamentación modélica, que define al Museo como una entidad de titularidad estatal, bajo dependencia orgánica del Jefe del Estado Mayor de la Armada, y con dependencia funcional de la Dirección General de Relaciones Institucionales del Ministerio de Defensa. Su misión consiste en adquirir, conservar, investigar, comunicar y exhibir para fines de estudio, educación y contemplación, piezas, conjuntos y colecciones de valor histórico, artístico, científico y técnico relacionados con la actividad naval, a fin de difundir la historia marítima de España, contribuir a ilustrar, relevar, y salvaguardar sus tradiciones y promover la conciencia marítima nacional. La redacción no puede ser más clara y completa. También determina que los órganos rectores del Museo serán el Patronato y la Dirección, actuando como órgano asesor la Junta de Gobierno. Al Patronato lo define como «el órgano de alta dirección» y prescribe cómo debe estar constituido. Ya se ha comentado que las dos últimas personalidades que han ocupado la presidencia han sido destacados níiiembros de la Familia Real. El reglamento, por supuesto, no dice nada al respecto, pero se trata de una tendencia afortunada y coherente con la trayectoria del Museo, que desde su origen ha contado con el amparo y el respaldo de la Casa Real. La especificación de los vocales natos está cuidadosamente aquilatada. Figuran en primer lugar tres títulos de nobleza con Grandeza de España y honda raigambre marinera: el duque del Infantado Almirante de Aragón, el marqués de Santa Cruz, y el duque de Veragua, Almirante y Adelantado Mayor de las Indias. El Ministerio de Defensa está representado por el Director General de Relaciones Institucionales, y la Armada por los Almirantes de las Zonas Marítimas, el de la Flota y el Director del Museo Naval. Asimismo, los vocales por designación pertenecen a tres instituciones y organismos cuya naturaleza y fines concuerdan con los del Museo: El Museo Naval y el Instituto de Historia y Cultura Naval un miembro numerario de la Real Academia de la Historia, otro miembro numerario de la Real Academia de Bellas Artes de San Fernando, y un representante de la Dirección General de Bellas Artes, quedando además abierta la posibilidad de otras designaciones, también de carácter institucional, que el Patronato pudiera considerar convenientes. Por último, se dispone la designación de un número máximo de cinco vocales, a título personal, entre personas de destacado relieve cultural en temas relacionados con la Marina, la Historia o las Artes. Tras esta descripción detallada de la composición del Patronato, hecha intencionadamente por tratarse del auténtico motor e imprescindible apoyo con que cuenta el Museo, es obligado hacer referencia a otro importante organismo, el Instituto de Historia y Cultura Naval, cuya responsabilidad corresponde también al director del Museo, y que constituye el complemento esencial para el desarrollo de las múltiples actividades que se llevan a cabo en el ámbito que nos ocupa. El Instituto de Historia y Cultura Naval En 1942, por Decreto de la Presidencia del Gobierno se constituye, en el marco del Consejo Superior de Investigaciones Científicas y con sede en el Museo Naval, el Instituto Histórico de la Marina. Fue promotor de la idea y primer director de la nueva institución el almirante Guillen, en destino compartido con el del Museo. Este organismo fue el antecedente próximo del Instituto de Historia y Cultura Naval, creado por Real Decreto en 1976 y reorganizado en el año 2000. Antes de seguir adelante, se debe subrayar que la génesis remota de este organismo fue en el seno del Consejo Superior de Investigaciones Científicas. Esta curiosa circunstancia será poco conocida por los lectores de la revista ARBOR, y se estima que este entronque común tiene una especial significación cultural y afectiva que trasciende la mera anécdota pero nos desviaría en exceso el tratar de profundizar en esta reflexión. Otro antecedente histórico destacable, aunque en este caso no se trató de una evolución orgánica sino de una absorción, fue la incorporación del Instituto del Patronato de los Premios «Virgen del Carmen». Dicho Patronato fue creado inmediatamente después de finalizada la Guerra Civil, y aunque su finalidad estaba claramente expresada, -luchar contra el tradicional desinterés del español por la mar-, la ejecución del decreto se expresaba de forma bastante confusa, tratando de asignar los premios recién creados a «aquellos núcleos de población Fernando Riaño Lozano 416 costera más inmediata y directamente afectados». Lógicamente se refería a verse «afectados» por el desinterés marinero general, pero quedaba poco claro, y menos aún el asignárselo a algo tan inconcreto como los «núcleos de población costera». Se trataba sin duda de los primeros balbuceos y son disculpables estas inconcreciones. El proceso poco a poco se fue perfeccionando y ya en 1945 se premian «las actividades de carácter social, técnico, artístico, literario, cultural, docente, divulgador o deportivo, que se relacionen con el mar y sus problemas y sirvan para fomentar la afición marítima». Como se ve los temas eran variadísimos, sin duda por depender el Patronato de la Presidencia del Gobierno y contemplar también las actividades de la Marina Mercante, Pesquera y Deportiva. Esta situación continúa hasta 1974 en que el Patronato pasa a depender del Ministerio de Marina, y en 1975 del Jefe del Estado Mayor de la Armada, por delegación del Ministro de Defensa. A partir de esta circunstancia, la entrega de premios adquiere una característica especial, la de llevarse a cabo en ciudades alejadas del litoral para llevarles «el mensaje del mar» mediante un solemne acto académico. Valladolid, Zaragoza, Mérida, Cuenca, Almagro... y hasta trece ciudades más del interior, recibieron cada año la visita amistosa, e incluso un poco exótica por lo desconocida, de la Armada. Este ciclo itinerante finalizó en 1991, año en el que el Instituto de Historia y Cultura Naval asumió las competencias del Patronato, después de más de cincuenta años de labor, siempre ilusionada, en pro de la cultura naval. Los premios actuales son los siguientes, en denominación, naturaleza y cuantía económica: -«Del Mar», para libros, dotado con 6.000 € -«Poesía del Mar», para el mejor poema o colección de poemas, 1.800 € -«Juventud Marinera», para alumnos entre 10/16 años, equipo completo de informática -«Armada de Pintura», 1^" Premio 7.500 €, 2° Premio 3.000 € Se convocan anualmente en los meses de enero/febrero, con publicación en el Boletín Oficial del Estado y en el de Defensa; la designación de los premiados se realiza el día 16 de julio, festividad de nuestra Patrona la Virgen del Carmen; y la entrega de los premios se efectúa en acto solemne en el Cuartel Greneral de la Armada entre los meses de octubre y noviembre. Comentados estos antecedentes principales, es el momento de describir cuáles han sido los planteamientos, logros y proyectos del Instituto en su configuración actual. El Museo Naval y el Instituto de Historia y Cultura Naval Ya se ha dicho que su creación data del año 1976, pero los primeros frutos consistentes no empiezan a consolidarse hasta la década de los años ochenta. El primer gran proyecto fiíe el de la celebración del IV Centenario de la Empresa contra Inglaterra de Felipe II en 1588. Los primeros trabajos de planificación, constitución de grupos de investigadores y adecuada dotación presupuestaria se emprendieron en 1980, organizándose siete comisiones integradas por historiadores civiles y oficiales de la Armada, a las que se encomendó el estudio de diferentes aspectos del proyecto que se denominó «Gran Armada». El trabajo fue riguroso y exhaustivo, con el resultado final de la edición de nueve monografías y un trabajo monumental denominado la «Batalla del Mar Océano», del que hay ya cinco tomos publicados y al menos otros tres pendientes de conclusión. La labor de investigación fue ingente y salieron a la luz miles de manuscritos, absolutamente desconocidos, que permitieron contemplar tan controvertido y deformado hecho histórico con un respaldo documental aplastante y unas conclusiones muchas veces novedosas y en ocasiones espectaculares. El éxito fue ampliamente reconocido y alabado por los más prestigiosos historiadores británicos en un simposio celebrado en 1988, con sede sucesivamente en Londres y Madrid. El segundo proyecto de investigación fue también de largo aliento. Se denominó en principio «Islario del Pacífico» y fue realizado exclusivamente por oficiales de la Armada. Se trataba de esclarecer los viajes y descubrimientos españoles en aquel océano, identificando las derrotas seguidas por nuestros navegantes y la verdadera identidad de cada una de las islas. Los trabajos comenzaron en 1985 y se plasmaron en tres magníficos tomos de gran formato y enjundioso contenido, publicados en 1992 con el título de «Descubrimientos españoles en el Mar del Sur». También de la década de los ochenta datan dos iniciativas que han tenido una fructífera continuidad en el tiempo y han acabado constituyéndose en los dos principales pilares en los que se asienta la actividad cultural y difusora del Instituto: la Revista de Historia Naval y las Jornadas de Historia Marítima. El primer número de la revista se publicó en 1983 con la intención de ser el órgano a través del cual se dieran a conocer los trabajos de los estudiosos y eruditos en historia naval y, además, servir de catalizador cultural para atraer la atención sobre determinadas conmemoraciones o eventos históricos relacionados con la Armada. Se trata de una publicación trimestral que ha cumplido con su compromiso y está a punto de celebrar los veinte años de existencia Fernando Riaño Lozano 418 inintemmipidos, plasmada en 75 números que han servido de foro y portavoz de todos los que aman este campo apasionante de la historia. En cuanto a las Jornadas de Historia Marítima, dentro de este título se pretende englobar toda una serie de actos culturales, tales como simposios, jornadas de política marítima, jornadas de historiografía, conferencias monográficas sobre determinados temas de interés cultural y, mayoritariamente, las mencionadas Jornadas de Historia Marítima, que por ser las más numerosas y sistematizadas han marcado el carácter de este tipo de actos. Generalmente se suelen celebrar en Madrid, en el Salón de Actos del Cuartel General de la Armada, con una frecuencia de dos anuales -primavera y otoño-y una duración de tres días en sesión vespertina. Las primeras Jornadas se realizaron en 1987 y tuvieron por título «España y el Ultramar Hispánico hasta la Ilustración» y las últimas, que hacían el número XXII, trataron sobre «La Casa de Contratación de Sevilla». La selección de este último tema merece ser comentada porque puede servir de ejemplo ilustrativo sobre las pautas de actuación del Instituto. Cuando se estaban diseñando las actividades culturales para el año 2001 se detectó la cercanía del 500° aniversario de la creación, en 1503, de la mencionada Casa de la Contratación, de carácter único por su versatilidad, pero en todo y sobre todo influida por la mar en su nueva y desmesurada dimensión oceánica. Consecuente con ello, se programaron para el mes de octubre una serie de conferencias, con la colaboración de prestigiosos miembros de la universidad sevillana, con objeto sobre todo de servir de desencadenante de los actos conmemorativos que tan importante efemérides merecía, y sobre los que, una vez provocada la inquietud, se ha cedido, como debe ser, la iniciativa y protagonismo a las instituciones culturales hispalenses. Todo este proceso consolidado de organización de ciclos de conferencias, tiene el valor añadido de la publicación sistemática de cuadernos monográficos en los que se recogen las conferencias impartidas. En el devenir de los años, gracias a la calidad de los autores y al interés y variedad de los temas, este tipo de publicaciones constituye un sólido y valioso fondo histórico, con un ámbito de difusión relativamente importante. Hasta el momento se han editado 39 cuadernos monográficos de esa naturaleza y otros 4 números de carácter extraordinario. También, dentro del campo de las publicaciones, es responsabilidad del Instituto promover e impulsar los trabajos de investigación de interés para sus fines, y elaborar la propuesta de inclusión de estas obras en el Programa Editorial del Ministerio de Defensa. Por este proce-El Museo Naval y el Instituto de Historia y Cultura Naval dimiento se editan anualmente de dos a cuatro libros, entre los que figuran, además de autores pertenecientes a la Armada, numerosos historiadores y eruditos de estamentos civiles. No se debe terminar sin hacer una breve referencia a la organización del Instituto, que como ya se señaló anteriormente, se basa en una Orden Ministerial de marzo de 2000, y tiene por tanto apenas dos años. La estructura, dependencias y misión están muy influidas por la legislación que rige al Museo Naval, que la antecede en cuatro años y tiene además rango de Real Decreto. Se trata pues de una normativa muy contrastada que se ha implantado con buenos resultados, cuyos aspectos más reseñables, por salirse de la orgánica normal, son las posibilidades que brinda de obtener refuerzos adicionales de personal mediante dos vías: los asesores de la Dirección y los consejeros-colaboradores del Instituto. Esta fórmula permite contar con apoyos oficializados de personas capaces y afectas a la Institución, siempre necesitada de este tipo de colaboraciones. Otro detalle orgánico interesante es el de instituir una red de Delegaciones del Instituto en las Zonas Marítimas. En este momento los delegados en ejercicio son tres, con sede en Ferrol, Cartagena y San Femando (Cádiz), y su cargo coincide con el de conservador de los respectivos museos -llamados periféricos-allí basados. También está en fase muy avanzada la constitución del Museo Naval de la Zona Marítima de Canarias, y su conservador será asimismo delegado del Instituto. Queda, por último, reiterar que la responsabilidad de las actividades del Museo y del Instituto confluyen en una sola persona, su director. Con ello se trata fundamentalmente de concentrar y optimizar la gestión de los siempre limitados recursos de personal y presupuestarios. Si bien es verdad que estas tradicionales escaseces, se ven afortunadamente paliadas por el apoyo de todo orden recibido de particulares y organizaciones que día a día se afanan en desmentir el desinterés del español por las cosas de la mar. Aunque los avances sean lentos, lo importante es seguir avante con ánimo y confianza, conscientes de que se está en el buen rumbo.
culturales, impulsadas por ostentar el título de Ciudad Europea de la Cultura. Ello ha dado ocasión para que gentes de todas partes se acerquen a esta hermosa ciudad a contemplar sus monumentos, participar en sus espectáculos o compartir la amable convivencia de sus calles y plazas. Días ha habido en que la afluencia de visitantes, sumada al trasiego estudiantil, hacía casi imposible transitar por sus zonas históricas y pasear por los claustros de su vieja Universidad. Pero más allá del bullicio y de los innumerables atractivos turísticos, éste ha sido un año también provechoso para descubrir algunas betas menos aparentes que configuran la estructura profiínda de la cultura de esta ciudad. En este número monográfico de la revista Arbor hemos pretendido resaltar con algunas pinceladas esas corrientes culturales que nos permiten presentar Salamanca como un espacio para la síntesis, -o al menos para la pervivencia armónica-de las dos culturas, la cultura humanística o literaria y la científica y tecnológica. No es una visión estándar de Salamanca, pero es una visión real, que adquiere todo su relieve cuando la mirada a la ciudad se dirige desde su verdadero centro cultural, su universidad (hoy, sus universidades), cuyas aulas están repletas de testimonios de lo mejor de la cultura universal, en el campo de la poesía, la literatura, el derecho, pero también las ciencias y las técnicas, tanto a lo largo de su historia como especialmente en la actualidad Ojalá sirvan estas páginas como homenaje a quienes a lo largo de nuestra historia han optado por mantener unidas la razón y la pasión, el arte y la ciencia, la tecnología y la justicia, a quienes han contribuido en suma a desarrollar el núcleo más valioso de la cultura humana y a quienes se afanan ahora por mantener y desarrollar esa herencia: nuestros profesores, nuestros estudiantes.
La ciudad de Salamanca Una de las caracterísitcas más evidentes de esta ciudad es su «forma circular», que viene determinada por la muralla que desde antiguo establece el perímetro de la ciudad. La muralla salmantina hace de la ciudad de Salamanca una «ciudad circular», organizada en torno a un centro, el consistorio, que en siglo XVI estaba situado en la plaza de San Martín, próxima a lo que hoy es la plaza Mayor y correspondiéndose más o menos con lo que hoy es la plaza del Corrillo. Así, pues, la plaza de San Martín es el centro en torno al cual se organiza la ciudad, que en ese siglo XVI, está dejando de ser un «espacio agregado» de casas dentro del cual sobresalen las «torres fortaleza»; y está pasando a ser un «espacio sistema» gracias a la transformación que está protagonizando su urbanismo en ese siglo XVI con la modificación del edificio de la Universidad, la construcción de las principales «casas-palacios», así como la Iglesia de San Esteban junto al Convento de los dominicos y el mismo Convento de las Dueñas, vecino a aquel; la construcción del Colegio de Fonseca; y en el ámbito religioso la construcción de la «nueva Catedral», que andando el tiempo será otro de los grandes edificios de la ciudad ^. El viejo «espacio agregado» medieval se transforma en un «espacio sistema» y confiere a la ciudad de Salamanca una «forma simbólica», que va a mantenerse hasta la transformación que experimentará la ciudad a partir del final del siglo XX. El objeto de nuestro artículo es relatar cómo en el siglo XVI tiene lugar en la ciudad de Salamanca una revolución en la idea de espacio, que se hace manifiesta en dos de los objetos que según Cassirer son la expresión más clara de las transformaciones que tienen lugar en le Renacimiento: el arte y la ciencia. En la ciudad de Salamanca del siglo XVI se produce una transformación en la idea de espacio, que nos permite afirmar que en ese siglo la ciudad del Termes logra una síntesis entre la cultura humanista (arte) y la cultura científica (ciencia), que es la que va a modelar su carácter de «ciudad renacentista» ^. Esa transformación de la idea de espacio está protagonizada por las dos élites más importantes de la ciudad de aquel momento: la élite de los nobles y caballeros y la élite de los hombres de letras. Veamos cómo tiene lugar esa transformación en torno a cada una de esas élites y de sus respectivas mentalidades. La primera de las transformaciones tiene lugar en el cambio de la «casa fortaleza» por la «casa palacio» y está protagonizada por la élite de los nobles y caballeros, aspecto éste que ha sido muy bien estudiado por Clara Isabel López Benito, a cuya obra remitimos ^. La casa de la nobleza como forma simbólica El elemento más destacado de la nobleza desde el punto de vista de la representación es «la casa», que es el símbolo que mejor manifiesta ante los otros la relevancia del linaje dentro del que se encuentra el «hombre noble». La casa es la pieza básica que proyecta hacia el exterior, hacia los otros el status de la familia. Y en la casa la fachada es el signo en el que se concentra mejor esa dimensión de la casa noble. De ahí que en el siglo XVI asistamos en la ciudad de Salamanca a una significativa transformación de las casas de la nobleza. «La Oligarquía salmantina de la temprana Edad Moderna se caracterizaba por ser esencialmente urbana. Su casa principal estaba por tanto ubicada en la Ciudad, hecho que sin embargo no impedía que los miembros de aquella mantuvieran además casa abierta en sus posesiones rurales» ^. Otro signo de distinción de las casas nobles es su localización, que en la ciudad de Salamanca tiene lugar en torno a la Plaza Pública y a dos de las parroquias de mayor renombre: la de San Benito y la de Sto Tomé de los caballeros. Un ejemplo muy claro de lo que venimos diciendo son las casas del linaje de los Maldonado que ocupaban un semicírculo que podemos trazar desde el hoy Museo Provincial ( Palacio de los Abarca Alcaraz) hasta el Convento de las Claras ( Palacio del La ciudad de Salamanca en el siglo XVI: La conjunción... comunero Pedro Maldonado) y Casa de las Conchas (Casa del Dr. Rodrigo Maldonado de Talavera). Dentro de ese semicírculo tenemos que incluir el espacio que hoy ocupa la Universidad Pontificia (antigua Casa de la Compañía de Jesús levantada en terrenos de otras casas de los Maldonado). La transformación más importante experimentada por las casas de la nobleza salmantina en los siglos XV y XVI fiíe su metamorfosis de casa-fuerte, paradigma de una mentalidad medieval, en casa-palacio de estilo isabelino y que podemos interpretar como paradigma de una mentalidad renacentista. Los dos ejemplos más representativos de esto último son la Casa de las Conchas y la de los Abarca-Alcaraz (hoy Museo Provincial). El rasgo que las caracteriza es la rica decoración exterior organizada en torno a la fachada y las ventanas, que podemos relacionar con la afirmación de la propia individualidad, que es muy característico de la mentalidad renacentista. Este rasgo de afirmación de la propia individualidad es algo que se aprecia muy bien en las dos élites que protagonizan la vida en la ciudad de Salamanca en su siglo dorado (el XVI): la élite de los nobles y la élite de los hombres de letras. Así como hemos visto que el elemento más característico de la nobleza desde el punto de vista de la representación es la casa, en el caso de los hombres de letras es el libro, que también tiene su portada, en la cual muchos hombres de letras han querido afirmar su individualidad imprimiendo su divisa o impresa; la cual es a los hombres de letras lo que la fachada de la casa a los hombres nobles ^. Otro lugar clásico para ver la transformación de la idea de espacio en la Salamanca del siglo XVI es el nominalismo y su presencia en dicha Universidad. Es un tema que ha sido muy deformado por algunos historiadores que lo han tratado tanto en relación a la Universidad de Salamanca como a la de París. Beltrán de Heredia hace de dicha tradición una de las grandes desgracias padecidas por la Universidad de Salamanca en la primera mitad del siglo XVI ^. Pero no se trata de ninguna desgracia, sino de una de las tradiciones a las que cabe atribuir la relevancia de esta Universidad en el siglo XVI. La misma consideración negativa merece el nominalismo en la obra de Villoslada sobre la Universidad de París ^. Una de las fuentes de este juicio negativo se encuentra en el juicio que merecen a Luis Vives los dialécticos de París ^. Los estudios que hoy se hacen sobre este grupo de la Universidad de París hacen una valoración muy distinta; resaltando sobre todo la importancia del grupo para la nueva física, tal como la misma se constituirá a partir de Galileo ^. Este es el punto que nosotros queremos resaltar en nuestro estudio, fijando la atención en la importancia que tiene esa parte de este grupo, que ejerció como docente en la Universidad de Salamanca sobre todo a partir del año 1516 con la llegada de SiKceo a Salamanca, aunque ya se aprecian los intentos de renovación a partir de 1509. Podemos iniciar esta tradición en la Universidad de Salamanca con el filósofo y teólogo Juan de Oria, que el año de 1509 se hace cargo de la cátedra de Scoto, así como de la de lógica y filosofía de nominales; en cuya enseñanza permanece hasta el curso 1518-19 en el que pasa a la cátedra de Biblia, en la cual se va a encontrar con los problemas que le trajeron la condena de la Inquisición. A nosotros nos interesa su estudio como filósofo nominal. El año de 1518 publica una repetición: Sobre la inmortalidad del alma, que era uno de los temas a debate en la filosofía europea del momento. Discute las opiniones de distintos autores y mantiene una propia que se encuentra dentro de la ortodoxia católica. Lo más significativo para nuestro estudio es su tratamiento de las potencias del alma, que no las considera como algo accidental al modo de Sto Tomás, sino formando parte del alma como potencia operativa, que el hombre como viator tiene que actualizar. La fuerza operativa del alma exige un cuerpo que le corresponda y le sea adecuado, lo cual va a caracterizar la individuación del acto de pensar, cosa que no estaba dentro de la doctrina averroista acerca del entendimiento. Oria, en cambio, considera que el alma está incluida en el cuerpo como su morada exterior. Y al interpretar así al alma se inserta dentro de la tradición cristiana que tiene a San Agustín a su cabeza y que resalta el principio de la subjetividad, que es el que está en la base de lo que andando el tiempo será el idealismo de Descartes del que se hace partir la filosofía moderna. Y para ello juega un importante papel la educación y en concreto la enseñanza de la lógica como dialéctica, que es uno de los aspectos a destacar de Juan de Oria como maestro de lógica y filosofía nominal. Podemos relacionar las teorías de Oria en este punto con uno de los programas iconográficos de la Universidad de Salamanca: el programa iconográfico de la escalera, que hay que leer como el camino del homo viator hacia su perfección como hombre sabio por medio del adecuado cultivo de las facultades del alma. Nominalismo y física dinámiica En los primeros años del siglo XVI tuvo lugar en la Universidad de París un renacimiento del interés por problemas de la física. Este interés fue suscitado por el nominalista escocés Juan Mair. Pero fueron sus discípulos los que escribieron un buen número de Quaestiones sobre la física aristotélica en las que en tomo al movimiento local crearon una nueva física como resultado de la síntesis del pensamiento mertoniano proveniente de los calculadores de Oxford y de los seguidores en París de las doctrinas de Juan Buridán acerca del aimaento y disminución de las cualidades. Dentro de los seguidores parisinos de Juan de Buridán nos encontramos con Nicolás de Oresme, que el año 1351 compuso un tratado titulado: Tractatus de configurationibus qualitatum et motum, que es el que a nosotros nos va a servir aquí como referencia para lo que queremos decir. El núcleo de este texto es su teoría de la configuración de la que podemos encontrar antecedentes en Aristóteles, Rogelio Bacon, Juan de Buridán y el oxfordiano Ricardo Swineshead. Oresme expone su teoría de la configuración como un medio para la medición de las cualidades, cosa que puede hacerse imaginando la variación de la cualidad como representada por dos líneas: la de la extensión de la cualidad (longitud) y la de la intensidad de la cualidad (latitud). Este procedimiento de «imaginar» figuras geométricas para la medición de la variación de las «cualidades» de las cosas es lo que permite comprender el concepto central de esta teoría que es el de «uniformidad diforme», que luego será aplicado dentro de esta tradición a la medida del movimiento. La nueva física parisina del siglo XVI tiene como una de sus caracterísitcas el aumento de las cuestiones experimentales y de la ejemplificación de los problemas tratados, lo que va a preparar el camino para la asociación del movimiento uniformemente diforme con la caida de los graves tal como será planteada por Galileo. En este terreno una serie de profesores ibéricos presentes en París van a formar lo que Wallace ha llamado el «eslabón ibérico», que nos conduce de París a Galileo pasando por la Península ibérica. En el inicio de ese eslabón ibérico nos encontramos con el portugués Alvaro Tomás, que escribió un tratado titulado Líber de tríplice motu inspirado fundamentalmente en el oxfordiano Swineshead. Este eslabón será continuado en Salamanca por Pedro Margalho, Juan Martínez Silíceo y Domingo de Soto, que será el que acabe formulando la caida de los graves de modo similar a como lo hará definitivamente Galileo. Más adelante desarrollaremos pormenorizadamente este punto. Silíceo y la física de Oxford y París en Salamanca El año 1516 llega Silíceo a la Universidad de Salamanca para regentar la cátedra de nominales en la Facultad de Artes. Esta llegada hay que entenderla dentro de la política global de renovación que la Universidad de Salamanca está llevando a cabo bajo la atenta mirada de los Reyes Católicos. Las primeras cátedras que se renovaron fueron la de Gramática, Poética y Retórica; y ahora toca el turno a las cátedras de Lógica y Filosofía Natural, que son de las más importantes de la Facultad de artes. Y esta misión la emprende Silíceo, que durante sus años en la Universidad de Salamanca va a jugar un papel decisivo. Al año de llegar a Salamanca es ya colegial del más importante Colegio Mayor de su Universidad: el de San Bartolomé. Y en los primeros años de su estancia en esta Universidad lleva a cabo una actividad productiva extraordinaria. Publica su Dialéctica o Lógica magna, que consta de cuatro partes de las que se conserva la primera y parte de la tercera. Publica también las Quaestiones al Perihermeneias de su maestro DuUaert de Gante, el libro de Suisseth (Ricardo de Swineshead) ^° perteneciente a la rama oxfordiana de los calculadores y una Lógica brevis. Es decir, que pone a disposción de alumnos y profesores de la Universidad de Salamanca las doctrinas más actuales acerca de la lógica nominalista y de la filosofía natural tal como en ese momento se estaban practicando en la Universidad de París, que era la más importante del momento. Con la llegada de Silíceo a Salamanca la Facultad de artes logra uno de sus mejores momentos de la historia. Tiene una importante cátedra de Astrología, de Gramática, de Poética, de Retórica, de Lógica y de Filosofía natural. En todas ellas se enseñan las doctrinas más avanzadas del momento. Este auge en la Facultad de Artes coincide con la reforma del edificio, que podemos situar entre 1512 y 1528, reforma dentro de la cual se construye el antepecho de la bibliteca, la escalera y la fachada de la Universidad, en cuya decoración queda también reflejado el auge de la Facultad de Artes y las ideas que circulan por las cátedras antes mencionadas. El año de 1522 saca la cátedra de filosofía de la naturaleza que regentará hasta su marcha de Salamanca como obispo de Cartagena. En dicha cátedra se leían textos de Aristóteles y textos de matemática. Entre las obras que publica después de su llegada a Salamanca encontramos Calculatoris Suiset, obra mencionada en la nota anterior. Se trata de la obra del inglés Ricardo Swineshead, filósofo del siglo XIV que era llamado específicamente el Calculator, que pertenece al La ciudad de Salamanca en el siglo XVI: La conjunción... grupo de los calculadores de Oxford, que en el caso de la filosofía natural son los primeros que aplican la matemática al estudio del movimiento fundando la ciencia de la cinemática, que analiza el movimiento en términos de distancia y tiempo. Para este tipo de análisis se desarrollaron dos métodos. El primero de ellos es el del álgebra de palabras empleado por Bradwardino en Oxford, que fue seguido por el grupo del Merton College entre los que se encuentra Ricardo de Swineshead. Pero este grupo de los calculadores de Oxford no se interesó por los aspectos dinámicos del movimiento. Y fue con los dialécticos de París del siglo XVI donde el método de Bradwardino fue desarrollado en el contexto de una teoría dinámica de la física. Es en este contexto de París donde se estudia la llamada «latitud de las formas», que expresaba los grados en que una cualidad o «forma» aumentaba o disminuía numéricamente en relación a una escala fijada de antemano. Esta relación entre la intensio y la extensio es lo que va a dar lugar al nacimiento del segundo método de análisis para expresar las relaciones funcionales; se trata de un método geométrico por medio de gráficos. Siguiendo este método se hicieron descripciones cinemáticas de varias formas de movimiento, siendo una de ellas la que iba a manifestarse como teniendo una significación particular, por ser la que iba a conducir más tarde al análisis galileano del movimiento. La Regla de la velocidad media del Merton College podemos exponerla tal como había sido demostrada geométricamente por Nicolás de Oresme en su obra: Tractatus de configurationibus qualitatum et motuum. En el capítulo 7 de la parte tercera Oresme formula así la Regla del Merton College: «Toda cualidad, si es uniformemente diforme, es de la misma cantidad como sería la cualidad de un sujeto similar o igual, que informara uniformemente a este sujeto según el grado del punto medio. Yo entiendo esto (según el grado del punto medio) como si la cualidad fuera lineal». Y para demostrar geométricamente esta regla construye una figura geométrica, que podemos aplicar al texto de Soto y que Oresme formula de la siguiente forma: «Sea una cualidad que puede ser representada por un triángulo ABC. Es una cualidad uniformemente diforme que, en el punto B, se hace igual a cero. Sea D el punto medio de la línea que representa al sujeto; el grado de intensidad que afecta a este punto está representado por la línea DE. La cualidad que tendría en todas sus partes el grado así determinado puede ser representada por el cuadrilátero AFGB... Además es evidente por la proposición 26 del libro I de los Elementos de Euclides que los dos triángulos EFC y EGB son iguales. Y por lo tanto el triángulo ABC, que repesenta la cualidad uniformemente diforme, y el cuadrilátero AFGB, que representa la cualidad uniforme, según el grado del punto medio, son entonces iguales. Y las dos cualidades que pueden ser representadas, una por el triángulo y otra por el cuadrilátero, son entonces también iguales una a otra, que es lo que se había propuesto demostrar» ^^. El grupo de los calculadores de Oxford y entre ellos Ricardo Swineshead lograron establecer la denominada Regla de la Velocidad Media del Merton College, consiguiendo además una demostración aritmética de la misma. Los calculadores del Merton College gozaron de gran popularidad en París; y de allí fueron importadas sus enseñanzas a Salamanca por Silíceo. La Lógica según la via de los reales y la de los nominales El año 1517 el protugués Pedro Margalho se incorpora a la Universidad de Salamanca procedente del Colegio Mayor de Santa Cruz de Valladolid para hacerse cargo de una cátedra de lógica de reales, cátedra que desempeñará hasta 1522. Tenemos, pues, que los dos catedráticos de lógica en la Facultad de artes en esos años posteriores a 1517 son Silíceo en la cátedra de nominales y Margalho en la de reales.Hemos visto que el año de 1517 Silíceo publica en Salamanca una obra sobre Dialéctica', y el año de 1520 publica Margalho también en Salamanca un texto de Lógica titulado: Logices utriusque scholia in divi Thomae subtilisque Duns doctrina ac nominalium. El texto de Margalho es, pues, una exposición de la Lógica de acuerdo a las tres vias: Santo Tomás, Scoto y los nominales. Tanto Silíceo como Margalho proceden de la Universidad de París y han venido a enseñar a la de Salamanca. Y lo que enseñan es precisamente la «dialéctica» que identifica a la escuela de París ^^. A este respecto es muy interesante la dedicatoria del libro de Margalho a Teodosio, hijo del gran Duque de Portugal. Y decimos que es interesante porque esta dedicatoria muestra muy bien el estado del saber en la Facultad de Artes de Salamanca en torno a esos años de 1520. La dedicatoria parte del bivium o doble camino que se le presenta al viajero cuando llega a una encrucijada. Margalho considera que el hijo del gran Duque de Portugal ha llegado a ese punto de su vida en el que el camino se divide en dos: uno que conduce a la sombra y a la noche proñmda del Erebo y el otro que conduce a los Campos Elíseos. Y le recuerda que llegará a la edad perfecta cuando haya logrado la virtud completa; para lo cual le anima a seguir el «camino marcial» del espíritu combinando en su ingenio el testimonio de las musas (las buenas letras) y los ejercicios dialécticos de la escuela de París. Precisamente lo que pretende el libro de Margalho es enseñarle esos buenos ejercicios dialécticos, ya que «la lucha aguza el ingenio, perfecciona la lengua, vigoriza la voz y hace indeleble la memoria» ^^. Este texto de Margalho es un elogio de la dialéctica, que aquí describe como una «lucha»; y que coloca al lado de las otras artes del lenguaje, afirmando que la virtud perfecta está en el cultivo de ambas líneas: la de las musas y la dialéctica. Esta dedicatoria de Margalho adquiere mayor relevancia si tenemos en cuenta que en el año en que la escribe acaba de construirse más o menos la famosa escalera de la Universidad de Salamanca, que hace alusión a este mismo tema. Podemos, pues, pensar en la escalera de la Universidad de Salamanca como un referente de lo que aquí está diciendo el protugués. Si pensamos en el ambiente cultural que en este momento impregna la Universidad de Salamanca, quizá no nos parezca exagerada la comparación que a continuación hace Margalho. Hoy, escribe Margalho, la dialéctica parisiense como en otro tiempo la sabiduría de Atenas es objeto de la admiración de los grandes poetas. Y llega a afirmar retóricamente que en esos días en los que él escríbe esa dedicatoría el saber de Atenas ha pasado a París y de París a Salamanca. Es uno de los elogios más extraordinaríos que podemos oir de la Universidad de Salamanca en esos prímeros años del siglo XVI. A parte de la retórica de lo que el elogio supone, lo cierto es que traduce un determinado estado de ánimo con respecto a la situación de la Facultad de Artes de la Universidad de Salamanca en las primeras décadas del siglo XVI ^^. La docencia de Silíceo y los orígenes del camino moderno del filosofar La importancia de las enseñanazas de Silíceo en el terreno de la filosofía natural pueden también apreciarse por otro camino. Para ello vamos a fijar nuestra atención en un texto de un discípulo de Silíceo publicado el año 1554, cuando Silíceo es ya Arzobispo de Toledo y ha publicado su último libro: De divino nomine Jesús. El libro al que nos referimos es de Gómez Pereira, médico de Medina del Campo, y lleva por título; Antoniana Margarita •^^. El libro está dedicado a Silíceo y en esta dedicatoria el autor del libro escribe que Silíceo fiíe su maestro y preceptor en los conocimientos físicos, y que el contenido de la obra que le dedica es más suya (de Silíceo) que del propio autor.En la primera edición del texto aparece en la portada la «impresa» de Silíceo, lo que nos da a entender que el libro no solamente está dedicado a Silíceo, sino que además ha sido publicado bajo su protección. Lo que podemos interpretar como que Silíceo tiene un cierto compromiso con los contenidos del texto, que efectivamente consideraría como un desarrollo de sus enseñanzas durante la época en la que fue profesor de «físicos» de la Universidad de Salamanca. El texto de Gómez Pereira, discípulo de Silíceo, es de una gran relevancia para comprender el modo como la modernidad va a plantear la filosofía. Este texto es un claro antecedente del planteamiento cartesiano; y tiene como peculiaridad el afirmar la autonomía del pensamiento en el acto de conocer. Gómez Pereira plantea por primera vez la originalidad del pensar, que aunque necesite del cuerpo para iniciarse como proceso, tiene en sí mismo una peculiaridad que le hace autónomo con respecto al cuerpo en el que se encuentra. Gómez Pereira explica el proceso de conocer de la siguiente manera: los objetos o fantasmas despiertan al alma, como consecuencia de esto el alma conoce que conoce algo y puesto que sabe que conoce algo, conoce a su vez que ella existe, ya que ella se conoce como distinta de aquello que ella conoce. Las palabras exactas del autor son: «Conozco que conozco algo; y aquel que conoce es, luego yo soy» («nosco me aliquid noscere, et quidquid noscit est, ergo ego sum») ^^. Gómez Pereira está planteando aquí la idea que en el siglo XVII formulará Descartes en su famosa expresión: pienso, luego existo. Tenemos, pues, que este texto de Gómez Pereira está indicándonos el camino por el que la filosofía moderna se desarrollará. Y ese camino no es otro que el de la dialéctica tal como fue planteada «al modo de París» y que tiene en Silíceo uno de sus más claros representantes. No exageramos, pues, al afirmar que las enseñanzas físicas de Silíceo en la Universidad de Salamanca están roturando un camino que más tarde encontrará su reconocimiento en el planteamiento cartesiano. Y en ese camino abierto por Silíceo entre otros el texto de Gómez Pereira juega un papel decisivo. Domingo de Soto como eslabón ibérico de la moderna dinámica En su obra Super octo libros phisicorum Aristotelis Quaestiones de 1552 describe Domingo de Soto la caida de los graves aplicando el concepto de «uniformidad diforme» de la siguiente forma: «El movimiento uniformemente diforme en cuanto al tiempo es aquel de tal modo diforme que, si se divide según el tiempo (es decir, según lo anterior y lo posterior), el movimiento del punto medio de cualquier parte supera al del extremo más lento en la misma proporción que es superado por el más intenso». Esta regla general del movimiento «uniformemente diforme» dice Domingo de Soto que es el tipo de movimiento característico de las cosas que se mueven naturalmente y de los proyectiles, cosa que confirma de la siguiente forma: «En efecto, cuando un cuerpo cae desde lo alto a través de un medio uniforme, se mueve al final más velozmente que al principio, mientras que el movimiento de los proyectiles es más lento al final que al principio, de tal manera que el primero aumenta y el segundo disminuye de modo uniformemente diforme... De todo esto, resulta que la velocidad del movimiento uniformemente diforme en cuanto al tiempo hay que estimarla mediante el grado medio y denominarla por él» ^^. Este texto de Domingo de Soto puede ser explicitado aplicando a la comprensión del mismo la figura geométrica que hemos expuesto anteriormente en la página 434. Lo que a nosotros nos interesa resaltar es el lugar que ocupan en relación con la historia de la ciencia moderna este autor y la Universidad de Salamanca en la tradición a la que nos hemos venido refiriendo. Para ello vamos a centrar nuestra atención en una polémica que ha tenido lugar entre algunos historiadores de la ciencia. La polémica acerca de los orígenes de la dinámica moderna La física matemática tal como será configurada por Galileo en el siglo XVII tiene sus antecedentes históricos reconocidos por todos los historiadores de la ciencia en los calculadores de Oxford del siglo XIV y en la aplicación que en ese mismo siglo XIV se hizo en la Universidad de París de la matemática a la física. El resultado de estas aplicaciones y reflexiones fue la física parisina del XVI, que es el antecedente más inmediato de la física matemática tal como será formulada por Galileo. Los historiadores de la ciencia se han preguntado cómo llegaron las ideas de los calculadores de Oxford y París a Galileo. La respuesta a esta pregunta ha generado una polémica entre algunos historiadores de la ciencia. Duhem defiende que Soto es la fuente inmediata de los primeros escritos de Galileo ^^. Frente a esta tesis de Duhem Koyré defiende que Soto fue un escolástico español alejado totalmente del flujo principal del pensamiento europeo, que no pudo influir en Galileo ^^. El último paso en esta polémica lo ha dado Wallace, que considera que los jesuítas del Colegio Romano son los intermediarios entre Soto y Benedetti por un lado y Galileo por otro ^°. Podemos aceptar la propuesta de Wallace, que ha logrado fijar muy bien los términos de la cuestión. Pero nosotros no vamos a fijarnos tanto en el «eslabón ibérico» entre los calculadores y Galüeo; sino en la transformación que experimenta el concepto de movimiento local tal como fuera planteado por Aristóteles con las innovaciones que introducen los calculadores tanto de Oxford como de París; y cómo esas innovaciones están presentes en la Universidad de Salamanca en el siglo XVI. El mérito de Soto en el texto anteriormente citado reside en el hecho de asociar el movimiento «uniformiter difíbrmis» de los calculadores con la caída de los graves y mantener que la distancia de la caída puede ser calculada temporalmente sirviéndose del teorema mertoniano de la velocidad media. Y esta asociación no es algo casual y fortuito tal como piensa Koyré, sino el resultado de una serie de teorías y de estudios experimentales a lo largo de los siglos XIV, XV y XVI, que proporcionan el «trasfondo» del que va a surgir la formulación galileana de la caida de los graves y su nueva teoría del movimiento. El punto de partida de las transformaciones acerca de la teoría del movimiento podemos situarlo en los trabajos de Thomas Bradwardine, que adquirieron renombre a través de los escritos de dos de sus discípulos: William Heytesbury y Richard Swineshead ^^. El cambio más importante introducido por estos autores se refiere a la intensificación de los cambios y de los movimientos. Y al aplicar esos cambios al movimiento local el término «intensificación» llega a ser sinónimo de velocidad; y los términos de «imiforme» y «diforme» pasan a asumir un significado cinemático. Los calculadores de la Universidad de Oxford centraron sus estudios sobre el movimiento en la definición en abstracto de los distintos tipos de movimiento con términos matemáticos, pero sin ilustrar esos tipos de movimiento con ejemplos y experimentos tomados del universo físico. El paso hacia delante en el tratamiento del tema del movimiento lo dieron Alberto de Sajonia y Nicolás de Oresme en la Universidad de París en el siglo XV al ilustrar los diversos tipos de movimiento con ejemplos o experimentos tomados del universo físico. Estos filósofos de la Universidad de París se sirvieron del siguiente esquema: Los casos 11,1, 11,2 y 11,4 los ejemplificó Nicolás de Oresme con la caida de un grave, introduciendo la variación de la velocidad en el movimiento local ^^. En el siglo XV nos encontramos con Gaetano de Thiene, encuadrado en la tradición de Pablo de Venecia, que va a continuar las enseñanzas de los escolásticos de París del siglo XIV. Y como culminación de todo este proceso que se iniciara en Oxford tiene lugar en la Universidad de París a principios del siglo XVI un creciente interés por los problemas de la física sobre todo bajo la influencia del nominalista escocés Juan Mair, muchos de cuyos discípulos escribieron importantes comentarios y cuestiones (Quaestiones) a la física aristotélica. En estos comentarios se produce la fijsión entre el pensamiento de los calculadores de Oxford y los nominalistas parisinos del siglo XIV produciéndose una revolución en el campo de la física matemática del siglo XVI, que tiene su ubicación en la Universidad de París. Muchos estudiantes ibéricos que por esos años se encontraban en la Universidad de París son testigos de esta revolución; y van a ser ellos precisamente los que van a importar a España y Portugal y más en concreto a la Universidad de Salamanca esos desarrollos de la moderna física matemática. Entre estos estudiosos tenemos al segoviano Luis Coronel conciudadano y profesor de Domingo de Soto. Como novedad en su tratamiento del movimiento local está la introducción que hace del valor medio de la velocidad en el caso del movimiento uniformemente o diformemente acelerado. Y además de esto se sirve de la regla de los calculadores para aplicarla a los diversos casos del movimiento local y a las distintas ejemplificaciones que propone. Otro español al que tenemos que hacer alusión es a Juan de Celaya, profesor en la Universidad de París, en cuyos escritos se da la conjunción entre la línea de los calculadores y el realismo de los comentadores italianos de Aristóteles. Este escolástico fue profesor de Domingo de Soto y es posible que fuera él quien le influyó para adoptar el esquema de los calculadores de Oxford en su explicación del movimiento local. En este siglo XVI y dentro de la Península ibérica tenemos que citar a los siguientes autores: Diego Diest y su tratado Quaestiones physicales publicado en la Universidad de Zaragoza en 1551; Diego de Astudillo y sus Quaestiones publicadas en la Universidad de París en 1532; Pedro Margalho y su Physices compendium publicado en Salamanca en 1521 y Domingo de Soto y sus Quaestiones publicadas en Salamanca en 1555. Lo importante de Domingo de Soto es que vuelve al esquema de una sola variable de Hesrtesbury, del que da una explicación exhaustiva proponiendo ejemplos para todos los casos; y es con este trasfondo como él asocia la caida de los cuerpos con el movimiento uniformemente diforme, dando a tal expresión el significado preciso de «movimiento uniformemente acelerado en el tiempo», al cual aplica el teorema de la velocidad media del Colegio de Merton. La introducción del pensamiento de los calculadores en el Colegio Romano de los jesuítas en la ciudad de Roma fue obra sobre todo del español Toledo que enseñó allí filosofía natural el año 1560, importando a dicho Colegio las ideas que había recibido en Salamanca del dominico Soto. En esta tarea otros dos españoles jugaron un papel destacado como es el caso de Benedicto Pereira y Francisco Suárez. Este último enseñó teología en dicho Colegio los años de 1580-1585; y puede servirnos de referencia para entender el papel de mediadores de los jesuítas en el proceso de transformación de la cinemática medieval en la cinemática de los modernos. En sus Disputaciones Metafísicas de año 1597 Suárez reflexiona sobre el tema de la intensión y remisión de las formas aludiendo al concepto de «uniformemente diforme» y nos habla de la velocidad como intensidad del movimiento. El rechaza esta tesis, pero es importante destacar la relevancia que concede al tema de la intensión y remisión de las formas, recogiendo en su manual de las Disputaciones la tradición de este tema tal como se ha desarrollado desde finales de la Edad Media hasta su momento. Este manual de Suárez fue muy importante en la formación del pensamiento moderno. Es un texto, que como toda la obra de Suárez, fue preparado y editado en Salamanca y del cual podemos afirmar que es una muestra clara de la importancia de las ideas presentes en la Universidad de Salamanca en el siglo XVI; ideas que Suárez ha sintetizado en toda su obra tanto filosófica, como jurídica y teológica. Las Disputaciones Metafísicas de Suárez escritas y publicadas en Salamanca en 1597, después de su estancia en Roma, son una muestra objetiva de la relevancia del ambiente cultural en la Salamanca del siglo XVI. Un análisis detenido de la Disputación XLVI nos pernñtiría mostrar la diferencia entre la línea más matemática y la más metafísica en el tratamiento del tema de la intensión y la remisión de las formas; al mismo tiempo que veríamos cómo la síntesis realizada por los jesuitas de las ideas de la tradición y de la modernidad naciente son las que van a conducir al desarrollo de la moderna dinámica tal como será planteada por Leibniz. Aquí nos limitamos a aludir este punto que no podemos desarrollar; y para cuyo desarrollo podemos citar las siguientes referencias que damos en nota ^^. Como conclusión de todo esto que venimos diciendo a propósito de la física matemática moderna tenemos que decir que Wallace ha fijado muy bien la mediación entre los jesuitas y Galileo, y a él remitimos a aquellos que estén interesados en este punto. Lo que nosotros queremos resaltar es que la tesis de Wallace apoya la tesis de Duhem frente a la de Koyré al poner en cuestión la interpretación que este último hizo de Galileo como un platónico y racionalista, que no tuvo necesidad de recurrir a la experímentación para fundar la «nueva ciencia». Las ideas de Galileo de la «nueva ciencia» están emparentadas con la física matemática de los escolásticos y nominalistas de la Universidad de París del siglo XVT, que a su vez son los importadores y reformuladores de la física matemática de los mertonianos del siglo XIV. Y en este punto de reformulación de las ideas sobre el movimiento y de su transmisión a Italia el dominico Domingo de Soto juega un papel que no puede ser desconocido o minusvalorado tal como ha hecho Koyré. La matemática de mertonianos y nominalistas y el replanteamiento del conocimiento sensible Ciertamente la matemática juega un importante papel en la formulación de la nueva ciencia. Pero la matemática puede entenderse en un sentido platónico e idealista, o en un sentido más arístotélico, como es el caso de la tradición que nosotros estamos considerando aquí. Para ilustrar esto puede servirnos otro de los profesores ibéricos de lá Universidad de París: Pedro Sánchez Ciruelo, que aparte de otros libros esríbió uno titulado Apotelesmata Astrologiae Chistianae, en el que entabla una discusión con Pico della Mirándola que puede servirnos para establecer la diferencia entre el modo platónico y el modo aristotélico de entender la matemática. Ciruelo, siguiendo a Aristóteles, establece una división de las ciencias de acurdo con las «razones formales» bajo las cuales éstas consideran las cosas. Y así nos habla de la física como ciencia de lo sensible, de la matemática como ciencia de lo imaginario; y de la metafísica como ciencia de lo suprasensible. Esa consideración de la matemática como ciencia de lo imaginario tenemos que entenderla en el sentido de que los «objetos» sobre los que trata no existen en la realidad, sino que se «suponen» o se refieren a objetos reales desde unas determinadas «razones formales», que en el caso de las matemáticas coinciden con las mismas cosas naturales. Lo que aquí Sánchez Ciruelo entiende por forma no es un objeto exterior hacia el que apuntan las matemáticas tal como defendería un platónico, sino un determinado modo de objetivación de la realidad que podemos calificar de hipotético. El mundo de las formas matemáticas es un mundo de ordenación de la realidad y no un mundo de cosas. La filosofía matemática de Sánchez Ciruelo es acorde con la epistemología aristotélica, que en el caso de las matemáticas podemos interpretar como «creadora de hipótesis». La forma matemática es una «hipótesis» que los matemáticos han sacado de la observación de los objetos reales, que nos permite una visión de la realidad distinta de la de la física y de la de la metafísica. La visión matemática de la realidad es una forma de objetivación de la misma, gracias a la cual descubrimos aspectos de la realidad que de otra forma no podríamos descubrir. Y lo peculiar de la visión matemática de la realidad es que no se queda en la pura contemplación de la misma, como ocurre con la metafísica, sino que busca la aplicación, que es uno de los aspectos fundamentales de la matemática aristotélica; y que es también la peculiaridad de la aplicación que mertonianos y nominalistas hacen de la matemática a la física. La teoría arístotélica de las ciencias tal como es interpretada por Ciruelo considera que todas las regiones del conocimiento tienen en su base un «medio común» a partir del cual se especifican los distintos campos científicos. El «medio común» de las ciencias del Quadrivium es la cantidad, estudiada por la metafísica, que luego se especifica como número en la aritmética, como extensión en la geometría, como rayo en la perspectiva y como sonido en la música. De acuerdo con esta concepción el número no es objeto de la metafísica, sino de la matemática en cuanto que ciencia que considera el modo de significar de la numeración, que es un modo de ordenar la realidad de acuerdo a una forma de objetivación no sensible. Esta teoría de la ciencia encaja muy bien en una teoría de la dialéctica como «nuevo método» con dos direcciones fundamentales: la hipotético matemática y la teoría escolástica de la suposición. Esta última se cumple de modo paradigmático en lo que los escolásticos llaman «ciencias mixtas», que emplean dos tipos de premisas: una que suele ser una tesis y otra que suele ser una hipótesis, que muchas veces es una definición que no necesita ser probada, sino que basta con que se suponga su verdad. Esta teoría de la suposición es la que va a permitir a Soto articular física y matemática en su interpretación de los libros físicos de Aristóteles a los que nos hemos referido anteriormente. La primera de las direcciones aquí aludidas y que es la que tiene que ver con la línea hipotética de la matemática nos puede permitir ver cómo en la época del Renacimiento se genera una nueva concepción de la naturaleza, que tiene en su base la «fantasía sensible» tal como la misma ha sido tematizada por la tradición aristotélica de esta época. Se trata en definitiva de una reivindicación del soñar íntimamente asociada a la ciencia en el aspecto epistemológico que podemos unir con la moderna teoría de las hipótesis, en la que experimento y razón se dan unidos en el proceso circular del conocimiento. Se parte de una hipótesis (forma sacada de la observación de los fenómenos) para llegar nuevamente al fenómeno que confirme la hipótesis. Y este mismo proceso circular se da también en el uso que los físicos naturales del final de la Edad Media y principio del Renacimiento hacen del experiemento: se parte de un fenómeno (experiencia) para llegar a descubrir las razones (razón) que gobiernan a ese fenómeno y hacen de él un «caso» del proceso necesario de la naturaleza. En este punto podemos apreciar una diferencia profunda entre el planteamiento platónico y aristotélico en cuanto a la interpretación del conocimiento hipotético. En el n° 533c de La República Platón contrapone el camino del dialéctico y del matemático; y califica el arte de la geometría como un conocimiento que no llega a la perfección del conocimiento del dialéctico, por el hecho de que en lugar de contemplar la esencia, que es lo propio de la dialéctica, se dedica a «soñar» hipotéticamente, manteniéndose por lo tanto en el terreno de la opinión y sin llegar al plano de la ciencia, en el que no puede darse ningún tipo de sueño. Esto supone una valoración negativa del conocimiento hipotético por parte de Platón. Frente a este planteamiento platónico encontramos en la epistemología de Aristóteles una valoración muy positiva del conocimiento hipotético practicado por las matemáticas. Para entender el planteamiento positivo que Aristóteles hace de las hipótesis tenemos que referirnos a su teoría de la imaginación. Y al hacerlo podemos decir que en Aristóteles pueden distinguirse dos tipos de imaginación: una dependiente de los sentidos y que también poseen algunos animales; y otra ligada a lo que Aristóteles denomina fantasía y que es propia del hombre. De esta última dice Aristóteles en el c. 3° del libro III del De anima'. «Podemos imaginar a voluntad -es posible, en efecto, crear ficciones y contemplarlas como hacen los que ordenan las ideas mnemotécnicamente creando imágenes» ^^. Esta caracterización de la imaginación como unida a la voluntad es la que le permite a Aristóteles distinguir entre la reminiscancia, que es más mecánica, y el recuerdo, que es más voluntario, tal como se desprende del siguiente texto: «Pues recordar es tener en uno mismo la capacidad de provocar un proceso, y ello de manera que uno lo experimenta por sí mismo y por los procesos que posee, como se ha dicho. Es preciso, pues, tomar un punto de partida. Por ello parece que a veces se rememora a partir de lugares» ^^. Hipotetizar para Aristóteles es imaginar la realidad a base de formas sacadas de las cosas. Y esas formas no son copias de las cosas de que están sacadas, sino figuraciones de la realidad que nos permiten ver esta realidad como no podemos hacerlo sirviéndonos exclusivamente de los sentidos. «En efecto, de igual modo que la figura dibujada en un cuadro es una figura y una imagen -y aunque es una y la misma es ambas cosas, pero la esencia no es la misma para ambas y es posible contemplarla con la mente como figura y como imagen-, así también es preciso considerar la imagen que hay en nosotros como tal imagen por sí misma, al mismo tiempo que como imagen de otra cosa. De este modo, en la medida en que se la considere por sí misma, es un objeto de contemplación o una imagen, pero, en la medida en que se la considere como otra cosa, es como una copia y un recordatorio» ^^. Lo propio de las matemáticas es figurar hipotéticamente la realidad por medio de la captación de una forma sacada de esa misma realidad. Y en este caso las figuraciones de la realidad se refieren a la realidad, pero no hay que confundirlas con entidades reales tal como hacen los platónicos. Para Aristóteles los números no son entidades reales, sino imaginarias, pero que nos permiten ver una dimensión de la realidad que no es posible desde el punto de vista de los sentidos. Es decir, que el aristotelismo lleva consigo una consideración de la matemática, que hace de esta un saber concreto y aplicable a la realidad. Y esto es precisamente lo que van a explotar algunos escolásticos de finales de la Edad media así como algunos humanistas haciendo pasar a primer lugar y como objeto fundamental de su estudio la física matemática entendida como matemática aplicada al fenómeno del movimiento. Los sensibles comunes de la epistemología aristotélica En la epistemología aristotélica nos encontramos con una teoría de los «sensibles comunes», que reviste una notable importancia para los temas que venimos tratando y por ello debe ocupar ahora nuestra atención. En su tratado Acerca del alma nos habla Aristóteles de una facultad central, que juega im.a función unificadora en relación con las distintas fuentes sensibles a través de las cuales llega a nosotros la experiencia del m\m.do. Esa facultad central no está bien fijada y ha recibido distintos nombres según los comentaristas de Aristóteles. Unos colocan esta facultad central en el plano de los sentidos y nos hablan de un sentido común, que es el que xinifica a los distintos sentidos particulares y el que a su vez nos permite captar los sensibles comunes; aunque si nos fijamos en el texto De Anima de Aristóteles: 425a y ss. parece dar a entender que no hay un tal sentido común perceptor propio de los sensibles comunes, sino que estos se perciben como resultado de la sensación común a los distintos sentidos, sensación común que tendría su fundamento en el hegemonikon del alma. Podemos afirmar entonces que es el alma la que percibe los sensibles comimies gracias a una facultad mediadora entre los sentidos y la razón. Y esa facultad mediadora no es otra que la imaginación, que en el caso del recuerdo trabaja de modo inferencial haciendo que percibamos no sólo lo individual, sino también lo común, que podemos relacionar con lo imaginable. Percibimos lo común gracias a la imaginación que nos permite apreciar un aspecto de la realidad sensible que no se nos da en los sentidos particulares^^. Entre esos sensibles comunes Aristóteles cita la magnitud, el movimiento, el número y el tiempo. Para Aristóteles estos sensibles comimies no existen separados como pensaran platónicos y pitagóricos, sino encarnados en las cosas físicas tal como da a entender muy bien en la Física 194a y ss. Por eso para él los objetos de las matemáticas no existen como algo separado, sino como aspectos de las cosas, que nuestra imaginación separa de la materia para mejor conocerlos. Y por eso Aristóteles nos habla de dos tipos de ciencias matemáticas: las matemáticas puras como la aritmética y la geometría que estudian sus objetos como «separados» de la materia; y las matemáticas mixtas como la óptica y la astronomía que estudian sus objetos como «encarnados» en la materia. Esta interpretación aris-totélica de las matemáticas es de una gran relevancia para los aspectos que estamos tratando en nuestro artículo. Pero vamos a fijar nuestra atención en un punto en el que confluyen ciencia y arte; y ese punto es la teoría del diseño que es de una gran relevancia en la época del manierismo, que es la que se corresponde con nuestro plateresco. Podemos relacionar la teoría del diseño con la teoría del ingenio, que supone un cierto naturalismo en la interpretación de las facultades naturales de que está dotado el artista o el científico. En los Analíticos Posteriores nos habla Aristóteles del que él denomina «universal commensurado»; y dice de él que es presioso, porque pone en evidencia la causa ^^. En esa misma obra, en el capítulo último del libro 1°, habla de la perspicacia o agudeza y la define como «la facultad de encontrar el término medio instantáneamente» ^^. Esa perspicacia o agudeza será también lo propio del poeta en el caso de las metáforas, cuyo uso apropiado no se puede aprender de otro y es índice de «natural ingenio», «porque la buena y bella metáfora es contemplación de semejanzas» ^°. Y lo mismo que decimos de la bella y buena metáfora podemos decir de los sensibles comunes y del universal commensurado. Es decir, que lo que es la metáfora al poeta es el universal commensurado al científico y el diseño al artista. Todos ellos tienen en común la agudeza o perspicacia para aprehender lo semejante a distintos géneros. Aquí reside precisamente la peculiaridad de la teoría aristotélica de la proporción, que tal como es aludida en los Tópicos puede servir de base común a magnitudes y números ^\ mientras que en los Analíticos Posteriores parecía defender que tiene que ser algo distinto en el caso de la magnitud y en el caso del número ^^. Lo que podemos concluir de todas esta reflexiones es que la teoría aristotélica de la agudeza o perspicacia tiene como objeto la percepción de lo común a elementos de distintos géneros, o lo que también podriamos decir la percepción del término medio tal como es interpretada esa noción en la Etica a Nicómaco, en la que Aristóteles compara la prudencia, finito de la experiencia, con el saber matemático, fruto de la abstracción; y nos dice que un joven puede ser un buen matemático, pero no un buen físico, como tampoco podemos calificarle de prudente. Ahí distingue Aristóteles entre deliberación y buen tino y nos dice de este último que es rápido y no necesita razonar como es el caso de la deliberación^^. El estudio de la teoría de la proporción puede servirnos para apreciar la conjunción entre arte y ciencia en la Salamanca del siglo XVI, en cuya segunda mitad nos enontramos con el arquitecto Rodrigo Gil de Hontañón que va a elaborar un manuscrito que será refundido por Simón García en 1681-1683 con el título de Compendio de arquitectura. Como el mismo Simón García nos dice la mayor parte del manuscrito que él deja listo para la imprenta en 1681-1683 es fruto del trabajo de Rodrigo Gil de Hontañón, que trabajó como arquitecto en Salamanca en la segunda mitad del siglo XVI. Podemos, pues, leer el manuscrito como un «tratado» de arquitectura que sintetiza el saber sobre esa ciencia tal como la misma era concebida por un arquitecto en la segunda mitad del siglo XVI. Es cierto que es difícil determinar lo que corresponde a Gil de Hontañón y lo que es propio de Simón García; pero sí que podemos mantener que el núcleo orginal y amplio del tratado es de mano de Rodrigo Gil de Hontañón; y por lo mismo podemos considerarlo como un ejemplo claro del saber de la arquitectura en la segunda mitad del siglo XVI, que no solamente tiene pretensiones prácticas, sino también teóricas. Y por eso su análisis nos permite descubrir el modo como Gil de Hontañón ha sintetizado el estado de la ciencia en la ciudad de Salamanca en esa segunda mitad del siglo XVI en torno a la arquitectura. En el capítulo VII trata de los órdenes de la arquitectura y al hacerlo va entretejiendo una serie de reflexiones sobre la simetría, la arquitectura como ciencia y una extensa digresión sobre la diferencia entre oficio, arte y ciencia. Defiende el carácter científico de la arquitectura y hace de ella un arte liberal por la razón de que lo más importante de la misma es obra del entendimiento. Y caracteriza la simetría como una «numeración conmensurable» siguiendo a Plinio y a Vitrubio, y la define de la siguiente forma: «Es una proporcionada medida, partida numeralmente en dibersas quantidades,Y como dice euclides, niguno la puede alcancar, si no fuere exercitado, y erudito aritmético, y precisamente la divina Regla de la proporción humana, no tubiere bien entendida» ^^. Uno de los aspectos más importantes del texto es precisamente esta caracterización de la simetría. En él podemos ver dos formas de tratar la proporción. Por un lado la forma antropométrica siguiendo la tradición antigua, medieval y renacentista; y por otro lado la forma geométrica, que es quizá la más importante del tratado. Una parte importante del tratado está dedicada a la proporción matemática recogiendo en buena medida el tratamiento que de la teoría de la proporción hicieran matemáticos y filósofos a lo largo del siglo XVI y XVII. A este respecto es importante el capítulo 67 en el que hace una especie de historia del tratamiento de la proporción distinguiendo perfectamente los siguientes aspectos. En primer lugar el tratamiento pitagórico de la proporción distinguiendo entre proporción aritmética, geométrica y armónica. En segundo lugar ditingue ese tratamiento de la proporción del que podemos llamar tratamiento matemático de la proporción, que es un tratamiento más complejo y sutil y que se apoya en la relación recíproca entre dos o más fracciones, gracias a la presencia de un término común, que es el que posibilita establecer las distintas relaciones, que ya no se reducen a tres, sino que son muchas más que se han ido acumuando en la tradición de la historia de la matemática tal como nos dice el mismo autor del tratado, que escribe lo siguiente: «Y otros filósofos, desde tiempo de pitágoras, asta de platón, no abian considerado, más de 3. especies, O diferencias de proporcionalidades que por otro nombre, dijeron mediaciones, que eran las que se dicen, arismética. Geométrica, y armónica, de que tratamos en el capítulo 62. Y este número duró, hasta el tiempo de Aritotiles, después los que a estos sucedieron, añadieron otras 3. Y después sobre estos, añadió boecio otros 4. que fueron 10. y jordano, una, como refiere jacobo fabro, que todas son 11. las 3. primeras que son, proporcionalidad, arismética, Geométrica,y harmónica, la imbentó pitágoras, O en su tiempo, las cuatro que le siguen, las añadió nicomacho, las otras 3. añadió Boecio, Y jordano añadió la última» ^^. Pensamos que esta historia está tomada de Jacobo Fabro Estapulense, a quien cita en el texto, que es un filósofo francés del siglo XVI, que tradujo la Aritmética de Nicómaco de Gerasa. Curiosamente Juan Martínez Silíceo, que el año 1517 publicó en París un Ars Arithmetica y que fue discípulo de Jacobo Fabro escribe en ese libro lo siguiente: «Esta última media es un añadido de Jordano en el libro X de sus Elementos a las 10 medias que expuso Boecio en el libro II de su Aritmética» ^^. Martínez Silíceo fue uno de los profesores de filosofía natural de la Universidad de Salamanca en la primera mitad del siglo XVI; y en el «tratado cuarto» del citado libro en el que trata de las relaciones entre los números escribe: «Si un número se compara con otro número, surge ahí una relación que llamamos proporción. Y si una relación se compara con otra relación y una proporción con otra proporción tendremos inmediatamente una media o una proporcionalidad» ^^. Esta misma idea la encontramos en el autor del «Compendio de Arquitectura» que escribe: «Algunos llaman proporción, a lo que aquí se dice proporcionalidad, Y proporcionalidad, a lo que los otros llaman proporción. Yo llamo en esta obra, proporción, a la comparación que se hace de un número a otro, y proporcionalidad, a la comparación hecha de una proporción, a otra» ^^. Esta teoría de la proporcionalidad matemática es aplicada por Rodrigo Gil de Hontañón a la construcción de la Catedral nueva de Salamanca tal como nos dice el mismo Simón García en el capítulo 12 del Comprendió. «La fábrica de la yglesia nueva es, Gótica tracada, Proseguida, y aprovada, por los mejores architectes, que en aquella edad avia.hordenola juan Gil de Hontañón, y executola, Rodrigo Gil su hijo (de quien es lo más de este compendio por a ber venido a mis manos, un manuscrito suio)» ^^. Y a continuación nos da las medidas: «Repartieron el templo en esta manera de largo, 378. pies, sin los Gruesos de las paredes; de ancho, 181. sin los gruesos, la nave maior 50. Y cada, lateral a 37., y medio las ornacinas a 28. desde los pies, asta el crucero 5 a 37 y medio de largo, al crucero 50. que es cuadrado, a la capilla maior 75. que es largo de dos capillas, al trascoro 37 y medio a la ornacina del trascoro, 28. los pilares, a 10. de diámetro, los cuatro del crucero a 12.de diámetro; Dieronle de alto a la nave maior 130. de claro a los colaterales 88. de claro, a las ornacinas, 54. pies de claro» ^^. En el texto podemos apreciar el abandono de la proporción antropométrica y la asimición de la proporción matemática. Este predominio de un tipo de proporción sobre otra es la expresión clara de la transformación que está experimentándose en la idea de espacio, que en nuestro ejemplo está concretada en la de espacio arquitectónico. Se abandona la idea de espacio caracterizada a partir de una teoría del lugar y se pasa a una idea de espacio entendida como una función ordenadora de la realidad, que es la que va a conducir al principio general de la homogeneidad del espacio. La física aristotélica distinguía los espacios como algo heterogéneo de acuerdo con los distintos lugares naturales; mientras que la nueva física que está surgiendo en el Renacimiento va a homogeneizar los espacios y a hacer de este concepto un concepto universal regido por leyes matemáticas, cuyo funcionamiento es el mismo ya se trate del espacio de la tierra, o del espacio cósmico. En el Compendio que aquí hemos analizado hemos visto como el concepto de simetría se interpreta fundamentalmente en términos numéricos haciendo posible un concepto de «espacio sistema» alternativo al concepto de «espacio agregado» característico de la física antigua y medieval. Podemos hablar de cuatro ámbitos en los que vemos transformarse en la época del Renacimiento la idea de espacio: en el ámbito de la cosmografía con su correspondiente representación de los lugares en los mapas; en el ámbito de la filosofía natural con su nueva interpretación del movimiento local; en el ámbito de la arquitectura con su nuevo concepto de espacio sistema; y finalmente en el ámbito de la cosmología con su transformación del espacio supralunar en un espacio homogéneo al terrestre, cosa que ocurre con la nueva interpretación de los cometas. Ejemplos de estas cuatro transformaciones encontramos en la Salamanca de los siglos XV y XVI. Aquí hemos analizado dos de ellas: la segunda y la tercera de las aquí citadas. Vamos a concluir nuestro artículo con una reflexión general que nos permita dar unidad a las ideas que hemos expuesto en él. Esas ideas las podemos sintetizar en el cambio que tiene lugar entre una concepción del espacio como «espacio agregado» y su sustitución por la de un espacio como «espacio sistema». Esta sustitución la hemos ejemplificado en el caso del tratamiento del movimiento local y en el caso de la arquitectura fijando nuestra atención en autores y textos en los que se cumple ese cambio. Esto nos permite afirmar que la Salamanca del siglo XVI es una pequeña ciudad en la que circulan algunas de las ideas que van a conducir a la moderna revolución del espacio tal como la veremos cristalizar en la cosmovision física de Galileo en el siglo XVII. En el fondo de esa revolución y cambio subyace una concepción común que se concreta en la teoría de la proporción, que es una teoría matemática que se aplica tanto en el caso de la física (explicación del movimiento local), como en el caso de la arquitectura (teoría de la simetría). La teoría de la proporción fue elaborada por el pitagorismo para explicar filosóficamente la relación entre lo inteligible y la forma sensible. La teoría de la proporción es la noción suprema de toda la aritmética pitagóríca gracias a la cual se puede acceder al estudio de la naturaleza física (tierra), de la música, de la astronomía (naturaleza cósmica) y de la geometría. Platón en su fílosofía asumirá esta teoría pitagórica de la proprción y afírmará que ella es la causa de todo lo que es armónico, racional y ordenado. Esta teoría pitagórica de la proporción fue desarrollada por dos tradiciones. Una de ellas es la tradición de los matemáticos en la que el eslabón fundamental va a ser Euclides y los posteriores comentarios a algunos de los libros de sus Elementos. La otra tradición es la de los platónicos, que es una tradición más metafísica. En esta tradición nos encontramos sobre todo con los comentadores del Timeo entre los que podemos citar a Nicómaco, Teón y Jámblico. Esta tradición, siguiendo la metafísica pitagórica, va a defender que los números representan la esencia inteligible de (c) Consejo Superior de Investigaciones Científicas Licencia Creative Commons 3.0 España (by-nc) http://arbor.revistas.csic.es la realidad; y esa esencia se expresa en formas visibles tanto en el campo del arte como de la ciencia. Una aplicación de esta teoría metafísica de las proporciones es la consideración del cuerpo humano como paradigma de medida tal como va a hacer, por ejemplo, Leonardo en su famosa representación del cuerpo humano como modelo antropométrico. Estas dos tradiciones comparten en común una matematización del universo, que tiene como objetivo fundamental lo que algunos teóricos de la historia de la ciencia han calificado como «salvar las apariencias». Pero ese «salvar las apariencias» va a ser interpretado de forma distinta en el caso de las dos tradiciones. La tradición de los matemáticos y en concreto de Euclides y sus comentadores (en esta tradición es en la que hay que colocar a Aristóteles) va a dar lugar en la modernidad al «método experimental» entendido como algo más complejo que la simple observación; ya que el fenómeno que se pretende salvar está puesto por el observador (Aristóteles diría que ha sido abstraído de la realidad física) y sólo puede ser comprendido en su relevancia si lo insertamos dentro de una estructura teórica. Esta tradición la podemos relacionar con el realismo experimental de Aristóteles tal como este autor da a entender en su Metafísica y en el De Coelo. Esta es la tradición que va a llevar a los escolásticos del siglo XVI y en concreto a Domingo de Soto a aplicar la matemática a la física de la naturaleza con los resultados que hemos visto en lo anteriormente dicho. La tradición pitagórico-platónica, en cambio, va a estar más preocupada por la elaboración de una metafísica y se va a preocupar menos de la aplicación de la matemática a la realidad. Es decir, se trata de una tradición en la que la matemática se eleva al nivel de la metafísica y hace del número la esencia de la realidad. Por lo tanto podemos afirmar que la interpretación aristotélica de la matemática está más próxima de la revolución científica de los modernos (léase Galileo) que la interpretación pitagórico-platónica, a pesar de que Koyre haya defendido lo contrario y en consecuencia no haya sabido apreciar el llamado «enigma de Soto». Lo cierto es que como consecuencia de la aplicación de la matemática a la realidad las artes liberales conflueyn con las artes mecánicas y todas ellas pasan a constituir en conjunto el nuevo corpus armónico y sistemático del saber moderno, del que podemos afirmar que tiene como raiz común a los distintos tipos de artes una teoría matemática de là proporción interpretada desde el punto de vista de la «igualdad», como se ve muy claro en el caso de la igualdad armónica. Si podemos hablar de una proporción armónica es porque entre los elementos de la misma (que pueden pertenecer a campos muy diversos) se da una relación de igualdad. Esto es lo que quería dar a entender Simón García cuando nos decía, como hemos visto en el interior del artículo, que hay que distinguir entre proporción y proporcionalidad. La llamada proporción armónica se construye gracias a un conjunto de relaciones de igualdad; y ahí reside la esencia de la proporcionalidad, que también podemos encontrar en el lenguaje como es el caso de la metáfora tal como hemos visto al hablar de Aristóterles. La esencia de la proporcinalidad se encuentra en aquello que es «común» a géneros diferentes; y ese elemento común se puede expresar tanto en términos numéricos (fórmulas matemáticas) como lingüísticos (metáforas). Estamos ante lo que los aristotélicos denominan los «sensibles comunes» entre los cuales colocan el movimiento. Y para la explicación de esos sensibles comunes los aristotélicos van a servirse de la matemática como un saber creador de hipótesis, que nos permite explicar aspectos de la realidad física, que no podemos hacer con la simple descripción de esa realidad. Esto se ve muy claro en el caso de Aristóteles en el ejemplo que pone de la óptica y la astronomía en Física 194a, donde explica muy bien cómo entiende él el «salvar las apariencias»: como un pasar de la apariencia a la realidad «more geométrico», que nosotros podemos interpretar como por medio de un razonamiento («more geométrico»), que no es otra cosa que la aplicación de la matemática a la realidad tal como hace el «método experimental» de los modernos muy bien ejemplificado por Galileo y los dialécticos de París entre los cuales podemos contar a Domingo de Soto. Las matemáticas ocupan una posición intermedia entre la ciencia natural y la divina y pueden alcanzar el primer grado de certeza a causa de que dependen de sus propios principios y fundamentos, que son inviolables y manifiestos a todos. Esta excelencia del saber matemático es la que hace de este saber el mejor camino (método) hacia cualquier otro tipo de saber. Este es el planteamiento que Sánchez Ciruelo hace en su Prefacio al Uberrimum sphere mundi commentum.ha suprema dignidad y el valor supremo de la ciencia reside en que nos conduce al conocimiento de lo divino. Por esta razón las matemáticas, que poseen la máxima certeza, son las ciencias dignas de la mayor estima. Y para confirmar esta idea cita a Aristóteles en los siguientes términos: «En el sexto y en el undécimo de la Metafísica, el Filósofo colma de alabanzas a las matemáticas: ya que dice que el género de las matemáticas es ciertamente el mejor, y las llama en verdad ciencias por antonomasia. Y en el primero de los Posteriores dice: «Las ciencias matemáticas son, con relación al entendimeinto. La ciudad de Salamanca en el siglo XVL La conjunción... como el ver». Hasta tal punto es, en efecto, clara y evidente la noción que de las cosas transmiten, que con derecho merecen llamarse intuición y visión. Y en el sexto de los Tópicos afirma que en las matemáticas las mismas cosas nos son más conocidas... Donde quiera que el filósofo trata de declarar el modo científico demostrativo, se vuelve al ejemplo de las ciencias matemáticas, lo que es fácil de ver en sus libros lógicos, físicos y metafísicos» ^^. Junto a esta caracterización de las matemáticas como modelo de conocimiento claro y cierto, presenta Ciruelo la división de las ciencias matemáticas. Siguiendo a Aristóteles en su Física: las ciencias matemáticas se dividen en puras (aritmética y geometría) y mixtas (música, perspectiva y astrología). Las puras son totalmente ciertas, porque utilizan la demostración científica, y se ocupan de cosas simples como son los números, las líneas y las superficies. Las mixtas, aun siendo demostrativas, admiten opiniones. Lo propio de la matemática es el ser un arte analítico que consiste en disponer adecuadamente la progresión en lo homogéneo para establecer el orden adecuado que nos conduzca a la verdad. Y en esta cuestión del orden es muy importante la dialéctica. En su discusión con Pico de la Mirándola acerca de la astrología Ciruelo establece con nitidez la diferencia entre retórica y dialéctica. El se considera un dialéctico, mientras que Pico es un retórico y por eso no entiende los aspectos epistemológicos de las ciencias. Para Ciruelo la división de las ciencias hay que hacerla desde el punto de vista de las razones formales bajo las cuales aquellas consideran las cosas; y no desde el punto de vista de las cosas mismas como hace Pico. La matemática es un tipo de idealización de la realidad, que nos permite una visión de ésta distinta de la de la física y la metafísica. La matemática ve la realidad bajo una razón formal y no se queda en la contemplación de esa realidad, sino que busca una aplicación de su conocimiento. En este punto es muy interesante la interpretación que Ciruelo hace de las distintas regiones del conocimiento. Todas esas regiones, a las que corresponden las distintas ciencias, tienen como base un «medio común» que es la cantidad, que como tal es objeto de la metafísica o filosofía primera. Esta es la idea que le va a permitir a Descartes hablar de una «mathesis» como una especie de filosofía primera, que es común a la artimética y a la geometría y que funda un saber universal. La importancia de las matemáticas para Ciruelo está en que proporciona a las ciencias un lenguaje común, que por mediación de la dialéctica puede conducir a la construcción de un método universal. Esto es precisamente lo que hará Descartes en el siglo XVIL Notas ^ La ciudad de Salamanca ha sido objeto de varios estudios. Podemos citar en primer lugar el de Gil González Dávila: Historia de las Antigüedades de la ciudad de Salamanca. Existe ima edición facsímil de la Diputación de Salamanca, Salamanca, 1994, muy bien prologada por B Cuart. En el capítulo segundo de esa obra, en la página seis del original de 1606 Gil González Dávila dice que la estructura de la ciudad es circular. Esta caracterización como «ciudad circular» se adecúa al modelo ideal de ciudad tal como la misma fue pensada por los antiguos y renacentistas. Gil González Dávila recoge esa idea de la ciudad ideal y se la aplica a Salamanca. La gran reforma que la ciudad va a experimentar en el siglo XVI hará que la ciudad de Salamanca haga honor a esa caracterización de ciudad ideal que a principios del siglo XVII Gil González Dávila le atribuye. Esa caracterización nos sirve muy bien para mostrar el cambio que se produce en la ciudad desde un «espacio agregado» ñuto de la mentalidad medieval hacia im «espacio sistema» acorde con la nueva mentalidad renacentista, que es precisamente lo que va a acabar «peculiarizando» a la ciudad de Salamanca. 2 La idea que inspira nuestro planteamiento está tomada de E. Cassirer: Individuo y cosmos en la filosofía del Renacimiento.Traá. En este texto Cassirer estudia entre otras cosas la transformación que ocurre en la ciencia y en el arte del Renacimiento en Europa. Ese es el planteamiento que nosotros vamos a aplicar a la ciudad del Salamanca del siglo XVI, porque pensamos que es una buena ejempHficación de las deas de Cassirer. ^ López Benito, C. I.: La nobleza salmantina ante la vida y la muerte. 4 Ibidem, 59. ^ Una de las características más claras de la mentalidad moderna y renacentista es precisamente la afirmación de la individualidad. Esa característica se da en el caso de la «casa-palacio» de la élite nobiliaria y caballeresca; así como en las «impresas» de los hombres de letras, que es una segunda élite de la ciudad de Salamanca. En el caso de los hombres de letras podemos apreciarlo en las «portadas» de los libros, que juegan un papel similar a las portadas de las casas-palacio. En uno y otro caso se trata de la afirmación de la propia individualidad ante el otro. Una individualidad más de familia en el caso de los nobles y caballeros; y una individualidad más personal en el caso de los hombres de letras. Podemos poner como ejemplo tres "impresas" de hombres de letras: la de Pedro Sánchez Ciruelo, la de Juan Martínez Silíceo y la de Fray Luis de León. ^ Beltrán de Heredia,V.: Accidentada y efimera aparición del nominalismo en Salamanca. ^ Villoslada, R.G.: La Universidad de París durante los estudios de Francisco de Vitoria. ^ Vives, L.: In Pseudodialécticos. Impreso en la imprenta de Juan de Torres, Salamanca, 1520. Consta de 16 capítulos en los que se expone la teoría de la intensión y la remisión de las formas.
Cuando el viejo topónimo prerromano de Salamanca se convirtió en signo universal estaba en marcha el proceso de la secularización de la cultura, ensayando la experiencia de la frontera desde muy temprano. Este punto de partida determinaría todo el desarrollo semántico del nombre, que recibiría las sucesivas trasformaciones y acomodaciones, que la cosecha de los nuevos tiempos le iría trayendo. Esta marcha no se apartará en nada de lo que ha ocurrido en general en otros ámbitos geográficos y en otras circunstancias históricas. Quizá lo específico de Salamanca sea la claridad con que se ordenan sus elementos y la facilidad de lectura de sus manifestaciones. Sería obtuso y tentador reunir las razones de estas evidencias, desde los motivos de los primeros asentamientos humanos en las dos colinas matrices de la ciudad, en la frontera de dos formaciones geológicas distintas, que darían origen a la contradicción básica de las dos Salamancas económicas, la cerealista y la ganadera, o su posición lingüística entre los reinos de León y de Castilla, hasta su creación medieval en la línea misma divisoria entre los dominios árabe y cristiano, en la indecisa separación de dos concepciones diferentes de la vida. Pero probablemente esto sería un abuso dialéctico y caer en la tentación del reduccionismo perezoso de la generalización. Que no están los tiempos para el determinismo mágico del naturalismo filosófico y del viejo simplismo positivista decimonónico. Además como la cultura en todas partes ha sido flor de la frontera, en Salamanca no podía ser menos. Está por ver la razón última del traslado de los Estudios Generales de Falencia a Salamanca, a principios del siglo XIII, que sería el punto cero de su significación cultural. Posiblemente habría varias motivaciones convergentes, que moverían al rey don Alfonso IX a decidir trasformar la escuela catedralicia salmantina en centro de preparación profesional para dotar al reino de la infraestructura jurídica necesaria para su vertebración política. En la elección del lugar intervendría su fidelidad sentimental al lugar de su nacimiento; pero también su posición en la extremadura leonesa, el imperativo de densificar la repoblación de aquel sur, siempre amenazado, las características ambientales de aquel villorio, dotado de buen agua, de buenos y deleitosos alrededores y del silencio óptimo para el estudio, como tantas veces se ha repetido. Pero ñiera cual ñiese la razón de aquella localización, el hecho es que aquella decisión real le daría un nuevo destino a Salamanca, que al parecer todavía le dura. Desde aquella fecha de 1218, la ciudad se haría la sede de una Universidad, que contaría entre los grandes centros universitarios de la cristiandad y que después de múltiples avatares llegaría hasta nosotros con los mismos signos, aunque con otras características, que asentaron su fama desde la Edad Media. No siempre estuvo a la altura de su nombre e incluso en algunas ocasiones estuvo a punto de perecer; pero nunca dejó de ser, ni en sus peores momentos, la representación de la cultura y probablemente por eso sufidó tantos altibajos y tantas desorientaciones. Porque todas las fronteras están sometidas a estas vejaciones. Salamanca frontera y Salamanca cultura forman un binomio ineludible. La historia de la cultura española con todos sus adhérentes conflictivos y la historia de Salamanca con sus vaivenes dramáticos corren paralelas, en una mutua réplica prácticamente sin fisuras. La secularización de la cultura medieval, la irrupción de las nuevas ideas del llamado Renacimiento, la ilusión fantasmagórica de la época barroca, la batalla del racionalismo de la Ilustración, la decadencia decimonónica y el regeneracionismo del 98 y sus últimas consecuencias tuvieron en Salamanca su fiel repercusión y, si nos atrevemos a apurar el concepto, su versión arquitectónica y por supuesto urbanística. Ya el prof. Apráiz señaló el orientalismo de una parte de la arquitectura salmantina y Unamuno escribió sobre la impresión bizantina del alto soto de torres de la ciudad, a la hora del crepúsculo. La historia del Arte, como parte de la Historia de la cultura, puede también testimoniar de esta identificación de Salamanca con las manifestaciones más esenciales de cada situación histórica. El románico agónico y el gótico postumo, el renacentismo italianizante, el contrarreformismo jesuítico, los excesos del barroquismo, la racionalidad del Siglo de las Luces, el modernismo novecentista y la simplicidad de una buena parte de la estética actual son como notas a pie de página de esa evolución cultural de la ciudad universitaria española por excelencia y naturalmente por antonomasia. Hasta tal punto esta fidelidad histórica a la cultura de cada tiempo, que tiene en la Universidad el eje de su desarrollo, es demostrable, que se puede establecer la nómina de sus protagonistas y su incidencia en la permanente revitalización del topónimo cultural, que ya no será el nombre de un lugar, sino la denominación de una idea, la rehabilitación de unas tradiciones del pensamiento y de la literatura y la confirmación perpetua de los valores de un signo de la cultura. Nombres, como los de ñ:-ay Luis y Unamuno, para tomar sólo los símbolos estelares de la Universidad, son suficientes para hacer ver la adscripción de Salamanca a lo que la cultura tiene de espíritu fironterizo y de dramática peligrosidad. Desde muy temprano, cuando en la península ibérica ni siquiera se había adquirido el concepto de nacionalidad. Salamanca ñie creando un ámbito de preocupaciones culturales, que generarían sus propias tradiciones y hasta cierto punto predeterminarían su desarrollo ñituro. La ciudad adquiriría en la Baja Edad Media una personalidad diferencial, producto de su dedicación universitaria, habitada, junto a los nativos, por gentes heterogéneas, venidas de todas partes, que traerían en su equipaje modos y conductas, que conformarían un choque de experiencias, que le darían un aire distinto. Los textos literarios de los primeros siglos de la Universidad salmantina testimonian sobre la conciencia ciudadana de asombro y rechazo de estos extraños componentes de su realidad urbana. Las anécdotas, incluso sangrientas, causadas por esta tensión entre forasteros y naturales del país, son frecuentes en aquel tiempo. Los universitarios -profesores y escolareseran considerados enemigos y, desde luego, como extranjeros no asimilados a la comunidad ruralizada de los años iniciales. Los orígenes de la leyenda de la Cueva de Salamanca hay que pensar que estuvieron relacionados, aunque lloviera sobre el mojado de la historia, con este distanciamiento de los salmantinos de la época respecto al hecho inquietante, misterioso, pecaminoso y amenazante del cultivo de algo tan inasequible como la cultura, al que el empleo escolar del latín, ya olvidado, daría más pábulo a la imaginación medrosa de los excluidos. Porque existieron dos Salamancas paralelas, que perpetuaron durante muchos siglos sus resquemores y sus desconfianzas. Este aislamiento social de la cultura nos ofrece una primera aproximación al tema del simbolismo cultural salmantino, que ha mantenido su vigencia dialéctica. Porque toda sociedad establecida y organizada, que conserva vivos los recursos de su supervivencia, teme por la sospechosa erupción de la cultura. Los famosos «cabezas de huevo» han gozado del perpetuo desprecio de la sociedad norteamericana, que ve con malos ojos el crecimiento de unos elementos disconformes, disidentes e inasimilables, como debieron serlo para aquellos salmantinos medievales, que se sintieran invadidos por aquel aluvión de tipos raros, que ni en sus vestidos, ni en su vocabulario ni en su género de vida eran como ellos y a los que con facilidad y con alivio demonizaron, como hijos del demonio. El hecho de que, por otra parte, se aprovecharan de cuantiosos privilegios fiscales y tuvieran encima la paternal protección de los reyes, que tanto los necesitaban, aumentaría su antipatía social y los aureolaría con todos los defectos de la alteridad. Es fácil comprender el impacto en aquel núcleo rural, salido penosamente de la coacción feudal, sostenido e identificado por sus propias tradiciones morales, económicas y domésticas, de aquellos nuevos habitantes con los que tenían que compartir el espacio urbano, tan arriesgadamente alcanzado, inclasificables, fuera de sus expectativas vitales y además irreductibles e impermeables a todo lo que no fueran sus libros, sus pensamientos esotéricos y la linealidad racional de sus discursos, por lo demás incomprensibles. Pero lo que sería el colmo de la desfachatez era su ambigüedad funcional entre el estado eclesiástico y el estado seglar, víctimas de la secularización de la cultura, que turbaría las creencias religiosas de los lugareños. Tampoco ellos harían nada por integrarse en aquella colectividad cerrada, que ponía en cuarentena todo lo foráneo, lo imprevisto, lo original. El tipo del estudiante, que venía de lejos y que encontró en aquella ciudad incipientemente universitaria su habitat natural, tendría la ingravidez y el desparpajo de su elitismo y acumularía insultos y denuncias, creando ese personaje descreído, fanfarrón, mujeriego, borracho, jugador y espadachín, que la literatura castellana dotaría de larga vida y que originaría su propia tradición de seres marginados, entregados a todos los excesos, incluidos los del inconformismo y el enfrentamiento con los poderes constituidos, que los hicieron protagonistas de revueltas y protestas, que jalonan la historia de la Universidad de Salamanca y que fueron más allá de los «pecados de juventud», de la excitabilidad de sus inmaduros y lábiles sistemas nerviosos y de su despreocupación ociosa y jaranera, para consentir una reflexión sobre la intransigencia moral, la rebelión como tentación permanente y la agudeza intelectual para detectar mentiras, abusos, idealizaciones espúreas y amenazas latentes, que sólo la cultura les podía hacer ver. Eran el lado espontáneo, frágil, desorganizado y visible de la tarea de la cultura, con lo que Salamanca -^la ciudad del estudiante, como lo sabía Cervantes y lo seguía sabiendo Espronceda-adquirió también ese desapacible signo cultural del desasosiego, de la confrontación y del culo de mal asiento, coincidiendo en Salamanca, ciudad fronteriza sus últimas consecuencias con la inquietud reivindicativa de los segundones que frecuentaron sus aulas universitarias y les proporcionarían la voracidad cainita de su ciudadanía de segundo orden, siempre detrás de los caballeros, pero antes de los campesinos. Hemos hablado antes de la desacralización de la cultura en los momentos en que nace la Salamanca universitaria. No podía ser de otro modo y ambos hechos, como ocurrió en toda Europa, proceden del mismo tronco histórico. Con el nacimiento de las ciudades se pierde el carácter sagrado de la cultura, arrastrado por el nuevo horizonte de necesidades espirituales ciudadanas. La burguesía emergente borra su dependencia de los centros culturales eclesiásticos y exige nuevos conocimientos prácticos, que den respuesta a sus problemas, que no son los del antiguo régimen feudal. Los viejos monasterios se aislan en el campo, en las montañas o en los páramos eremíticos y son las Universidades las que reciben la herencia del saber y la ponen al servicio de la nueva sociedad. Los reyes organizan sus reinos sobre la realidad y la fuerza de los núcleos urbanos, que representan el porvenir y tienen todo el poder de sus proyectos. Salamanca se afirma en este proceso y añade un nuevo signo a su determinación esencial de frontera. De los estudios catedralicios, en los que los hijos de los burgueses se empiezan a interesar, de cara a mejorar su condición social y asegurarse su futuro, se desgajan las Escuelas, que serían el germen de la Universidad, y allí conviviría, impulsada por contradictorias apetencias, una fauna escolar de múltiples procedencias y de heterogéneas perspectivas de vida. El Derecho Canónico alternaría con los rudimentos del Derecho Civil, en los que sobrevivían los restos inalterables del Derecho Romano, precristiano. La Gramática y la Retórica ya no servirían sólo para desentrañar y perpetuar los textos de inspiración divina, sino para perfeccionar el entendimiento y la utilización, a ras del suelo, de los textos humanos. La frontera cuaja en matices. Ya no serían sólo los eclesiásticos, dedicados al pastoreo de las cosas eternas, los que frecuentaban los estudios catedralicios, primero, y las Escuelas universitarias, después. Los hijos de la joven burguesía se interesarían también por el saber y lo entroncarían con el servicio profesional, surgido de las demandas de sus conciudadanos, burgueses como ellos. La Universidad de Salamanca nace para dotar al reino de los juristas que necesita para la vertebración de una sociedad en formación, desestructurada y, hasta cierto punto, caótica, salida del hundimiento del régimen feudal. Aquellos primeros escolares salmanticenses, que no necesariamente ni mucho menos salmantinos, que se asomaban a las Cantigas de Santa María, de Alfonso el Sabio, con sus trapacerías ya puestas, no se habían desprendido todavía, y tardarían siglos en hacerlo, de sus orígenes culturales eclesiásticos. Vestían como clérigos, hablaban su latín culto y estaban impregnados de las secuelas de los libros sagrados. Pero eran ya laicos y la palabra «clérigo» no tenía muy delimitado su contenido semántico. Estos hombres eran hombres de frontera. Ese mismo escolar de las Cantigas, que huye de la justicia de Salamanca por haberse calzado a la mujer de otro, nos puede servir para ejemplificar la situación de estos escolares del siglo XIII. Su devoción mariana no le ha impedido su tributo a la carne pecadora. Ya sé que la comparación es insuficiente y traída por los pelos; pero es plásticamente reveladora para confirmar ese espíritu de la frontera, que alentaba en aquellos hombres, entre la sumisión y la transgresión. Vivirían en sus cabezas la dicotomía esencial de su inestable situación, que sería como en todas partes, el punto de partida de la renovación cultural, en la ruptura con el pasado, que Salamanca ha ido manteniendo con altibajos a lo largo de su historia, hasta convertirse en su signo más universal. Medio curas, medio seglares, mitad tradicionales, mitad novísimos, aquellos hombres encarnaban el destino general de la cultura, con la radical ambigüedad de sus presupuestos intelectuales. La cultura, perdidos los anclajes que la sostenían en el pasado, se debatía frente a los fantasmas de un porvenir incierto. Se insinuaba el movimiento histórico que se conocería con el nombre de Renacimiento, sin acabar de quemar las naves de la travesía del pasado. Esto es la frontera, en Salamanca y en cualquier otro lugar. Incertidurabre, inseguridad, hipótesis, apuestas fortuitas, opacidad del tiempo, incógnitas del lado de allá. La cultura desacralizada habría dejado un hueco, que aquellos escolares, revoltosos, inquietos, arriesgados e ingenuos tratarían de llenar, tanteando el hueco de su ignorancia, esforzándose en ver claro donde no había más que su deseo de acertar y la perentoria ansiedad de su angustia. Pero aquellos prospectores de la nada sufirían además otra tensión fronteriza, que no podría menos de participar de la Salamanca universitaria y reforzar una de las singulares características de la cultura, que es su beligerancia, como adelantábamos antes. La Universidad de Salamanca fue el lugar de cita en el que fueron a recaer los Segundones de la nobleza feudal, que todavía coleaba, venida a menos y agarrada a sus privilegios, que tardaría siglos en soltar. Ya se sabe que en las familias residuales del feudalismo, con todas las matizaciones obligadas en el caso español, el Primogénito, el beneficiario del Mayorazgo, estaba destinado a la milicia, a la guerra, repitiendo el modelo ancestral de su clase, y el Segundogénito, para conservar los débitos Salamanca, ciudad fronteriza de la tradición y asegurar la continuidad del honor familiar, debía seguir la carrera eclesiástica y buscar, al amparo de los estudios, el engrandecimiento de la fama del apellido y una plaza de primera línea en la eternidad celestial, con ayuda de algún obispado por medio. Esto echaba a la Universidad un aluvión de Segundones, marginados en sus casas, preteridos en los rangos domésticos, con todos los condicionamientos de su degradación social, incómodos en su papel, casi de adorno en una sociedad jerarquizada -caballeros, clérigos y campesinos-, tardomedieval, que había enfatizado la guerra. La cultura, para aquellos parias, sería el cauce de su desasosiego vital, la réplica de su obligado silencio frente al esplendor de las armas y la aceptación social de sus imágenes. La cultura será una vez más, en la Salamanca renaciente, en el decorado de su incipiente monumentalidad, respuesta dolorida, salvavidas de urgencia, protesta airada. Las Coplas satíricas de la época, como versión cutre de los exudados culturales, están llenas de los resentimientos de los Segundones, que cruzan el paisaje con el estigma de sus frustraciones. Algunos de ellos relacionados con la Universidad salmanticense. Víctimas de los estragos de otra frontera inaccesible, aquellos nobles de segunda fila impregnarían las aulas de su inconformismo beligerante, transfiriendo a su quehacer intelectual la poderosa imaginación de su rebeldía social, de la conciencia de la injusticia inmanente. Algo semejante podríamos decir de otro colectivo, que frecuentó las aulas salmanticenses y encontró en la posibilidad de los estudios la salida, si no la redención, de su ostracismo social. Me estoy refiriendo naturalmente a los judíos, que buscaron en el estado eclesiástico, previo paso por las Escuelas universitarias, con Salamanca a la cabeza, la mejor manera de escapar a su destino de apestados, reducidos a sus guetos, objeto de masacres y persecuciones periódicas y confinados a menesteres subalternos, mal vistos y solamente tolerados. Los conocimientos universitarios les permitían integrarse en la comunidad de los cristianos, para hacerse olvidar sus orígenes vergonzantes. Estos hombres, salidos del s\ibmundo despreciado, con diversas alternativas de aceptación y de rechazo, poseedores de una rica tradición cultural, nunca abandonada del todo, conservarían la huella de sus antepasados y sentirían la extrañeza de las nuevas creencias, al otro lado de la frontera de su nueva vida, sobre el movedizo terreno de una inseguridad permanente, a la que la cultura le daría paréntesis de lucidez y tentaciones de desesperación. Serían siempre distintos, a los que la maledicencia popular daría un hedor especial, y vivirían en un cerco de desconfianzas, que alentaría sus ideas y propiciaría sus esfuerzos cul-turales por la asimilación, en una perpetua lucha contra sí mismos y contra el ambiente, habitantes de una frontera invisible pero operante. Tendrían el sentimiento trágico de la cultura y la irritación obstinada de los límites fironterizos, contra los que se cansarían de dar patadas. También ellos contribuyeron a dotar a Salamanca de la universalidad del saber y de la impotencia resentida de la ignorancia, anclados en la frontera de lo inefable. Porque la cultura ha sido siempre y en todo lugar conflicto, búsqueda, renovación, ruptura y dramatismo. Los dos nombres simbólicos de este quehacer salmantino son dos hombres atormentados y difíciles, a contrapaso de sus conciudadanos, muy distintos por sus tragedias, pero muy iguales por los signos de sus vidas ajetreadas, que, para mayor coincidencia, ninguno de los dos era de Salamanca, con lo que añaden una razón más para reconocer el destino trágico de la cultura y su representatividad en la Universidad Salmantina, como lugar de combates culturales significativos. Teniendo en cuenta estos dos nombres, estamos en condiciones de entender mejor lo que el signo cultural de Salamanca ha sido -^y probablemente sigue siendo, si no se emborracha de los tópicos del pensamiento único, que es la muerte de la culturaen su fidelidad a los imperativos de las exigencias culturales de siempre. Hay otros muchos más nombres, como Fernando de Rojas, Martín Martínez de Cantalapiedra o Ramón Salas, que pudieran servir para ejemplificar los avatares de esa frontera de la disidencia cultural, que resuma lo que puede significar Salamanca como placenta de la cultura. Pero son estos dos nombres, identificables a bote pronto, que no necesitan ni presentación ni justificación, por el relieve de su obra, los que mejor demuestran, por ser ambos criaturas culturales, con el peso de todos sus estigmas, la justeza de la apelación de la cultura para identificar, con todas sus características, lo que Salamanca es en el mapa universal de la cultura, que no se apoya fundamentalmente en su monumentalidad arquitectónica, ni en la nómina de sus estelares personajes literarios, ni en la caterva de los hombres importantes que pasaron por las aulas de su Universidad, ni por la fama de su nombre, sino por su constante testimonio de hacer de la cultura carne de la vida, encarnación del espíritu, como nuestros dos hombres, fray Luis de León y Miguel de Unamuno, vinieron a confirmar sobradamente, cada uno en su tiempo y con su imposible frontera delante. Fray Luis representa, incluso más claramente que Unamuno, los avatares de la cultura y la dramática experiencia de la frontera, que la define. Su condición de judío no hizo más que agravar los problemas de su situación conflictiva. Disconforme con las imposiciones culturales Salamanca, ciudad fronteriza de su tiempo, rebelde contra las arcaicas limitaciones al progreso de la lectura de las Sagradas Escrituras, defensor de la lengua castellana para el tratamiento de las cuestiones religiosas, acusado de peligrosas interpretaciones escriturarias, como Profesor de la Universidad, y de afirmaciones, rayanas en el escándalo eclesiástico, fray Luis exploró con imprudente decisión, según los códigos docentes de su tiempo, y con suicida contumacia, en época de denuncias inquisitoriales y susceptibilidades ortodoxas a flor de piel, la frontera de la heterodoxia, frente al contemporáneo pensamiento único. Sólo su portentosa erudición bíblica, justo el terreno de su especialidad, y el fuego de su pasión étnica, rodeado de enemistades y envidias, le salvaron de la hoguera, a cambio de una prolongada estancia en las cárceles de Valladolid. Pagó con su encarcelamiento y con su proceso, su tributo a la libertad cultural: tuvo que empeñarse en demostrar, con gran esfuerzo y con un pasmoso dominio de la lengua castellana, en «Los nombres de Cristo», que conocía a fondo, mejor que sus rivales, los textos sagrados y que, sin salirse de los cauces de la tradición cristiana, salvo la utilización egregia de la lengua vulgar, podía hablar del Dios encarnado, piedra de toque de la religión de sus antepasados judíos, como nadie, abrumando a sus acusadores con sus conocimientos profesorales, con Salamanca al fondo, y escribiendo la lengua más literaria y más bella de su tiempo, en un puro cultivo de la forma, que completaría y perfeccionaría su mensaje, en una insistencia verbal desbordada, en un extraordinario juego de artificio para callarles la boca a los que habían puesto en duda su fe, su anclaje cristiano, que era el punto de torsión de su inestabilidad conciliar. Probablemente para tapar con palabras el agujero devorador de la nada y de la incredulidad. Debemos pensar que ese espléndido alegato de su defensa, que va mucho más allá de sus necesidades tácticas ante los tribunales, que conforma «Los nombres de Cristo», es un admirable fruto cultural de primer orden, nacido de una angustiosa posición de condenado, a punto de saltarse la frontera. Es obvio repetir que Unamuno, salmantino de elección, también Profesor y también incómodo en su tradición y con los códigos recibidos, fue igualmente una víctima de ese mismo espíritu de la frontera cultural, que Salamanca ampara y explica con su nombre. Mezcla explosiva de positivismo decimonónico y de idealismo finisecular, trasgresor a fondo y de por vida de consignas y de expectativas, contra esto y contra aquello, polemista en ejercicio continuado, iconoclasta hasta de sus propios iconos, desdeñoso de cualquier tipo de conformismo, de acomodación o de sosiego intelectual, Unamuno parecería destinado a simbolizar ese carácter bélicamente fronterizo de la cultura, que encontraba en Salamanca su lugar de afirmación y de expansión. Fue un exigente explorador de las tierras vírgenes de la firontera, desbrozadas por su genio y su tenacidad inagotable de expósito a la intemperie. Luchó contra el adocenamiento y la incultura, contra el cristianismo corruptor y contra la bobaliconería cientifista, contra la certidumbre de cualquier creencia y contra la paz de cualquier posición. Su dramática crisis del 97 tiene tanto de reacción psicosomática como de revuelta espiritual. Le obsesionó la nada y trató de ocultarla con la hojarasca de sus debates, con la firmeza de sus enemistades, con el monumento verbal de su obra. Ni creyó en Dios ni dejó de creer, desde un escepticismo, que rectificaba el mundo recibido y que le desesperaba, acuciándolo como un aguijón intolerable. Su desamparo, su firagilidad y su debilidad le empujaron a soñar con otra realidad contradictoria, a montar palabras sobre palabras, a crear cultura, un bien no fiíngible, en un avance a ciegas, en un tanteo de soluciones inviables. Salamanca fue su gran metáfora, duradera e insuficiente, inventada y observada, a partes iguales pensada y vivida. Con él la ciudad renovó su simbología cultural; él volvió a ocupar su puesto en la frontera variable, rehecha desde sus ruinas. Sufidó destierro, condena, rechazo ciudadano y tardíos reconocimientos oficiales. Encarnó la cultura y murió en la frontera de los nuevos tiempos, que le encontraron viejo para entenderlos. Salamanca le ayudó a definirse y le prestó sus imágenes para que las vulnerara. El mismo se preguntó muchas veces: Y «¿si del otro lado de la frontera no hubiera nada?». Salamanca fue su respuesta.
Identidad del arte e identidad ciudadana En la historia del pensamiento se han usado con frecuencia las metáforas de la construcción del «edificio» del saber y de la «casa», como lugares del conocimiento y de la vida ética. Junto a ellas aparece la de la «ciudad» como ideal de la vida social humana. La polis ha sido un hecho histórico, pero también la metáfora cambiante de la vida autónoma en sociedad. La ciudad es, frente a lo natural, la expresión de una nueva sensibilidad, la de lo artificial como específicamente humano, el cosmos, el mundo ordenado por la razón, no por la naturaleza y el instinto. Es, digámoslo, el espacio del sujeto que quiere ser protagonista de su propia historia. Es el espacio habitable de lo humano por excelencia, frente a la naturaleza donde imperan las fuerzas de la necesidad. Significa construir una realidad, no desde lo que siempre fue sino desde lo que puede ser, desde la posibilidad. De este modo, el nacimiento de las ciudades está ligado al espíritu de la modernidad, a ser un presente que se vive desde el futuro. Su consolidación como tales tendrá lugar en la época histórica llamada de la modernidad, llegando a su cénit en las metrópolis, verdaderos enigmas de futuro, no siempre feliz. Platón expulsó en los poetas a los artistas de la ciudad, ya que on sus imágenes o bien distraían de la realidad o la confundían, ^se anatema llega hasta hoy, pues siendo cierto que ocupan un lugar diferenciado y privilegiado de entretenimiento, de elementos necesarios en la industria cultural, no tienen un papel claro en lo llamado «serio» y realmente importante, como es la definición de la vida ciudadana misma. En ocasiones lo logran parcialmente a través de figuras interpuestas de cometidos puntuales como son los gestores culturales. En cualquier caso, parece como si el arte no tuviera un ñituro prometedor en la utopía platónica de la ciudad o en el mito de la caverna como historia esencial humana. En realidad no es así, y los temores platónicos se han cumplido, ya que el arte es un elemento imprescindible en la escenificación de la vida política, creando imaginarios, apartándose de lo real, y definiendo a través de la retórica publicitaria al ciudadano como consumidor. Actualmente el arte es sumamente político porque es apolítico. Y esto ha tenido lugar después del breve período posmoderno, momento en que, más que una constatación del final de la modernidad, se trata de una confiísión respecto a sus fines. Ello ha tenido como consecuencia una visión historicista de la existencia, pero sin haber pasado realmente por la historia. El arte de la época moderna está íntimamente ligado a la ciudad como espacio natural suyo. Y ello de una doble manera: como lugar privilegiado donde se desarrollan los grandes proyectos artísticos, pero también como lugar desde donde el arte cumple su misión de ser una sensibilidad de y para el presente. Esto ha sucedido así desde el Renacimiento en una simbiosis, quizá irrepetible, entre ciencias, letras y arte, desde el espíritu que configuró el humanismo. Aquí el arte no tiene una connotación disciplinar sino el de ser una especial sensibilidad del ser humano para el espacio y tiempo que le ha tocado vivir. De acuerdo con ella cultiva (y se cultiva) una serie de quehaceres que luego han sido objeto de un tratamiento disciplinar y académico diferenciados. Esa unidad, fundada en una actitud humanista a la que nada humano le era ajeno, constituye un sensibilidad plural, de la que se apartarán luego fórmulas como la de la obra de arte total que, por su carácter reduccionista, difícilmente escapan a la tentación totalitaria. La crisis de un modelo de ciudad tiene lugar, entre otras razones, por la aparición masiva de un fenómeno que transforma la existencia cotidiana en el siglo XX, y es el de la penetración de la técnica en todos los ámbitos de la vida humana. Se ha vivido y se está viviendo una crisis de identidad de las diferentes formas de modernidad, de las ciudades y del arte, a las que ha ido ligado como sensibilidad suya. La literatura, pintura, escultura y arquitectura agitadas de las metrópolis son una buena muestra de esta nueva sensibilidad. Muchas cosas han cambiado, pero que la memoria del futuro se proyecte hoy en la ciencia ficción de acuerdo con estos modelos y su crisis, dice mucho sobre lo que se ha denominado como el «clasicismo de las van-El arte, memoria del futuro en las ciudades históricas guardias». Por otra parte, las llamadas ciudades históricas se encuentran en el dilema de hacer historia o pasar a ser historia en esa (por el momento) concepción de la historia como progreso científico y técnico. A ello se añade la aparición masiva de las nuevas tecnologías de la información a finales del siglo XX y a comienzo del siglo XXI. Se trata ya de las «ciudades en la red» ubicadas tanto en las ciudades históricas como en las de nuevos cuño. En este contexto se ha convertido en un tópico hablar del esteticismo de las sociedades actuales. En ellas acontece la extensión del arte a todos los ámbitos de la existencia. Especialmente en los de la publicidad y el consumo. Pero con ello empieza a cuestionarse también su identidad. En este momento, el arte se debate entre la consideración historiográfica en la que predominan las categorías estéticas tradicionales ligadas a la obra entendida como objeto aurático y monumento; entre los restos de una posmodernidad narrativa de buen gusto que no arriesga nada, ya sea en la consideración neoromántica de la naturaleza o el relato solipsista de autor; entre las creaciones unidas a las nuevas tecnologías que parecen guardar poca relación con la estética y conceptos de arte tradicionales; entre las creaciones de la industria, especialmente la publicitaria, que resumen ese esteticismo en productos ofirecidos como obra de arte total, es decir, que afectan o transforman la existencia toda. En resumen: el arte se encuentra en un momento difícil de transición en que ha perdido a comienzos del siglo XXI aquellos elementos que predominaron hasta finales del siglo XX: su capacidad de orientación y emancipación. Hay un contraste evidente entre su masiva presencia social y su desconexión con los problemas sociales, su incapacidad de ser contemporáneo del presente. Hay un innegable avance en las técnicas y un retroceso cada vez más evidente en sus componentes estéticos. El esteticismo tiene una de sus variantes en el historicismo que determina, no sólo un modo de ver la historia, sino también la vida humana misma. Durante tiempo predominó la consideración de la historia dirigida al pasado, monumental y anticuaria, más tarde, con Nietzsche, se impone la historia para la vida, la del presente. En este momento cada vez más la historia es memoria del futuro, recupera la ciencia, pero como ciencia ficción. Con ello la imaginación estética se realiza a través de la razón tecnológica. Reivindica algo que se ha puesto de manifiesto en las concepciones de la historia en el siglo XX, y es el carácter artístico de la historia como obra de la imaginación. La historia misma es así una obra de arte. Esta unión de arte, técnica y ciudad se observa ya en las grandes utopías positivas del Renacimiento, y se reproduce también en las utopías negativas de nuestro siglo. Así, la Utopía de Tomás Moro, la Atlántida de Bacon o La ciudad del sol, son espacios habitables del ser humano, diseños futuristas creados, no ya por Dios, sino por la razón y técnica humanas, como afirma Campanella. Son pequeños microcosmos en los que se edifican espacios públicos de convivencia. Estas utopías positivas hacen crisis con la llegada de las metrópolis, que durante algún tiempo asocian el ser (Paris, Berlín, Viena) ciudades grandes con ser grandes ciudades. Pero ya a comienzos del siglo XX los aumentos cuantitativos acaban produciendo transformaciones cualitativas. El arte se hace eco de esa transformación creándose algo irreversible ya, como es una mirada decididamente urbana. No se trata solamente de la temática sino de una sensibilidad distinta, patente incluso en la mirada diferenciada a la naturaleza. Ello incide en una nueva determinación (en eso estamos todavía) del espacio y el lugar, en como habitar el espacio de lo humano. Hoy día, ante el declive de la pintura y la saturación de la fotografía, se vuelve en cierto sentido a la arquitectura como arte total, como arte social. A las utopías positivas de la modernidad, tanto en el Renacimiento como en las vanguardias, suceden las negativas de nuestra época. Cuando el arte hace ciencia ficción y proyecta las utopías biológicas del futuro y construye los espacios urbanos donde tienen lugar, asistimos a dramáticos problemas de identidad entre hombre y máquina, y también a destrucción de los espacios públicos urbanos. Esta es una tendencia que muestra una proyección de la sociedad del presente, un futuro que viene hacia él, como memoria suya. Pero no necesariamente tiene que ser así. El momento de transición de tiempos, de modelos de historia, de arte, se hace especialmente evidente en las ciudades históricas, en una crisis de identidad, de encrucijada, entre resignarse a ser antiguas, viejas, en transición hacia el pasado, o ser propiamente históricas, es decir, laboratorios de la transición hacia el futuro. Se trata, generalmente, de ciudades de tamaño medio, no metrópolis, grandes ciudades, pero no ciudades grandes, a las que no se aplica la sinfonía de la gran ciudad, pero sí otro tipo de polifonía correspondiente a su carácter de síntesis estéticas. Este es el caso de Salamanca. En ellas la capacidad de hacer historia va ligada a una nueva consideración de la historia. En las ciudades históricas tiene lugar una dialéctica permanente entre lo histórico y la ciudad. Lo histórico son los hechos, de los que hay testimonio en los textos y en los monumentos. Están ahí, y son El arte, memoria del futuro en las ciudades históricas periódicamente restaurados para salvarlos del deterioro y del olvido. Pero, hay una diferencia esencial entre ciudades históricas, antiguas o simplemente viejas. En estas dos últimas el pasado ha pasado y ya no pasa, los habitantes son más viejos que los edificios. Son ciudades que no consiguen ser un pasado presente. Tradicionalmente se ha atribuido al arte un papel de anticipación de comprensión del presente, de prospectiva del futuro. Parece, sin embargo, que el arte de estas ciudades es el del pasado, y que ello les condenaría a ser algo que se mira, extático, de espectadores o de místicos. Pero el arte de la historia es el arte del futuro. Cabría aventurar la hipótesis de que sólo las ciudades históricas pueden ser vanguardistas. El tiempo de la ciudad histórica constituye un espacio de transición. Hoy estamos en una tesitura en la que no se trata de pensar el tiempo de las ciudades históricas como un tiempo lineal, de progreso hacia el futuro, sino como de regreso del futuro hacia el pasado, como un tiempo curvo. En la nueva sociedad se viene del futuro, no del pasado, nuestro tiempo es el de un futuro pasado. La modernidad es una actitud en Baudelaire y un estado de la mente en Simmel el gran teórico de las metrópolis. Pero en ambos la pregunta es la misma: cómo vivimos en el presente. En el propio Renacimiento se diseñaron las ciudades de la utopía y del sueño, pero como dice Jane Jacobs, «diseñar una ciudad de sueño es fácil, pero reedificar una viva necesita imaginación». Efectivamente, si se trata de una ciudad viva, la historia no existe como algo hecho y dado, sino que necesita ser construida, como forma de vivir en el presente. Como ya explicara Novalis, no hay tradiciones sino que tienen que ser construidas para poder vivir, para que cada uno pueda ser tradición de sí mismo. Las ciudades utópicas del Renacimiento no son las ciudades históricas, aunque siempre el presente se suele proyectar de alguna manera en el futuro. Estas son topos, aquellas utopía. Es verdad que en estas ciudades hay el elemento mesiánico de la historia tal como lo explicara Benjamin. Tienen pues los monumentos un carácter heliotrópico: existen en la medida en que giran y se miran, esperan del presente. Por eso somos las esperanzas no realizadas del pasado. En ese sentido, los lugares, los monumentos, son no-lugares. Están hechos de ausencias de presencias. Las ciudades históricas, si están vivas son ciudades de la esperanza. Los monumentos no son entonces el testimonio de la vida que se fue sino el sueño de una vida mejor. Decía Claudio Rodríguez que «todos llevamos una ciudad dentro. Ciudad que nos alienta y nos acoge: la ciudad del alma». Y así la ciudad histórica está llena de arquitecturas mentales, de varias ciudades construidas por la memoria sobre el olvido. Pero, las ciudades históricas no sólo son un sueño, sino también capas, itinerarios, trazados de la memoria. La memoria deja de ser homogénea, hay lugar para la individualidad en los espacios vacíos, del olvido. El problema es cuando está llena, asfixia, y es necesario vaciar. Porque los monumentos son también la memoria selectiva de la ciudad que está hecha de olvido. Cuando se enfoca desde esta perspectiva, desde la mirada dialéctica, las ciudades históricas están vivas de muy diversas maneras, ya que son diferentes tiempos e historias los que se entrelazan, configurándolas como ciudades de laberinto. En muchos casos son el resultado del ejercicio del poder y de la racionalidad administrativa. Son así ciudades profundamente ambiguas que, sin embargo, se afirman constantemente en una esencialidad, en constante relación dialéctica con la vida. La arquitectura de una ciudad es también la arquitectura del poder: una racionalidad que se impone irracionalmente. Por ello, convendría diferenciar esa doble mirada en las ciudades históricas hacia el futuro: la mesiánica, de Benjamín, que espera realizar la historia de los vencidos y la otra, la monumental, que mira al futuro, pero para prolongar ficticiamente el pasado. Falta la entropía, la degeneración de los monumentos como siendo la otra cara de la vida. Hay ruinas que conviene dejar como ruinas y no resucitarlas artificialmente. Su desaparición forma parte de la vida como la enfermedad misma. Y así, algunos monumentos de los llamados emblemáticos quizás deberían desaparecer. El espacio narrativo: las ciudades en la ciudad Decía Ezra Pound que «la vida de la ciudad es narrativa». La historia hecha espacio bajo la forma del monumento no es imaginada espacialmente, como un continente vacío sino como espacio humano, como acontecimiento. Es decir, que el espacio, más que lo ya existente, en que tienen lugar historias, es lo que se constituye a través de lo que tiene lugar, a través del acto de narración. Podríamos resumirlo diciendo que la ciudad es un espacio narrativo, el lugar donde tiene lugar algo. La ciudad es una experiencia visual y textual que no tiene un carácter meramente representativo, sino productivo, que construye la ciudad en los ojos de los lectores y espectadores. La ciudad es así una experiencia narrativa. En cierto modo se llega a la ciudad a través de una hermenéutica de la palabra y de la imagen. Es una hermenéutica no siempre fácil ya que las ciudades tienen mucho de palimpsesto y de pentimento. Mirar es interpretar, pero también es cierto que el El arte, memoria del futuro en las ciudades históricas «ojo inocente es ciego». La ciudad está cargada, es el resultado de esas miradas. A veces se encuentran, otras no. Así sucede que los monumentos son como los libros. Pueden verse, pero no significa que se lean. Y las bibliotecas están llenas de esas miradas quietas que esperan otra mirada detenida. Lo mismo sucede con los edificios que, como señalara Kahn, nos piden con la mirada que no sólo pasemos, sino que escuchemos lo que tienen que decir. Así, ese ver es un lugar de encuentros y desencuentros, de no-lugares, de presencias de ausencias. Las ciudades históricas son discontinuas. Y por eso, una experiencia narrativa en el que el arte no responda sólo al embellecimiento/falseamiento turístico, a la exigencia de la publicidad y del mercado, (donde quedan integradas las diferencias en una falsa vida cotidiana ciudadana) sino que atienda también a la verdad, tiene que construir una experiencia narrativa plural y discontinua. Señala Bernard Tschumi en Architecture and Disjunture que «vivimos en espacios fracturados», en los que los edificios y su uso no son lo mismo. Y esto es una gran virtud, lo que hace verdaderamente atractivo vivir en las ciudades históricas, recuperando espacios históricos para usos modernos Los espacios recuperados son una tregua momentánea de un conflicto de deseos que es, en definitiva, toda ciudad histórica que quiere seguir siendo viva. No se trata, para que sea histórica, de uniformar la ciudad, lo que resulta un entrañable pastiche al estilo de Carcasona, sino de ser capaces, como señalan Eisenmann y Derrida, de crear espacios de diferencias, en que cada lugar es la expresión de un deseo separado por la distancia temporal, pero unido en la creación de un lugar. Cuando Pound decía que la vida de la ciudad es narrativa lo pensaba, al igual que Simmel, en términos cinematográficos, de la sucesión de imágenes en un espacio y en.un tiempo, un día. Pero una cosa es cómo se toman las imágenes y otra el montaje. La experiencia moderna es la de la fragmentación y la sucesión narrativa no da cuenta de la simultaneidad de espacios en la asimultaneidad de tiempos. La sucesión de imágenes reproduce sólo de manera inadecuada la simultaneidad de espacios diversos y la asimultaneidad de tiempos vitales en que vivimos el mismo tiempo físico. Más que una sucesión de imágenes habría que tomar el modelo de Baudelaire: «un caleidoscopio equipado de conciencia». El nombre de una ciudad histórica es una síntesis incompleta de elementos heterogéneos en el espacio y el tiempo. Las ciudades históricas tienen hoy, como antes, una mitología propia. A ellas ayuda poderosamente la publicidad. Se resume en un lema y en unos iconos. Ello da una identidad, promueve el sentimiento de identificación, pero también a costa de la simplificación. Y con ello llegamos a un punto decisivo: una ciudad histórica que esté viva tiene que ser una composición de imágenes dialécticas y no un desplegable de postales turísticas en forma de catálogo municipal. En este punto, la fotografía tiene un papel clave hoy día. Con frecuencia anclada en una falsa y trasnochada narratividad. No es casual el auge que ha tomado la fotografía en la época posmoderna. Según Foucault, la historia es lo que transforma los textos en monumentos. Pues bien, el papel que antes cumplía la palabra lo hace ahora la imagen. De ahí que, como afirma Giuliana Bruno, en la posmodernidad «el referente histórico ha sido desplazado por el referente fotográfico». Es el que garantiza, por una parte (ya lo denunciaba Barthes) que algo es real y está vivo. Y que, por otra, pasa a la historia: «Hacerse la foto para la historia». El carácter de composición y montaje no disminuye la convicción de que las palabras son subjetivas e inexactas, pero que la imagen no miente. De ahí el continuo embellecimiento de la ciudad en las postales: es una cita como pastiche. Lo contrario lleva en todos los ámbitos a un embellecimiento/falseamiento de lo real como mercancía. El resultado, según Giuliana Bruno es una «lógica del pastiche, un simulacro de la historia». De esta forma, cabría completar con Benjamín, «los emblemas vuelven bajo la forma de mercancías». Pero la fotografía también puede proporcionar esa mirada plural y dialéctica que señalábamos antes. Un ejemplo reciente es la exposición Salamanca, un proyecto fotográfico. La mirada crítica es también física: hay una dialéctica entre los centros históricos y las periferias de la historia, que son los barrios. Se da la paradoja de que allí donde la ciudad crece y se expande es donde se degrada. La recuperación de los centros históricos ha sido la consecuencia de un cambio social y político en que vuelven, no quienes se habían ido a los barrios, sino a las urbanizaciones. La urbanización es el campo que se hace ciudad y la ciudad que no quiere renunciar el campo. La urbe tiene sus urbanizaciones, donde la ciudad se hace frontera móvil con el campo. Para esto se exige otra experiencia visual, que no responde al cliché de la belleza, sino a la exigencia de verdad. Cuando lo antiguo se revela como viejo en los edificios dialoga con su entorno, un paisaje castellano duro, artificialmente reblandecido por las urbanizaciones. Las «afueras» son los barrios y las mismas urbanizaciones. Los primeros son los márgenes en los que la ruina a menudo linda con la otra ruina de la civilización industrial que son los vertederos. Las ciudades históricas se definen en virtud de un centro. Las industriales por la periferia. Entremedio están los barrios. Esos barrios que por su misma denominación siempre se consideran distantes y distintos. A ellos, y en una ciudad europea como es Buenos Aires dedicó Ortega su «Balada de los barrios distantes». Pero la concepción narrativa de la ciudad se opone precisamente a la esencialista, del núcleo urbano en sentido de centro histórico. Las ciudades están vivas mientras se mantiene la tensión entre el centro y la periferia. Hay un lugar de la ciudad denominado «las afueras». En las fotografías de Xavier Ribas se refleja muy bien esta mezcla de secarral, de casticismo y de modernidad. Hay en ellas una reflexión sobre el límite: edificio, campo que no es parcela, parcela que se vuelve campo. Es el juego visual de la tapia, verja, pared, ángulo. Ha sabido reflejar bien la desolación de lo moderno en el paisaje castellano. Ahí la vida de la urbanización, su vegetación foránea habla de un modernismo como mentalidad del siglo XIX, distinto de la otra modernidad. En las fotografías de Michael Danner se percibe la tensión entre la ciudad y sus límites: el campo que ya no es, la ciudad que todavía no es. En definitiva, los lugares no urbanizados dentro de la urbe. Lo inacabado dentro de la ciudad misma. Donde ya no hay planificación sino sólo restos, que habrá que acomodar; intersticios que generarán más adelante (ante la protesta vecinal) costurones en las heridas mal cicatrizadas de animal viajero en la historia que es la ciudad histórica. Todavía en la ciudad hay los espacios que son no-lugares: los llamados «solares», los espacios de entretiempo, de lo que ya no es y de lo que todavía no es. Son los espacios a la espera. Otros lugares son las ruinas de lo que se está construyendo, no de lo construido. Y, finalmente, están los otros, los espacios «salvajes», ni campo ni urbe, que hay que atravesar. Nadie los necesita, no son «travesías» sino incordios. Es la «tierra de nadie» donde se acumulan las basuras. Son los desmontes, los desniveles, los descampados. ¡Viva en Salamanca y trabaje en el ciberespacio! En 1988 La UNESCO declara a Salamanca «Patrimonio de la Humanidad» Posteriormente es nombrada «Capital europea de la Cultura». Se trata de distinciones que distinguen y que, al mismo tiempo que reconocen, la obligan también a ser distinta. Esa distinción ya existe de cara al pasado en una integración de estilos que da el arte: romano, medieval, renacimiento, modernismo. Desde el punto de vista del arte, las ciudades históricas son las posibilidades de la obra de arte total. sin sentido totalitario. Es decir, una nueva configuración de la existencia. Es todo lo contrario del pastiche posmoderno. Por eso, las ciudades históricas sólo pueden ser una memoria del futuro en la medida en que no sean el futuro de la memoria. La distinción obliga a una definición. Tras constatar, como el personaje de la novela de Luciano Egido, que «Salamanca se mueve», cabe preguntarse hacia dónde. Obliga también a replantearse el cómo entender la cultura. Y mirando más adelante, el qué hacer con ella. Quizás no fuera muy oportuno retomar en este punto fórmulas europeas del despotismo ilustrado ya periclitadas: cultura para el pueblo, pero sin el pueblo. El resultado, en el mejor de los casos es, ciertamente, un espléndido espectáculo, en el que el pueblo y sus más cualificados ciudadanos quedan reducidos al papel de espectadores o figurantes. Pero el carácter institucional del arte recomienda precisamente que se tenga en cuenta ese elemento de espectador interactivo y no pasivo. A la cultura del espectador hace tiempo que ha sucedido la cultura participativa. Sin que ello deba confundirse con la, por otra parte estimable, cultura autóctona y de fiestas patronales. Más bien, se apunta a que en una ciudad «Capital europea de la Cultura» debería contrapesarse la sociedad del espectáculo con la sociedad de la participación. Y esto significa no sólo la participación ciudadana, sino también la necesaria cooperación institucional. Y que, dada la acreditada tradición cainita de Salamanca, sería oportuno reforzar al máximo. ¿Hacia dónde se camina? La memoria del futuro tiene que ser híbrida, no la del progreso ingenuo, pero tampoco la del turismo arqueológico y residual. El peligro de las ciudades históricas no es el de ser antiguas sino el de convertirse en viejas, refugio de nostálgicos y pasto de turistas. El riesgo de las ciudades históricas consiste en quedarse como lugares de turismo zoológico: viven de que se les eche algo después de hacer unos mimos. Contempladas desde las peceras de los autobuses o los trenecitos de Disneylandia, las ciudades históricas se vuelven viejas en el sentido de seniles, de regreso a la infancia, más aún, de quedarse paradas en un momento de crecimiento, llevando así una vida fantástica, una vida detenida, una no vida. Las ciudades históricas son lugares donde se puede hacer turismo, pero no deben ser para el turismo, ni los ciudadanos deben quedar reducidos al papel de figurantes. No se debe dar al turista sólo lo que busca sino que también debe ser educado. Para ello es preciso que se huya de los estereotipos, que son la definición de las ciudades en términos exclusivamente simbólicos. Y así acaba siendo el topos ciudadano un tc^ico: El arte, memoria del futuro en las ciudades históricas nos vemos en los ojos de los otros, que sólo nos ven si nos reconocen en los estereotipos. Salamanca es una ciudad histórica por excelencia en la que, al igual que antes se dio un humanismo de las ciencias y de las letras, ahora se puede configurar un humanismo tecnológico. Como en pocos lugares se puede aplicar aquí la conocida recomendación de William Mitchel: «¡viva Ud. en Florencia, trabaje en el ciberespacio!». Una ciudad de la comunicación con comunicaciones sería un ideal digno del Renacimiento. De él hemos recibido también la consigna de que saber es poder. Y también la lección de que la cultura no debe ser una alternativa a la falta de industria y otras graves carencias económicas. Sin cinturón industrial, una capital cultural europea está siempre en cueros.
La generación de Fray Luis Fray Luis de León nace en 1527, el mismo año que Felipe IL Figuras, pues, rigurosamente coetáneas. De genios en buena medida contrarios, alcanzarán su madurez en la mitad segunda del siglo XVI. Los dos mueren en su última década, con siete años de diferencia; fray Luis en 1591, el Rey en 1598. Autores de nota han señalado ese tiempo con el mote de «siglo de Felipe II», lo que no produce extrañeza. También hay quien ha preferido llamarle «siglo de fray Luis de León», lo que acaso sólo se acepte si se le mira desde una especial óptica. Como aquí voy a ocuparme del maestro agustino voy a apropiarme de esa especial óptica, que atiende a aquello en que fray Luis ocupó su vida, o sea el cultivo de artes y ciencias: señaladamente la ciencia teológica. En razón de ello quiero empezar dejando marcado el año de su nacimiento. Esa cifra numeral de 1527 pienso que puede tomarse como fecha ordinal a la que referir el arranque de definidos movimientos de cultura modificándose con ellos el clima espiritual de la época. Los hombres que encarnan y conducen esos movimientos corresponden a una sociedad en expansión, sociedad abierta, ávida de nuevas experiencias y conocimientos. Con el discurrir de las cosas derivará la centuria hacia una sociedad cerrada. Y si hubiera que fijar al caso una fecha de inflexión, esta sería la de 1559, señalada por la represión oficial de los brotes protestantes y la restricción impuesta por Felipe II a la Saturnino Alvarez Turienzo 482 libre asistencia de estudiosos a centros de más allá del reino. Esa fecha de 1559 marcaría el tipo de pensamiento de nuevas generaciones cuyos pasos acabarían en la «tibetanización» por la que se ha definido el periodo siguiente ^. Volviendo a la fecha de nacimiento de fray Luis, me aventuraría a hablar de una generación del «27», dentro de aquel siglo; y etiquetarla como la de fray Luis de León. Nombraré otros dos personajes, que nacen el mismo año y que cuentan en el entorno inmediato del maestro salmantino, amistoso con él el uno, enemistóse el otro. Me refiero a Benito Arias Montano y Bartolomé de Medina. Los dos nacen también en la indicada fecha de 1527. Bartolomé de Medina figura en la sucesión de teólogos dominicos, que pasa por Melchor Cano, Domingo Soto, hasta Báñez (nacido este último en 1528), y que tiene su comienzo en la enseñanza de Francisco de Vitoria, catedrático de prima en la universidad desde 1526. Esa línea de maestros decide la orientación de los estudios en la Facultad. Implantan en ella la escolástica, teniendo por guía el magisterio de santo Tomás de Aquino, que de Vitoria a Báñez, tenderá a imponerse en las escuelas como doctrina y método excluyente de otras «vías». Arias Montano, por su parte, formado en la universidad de Alcalá, comulga con el espíritu que domina en ese centro. Allí oye las lecciones del profesor de Escritura Cipriano de la Huerga que tomó el hábito del Císter en 1527. Esa cátedra había sido creada en 1532, regentándola el agustino Dionisio Vázquez. Fray Luis de León seguirá asimismo (curso 1556-1557) al maestro cisterciense sucesor de Vázquez. Lo que atraía de esa enseñanza, tanto a Arias Montano como a fray Luis, era su apertura de espíritu y el carácter positivo, bíblicamente orientado, de su teología ^. Añadiré dos hechos en los que se confirma la modificación del clima espiritual que se produce en torno a la fecha indicada. El primero de ellos es la conferencia de doctos reunidos en Valladolid a efectos de examinar la ortodoxia de la obra erasmiana. La autoridad de Erasmo había alcanzado por entonces en España un ascendiente inusual. La traducción de su escrito más difundido, Enquiridion del caballero cristiano, fue editada en 1526. Favorecían al holandés importantes personalidades del momento. Partidarios suyos, por lo común, eran los maestros de la academia alcalaína, contra lo que se observaba en la de Salamanca. Entre aquellas personalidades figuraban Alonso de Fonseca, arzobispo de Toledo, y Artes y ciencias en la formación de Fray Luis de León. hasta el inquisidor general Alfonso Manrique, arzobispo de Sevilla. Fue este último quien promovió la conferencia mencionada. En París la Sorbona condenó (1531) ciertas proposiciones que tocaban a la ortodoxia de Erasmo. El inquisidor Manrique se había pronunciado contra los ataques a la doctrina del humanista, pero sus émulos harán llegar a él un listado de puntos, extraídos de sus obras, calificados como heréticos. Fue lo que motivó la convocatoria de teólogos para examinar el caso. La conferencia de Valladolid se disolvió sin concluir sus trabajos. Erasmo no fue condenado, pero quedó sembrada la sospecha en torno a él. La condena oficial saldría del Concilio de Trente en 1552. En 1534 advertía ya Vives a Erasmo sobre lo difíciles y peligrosos tiempos que corrían. De otra parte, en 1527 publica Francisco de Osuna el Tercer abecedario. La obra, para Melquíades Andrés, cierra un periodo y abre otro. Osuna se inserta en la corriente de los espirituales franciscanos. Se marca en ella un cambio, en el sentido de dar el paso desde una religiosidad exterior de cumplimiento a una espiritualidad interiorizada. La citada obra es para M. Andrés «la primera codificación de la mística de recogimiento» ^. Traigo aquí esa obra por la fecha de publicación y por el revulsivo que su lectura habría de provocar en santa Teresa de Jesús. Esa lectura puede enlazarse con la que anteriormente había hecho de las Confesiones de san Agustín. Sumados sus efectos deciden la que vendrá a ser su personal experiencia mística, la de una nueva vía de oración y comunicación con Dios. Generalizando el fenómeno vendríamos a dar en lo que algún autor ha descrito como «cambio de rumbo de la espiritualidad española a mediados del siglo XVI»' *. A los puntos indicados podrían añadirse otros. En ellos vendría a mostrarse el clima nuevo al que se abren las gentes de letras en nuestro siglo XVI a partir del tercer decenio. He tomado en cuenta la situación por el lado que da hacia el pensar y el vivir religiosos. Puesto que lo que entra directamente en mi interés es el pensamiento y la vida de fray Luis de León, llevaré el desarrollo subsiguiente al campo en que se movió su actividad profesional, es decir al de la teología. Puede considerarse inscrita en él su obra poética. No se excluye el papel que en esa profesión de teólogo tiene la mística. Tampoco al peso que, dentro de su teología, vendrán a tener las ciencias (entiendo las no específicamente religiosas) cultivadas en su tiempo. Incluyo a fray Luis dentro de la corriente que define la modificación de mentalidad que va a afectar a los hombres de la generación a la que pertenece. Para situarle dentro de ella voy a empezar por extraer dos enseñanzas de lo expuesto. La primera afectaría a la modificación de métodos formativos e informativos, o sea de aprendizaje y de enseñanza. Esa modificación alcanza incluso al currículo escolástico, aunque ahí se haga menos visible. Es en cambio notoria en los tipos de saber que para el tiempo se presentan como innovadores. Novatores son, por supuesto, los humanistas, pero también los maestros universitarios que en los siglos XIV y XV (nominalistas) reorientan las disciplinas según los criterios de la via modernorum. Ello afectará hondamente a la teología. Dentro de los estudios profanos esa nueva inspiración modificará la concepción y desarrollo de la lógica. Sobre todo, y por lo que ello va a significar para el auge y configuración de la ciencia moderna, sentará las bases y dará la orientación para el modo de entender la física. Dichos nominales fueron menos sensibles para los problemas éticos, o se enfrentaron a ellos en términos más dubitativos. Es el campo, sin embargo, al que darán preferencia los humanistas. Rasgo común a unos y otros, lo que define ya al método, fue el de su actitud escéptica respecto a la tradición escolástica en cuanto saber especulativo sustentado en inidentificables nociones metafísicas. A partir de ahí, lo que de positivo tenía ese método se bifurca en doble dirección, según que lo sometido a estudio sea el libro de la naturaleza o los libros transmisores de la cultura. Son los campos que se reparten entre los físicos, estudiosos de los realia y los humanistas, eruditos de los sermocinalia. La dualidad entre esos dos ámbitos era clara, aunque no se viviera como si se tratase de territorios incomunicados, al menos por el tiempo a que ahora atendemos. Lo que sí termina apareciendo, a su vez, como claro es que había dos métodos que permitían moverse con seguridad dentro de las respectivas fronteras. Uno de ellos quedaba codificado en las matemáticas. El otro en la gramática. Que las matemáticas estuvieran llamadas a entenderse como la clave para descifrar los secretos del universo no quiere decir que esto ocurriese de pronto y como por un salto. Fue el resultado de un proceso que llena los siglos modernos. Entre tanto los hombres del Renacimiento fueron especialmente crédulos. Creían en brujas y se sentían rodeados de potencias mágicas. Estudios como los de la astrología o la alquimia tenían para ellos la autoridad de ciencias. El cosmos físico mismo era concebido como un ser animado y poblado de virtudes ocultas. Ahora pasaré a la otra enseñanza que cabe extraer de los hechos anotados anteriormente y referidos a la fecha generacional de 1527. Se trata en este caso de indicar las líneas en que pueden agruparse los intereses culturales del momento. Estarían representados en las posiciones siguientes ^. Artes y ciencias en la formación de Fray Luis de León.. 1) La escolástica, asociada aquí al nombre de Bartolomé de Medina. Es la que encontramos sancionada en la docencia oficial de las Escuelas. Es la que representa en forma eminente el nombre de Arias Montano. 3) La filológico-literaria, aplicable a Erasmo y la corriente de la philosophia Christi. 4) La espiritual-mística, que relacionábamos con la publicación del Tercer abecedario de Osuna. Puede ser ilustrador adelantar, como observación de paso, que fray Luis de León estuvo interesado en los estudios o sabidurías de las cuatro. Enseñó escolástica los más de los años que duró su docencia. Los estudios de que gustaba, sin embargo, no eran los que se cursaban en las escuelas, sino los cultivados por los humanistas, en los que, durante sus años de formación, puso particular empeño. Una obra como De los nombres de Cristo testimonia su inclinación hacia la espiritualidad mística, inclinación que vemos sellada al notar que fue la que le atrajo en los años finales de su vida al ocuparse de la edición de la obra teresiana. 486 formación y por dedicación, «perjuicio y voluntad». Brilló como acucioso escudriñador de textos y como intérprete de mensajes. Fue, en este sentido, un hombre de letras. Como tal se aplicó a leer incluso el libro de la naturaleza. Sintió ésta con hondura y supo expresar ese sentimiento con eficacia literaria. No puede decirse, en cambio, que participara en su escrutinio metódico. A este respecto no fue un hombre de ciencia. Su curiosidad se extendía a estar al corriente de la que ofi^ecía su tiempo. Puede que adivinara aquello a que iba a conducir un mal encaminado, por unilateral, cultivo de la ciencia que entonces echaba a andar: al «desencanto del mundo». El tono general de sus escritos no casa con esas andanzas. La imagen que él tenía de la naturaleza era la llena de encanto y misterio. Corría al unísono con la expresada en la filosofía más autorizada del momento: lo del platonismo trasladado a Italia por la emigración de los sabios bizantinos tras la caída de Constantinopla y renacido para los países occidentales en la escuela de Florencia. El campo de estudios que absorbió a fray Luis fue el de una Iliterata Theologia. Su profesión fue la de humanista teólogo. En razón de teólogo no podía rechazar como mera «barbarie», aunque sería acusado de ello, la escolástica. Como teólogo humanista era llevado a conceder especial aprecio a la tradición de los santos. Y, en cuanto teólogo que sigue hasta el final la lógica de su profesión, elevará a canon rector de su disciplina a la Escritura. Por ello es por lo que le vemos, dentro del esquema de posiciones antes enumeradas, muy cerca de la significada por Arias Montano, o la de aquellos «hebraístas» universitarios con los que compartirá docencia en Salamanca (Gaspar Grajal y M. Martínez de Cantalapiedra) ^. Más abierto que ellos, sin embargo, a la tradición de los Padres, al modo que se refleja en la posición de Erasmo. Y, menos puritano que el hebraísmo de unos y que el humanismo del otro, no se negará a contar con la ayuda que el teólogo puede recibir de la escolástica. Es, pues, el suyo un espíritu que busca integrar las aportaciones recibidas de distintas corrientes en una visión que fray Luis presenta como unitaria. Las letras sagradas, colmo y perfección de la Teología Unas líneas de la «Dedicatoria» a De los nombres de Cristo resumen cuanto a este respecto cabe decir. Viene hablando de lo que conviene que sepan los pastores y predicadores en punto a la justa proclamación Artes y ciencias en la formación de Fray Luis de León. de la palabra de Dios. Piensa que lo que ineludiblemente han de conocer es el Texto bíblico en el que esa palabra se contiene. «Pero es en muchos esto tan al revés, que no sólo no saben estas letras, pero desprecian, o al menos muestran preciarse poco y no juzgar bien de los que las saben. Y con un pequeño gusto de ciertas cuestiones, contentos e hinchados, tienen título de maestros teólogos, y no tienen la Teología; de la cual, como se entiende, el principio son las cuestiones de la Escuela, y el crecimiento la doctrina que escriben los Santos; y el colmo y perfección y lo más alto de ella las Letras sagradas, a cuyo entendimiento todo lo de antes, como a fin necesario, se ordena» (NC, «Dedicatoria», p. Este pregnante párrafo no requiere comentario. Se descarga fray Luis en él de las acusaciones que se le hicieron ante la Inquisición, de mostrar desprecio por la escolástica, y de no tener estima de los Santos. Observamos cómo, por el contrario, en la declaración apuntada tienen cabida las diversas fuentes o lugares teológicos de la tradición. Pero los jerarquiza ordenando los más recientes a los más antiguos, y todos a la Escritura. De modo que los conocimientos derivados, sean los ofirecidos en sus interpretaciones exegéticas por los Padres, sean las Sumas de doctrina elaboradas por los escolásticos, en cuanto reclaman autonomía y proceden como si se sustentasen en sí mismos, -derivan en quedarse con sólo el título de la teología buscada, sin tener su realidad. La teología que los magistri medievales cultivaron como nueva y científica desmerece ante la doctrina que tradicionalmente venían enseñando los sancti. Una y otra languidecen en caso de no tener arraigo en la sabiduría de la Escritura: océano de ciencia y de doctrina comunicada al hombre por Dios mismo. Nutriéndose de esa fuente, y «como si de ella fuesen nacidas», tendrán aquellas otras valor. Es el sentido en que las acoge fray Luis. Lo cual le permite defenderse con éxito contra quienes le censuran de menospreciar a maestros y a santos, o decir que para entender la Escritura bastaba sólo gramática ^. Para entender la Escritura hay que saberlo todo Fray Luis responderá a acusaciones como las apuntadas que «para el entero entendimiento de la Escritura era menester saberlo todo, y principalmente tres cosas: la teología escolástica, lo que escribieron los santos, las lenguas griega y hebrea. Y aunque a mí me faltaba mucho de todo esto, pero que si en mi mano fuese el tenerlo, 488 Saturnino Alvarez Turienzo yo lo escogiera para el efecto sobredicho. Y los que se contentaban con menos eran hombres de mejor contento que yo. Y jamás traté ni en público ni en secreto del abismo de saber que Dios encerró en los libros de la Santa Escritura que no dijese que pedía en el que trataba de entenderla, que supiese todas las ciencias, y las historias, y las artes mecánicas, cuanto más la teología escolástica, que es la verdadera introducción a ella. Y a lo que dice que basta sola gramática para declarar la Escritura, como yo y otras personas la declaramos, yo nimca he profesado declararla, porque siempre he leído escolástica... Pero véanse mis lecturas y los lugares en ellas, adonde declaro pasos de Escritura que se ofrecen, y juzguen los hombres doctos y desapasionados si los declaro como gramático o como teólogo» ^^. He aquí en cambio otro pasaje en el que enjuicia el saber teológico de los que se contentan con menos que él, en concreto aquellos a quienes basta la escolástica. «No quería saber más de Santo Tomás y los Santos y Soto y Cano, y no novedades ^^. Digo que esta manera de hablar es ordinaria de todos los que saben poco y se quieren persuadir que saben mucho, y se lisonjean a sí mismos y les parece que con tener diez pares de libros llenos de polvo en su aposento, y con llamarse maestros, han satisfecho al nombre de letrados, y en el resto pueden alargar la rienda al sueño y a la buena vida seguramente. Y pluguiera a Dios que éste y los tales como éste supiesen bien esos libros con que se contentan, y aún algunos menos, porque saber solos los santos era saber muy mucho. Pero es así que dicen que se contentan con esto, no porque lo saben, sino porque tienen los libros y les parece que con tenerlos y ver de año en año en ellos cualquier renglón, acaso saben ya a santo Tomás y a los santos, que los demás libros que tocan a las lenguas y ayudan al conocimiento de la Escritura, como no los entienden ni pueden hacer creer a otros que los entienden, no los tienen y desprécianlos, que es el último consuelo de los que no tienen alguna cosa ni la esperan tener, mostrar que no hacen caso de ella» ^^. A fray Luis le merecían respeto maestros como Cano o Soto, por supuesto santo Tomás, pero desdeñaba a quienes se daban por satisfechos con haberlos leído por encima o consultado ocasionalmente. En cuanto a los santos, no a todos tenía en igual estima. Celebra, por supuesto, la sabiduría de san Agustín, por la hondura que alcanza esclareciendo los misterios cristianos. En materia de exegesis, sin embargo, prefiere los trabajos de san Jerónimo. Dado que tome en cuenta para su teología a los maestros y a los santos, acepta su autoridad en forma crítica, entendiéndola subordinada a la que una y otra vez declara ser su razón de principio, es decir, la Escritura. Ciertamente fray Luis tendía a ser particularmente crítico con el modo de enseñanza teológica de la escolástica. Le disgustaba también su método expositivo. Lo que denuncia en esa crítica es un estilo restringido de argumentar, propio de una razón consignada a dominar exteriormente objetos. Esa razón, que venía aplicándose de antiguo al campo de la metafísica, redefinida, justo por obra de los calculatores, pasará a aplicarse metódicamente al estudio de la naturaleza, dando lugar a la ciencia física. Las vicisitudes por las que discurre en los siglos modernos, con sus fases en alza y en baja, nos son al presente bien conocidas. Fray Luis se mostrará renuente a seguir esa vía, aunque no renuncia a sus resultados. Buscará para el saber una base más comprensiva. La encuentra volviendo a lo natural originario o razón de principio de cuanto es y viene a ser. Eso natural originario es el locus, así como de toda realidad, también de todo conocimiento. Para las fechas en que escribe era usual referirse a una antigua sapientia o prisca theologia como sede de argumentación del saber genuino ^^. El de ese origen y no el ingeniado mediante industrias interpuestas, será el que merezca crédito en última instancia. Los otros saberes, los derivados de instancias interpuestas corresponden a tiempos que, olvidados de los orígenes, se contentan con articular residuos dispersos de conocimiento, cuyos frutos serán saberes degradados. La sanción de tal estado de cosas ha de pasar por recuperar aquel origen primero «en noche y en olvido sepultado». En los tiempos medios en que ahora vivimos, «anda revuelto todo este negocio del hombre», escribe fray Luis. Tiempos desmemoriados, en los que los afanes de la gente, a falta de nacer, crecer y fructificar desde y en el seno de la antigua sapientia, se distraen o pierden en fraguar moradas en lo efímero y procurarse bienes caducos. Aunque nada de eso sea despreciable, en el fondo fracasa en alcanzar lo que pretende. Asiento, forma y virtud de la sabiduría que asume todas las artes y ciencias La ciencia con méritos para comparecer ante la genuina sabiduría ha de entenderse como radicada en la Escritura. Ella es su documento primero e insondable, la fuente de la que todos los saberes, con títulos legítimos de tales, nacen. Sin esa razón de nacimiento, las invenciones humanas quedan en ser mediaciones sucedáneas para ocupar estériles Saturnino Alvarez Turienzo 490 discusiones académicas. En sí mismas y dejadas a sí mismas son tan vanas cuanto presuntuosas. Ahora bien, la sabiduría que se encierra en la Escritura es cifra y resumen toda ella del ser y obrar de Cristo, germen y fruto, alfa y omega, de todo lo existente. El Texto sagrado en el que se nos hace manifiesta esa totalidad es el de una escritura signada en lenguaje crístico ^^. La sabiduría que entiende en ese lenguaje será la buscada, la auténtica Teología. Naturalmente esto nos sitúa en el corazón de la religiosidad cristiana. Antes de seguir adelante quiero hacerme cargo aquí del posible rechazo por parte de algún lector. Habrá, en efecto, quien piense que el programa que en lo dicho se esboza es desorbitado. Adelantaré sobre el particular tan sólo lo siguiente: no lo es más que el de muchos filósofos que, sobre todo en fechas posteriores a fray Luis, dejan de lado la teología, aunque para desarrollar visiones contra-teológicas que se aventuran en esbozos semejante, sólo que enraizadas en algún elemento profano. Contando con éste, no encontrarán reparo en interpretar la historia entera (con todas sus artes y ciencia) «como nacida» de ese elemento, como crecida dentro de él y asimilada a su destino: toda la historia y todos los contenidos de ella conformados por la virtud de ese nuevo Señor; mismamente, un sustituto del Cristo luisiano. Volveré en su lugar sobre este punto.Contarán en efecto con algún tipo de naturaleza originaria (cosmos material, sociedad, historia...), desde la que, como agente radical o razón de principio, explicar el entero negocio de la humanidad. Lo que varía es la concreción del elemento identificador de dicha naturaleza originaria. Fray Luis habría presentado su visión religioso-crística al caso como antídoto contra los ensayos de explicación hechos en versiones profanas. Dos observaciones para situar la teología de fray Luis, tal como queda identificada, en el medio cultural en que vive. En la teología en cuestión se sintetizan las virtualidades de la conciencia religiosa renacentista. En concreto la de aquel humanismo para el que esa conciencia se resumía en laphilosophia Christi. Es una teología que rechaza la objetivación escolar de las creencias y la ritualización de las prácticas favorecidas en los siglos medios. Se valora el movimiento de época hacia la interioridad, si bien no se trata de la que desestima cuanto no sea la singularidad de uno mí&mo, para clausurarse en ella, lo que conduciría a la autosuficiente si^^bjetividad moderna. La subjetividad, en casos como el de fray Luis, exige sustanciarse en un radical más sustantivo que Artes y ciencias en la formación de Fray Luis de León.. ella misma. Se trata, conforme hemos hecho notar del radical-Cristo, respecto al cual podría recordarse la conocida expresión agustiniana: interior intimo meo et superior summo meo (Conf,,III,6,11). Donde se entenderá que Cristo es para el hombre como el «alma de su alma», también pensamiento agustiniano, pero que fray Luis repetidamente hace suyo. De ahí su repudio de lo que antes he llamado «conciencia amnésica» o memoria perdida de los orígenes. Pérdida que equivaldría a olvidar en la propia existencia lo que en ellas es más radical (interior et superior) que ella misma ^^. El todo de la economía de salvación cristiana puede resumirse en la sentencia repetida desde los primeros siglos de la Iglesia. También por san Agustín: Factus est Deus homo, ut homo fieret Deus (C. Litt. Esa cita podría dar lugar a mover una arriesgada conjetura dentro de este desarrollo. A saber, la de si no habría que ver la teología de fray Luis cargando el énfasis de tal forma en el hombre-dios que parecería rebajado el Dios-hombre; o, dicho de otro modo, acentuando la naturaleza humana asumida (deificándose) dejando desdibujada la naturaleza divina encarnada (humanizándose). La discusión de ese tema, por cierto de gran calado doctrinal, podría merecer la pena, sobre todo teniendo en cuenta los indicios inductores a tratarlo que se derivarían de una lectura atentan de la obra luisiana. Indicios como, por ejemplo, el de encontrar, entre los «estropiezos» de que fue acusado, el de haber puesto en duda la venida del Mesías. Semejante acusación, como es lógico, solivianta a nuestro fraile, aunque, en el modo como se defiende de ella, resulte revelador el hecho de que insista en honrar la humanidad de Cristo. Todo queda, no obstante, contrarrestado en ese mismo lugar al defender la tesis escotista, según la cual el Verbo se habría encarnado aún sin el pecado de Adán ^^. Podemos dar aquí por identificada la personal concepción del saber que caracteriza a fray Luis, concretamente su saber teológico. Queda, asimismo, delineado en sus términos genéricos al perfil que define su modo de pensar. O sea aquello en que, en última resolución, se sustancia su sabiduría. También queda indicado que esa sabiduría engloba la enciclopedia entera del momento. Esto era al menos a lo que el propio fray Luis aspiraba. Mas sabemos que no entendía la diversidad de saberes como niera acumulación externa o como algo sólo articulado por industria. Verá, más bien, las ciencias, los saberes industriados por el hombre, como orgánicamente jerarquizados y nacidos de un principio animador común y último. A tal efecto lo que hace es obra depuradora de los que encuentra a mano. Los selecciona y los organiza. El cometido Saturnino Alvarez Turienzo 492 final de esa obra es el de elaborar el humanismo teológico-crístico de que hemos hecho mención. No es el caso de suscitar aquí la especiosa discusión sobre los méritos comparativos que encontramos en la variada obra del maestro. Y menos enfatizar los poético-literarios, que nadie discute, pero que algunos contraponen a los que se le deben como experto en ciencias sagradas, y en demérito para lo que significó en estas últimas. Como la unidad es «el pío general de todas las cosas» en lo creado (NC, I, p. 392), hemos de pensar que lo es también en sus escritos. De considerar éstos en su conjunto y vinculados a la que ñie dedicación de su vida, hemos de entender que su vocación de teólogo absorbe todo lo demás. Consecuentemente, admitir que ñie «antes sabio que poeta», al decir de Pfandl. O bien asentir al verso de Lope de Vega: «tu prosa y verso iguales». No casa bien con el solo poeta, al menos si atendemos a sus rimas originales (no a las versiones) el verle como «alma hebrea» (Vossler), cual corresponde a un teólogo cuya «doctrina se basaba del principio al fin en las Escrituras» (Parker), y en la que de continuo aparecen «secretas afinidades con el espíritu de los profetas y del Salmista» (Bataillon). Atendiendo a su condición de sabio-teólogo hemos de hacer notar que lo fue no al estilo usado en las academias. Y eso es lo que se quiere decir al filiarse a un humanismo teológico-crístico. Más que notable su capacidad de reflexión, cuidó de equiparse con toda suerte de conocimientos. Gozaba de gran prontitud de genio para formarse opinión al discutir los problemas que ocuparon su vida universitaria. Expuso con audacia sus puntos de vista, mostrándose tenaz en mantenerlos. Era más de su agrado ocuparse en el saber teológico positivo, para el que se requerían destrezas de filólogo. En ese campo sentía moverse sobre seguro, lo que le facultaba para pronunciarse con audacia y sobre cuestiones que para el tiempo eran más que vidriosas. Tal fue el caso de las enseñanzas vertidas en su curso De fide sobre la autoridad del texto de la Vulgata ^^. En ese punto y otros de materia parecida fue tajante en sus juicios, a menudo contracorriente, sin que desistiera de ellos aun en los años de prisión inquisitorial. Incluso entonces, se mostró «duro de cerviz», convencido de que a la postre «la verdad y la justicia es lo que triunfa». Se le veía, en cambio, menos inclinado a la especulación que suponía el debate de cuestiones. Sobre teología escolástica no publicó tratado alguno. Lo que en ese terreno conservamos de él son lecciones de cursos en apuntes de sus oyentes, lecciones que él nunca elaboró para darlas a la imprenta. La teología que dio al público la concibió a su Artes y ciencias en la formación de Fray Luis de León. modo, el consonante con la plática humanista, como aparece en De los nombres de Cristo, Modo abierto de tratarla, y en viva comunicación con la Escritura, su fuente. Fray Luis entiende que ése, y no el de sus contrarios, es el modo legítimo de exponerla. La escribe en romance y en estilo dialogado, conforme a los gustos renacentistas y al espíritu que representaba su generación. De esa escritura, que advertía minusvalorada por apartarse de los cánones académicos, dice: «Los que esperaban mayores cosas de mí, si las esperaban porque me estiman en algo, yo les soy muy deudor; mas si porque tienen en poco aquestas que he escrito, no crean ni piensen que en la Teología que llaman se tratan ningunas ni mayores que las que tratamos aquí, ni más dificultosas, ni menos sabidas, ni más dignas de serlo. Y es engaño común tener por fácil y de poca estima todo lo que se escribe en romance...» La teología por la que ahí se pronuncia fray Luis se sustancia en desvelar la insondable riqueza que se esconde en Cristo y que se pone de manifiesto en los nombres que se da a sí mismo en la Escritura. Semejante teología, según esto, no se elabora sobre categorías abstractas y edificios de razones, sino en categorías concretas expresadas en nombres. Nombres naturales, que convengan a lo que dicen como de ello nacidos; no nombres adventicios o puestos desde fuera para decirlo. De ahí que el oficio del teólogo sea más el del filólogo que el del lógico. El elemento en que, para su reflexión, se mueve firay Luis es el lenguaje. Por lo que puede calificarse su pensamiento de «onomástico». Tal manera de pensar no representa anomalía alguna si atendemos o lo que era usual dentro de las prácticas filológico-humanistas del momento. A la vez consuena con las que al presente han reactivado las filosofías de filiación hermenéutica ^^. La teología que expone fray luis ofrece, pues, rasgos particulares. Es la consonante con el medio natural de la granja «La Flecha», donde la medita, por contraposición a la que se expone en las cátedras universitarias. Podría entenderse aquella como expresión de la litterata pietas, que era el ideal de los cristianos ñustrados de la época. Tendría más que ver con lo que (por servirme de una conocida distinción kantiana aplicada a la filosofía) valdría llamar «teología mundana», por contraste con la «teología académica». Aquella sería para fi^ay Luis la genuina, y esta otra la espinia, la «desmemoriada»: «la teología que llaman», dice irónico. Podríamos pasar ahora a decir algo, más de propósito, sobre la extensión de sus conocimientos, así como sobre el modo de administrarlos. Expondré esto en los dos apartados siguientes. 6, Artes y ciencias cultivadas por fray Luis El perfil general de lo abarcado por la formación de nuestro fraile nos lo ofrece el retrato literario que de él hizo Francisco Pacheco. Copio el pasaje en que habla de su condición de sabio. «Famoso matemático, aritmético y geómetra; y gran astrólogo y judiciario (aunque lo usó con templanza). Fue eminente en el uno y otro derecho, médico superior, que entraba en el General con los de esta Facultad y argüía en sus actos. Fue gran poeta latino y castellano, como lo muestran sus versos. Estudió sin maestro la Pintura, y la ejercitó tan diestramente que entre otras cosas hizo (cosa difícil) su mismo retrato. Tuvo otras infinitas habilidades, que callo por cosas mayores. La lengua latina, griega y hebrea, la caldea y siria supo como los maestros de ellas. Pues la nuestra, ¿con cuánta grandeza? Siendo el primero que escribió en ella con número y elegancia...» A esta tirada de excelencias preceden las líneas siguientes, que pueden valer por resumen, y que son inmediatamente aplicadas a su profesión de teólogo: «Supo escolástico tan aventajadamente como si no tratara de Escritura, y de Escritura como si no tratara de escolástico. Fue la mayor capacidad de ingenio que sea conocido en su tiempo para todas Ciencias y Artes» ^^. Es claro el estilo apologético de ese pasaje. No se trata por tanto de tomarlo a la letra, mas tampoco darlo de lado como inaprovechable. Habría que adentrarse en el escrutinio de sus escritos para ver si en ellos se confirma la superior capacidad de ingenio en todas las Ciencias y Artes de que habla Pacheco. Algo apuntaré a ese respecto más adelante. De momento añadiré otro testimonio, éste del propio fray Luis, en el que se viene a decir lo mismo. Data de 1579, de cuando, salido ya de la cárcel, oposita a la cátedra de Biblia. Dentro de un contexto en el que se refiere a su preparación y méritos para ocupar el puesto al que aspira, escribe: «Los que me conocen y tratan saben que ha sido éste mi principal estudio desde mi niñez; y como fue este estudio siempre mi fin, así anduve siempre a él los demás mis estudios. Y porque deseaba entender las Letras divinas, y sabía que para esto era necesario, con la noticia de la Teología escolástica y con la lección de los Santos, el conocimiento de las lenguas y de la historia y de las demás letras humanas, y con ellas también la elocuencia, no comencé a aprender los principios de la gramática griega o hebraica seis meses ha, sino desde mi primera edad me apliqué al estudio de todo esto que he dicho, y no estoy arrepentido del trabajo que he puesto ni de lo que en ello he aprovechado... Cuanto al estudio de la Escritura he gastado en él casi toda mi vida» ^^. El pasaje consuena con el que (estando preso, el año 1573) en situación de tener que defenderse de la acusación de desdeñar la escolástica y los Padres, hemos transcrito páginas atrás (485)(486). No creo que sea este el lugar para ponerse a espigar páginas que acrediten en fray Luis el caudal de conocimientos que le atribuye Pacheco, y que él mismo pide para merecer el título de teólogo. Más importante sería hacer notar la jerarquía en que los dispone. Algo hemos dicho sobre ese particular. Mayor interés aún tendría las razones con arreglo a las cuales distribuía esa estima. Aunque vea que, con el correr del tiempo se lleguen a conocer más cosas, supedita la autoridad de la sabiduría a la antigüedad de su origen ^^. En todo caso, añadir que ese cúmulo de saberes no se dio en fray Luis como resultado casual, sino como fruto de un tirocinio acucioso y perseverante, expresamente intentado. Pudo declarar de sí mismo: «Ha treinta años que soy fraile, perseverando siempre en mi religión y en estudios y ejercicios loables, y que ninguno de cuantos hay en ella tan ocupados y trabajados, como yo, en estudios...» Entendió la dedicación al estudio como una actividad de por vida ^^. Acomodo de todos los saberes dentro de su visión teológica Huelga insistir en que fray Luis ve siempre los conocimientos que pueden tener interés para el hombre en relación con la Escritura. Debidamente entendida, ella constituye el semillero de los saberes ^^. Estos, aunque cultivados por sí mismos puedan rentar ciertas utilidades, sólo darán todo su fruto puestos a servir a la sabiduría que es su origen. Y puesto que el mensaje que encierran los Textos sagrados se sustancia en declarar la economía del universo recapitulada en la misión y obra de Cristo, en «saber mucho de Cristo» se resume «cuanto el humano entendimiento puede entender y le conviene que entienda». La teología luisina, en consecuencia, será definidamente cristológica ^^. Algunas ambigüedades del maestro en la exposición de ese cristologismo, y sobre todo el énfasis con que lo defiende, han dado base a ciertos de sus intérpretes para hacer derivar su doctrina hacia la visión de una «cristogénesis cósmica». Nada más fácil que hacerla deslizar en dirección de una imagen cuasi-religiosa, que hace de Dios un principio endo-cósmico. Ese principio diría exotéricamente todo lo que de verdad y virtud confesaba la fe esotérica cristiana. El hijo del hombre (el nuevo hombre), actuado en toda su potencia, vendría a hacer superfino al hijo de Dios. La «asunción» por el mundo a través del hombre Saturnino Alvarez Turienzo 496 de la economía salvadora, ya sólo intrahistórica, evacuaría la encarnación y cuanto en ella se supone. Estaríamos ante el «Cristo de los filósofos» ^^ Estos serían «espíritus fuertes» que, libres de tutelas de autoridad, injertarían la obra entera de la cultura en el tronco de la emancipación del sujeto humano, vinculándola al progreso o consumación endocósmica de la especie. Así, desde Lessing o Rousseau, pasando por Hegel, hasta hoy. Ocasionalmente usurparán la hebra de esos filósofos los practicantes de unas u otras ciencias que presumirán haber encontrado en la mundanidad del hombre, en sus intereses y capacidades, la instancia última en que apoyar el edificio entero de la sociedad o de la historia. Expediente reductive que acaba con el enigma cuya solución había ocupado a las religiones. «El hombre es para el hombre el ser supremo». Así, desde el Novum organum baconiano: hom.o homini Deus, Lo que semejante reducción evacúa es el cielo religioso (también el platónico). Se dará por consumada la crítica de esos cielos, haciendo desaparecer hasta sus últimos vestigios. Queda, como consigna para el existir del hombre la «fidelidad a la tierra». Me ocurre a veces pensar que la atracción que suscita la personalidad de fray Luis entre cierta intelectualidad (cuando le conoce) proviene de lo paradigmático que se encuentra su camino de sabio, abstracción hecha de los contenidos de su sabiduría (que, por lo común, esa intelectualidad ignora). La razón de ese atractivo, a la luz de lo indicado, resulta palmaria. La corriente de filósofos y científicos sociales aludidos traduce, de lo divino a lo humano, un pensamiento que, en esquema viene a ser el mismo. El paradigma de referencia, que era de factura religiosa, se convierte en paradigma secular. Su puesto y funciones serán las mismas. Los de un «Cristo» para el que se ofrecerán identidades varias. Desechada la que le reconoce como Verbo de Dios, vienen las que le suplen con deificaciones de esencias o potencias desdiosadas. Volvamos de nuevo a fray Luis. Puestos en su tiempo y metidos dentro de su profesión, nada más lógico que verle relativizar el valor de artes y ciencias, de prácticas y ritos, de todo el saber y el hacer del hombre, no nacido de su fuente originaria: la sabiduría de la Escritura y el Cristo en ella revelado. Aquellas otras cosas de invención humana podrán, y hasta deberán, ser recibidas por útiles y aún necesarias, mas «no son bastantes ni poderosas» para ofrecer lo que presumen (NC, «Príncipe de la Paz», II, p. Consecuentemente con ello será la declaración propia de un profeta indignado, con que concluye su comentario castellano al Cantar. «En descubrir ya Cristo su luz y resplandecer enteramente por el juicio en el mundo, está el remate de todo su mando... Cada cual de nosotros, si somos miembros de Cristo y si nos cabe parte de su divino Espíritu, debemos continuamente pedirle: que le plega, aunque sea a costa y riesgo nuestro, aunque sea a costa de asolar las provincias y trocar los reinos y poner a sangre y a fuego todo lo poblado y de trastornar el mundo, rompiendo sus antiguas y firmes leyes, que le plega, allanando por el suelo los montes y cerros, venir volando a deshacer las aft-entas y baldones que cada día recibe sus santo Nombre y honra» ^^. Cualquiera otra instancia de unificación y consumación de lo existente, tomada de entre los elementos mundanos, al modo como puedan intentarlo las filosofías o ciencias emancipadas, con la pretensión de ser tribunal universal que todo lo juzga, se entenderá como descarrío. Podemos cifi:-ar ahora el núcleo de la cristología de firay Luis en la sentencia de san Pablo escribiendo a los gálatas: vivo, inquit, iam non ego, sed vivit in me Christus (Gal. He ahí la interioridad que en cada hombre es más interior a él que la de él mismo. Cristo en cada hombre es su absoluto y más íntimo ser y la ñiente originaria de su virtud. Será como el alma de su alma, comunicando a ella no sólo la gracia, sino a sí mismo. Con ello se da cumplimiento a la razón de haber hecho Dios comunicación de sí mismo en lo creado, singularmente en la criatura racional, que alcanza a «hacer dioses a los hombres» (NC, «Amado», p. Lo que se dice ahí propiamente del hombre puede extenderse a todas las criaturas, a cada una con arreglo a su grado de perfección. «Cuanto a número de las [criaturas] que se le ayuntan [al Creador], clara cosa es que, en los bienes de naturaleza, todas las criaturas se avecinan a Dios; y solas, y no todas, las que tienen entendimiento, en los bienes de gracia; y en la unión personal, sola la humanidad de nuestro Redentor Jesucristo; pero, aunque con sola esta humana naturaleza se haga la unión personal propiamente, en cierta manera también, en juntarse Dios con ella, es visto juntarse con todas las criaturas, por causa de ser el hombre como un medio entre lo espiritual y lo corporal, que contiene y abraza en sí lo uno y lo otro; y por ser, como dijeron antiguamente, un menor mundo o un mundo abreviado» (NC, «Pimpollo», I, p. Visión religiosa que tienta, en efecto, a hablar de un «Cristo cósmico», y que, de no renunciar a servirse de ese lenguaje, sería mejor traducirlo por el de un «cosmos crístico» ^^. Tal es el medio en el que se expresa el «pío general de todas las cosas». Desde esa concepción teológica, que tiene a Cristo, en lo absoluto, «enteramente por el juicio del mundo», será la cuestión de entender los juicios que contienen los saberes que se mueven en lo relativo. No se niegan las artes o las ciencias, pero advirtiendo que, dejadas a sí mismas y a lo que de suyo pueden, no bastan a satisfacer aquel pío general de las cosas. Cerradas en su propia lógica, incluida la teología con su lógica escolar, tendrán el título de ciencias o artes, pero sin la genuina realidad de tales. Aplicando ese criterio, las ciencias y las artes le merecen a fray Luis tanto menos crédito cuanto de creación más nueva o de mayor artificio. En este punto su modo de pensar puede sonar a arcaizante. La antigüedad de una manifestación de cultura se acepta por legitimadora de su autoridad. Lo que ocurre, tanto si se trata de los oficios u ocupaciones artesanas, como si se atiende a las doctrinas (ciencias), o bien a las prácticas (política). Los que se tienen por «adelantos» en cualquiera de esas esferas, en resumidas cuentas y todo contado, serán simplemente invenciones espurias al no originarse en el principio del que están llamadas a nacer. Mas la vuelta a los orígenes que propone fray Luis casa mal con la acusación que se le hizo de ser «amigo de novedades». Habrá de tomarse esa «vuelta» en el sentido de evitar o corregir el curso seguido por unas culturas que, sea debido a su origen o bien a su ejercicio, aparecen viciadas. El arcaísmo de que puede hablarse al respecto, como lo prueban intentos análogos posteriores, en realidad será lo contrario: germen de renovación y de progreso. Hecha la anterior observación sorprenderá menos ver a nuestro autor pronunciarse, contra las invenciones «modernas», por «lo antiguo, humilde y llano». Así, respecto al cuidado de la naturaleza, antepone la agricultura a la industriosidad o las mercaderías ^^. En lo que toca a las cosas morales, relega aquellas prácticas que se contentan con poner fomentos por fuera (remedios ascéticos y observancias externas), privilegiando las que conducen a la animación interior. En lo político, critica los regímenes ordenados bajo leyes puestas o mandatos de autoridad, anteponiendo a ellos el que entiende como «gobernación de la ley viva» ^°. Le vemos, en un extremo, mostrando el oficio de pastor solícito por su rebaño como ejemplo de lo que ha de ser el gobernante atendiendo al pueblo que rige. En el extremo contrario, ironiza, sobre las bondades que pueden encerrar inventos como el de ingeniar una torre para elevar el agua desde un río ^^. Por arcaizantes de parecido linaje habría que tener a pensadores más cercanos a nosotros, y tan inñuyentes como Vico o Rousseau, Artes y ciencias en la formación de Fray Luis de León... La nota de arcaísmo no mermaría su significación intelectual. No los veríamos ocupados en retrasar el reloj de la historia. Lo que con esa nota se indica es su oposición a «progresos» mal encaminados. Los derivados del espíritu moderno, sobre todo si se identifica con el tipo de conocimiento característico de lo que en ese periodo se entendió por ciencia. Sabemos que esa ciencia elimina cuanto signifique entender la naturaleza ex analogía hominis, en el sentido de desalojar de ella todo vestigio de alma. Lo que tiene que ver con el alma quedaría para los discursos que se pronuncian extrafiíero de la ciencia. Es como en ese periodo moderno vino a consagrase la escisión de las llamadas «dos culturas»: cultura científica/cultura humanista. 8, Una teología que toma partido Terminaba la sección precedente introduciendo el tema de las «dos culturas». Habría que distinguirlas, desde luego, por los contenidos en ellas cultivados, pero también, y antes que nada, por el modo de hacerlo, o sea, por la diversa disposición mental ante la realidad. La incómoda posición que firay Luis mantuvo en su carrera universitaria, a causa de lo que él llamaba «pleitos y pretendencias de escuela», así como las denuncias y la cárcel que sufiió, no se debían a que profesase unas u otras doctrinas. Aunque algunas de éstas pudieran ser audaces o peligrosas para ser expuestas a la sazón, por ninguna de ellas ñie condenado. Lo que le convirtió en sospechoso ñie el tipo de mentalidad que le definía, y el haber tomado partido por la cultura de ella derivada. Desde el comienzo de estas páginas hemos ido viendo aparecer la contraposición entre escolásticos y humanistas. Saturnino Alvarez Turienzo 500 abocaría a la situación a que se llegó al final de los siglos medios: escolástica formalista e inánime de los nominales, contra la sabiduría vivencial e inarticulada de la devotio moderna. Para una teología completa y madura habría de contarse con la doble tendencia, aunque quedara abierto el problema de decidir a cuál de ellas dar en última instancia la primacía. Conocemos la opción de fray Luis. A saber, la sabiduría practicada por los «santos», resuelta a su vez en el conocimiento de la Escritura, y en entender al servicio de ésta lo demás. Sustanciado todo ello en «saber mucho de Cristo». Ya en ese terreno, notamos cómo tendió a poner el acento en su obra deificadora del hombre y recapituladora de todo lo creado. También, que esa obra no puede cumplirse fuera del supuesto de la encarnación. A la deificación del hombre previene la humanización de Dios. Comprendía muy bien el maestro que nada podría ser cosechado como consumación si nada había sembrado como incoación. El capítulo «Pimpollo», dentro de los Nombres, contiene su argumentación esencial a este propósito. Estas afirmaciones se hacen con toda naturalidad. Pero en ellas se tocan o insinúan los problemas más arduos de que siempre se ocupó la Teología. Son, por lo que atañe a la cristología, los de la naturaleza divina encarnada y la naturaleza humana asumida (dos naturalezas en una persona), y por lo que se refiera a la obra ad extra de la Trinidad, los de la creación y la redención. Ulteriormente habrá que estudiar el modo de relacionarse la doble dimensión teológica que entra enjuego. Creación y redención pueden llegar a entenderse de tal manera que cada extremo haga innecesario al otro. Lo mismo vale para el caso del Verbo humanándose y el hombre deificándose. La historia del dogma acredita la dificultad que ha supuesto articular los dos lados de cada cuestión. He aludido antes a filosofías que, a modo de cuasi-religiones en lo profano, se pronuncian por alguna suerte de redención sin creación, o bien fomentan procesos divinizadores de la humanidad excluyendo cualquier presencia de virtualidades divinas. En situación parecida se encuentran las últimas cuestiones filosóficas. En el campo epistemológico, por ejemplo, hay una concepción de la ciencia cuyo modelo es la acción creadora, que ordena según número, peso y medida lo informe. Lo que se asemeja al proceso de encarnación de algún logos; y hay la otra concepción (también de la ciencia), que respondería al modelo de redimir, y que habría que asociar a procesos de autorrealización. Añadiré a este respecto un inciso para salir al paso de lectores que puedan tachar de forzado el acercamiento que aquí hago del pensamiento de fray Luis, en lo que tiene de énfasis en la originaria virtud de Cristo para la obra de consumación humana, al de las filosofías praxiológicas posteriores. Presentar las cosas bajo ese ángulo permite tocar en su núcleo más vivo la originalidad de su obra. Por otra parte, dicho acercamiento creo que puede tener un efecto clarificador de las respectivas visiones de la realidad, no sólo la del maestro salmantino. ¿Y que decir de la utilización de nociones que nombran dogmas religiosos para discernir posiciones tocantes a campos de investigación que caen dentro de lo profano? Recordaría a este respecto la sorpresa de Proudhon al ver de continuo presente la teología en el fondo de las discusiones políticas. Y seguiría preguntando: ¿por qué sólo en el fondo de las cuestiones políticas? ¿No sucede lo mismo con la filosofía? Me gustaría conocer el modo de rebasar ese horizonte teológico al interesarse por la última razón de la ciencia o, generalizando, por cualquier manifestación de la cultura. Incluyendo en todos estos casos las versiones contrapuestas que sus problemas reciben. Será ya cuestión de cerrar mi discurso, Mas no quiero hacerlo sin referirme a un nuevo cuadro de categorías, usado también por fray Luis para ofrecernos su visión de la realidad, y que parece no concordar con las del cuadro en que hasta ahora hemos insistido. Aludo a la recepción que en él encontramos de la cultura pagana, en concreto la de tradición greco-platónica. La contraposición se establece aquí entre el mundo de la idea y el de la materia. Elemento divino el primero y mundano el segundo. En Platón el mundo de la idea recibe absoluto privilegio. Su comunicación con el de la materia será apenas una sombra de presencia en él. Lugar éste del olvido, entra enjuego el ejercicio de la reminiscencia o memoria de la región de la verdad y el bien, el único a salvo y sin que lo de fuera pueda salvarse. La visión platónica admite un modo de creación, mas no deja espacio a la redención. Ofrece un remedo de la encarnación, pero sin que lo pálidamente encarnado tenga virtud asumptiva deificadora. Esta esquemática da un aire a la doctrina teológica que hemos visto expuesta por fray Luis. Ello le permite aprovecharlo, aunque tenga que someterlo a transformación. En ciertos pasajes de la obra luisiana aparecen la contraposición platónica aludida. Ocurre como respuesta a la condición de olvido en que la humanidad se ve sumida. Saturnino Alvarez Turienzo 502 «Cuando contemplo el cielo de innumerables luces adornado, y miro hacia el suelo de noche rodeado, en sueño y en olvido sepultado...» ^^ Cielo/suelo, luz/noche, bien divino/cárcel oscura... Dos mundos que parecen incomunicados. En medio, la tensión del alma que suspira por el primero y huye del segundo. ¿Cómo entonces se hace posible la redención o el proceso de deificación? Pregunta semejante puede provocar una subverción de los aprecios. Puesto que donde estamos es en el lado de acá, y lo que ahí ocurre es lo que realmente nos concierne, busquemos nuestra propia manera de redimirnos y deificarnos. Busquemos realizarnos en y con lo que tenemos, sin ayudas divinas ni señuelos celestiales. Gran parte del pensamiento contemporáneo expone una visión contra-platónica. Supone, de nuevo aquí, una radical «crítica del cielo». El desafío que semejante situación supone para un teólogo no requiere ser enfatizado. Fray Luis se ha situado de entrada en la otra orilla. Su problema será el de ver el modo de aceptar a Platón, sin que implique renunciar a Cristo. Nuestro autor rechaza la crítica reductora del cielo. Acepta el dualismo platónico, pero lo resuelve recurriendo al agonismo de Cristo que hace del alma su «vivienda» y la capacita para recuperarse del olvido en que está sumida en el suelo y luzca su memoria del cielo. En efecto, entiende el alma compuesta por dos partes: una divina, que mira al cielo; otra, que mira a la tierra y se comunica con el cuerpo. Son de condiciones contrarias. De ordinario se hacen guerra. En el cuadro que ahí se nos presenta parece que la armonía va a ser desesperada. Es cuando entra en escena Cristo comunicando al alma su ley, su virtud y su persona misma. Viene primero de asiento a su parte más elevada, pero asume también a la que mira a la tierra. Procede purificándola y elevándola por grados, que reflejan los de su nacimiento y crecimiento en ella: los de principiantes, aprovechados, perfectos, hasta hermanarse los contrarios. «... En nuestra alma, como sabéis, hay dos partes: una divina, que de su hechura y metal mira al cielo, y apetece cuanto de suyo es, si no lo estorban u oscurecen o llevan, lo que es razón y justicia: inmortal de su naturaleza, y muy hábil para estar sin mudarse en la contemplación y en el amor de las cosas eternas. Otra de menos quilates, que mira a la tierra y que se comunica con el cuerpo, con quien tiene deudo y Artes y ciencias en la formación de Fray Luis de León... amistad, sujeta a las pasiones y mudanzas de él, que la turban y alteran en diversas olas de afectos... Estas dos partes son como hermanas nacidas de un vientre en una naturaleza misma, y son de ordinario entre sí contrarias, y riñen y se hacen guerra... Y son propiamente la una como el cielo, y la otra como la tierra... Cuando el alma aborrece su maldad y Cristo comienza a nacer en ella, pone su espíritu como decíamos, en el medio y en el centro, que es en la sustancia del alma, y prende luego su virtud en la primera parte de ella, la parte que, de estas dos que decíamos, es la más alta y la mejor. Y vive Cristo alK en el primer estado de este nacimiento... Y este es el estado segundo que dijimos, en el cual el espíritu de Cristo vive en las dos partes del alma; en la primera que es la celestial, santificándola o, si lo habemos de decir así, haciéndola como Dios; y en la segimda que mira a la carne, apurándola y purificándola de lo carnal y vicioso...» (Y así, hasta que por fin) «se hermanan las dos partes del alma que decimos, y el sentido ama servir a la razón». (Y Cristo), «que nace y vive en estas dos partes» (hace verdad el dicho de san Pablo): «Vivo yo, ya no yo, pero vive en mí Jesucristo» (Gal. En él se dice cuanto tiene de nuclear la teología de fray Luis. En las páginas precedentes hemos presentado a fray Luis de León formando parte del grupo de intelectuales y estudiosos que prestigian nuestro siglo XVL Es, en concreto, personalidad relevante de la que distinguimos, por razón de la fecha de su nacimiento, como «generación del 27». Queda señalado lo que de singular dentro de ella tiene su pensamiento. En concreto su diferencia con el oficial, junto con la relación ambivalente que mantuvo con él, con la escolástica académica. De paso, me he referido al aparente arcaísmo de ese pensamiento, y a cómo, no obstante, advertimos una marcada afinidad entre él y el que ha venido a ser dominante, cambiada a clave profana la que fuera religiosa, en significativas corrientes filosóficas posteriores. La teología luisiana era definitivamente cristolégica. Dentro de esa teología es básica la doctrina del Verbo que se encarna y la de la naturaleza humana por El asumida. Dios se hace hombre para hacer al hombre Dios. Dicho en otros términos: El cielo se allega a la tierra; mas no para quedar forastero-rostro-pálido en ella. La habita (habitar transitivo, no acampar estacionado) hasta volverla cielo... El equilibrio deseable entre los opuestos que ahí aparecen no es fácil de conseguir. Indicábamos que el propio fray Luis deja una sombra de ambigüedad al respecto debido al acento que pone en el proceso deificador del hombre. Un desequilibrio en contrario podría achacarse a la Teología escolástica que, tal como se presenta en su forma oficial, ha podido ser acusada de defender en tal forma la soberanía de Dios que desconoce o niega la realización del hombre. El debate de ideas, sus críticas y contracríticas, en este ámbito en que se dirimen últimas posiciones ante la realidad, ha dado en la historia mucho juego. Partidas «entre sí contrarias, que riñen y se hacen guerra», son las de un ciencismo académico contra un humanismo mundano. Del primero, que, en la circunstancia de fray Luis, era el escolasticismo estricto, de extremarse, no habría que esperar otra cosa que el título de ciencia sin realidad. El caso segundo nos lleva al polo opuesto. Es el de aquellos que, al presente, ofician de posmodernos radicales y se conducen respecto al «desiderario» («sin astros» moderadores) de los humanos del mismo modo que lo hicieran los alumbrados del tiempo de fray Luis con la caótica de sus almas. Semejante situación fue entonces, como lo es ahora, provocadora de malestar, para la que, igualmente, entonces como ahora, se buscó o busca alivio. Ello plantea el problema de encontrar una vía media que posibilite llevar a coincidencia los opuestos. Las páginas que preceden han tratado de mostrar cómo resuelve Luis de León ese problema. Es ilustrador al respecto ver cómo lo hacen con posterioridad a él aquellas filosofías que, si bien sobre supuestos antagónicos, practican estrategias argumentativas similares. Sea ejemplo de esto último Herbert Marcuse, filósofo mundano (fiel a la tierra, si los hay). Tomemos como obra característica suya Eros y civilización. Notemos cuál es el elemento originario en que se mueve (eros), y cómo encuentra opuesto a él la «civilización». Todo su problema consistirá en resolver la tensión entre los dos principios (en diálogo con Freud: principio del placer/principio de la realidad), lo que se conseguirá sólo si se llega a entender el segundo «como espontáneamente nacido» del primero, no exterior a él y reprimiéndolo. Al referirme al caso de Marcuse intento simplemente sugerir que el modo de pensar que refleja en su obra y el movimiento que la imprime son análogos a lo que dejamos descritos con relación a fray Luis. Sólo que éste se mueve en un medio religioso celeste, y aquél en el opuesto terrenal profano: un cristo mundanal erótico, contra el Cristo celestial Logos ^^. Fray Luis de León, por otra parte, es muestra de cómo conseguir armonizar las dos tradiciones culturales a la sazón en activo: la profética (hebrea) y la filosófica (griega). Las armoniza privilegiando la tradición hebrea. Lo que habría sido dificultoso, de contar únicamente con el mesianismo terrenalista del Antiguo Testamento. Se hace viable esa posibilidad al entrar en cuenta el Testamento Nuevo, que, para la ocasión presente, podemos ver sintetizado en el prólogo al Evangelio de san Juan. El Mesías celeste se encama, asimae la naturaleza toda, singularmente la himiana, y se constituye en vínculo de comunión imiversal. Comimión entre patria (suelo de lo que se genera) y el reino (cielo de lo inmortal divino). Tal es la especie singular de «odisea» (ya que, en fray Luis, como tal, y no como cortante «éxodo», ha de figurarse el destino de «toda esta fábrica del Universo»), en cuyo ámbito han de entenderse producidas, «como nacidas», nuestras Artes y Ciencias, cuanto entendemos por cultura himiana. Entenderemos asimismo que todo es de la casta de la que de raíz viene; tendrá la forma del principio animador común; y a la consimiación de ese principio se ordena. En esto se resuelve el radical-cristianismo luisiano. ^ Con el mote de «tibetanización» aludo al diagnóstico cultural del periodo, hecho por J. Ortega y Gasset: Obras completas, Alianza Editorial-Revista de Occidente, Madrid, 1983, VIII, págs. 355-356; Ibid., pág, 87; Obras, IX, pág. 133. ^ Cfr. BATAILLON, M.: Erasmo y españa. ^ ANDRES, M.: Historia de la mística de la Edad de Oro en España y América, BAC, Madrid, 1994, pág. 68. ^ La frase entrecomillada figura como título de la colaboración de María Paz ASPE en Homenaje a Pedro Sainz Rodríguez, Fundación Universitaria Española, Madrid, 1986: IV, «Estudios teológicos». ^ Sobre la enumeración que sigue puntualizaría dos cosas. Primera: El asociar los números 1 y 2 a los nombres de Bartolomé de Medina y Benito Arias Montano se debe a que se trata de personajes cuyas biografías se cruzan insistentemente con la de fray Luis. Se hace de Medina el representante de la escolástica, porque como tal figuró en la historia que aquí interesa. Es sabido, además, que el fraile dominico^ ftie, junto con León de Castro, el acusador más enconado del agustino ante la Inquisición. Colección de documentos inéditos para la Historia de España, por Miguel SALVA y Pedro SAINZ DE BARANDA, Madrid 1847, vols. X-XI. Las declaraciones de Medina y Castro, en X, págs. 5-18, y passim. (Cuando, en adelante, se cite esta Colección se hará abreviando el título en: DI.) Hay edición reciente de esos «Documentos»: El proceso inquisitorial de fray Luis de León, ed. intr. y notas de Ángel ALCALÁ, Junta de Castilla y león. Puntualización segunda: se dan en la época otras corrientes de ideas. Para mi exposición son subsumibles en las indicadas. Aparecerán en el desarrollo, en todo caso, aquellas escuelas antiguas que renacen a la sazón, entre las que deberá tenerse en cuenta de modo particular la platónica. (Nótese que los nombres que pueden representar a platónicos y aristotélicos son S. Fox Morcillo, nacido en 1528, y G. Cardillo de Villalpando, en 1527; los dos, por tanto, de la generación de fray Luis.) ^ Dentro de ese pensamiento puede fray Luis hacer de los poetas los teólogos de los gentiles: «Unde videmus narrationes poëtarum, qui fuerunt veluti theologi gentilium...» {Tractatus de sensibus sacrae Scripturae, en Reportata Theologica [Opera, IX], Ediciones Escurialenses, Real Monasterio de El Escorial-Madrid, 1996, pág. 643; cfr. CURTIUS, E. R.: Literatura europea y Edad Media Latina, Fondo de Cultura Económica, México, 1989, I, cap. XIL «Poesía y teología», pág. 305 ss.; SÁNCHEZ SALOR, E.: «Reflejo de la Biblia en la cultura profana latino-medieval», en Revista Agustiniana, XLIII [2002], págs. 127-128; cita en esta última página: «Dunque bene appare, non solamente la poesía essere teología, ma ancora la teología essere poesía» (texto de Boccaccio, que se encuentra también en Curtius, Ob. cit., pág. 322). ^ Para esos hebraístas y la suerte que corren, común con la de fray Luis, ver DI, en concreto la declaración de León de Castro: DI, X, págs. 7-9; también la declaración de Gaspar de Uceda: Ibid., págs. 24-26; insistencia de los mismos, pág. 260 ss. Las respuestas de fray Luis, Ibid., pág. 317 ss. Para los textos del proceso originales de fray Luís me serviré de Fray Luis de León, Escritos desde la cárcel. Autógrafos del primer proceso inquisitorial, edición y estudio por José BARRIENTOS GARCIA, Ediciones Escurialenses, Real Monasterio de El Escorial-Madrid, 1991 (citaré en adelante esta obra abreviando el título en EC). Las causas seguidas contra los otros dos hebraístas, en: PINTA LLÓRENTE, M. de la: Procesos inquisitoriales contra Gaspar Grajal, El Escorial-Madrid, 1935; ID.: Proceso criminal contra el hebraísta salmantino Martín Martínez de Cantalapiedra, Instituto Arias Montano, Madrid, 1946; para una visión de conjunto, ALCALÁ, A.: «Peculiaridad de las acusaciones a fray Luís en el marco del proceso a sus colegas salmantinos», en Fray Luis de León. Historia, Humanismo y Letras, eds. de Víctor García de la Concha y Javier San José Lera, Ediciones Universidad de Salamanca..., 1996, págs. 65-80. ^ La datación NC, que ñgura en el paréntesis, abrevia el título De los nombres de Cristo, lo que se mantiene en adelante. La edición por la que citaré los escritos en romance de fray Luis es la siguiente: Fray Luis de LEÓN: Obras completas castellanas, ed. de Félix García, O.S.A., BAC, Madrid, 1944. Incidiendo en los motivos que aparecen en el pasaje acotado, fray Luis denuncia el error en que se encuentran aquellos que,»ignaros de las Letras divinas», enseñan o gobiernan; y declara su intención de elaborar un escrito sobre el particular. Al recusar a determinados maestros como caliñcadores de su doctrina (aparte de los que pudieran estar afectados de alguna rivalidad contra él) da como razón lo siguiente: «En los demás teólogos que quedan fuera de los sobredichos hay algunos que no tienen la libertad que es menester para decir lo que sienten acerca de mi lectura de la Vulgata, por estar atemorizados con mi prisión y las demás que se han hecho debajo de este último; y otros que, aunque tienen el nombre de teólogos, no tienen las letras que se deben a aquel nombre, ni las que parecen ser necesarias para dar parecer acerca de mi doctrina» (EC, pág. 272). Ver NC, «Dedicatoria», pág. 385. ^^ La Reforma de Lutero removió las aguas en torno a cuanto se refería al Texto bíblico. Surgieron naturalmente cuestiones en torno a la versión Vulgata, cuya autenticidad sería sancionada en Trente. Entre tanto se ensayaban versiones más ajustadas a los originales. Tal fue el caso de la conocida como «Biblia de Vatablo». En ese agitado medio se verá envuelto fray Luis, quien, dada su formación, se implicará a fondo en los debates al caso. La documentación del proceso inquisitorial pone de manifiesto que sus opiniones sobre ese asunto de la Vulgata vinieron a ser las que más dañaron la favorable resolución de su causa. Para comprobarlo basta repasar los protocolos de dicha causa, incluyendo lo que toca a la «Biblia de Vatablo», con la revisión que se mandó hacer de la misma, en vistas a su posible impresión, en Salamanca (cfr. DI, X, passim; para la «Biblia de Vatablo» y, en general, para todo el enredo de la Vulgata, visto por la cara adversa, consultar la declaración de León de Castro (CI, X, págs. 7-18). GONZÁLEZ NOVALÍN, J. L.: «Inquisición y censura de Biblias en el Siglo de Oro. La Biblia de Vatablo y el proceso de fray Luis de León», en cit. Fray Luis de León. ^^ Ver las «Dedicatorias» a los tres libros De los nombres de Cristo y, en general, los «prólogos» a sus otros escritos. En esas páginas da cuenta de cuáles eran sus más personales preocupaciones, junto con los criterios y métodos de que usaba para tratarlas. ^^ Casos como, por ejemplo, el de H. G. GAD AMER. «Todo lo que hay que presuponer en la hermenéutica es únicamente lenguaje». Lema que Gadamer toma de Schleiermacher y que incluye en su obra Verdad y método (Ed. Fray Luis podría haber hecho suyo ese mismo lema (cfr. Con todo, y ante la caracterización del currículo formative de fray Luis, que se hace en el texto, no sobra insistir en que fue un titulado académico normal; cursó teología escolástica, impartida por maestros de prestigio, así como los estudios preparatorios para acceder a ella; la enseñó además durante varios años en las aulas, considerándose él mismo a la altura de cualquiera de sus competidores en ese campo. Mas nos recordará también que tales estudios, aunque necesarios, tienen valor sólo dentro de ciertos límites. (Sobre la indicada formación universitaria de fray Luis, ver BARRIENTOS GARCIA, J.: Fray Luis de León y la Universidad de Salamanca, Ediciones Escurialenses, Real Monasterio de El Escorial, Madrid, 1996; también BELL, Aubrey F.G.: Fray Luis de León, Un Estudio del Renacimiento español. Araluce, Barcelona, 1927.) ^^ Plática en la oposición a la cátedra de Biblia, 28 de noviembre de 1579, en Fray Luis de LEON: Epistolario. Cartas, licencias, poderes, dictámenes, ed. por José Barrientes García, Editorial Revista Agustiniana, Madrid, 2001, págs. 152-153. Muestras de los variados intereses intelectuales de fray Luis, en BELL, A. F. G.: Luis de León. Un estudio del Renacimiento español, Araluce, Barcelona, 1927, cap. XI. pág. 273 ss. Saturnino Alvarez Turienzo 510 «pone la verdad del cristianismo en la enseñanza de que el Hombre es Dios». Hombre escrito con mayúscula, que ahorra toda memoria previa de la verdad cristiana: la enseñanza de un Dios-hombre (BUENO, G.: El animal divino. Ensayo de una filosofía materialista de la religión. Si pasamos a otro de sus libros, la asociación se hace con Zubiri y K. Rahner, subrayando el factor genético emergente y problematizando cualquier presencia preveniente o sobre-veniente, con lo que la conexión gnóstica (cfr. En ese mismo libro reduce a «proceso cósmico de crecimiento» todo lo que puede decirse respecto a la doctrina del capítulo «Pimpollo» de los Nombres (p. Por lo demás, la doctrina de una «redención cósmica», abarcante de la creación entera, tuvo importantes defensores, ya desde la antigüedad cristiana, especialmente entre los Padres griegos (cfr. ^^ Ver los capítulos H y IV de La perfecta casada. ^^ Véase la contraposición que establece entre «poner ley» y «tener ley» (positiva/natural). «...Dar Ley puede acontecer en dos diferentes maneras. Una es la ordinaria y usada que vemos, que consiste en decir y señalar a los hombres lo que les conviene hacer o no hacer, escribiendo con pública autoridad mandamientos y ordenaciones de ello y pregonándolas públicamente. Otra es que consiste, no tanto en aviso como en inclinación; que se hace, no diciendo ni mandando lo bueno, sino imprimiendo deseo y gusto de ello. Porque el tener uno inclinación y prontitud para alguna otra cosa que le conviene, es ley suya de aquel que está en aquella manera inclinado, y así la llama la filosofía...» (NC, «Príncipe de la paz», pág. 613). Trasladada esa distinción al modo de gobernar, será igualmente de dos suertes. «Porque, como dice Platón, no es la mejor gobernación la de leyes escritas, porque son unas y no se mudan, y los casos particulares son muchos y que se varían, según las circunstancias por horas. Y así acaece no ser justo en este caso lo que en común se estableció con justicia; y el tratar con sola la ley escrita es como tratar con un hombre cabezudo por una parte y que no admite razón, y por otra poderoso para hacer lo que dice, que es trabajoso y fuerte caso. La perfecta gobernación es de ley viva, que entienda siempre lo mejor, y que quiere siempre aquello bueno que entiende» (NC, «Pastor», pág. 457). ^^ «Y cuando suben, como dicen, el agua por una torre, entonces se tienen por la misma prudencia y por el dechado de toda la buena gobernación...» Alusión al ingenio de Juanelo para elevar el agua del Tajo a la ciudad de Toledo. Con ironía parecida hace la crítica de otras empresas acometidas por los poderosos, entre ellas, por ejemplo, la de la construcción del Monasterio de El Escorial (cfr. Ese era el genio de fray Luis, compartido en la época por muchos hombres doctos. Recuérdese la negativa de aquella comisión de teólogos y hombres de letras a aprobar el proyecto de navegabilidad del Tajo sobre lo que el Rey Felipe II les pidió parecer. ^^ Para la descripción de ese cambio de mentalidad en los siglos medios, ver CHENU, M.D.: La théologie au douzième siècle, Vrin, París, 1957, pág. 323 Saturnino Alvarez Turienzo que puede y a eso es a lo que aspira la Filosofía, como sucedía en su propio eón con la Teología. Aquellos otros intentos, los de los Marcuses y Bloches (incluidos los teólogos que ofician liturgias religiosas consonantes con esas profanas) son figuraciones en lo relativo, sin otro alcance que el de sus particulares filosofías. Fray Luis diría de esos particularismos que pueden rendir cierto provecho, pero que, olvidados del que es su origen genuino, su verdadero radical, «no bastam» y, dejadas a sí mismas, serán perniciosas (NC, «Príncipe de la paz», págs. 607-611). (Ver la observación hecha en la nota 25).
Tres son las grandes preguntas que nos formulamos aquellos que nos dedicamos al estudio del Derecho Penal: cuál es el fundamento del derecho de castigar, qué contenido deben tener las leyes y qué interpretación debe darse a las normas para facilitar su aplicación. Una universidad casi ocho veces centenaria como la de Salamanca, que nació en torno al estudio del derecho -de ambos derechos: el de la Iglesia y el del Estado-ha tenido a lo largo de los tiempos como profesores de su claustro a figuras emblemáticas por la importancia de sus aportaciones a la respuesta a ese triple grupo de cuestiones. Este trabajo pretende revisar cuatro momentos históricos en los que en las aulas salmantinas se llevaron a cabo reflexiones que en buena medida condicionan todavía hoy el pensamiento jurídico penal español. Aunque el penalista aborde hoy los tres grupos de preguntas, el debate sobre las mismas surge en el tiempo por condicionantes histérico-políticos en el orden antes expuesto. Primero las interrogantes sobre el fundamento, después el estudio sobre el contenido de las leyes y, finalmente, la investigación sobre los criterios de aplicación de las mismas. El examen sucesivo de las tres nos permitirá aproximarnos también a la evolución del estudio del Derecho Penal con la inevitable referencia a la historia del viejo Estudio Salmantino. Ignacio Berdugo Gómez de la Torre aportación sobre el derecho de castigar contenida en De potestate legis penalis, sin duda su obra clave. La respuesta al por qué del derecho de castigar viene ligada necesariamente al origen adjudicado al poder soberano. La vinculación a la divinidad del poder del monarca conducía necesariamente a la identidad delito-pecado. Un comportamiento es delictivo porque es pecado, «quia pecatum est». Sobre este principio polemizan Alfonso de Castro y Martín de Azpilcueta. Disienten a propósito de la obligatoriedad moral o no de las leyes penales, pues esto parecía evidente en la apuntada identificación entre delito y pecado. En el marco de esta discusión apunta Alfonso de Castro la existencia de las denominadas «leyes meramente penales aquellas que contienen comportamientos cuya realización no supone una conducta pecaminosa, sino únicamente una desobediencia al poder del soberano». Se rompe con ello la identidad delito-pecado, lo que supone también un quiebre en el funcionamiento divino del origen del poder. La brecha abierta por estas consideraciones pueden hoy trasladarse a la relación ética-derecho en el ámbito de las conductas delictivas. Alfonso de Castro lleva a cabo también otras reflexiones generales sobre temas penales. Algunas de ellas todavía hoy son plenamente válidas; recuérdese su consideración del carácter subsidiario del Derecho Penal al afirmar gráficamente que sus normas son «las almenas y los cañones de los demás derechos». La Universidad y la enseñanza estaban en aquel tiempo fuertemente impregnadas por la religión. También, en buena medida, la vida política y las relaciones interestatales aparecían condicionadas por el hecho religioso. En este sentido, se producen en aquella época una serie de acontecimientos con trascendencia a medio y largo plazo sobre la historia de la Universidad. En 1492, año clave para la historia española -es el año de la conquista de Granada y del descubrimiento de América-, se lleva a cabo la expulsión de los judíos, cuya influencia era grande en la generación del saber en el Estudio Salmantino. La figura de Abraham Zacut, rabino, astrónomo y matemático, simboliza a todos los expulsados de forma sobrada. La Universidad, por otro lado, vive un momento de extraordinario auge, pues es la Universidad de la monarquía. Simbólicamente, alrededor del medallón de la fachada plateresca que contiene las figuras de los Reyes Católicos aparece la siguiente inscripción «La Universidad por los Reyes, los Reyes por la Universidad». La Universidad, pese a ello, mantuvo la autonomía de su pensamiento frente al poder real; recuérdese, sin más, la elaboración del derecho de gente por Francisco La Universidad de Salamanca y el estudio... de Vitoria. En aquel momento de auge esos privilegios del modelo salmantino eran espejo y aspiración para las fundaciones universitarias que se llevaban a cabo en la América recién descubierta; piénsese, por ejemplo, en el contenido de los documentos fundacionales de la Universidad Mayor de San Marcos (Perú). La Universidad de Salamanca es también la que tuvo como rectores, entre otros, al Conde Duque de Olivares y a D. Pedro Lagasca. Asimismo, constituía a través de sus cuatro Colegios Mayores la fuente clave para el personal que formaba la élite de la administración española. Sin embargo, en sentido opuesto, la intolerancia religiosa en la España de la contrarreforma comenzaba a oscurecer el horizonte universitario. En general no puede olvidarse la prohibición a todos los españoles en la época de Felipe II de cursar estudios en las universidades europeas o, en el Estudio Salmantino, la prisión inquisitorial de Fray Luis de León, el traductor del Cantar de los Cantares. El siglo XVIII se abre en España con la entronización de una nueva dinastía. La España de los Borbones va a asistir a un descenso imparable de su peso internacional y, en el ámbito universitario, a las primeras intervenciones directas de la Corona en la organización de las universidades, fruto de la influencia del Pensamiento Ilustrado. El sistema universitario, por entonces ya en total decadencia, es críticamente analizado por el ministro Jovellanos, pues ni su estructura ni el contenido de sus enseñanzas favorecían la difusión de las nuevas corrientes del saber en las aulas españolas, dificultado todo aún más por la intervención de la Santa Inquisición. Pese a ello, en América, las aulas universitarias eran en muchos casos cauce para las nuevas corrientes del pensamiento liberal que formarían los cuadros que protagonizarían años más tarde la Independencia. La segunda mitad del siglo XVIII trae de la mano de la Ilustración el cuestionamiento del origen del poder, materializando en la Revolución Francesa el primer gran momento de laicización del fundamento del derecho, al trasladar la soberanía de la divinidad al pueblo. Las declaraciones de derechos del hombre exteriorizan de forma clara el giro que comienza a experimentar el Estado, su fundamento y sus fines. En el ámbito del Derecho Penal las consecuencias del cambio comienzan a percibirse en el alegato contra el derecho de las monarquías absolutas Ignacio Berdugo Gómez de la Torre que supone el libro de Beccaría (traducido al español y prohibido por la Inquisición). En realidad, se abre un nuevo periodo de carácter general en el ámbito jurídico, el del Estado Liberal, que formalmente se vincula al imperio de una ley emanada de la voluntad popular, a la que se sujeta el propio soberano y que se exterioriza en la promulgación de constituciones. Estas últimas predican formalmente los derechos del hombre y la división de poderes y, además, se materializan en la elaboración de códigos que sustituyen a las viejas compilaciones. En este nuevo marco y en el campo del Derecho Penal, a la pregunta del por qué se añade como imperativo la concerniente al contenido de las leyes, la elaboración de códigos. A finales del siglo XVIII llega a Salamanca un aragonés, Ramón Salas, estudiante de doctorado, que había cursado estudios en San Carlos de Guatemala. Tras obtener el grado de Doctor en el Estudio Salamantino es nombrado rector del mismo y pasa a ocupar más tarde la cátedra de economía en la Facultad de Derecho, lo que era una novedad en el Viejo Estudio. Desde su cátedra Salas se vuelve el alma del Colegio de Filosofía, de sus reuniones y debates, y a través del mismo, es la persona clave que da entrada a las nuevas corrientes del pensamiento liberal. Ramón Salas tradujo del francés la obra de Jeremías Bentham, que defiende con entusiasmo Toribio Núñez, compañero de Claustro de la Facultad de Derecho y bibliotecario de la Universidad. La influencia de los libros de Bentham es decisiva tanto en la América hispana como en la España del siglo XIX, que dramáticamente comienza a debatirse entre absolutistas y liberales. Ramón Salas, al que Menéndez Pelayo califica de volteriano y descreído, fue denunciado en 1796 por un compañero de facultad, Poveda, ante la Inquisición. Procesado por el Santo Oficio, fue desterrado de Salamanca y Madrid y perdió su cátedra que nunca recuperó. Salas, que continúa su labor de traductor e introductor del pensamiento liberal hasta su fallecimiento bien entrado el siglo XIX, es la persona clave para la incorporación de las nuevas ideas a la universidad española a través de la Universidad de Salamanca. Políticamente, la obra de las Cortes de Cádiz en 1812 y, muy especialmente, la Constitución por ellas elaborada plasma por vez primera en España el Pensamiento Liberal. En las cortes gaditanas intervienen activamente muchos profesores salmantinos; no debe olvidarse que uno de ellos, Muñoz Torrero, antiguo rector, fue su primer presidente. La elaboración de los códigos aparece como imperativo en el texto constitucional, aunque en el ámbito penal no se plasmará hasta el La Universidad de Salamanca y el estudio... trienio liberal en 1822. La obra de Bentham, traducida y diñmdida desde Salamanca, fue clave en el contenido de este primer código. Baste con recordar el contenido de los informes elaborados por las distintas universidades -el de Salamanca, por cierto, obra de Toribio Núñez. En alguno de ellos, el de Sevilla, no se dudaba en calificar como «infalible» la obra del pensador inglés. El código de 1822, influido por Bentham -aunque si nos remitimos a la correspondencia que este mantuvo con el Conde de Toreno, no tanto como éste hubiera deseado-, tuvo una efímera vigencia en España. Poco tiempo después fue derogado con el regreso del absolutismo de la mano de los cien mil hijos de San Luis, aunque tuvo una importante influencia tanto en los posteriores códigos españoles como en muchos americanos. El siglo XIX en España es dramático, a la pérdida de peso internacional se une una crisis política, económica y cultural. España es un país atrasado y marcado por los enfrentamientos civiles. El sistema universitario se reduce, padeciendo los efectos de la desamortización. Ignacio Berdugo Gómez de la Torre historia, llega hasta 1995. Elaborada la ley, el estudio del derecho penal se materializa sólo en comentarios realizados por prácticos del derecho penal. Mediado el siglo, el progreso generalizado que se vive en Europa vinculado al auge de las ciencias experimentales abre un periodo de cientificismo con consecuencias en el ámbito jurídico. En el campo del estudio del Derecho, una vez dotada la legislación de la estabilidad que proporcionan los códigos, debe aplicarse el método científico, el de las ciencias experimentales, sobre esta realidad que son las normas. La consecuencia de esta situación es el positivismo jurídico, en el que la preocupación de los juristas deja de ser qué contenido deben tener las leyes penales para pasar a ser al examen de dicho contenido así como la creación de un sistema que facilite a los jueces su aplicación y reñierce la seguridad jurídica que esperan obtener los ciudadanos. El positivismo jurídico se instala en Alemania, y en menor medida en Italia, y no llega a las aulas españolas y salmantinas hasta las primeras décadas del siglo XIX. Paralelamente, la proyección del método de las ciencias experimentales sobre la realidad social e individual del delito, reabre las preguntas del filudamente del derecho de castigar y del contenido que deben tener las leyes penales. En la España de la Restauración, este último positivismo, el criminológico, se mezcla con componentes que vienen del pensamiento correccionalista y tiene su máximo representante en un profesor salmantino, Pedro Dorado Montero. Este se incorpora a la cátedra en 1893, a la vez que lo hace un joven profesor de Griego, Miguel de Unamuno. La biografía universitaria de Dorado Montero, defensor de un pensamiento laico en una universidad que no lo era y con una obra que supone una isla en el desolado panorama universitario de entonces, es todavía un ejemplo para todos los que profesamos en las aulas salmantinas. Dorado parte de un estado intervencionista y construye un Derecho Penal que, en cuanto genera consecuencias favorables para ese enfermo no libre que es el delincuente, se torna en derecho protector de los criminales. Con ello traslada de alguna manera al Derecho Penal la relación médico (el juez) / paciente (el delincuente). Construye un sistema utópico, lo que ha sido calificado por los estudiosos de su obra como «la utopía penal de Dorado Montero». Dorado abre, además, otra vía en la doctrina penal española con un importante trabajo como traductor de los más relevantes autores La Universidad de Salamanca y el estudio... italianos y alemanes de la época. Pedro Dorado Montero tuvo influencia sobre toda la doctrina española, aunque su sistema utópico, al igual que el de los positivistas criminológicos, no tuvo una proyección directa sobre las normas penales, pues las garantías vinculadas al estado liberal de derecho se tornan irrenunciables, como dramáticamente pone de manifiesto la historia de nuestros pueblos. La obra de Dorado influye en los primeros trabajos de Jiménez de Asúa, en especial en su tesis doctoral «la sentencia indeterminada». Luis Jiménez de Asúa es el autor clave para el inicio y diñisión de la aplicación del método de las ciencias experimentales al estudio del Derecho Penal. La dogmática comienza a estudiarse en los países de habla hispana a través de la primera traducción y notas del Tratado de Von Liszt, que lleva a cabo Jiménez de Asúa, junto con Saldaña. Más tarde es muy relevante su discurso de apertura en la Universidad Central y toda su obra y magisterio a ambos lados del Atlántico. Junto a la aportación de Luis Jiménez de Asúa es decisiva, para la evolución de la dogmática en España, la traducción y notas que lleva a cabo Rodríguez Muños del Tratado de Mezger. De alguna forma, en mayor o menor medida, todos hemos bebido en esas fuentes. Al final de la década de los años veinte se incorpora a la cátedra salmantina de Derecho Penal, un joven profesor madrileño, José Antón Oneca, que años más tarde, en 1949, publicaría una parte general de Derecho Penal que es clave en la docencia española. Este libro sólido y claro marca una época en el estudio del Derecho Penal y condiciona durante décadas la práctica de los tribunales españoles. Antón tiene, además, estudios muy relevantes sobre diversos delitos de la parte especial, los fines de la pena o la historia de la codificación española. Gran parte de la doctrina española, en mayor o menor medida, somos discípulos de José Antón Oneca. Antón Oneca es, sin lugar a dudas, una figura clave para entender el actual desarrollo y nivel del Derecho Penal Español. Pero además, la vida académica de Antón Oneca es reveladora de toda una época. Tal como he apuntado, se incorpora muy joven a la cátedra de Salamanca. Con la llegada de la Segunda República pasa a desempeñar un puesto de magistrado del Tribunal Supremo, donde deja su huella con la incorporación, por ejemplo, de la entonces novedosa Teoría de la causalidad adecuada. Finalizada la guerra es depurado, pierde la Ignacio Berdugo Gómez de la Torre cátedra, sufre trabajos forzados y empieza a vivir lo que se ha llamado el exilio interior. Años más tarde, recuperada la cátedra salmantina, permanece en Salamanca hasta los años sesenta, cuando pasa a la Universidad Complutense. Jubilado y respetado por todos, en un último guiño de la historia, muere el 23 de febrero de 1981. Antón dejó huella en Salamanca, en su universidad y en toda la universidad española. Hoy paralelamente a la recuperación de la democracia, la universidad española ha recuperado su autonomía. La universidad, y muy simbólicamente la de Salamanca, poco tiene que ver con la que hace un siglo presidía Unamuno, tanto en dimensión cuantitativa como cualitativa, en presencia nacional y en relaciones internacionales. Ha sido, sin duda, un cambio paralelo al que ha experimentado España. De igual manera, aquel viejo Código Liberal de 1848 ha sido sustituido en 1995 por el denominado Código Penal de la Democracia. Hoy, los estudiosos de Derecho Penal continuamos intentando responder a las tres preguntas con las que inicié esta breve exposición: por qué el derecho de castigar, qué contenido deben tener las leyes y cómo debemos aplicarlas. Las tres preguntas sirven de marco, creo, a todas las interrogantes que un penalista debe continuar planteándose. ^ Texto del discurso de recepción de Doctorado Honoris Causa por la Universidad Nacional Mayor de San Juan Marcos, Lima (julio 2002).